Het is zeldzaam om een Ik heb video model dat niet het technologische equivalent is van een gesloten zwarte doos, en het is zelfs nog zeldzamer om een videomodel te zien dat voldoende is geoptimaliseerd om lokaal op uw apparaten te draaien in plaats van te vertrouwen op cloudgebaseerde services. Lightricks-2, een nieuw AI-modelvideo gebouwd in samenwerking met Nvidia, kan beide doen.
Lightricks debuteerde het model bij Nvidia bij CES 2026een van de grootste technologiebeurzen. Nvidia toonde ook een aantal AI-aangedreven en volgende generaties software-updates voor gamersinclusief een agentassistent, een onderwijsadviseur en een AI-upscaler voor vloeiendere, beter gedefinieerde graphics.
Bekijk dit: Elke aankondiging van de Nvidia Live CES 2026-stream
Het nieuwe model van Lightricks zal AI-clips kunnen maken die tot 20 seconden lang zijn, 50 frames per seconde – dat is aan de langere kant van het spectrum van de AI-videomogelijkheden in de industrie. Het model zal ook native audio bevatten. De mogelijkheid om in 4K te genereren zal van cruciaal belang zijn voor makers die het nieuwe model willen gebruiken voor professionele projecten. Maar het zijn de mogelijkheden op het apparaat die het nieuwe model echt onderscheiden van concurrenten Google zie ik 3 En Sora van OpenAI.
Het model is gebouwd met professionele makers in gedachten, of het nu gaat om individuele filmmakers of grote studio’s. De focus op de kwaliteit van de clip, samen met de optimalisaties op het apparaat, heeft tot doel het een van de aantrekkelijkere en veiligere opties te maken voor makers die geneigd zijn tot AI.
Voor meer informatie over hardware van CESuitchecken HP’s nieuwe IT-vriendelijke zakelijke laptops En AMD’s snelle mobiele processors.
Wat is er anders aan het nieuwe model van Lightricks?
Wanneer AI-bedrijven het hebben over ‘open’ modellen, bedoelen ze daar doorgaans mee AI-modellen met open gewicht. Deze modellen zijn niet echt open source, waardoor elk onderdeel van het proces openbaar moet worden gemaakt. Maar ze geven ontwikkelaars wel inzicht in hoe het model is gebouwd. De gewichten zijn als ingrediënten in een cake; Modellen met open gewicht vertellen je alle ingrediënten die in het beslag zijn gegaan, maar je weet niet de exacte afmetingen van elk. Het model van Lightricks heeft een open gewicht en is nu beschikbaar op HuggingFace en ComfyUI.
Dit is een voorbeeld van het detailniveau in LTX-2 AI-video’s.
Het nieuwe videomodel van Lightricks kan ook worden uitgevoerd lokaal op uw apparaten. Normaal gesproken is dit niet het geval bij AI-video. Het genereren van zelfs korte AI-videoclips is een zeer rekenintensief proces, en daarom zijn er ook videomodellen meer energie gebruiken dan andere AI-tools. Om de beste resultaten te krijgen met de meeste AI-videogeneratoren, heb je datacentercomputers nodig die door Google of OpenAI worden gebruikt om het zware werk te doen en je video’s in de cloud te genereren in plaats van op je laptop of telefoon. Met de RTX-chips van Nvidia kunt u hoogwaardige resultaten behalen zonder de werklast uit te besteden aan een cloudservice.
Er zijn veel voordelen verbonden aan het lokaal uitvoeren van AI-modellen. U heeft de controle over uw gegevens; je hoeft het niet te delen met grote technologiebedrijven die het kunnen gebruiken om hun eigen AI-modellen te verbeteren. Dat is een uiterst belangrijke factor voor grote entertainmentstudio’s duiken in generatieve AI Maar hun intellectuele eigendom moeten beschermen rechten. Het uitvoeren van AI-modellen op uw apparaat, met de juiste apparatuur, kan u ook sneller resultaten opleveren. Het genereren van de gemiddelde AI-videoprompt duurt 1 tot 2 minuten, dus het verminderen ervan kan tijd en geld helpen besparen, wat twee van de sterkste argumenten zijn voor videomakers om AI in hun werk te integreren.
Kijk voor meer informatie op de AI-notitiering breidt de AI-wearable-industrie uit en de nieuwe Gemini-functies komen naar Google TV-apparaten.


