De Alibaba-stand op de World Artificial Intelligence Conference in het Shanghai World Expo Exhibition Centre in Shanghai, China, op 5 juli 2024.
Nurfoto | Nurfoto | Getty-afbeeldingen
Terwijl de Amerikaanse markten zich hebben gefocust op de impact van Anthropic en Altruist’s tools op software en financiële diensten hebben de Chinese technologiegiganten deze week AI-modellen uitgebracht die vooruitgang laten zien op het gebied van robotica en videogeneratie.
AlibabaTikTok-maker ByteDance en kortevideoplatform Kuaishouhebben allemaal nieuwe AI-modellen uitgebracht die onderstrepen hoe Chinese bedrijven gelijke tred houden met die in de VS
Het komt na Google DeepMind-baas Demis Hassabis vertelde CNBC dat Chinese AI-modellen slechts “maanden” achterlopen op westerse rivalen.
Deze modellen uit China concurreren rechtstreeks met modellen voor het genereren van video’s zoals OpenAI’s Sora, maar ook met robotmodellen van Nvidia En Googlen.
Hier is een overzicht van de modellen.
Alibaba’s RynnBrain
Alibaba’s DAMO-academie onthulde RynnBrain deze weekeen AI-model dat is ontworpen om robots te helpen de fysieke wereld om hen heen te begrijpen en objecten te identificeren.
In een videodemonstratie liet Alibaba een robot zien met een tang als hand, die sinaasappelen leek te kunnen tellen, oppakken en in een mandje plaatsen. Er werd ook getoond dat hij melk uit een koelkast haalde.
Modellen vereisen uitgebreide training om ze in staat te stellen alledaagse voorwerpen te identificeren om mee te communiceren, wat betekent dat eenvoudige taken zoals het oppakken van fruit een uitdaging kunnen zijn in de robotica.
RynnBrain plaatst Alibaba nu in concurrentie met onder meer Nvidia En Googlen die hun eigen AI-modellen voor robots ontwikkelen.
“Een van de belangrijkste innovaties is het ingebouwde tijd- en ruimtebewustzijn”, vertelde Adina Yakefu, onderzoeker bij Hugging Face, aan CNBC.
“In plaats van eenvoudigweg te reageren op onmiddellijke input, kan de robot onthouden wanneer en waar gebeurtenissen hebben plaatsgevonden, de voortgang van de taak volgen en meerdere stappen doorlopen. Dit maakt hem betrouwbaarder en coherenter in complexe, realistische omgevingen.”
Yakefu voegde eraan toe dat Alibaba’s “bredere ambitie” was om “een fundamentele intelligentielaag voor belichaamde systemen op te zetten.”
Seedance 2.0 van ByteDance
Seedance 2.0 is een AI-model voor het genereren van video’s dat in staat is om een realistische video te genereren op basis van slechts een tekstprompt van een gebruiker. Maar prompts kunnen ook andere video’s en afbeeldingen bevatten.
Video’s gemaakt met Seedance 2.0 en beoordeeld door CNBC lijken behoorlijk realistische beelden te tonen en video’s die volledig met AI zijn gemaakt.
Billy Boman, gevestigd in Stockholm, Zweden, en runt een creatief reclamebureau dat door AI gegenereerde inhoud produceert, heeft Seedance 2.0 gebruikt.
Hij zei dat de AI-videogeneratie de afgelopen twee jaar aanzienlijke vooruitgang heeft geboekt, met snelle verbeteringen in de hele branche.

“In 2023 was het moeilijk om iemand te laten rennen of lopen. Elke vorm van realisme was (beperkt tot) zeer korte clips, alles was erg traag, slechte texturen, geen huidtexturen, gebrek aan details. Nu is het script omgedraaid. Nu kan ik alles doen. Het was niets minder dan uitzonderlijk, de technologische vooruitgang”, vertelde Boman in een interview aan CNBC.
Hugging Face’s Yakefu voegde eraan toe dat het Seedance 2.0-model vooruitgang heeft laten zien ten opzichte van eerdere generaties op het gebied van “beheersbaarheid, snelheid en productie-efficiëntie.”
“Seedance 2.0 is een van de meest complete modellen voor het genereren van video’s die ik tot nu toe heb getest. Het verraste me oprecht door bij de eerste poging bevredigende resultaten op te leveren, zelfs met een eenvoudige prompt. De beelden, muziek en cinematografie komen samen op een manier die eerder gepolijst dan experimenteel aanvoelt, “zei Yakefu.
Hoewel gebruikers de technologie hebben geprezen, is Seedance echter in de problemen gekomen. Lokale Chinese media gemeld dat Seedance een functie heeft opgeschort waarmee de AI de stem van een persoon kon genereren op basis van een foto die ze hadden geüpload. Het kwam nadat een blogger in China zijn zorgen had geuit over het genereren van stemmen zonder toestemming.
ByteDance was niet onmiddellijk beschikbaar voor commentaar toen CNBC contact opnam.
Kuaishou’s Kling 3.0
Kuaishou’s Kling 3.0, die vorige week werd uitgebracht, is een ander videogeneratiemodel dat kan wedijveren met dat van ByteDance.
Kling 3.0 “biedt belangrijke verbeteringen op het gebied van consistentie, fotorealistische uitvoer, langere videoduur tot 15 seconden en native audiogeneratie in meerdere talen, dialecten en accenten.
Het model is alleen beschikbaar voor betalende abonnees, maar zal binnenkort ook voor het publiek beschikbaar zijn, zei Kuaishou.
Het succes van Kuaishou met zijn Kling-modellen was een sleutelfactor achter de koersstijging van ruim 50% in het afgelopen jaar.
Kuaishou-aandelen year-to-date
Andere belangrijke releases van AI-modellen
Zhipu AI – die handelt als Kennis Atlas Technologie in Hong Kong – zag het aandelen zijn donderdag flink gestegen nadat het GLM-5 had uitgebracht, een open-source groottaalmodel met verbeterde codeermogelijkheden en langlopende agenttaken.
Het bedrijf zei het model benadert Anthropic’s Claude Opus 4.5 in codeerbenchmarks, terwijl het in sommige tests Google’s Gemini 3 Pro overtreft. CNBC kon deze beweringen niet verifiëren.
Aandelen van MiniMax sprong er donderdag ook achteraan lanceerde zijn bijgewerkte M2.5 open-sourcemodel met verbeterde AI-agenttools. ‘Agenten’ of ‘agentische AI’ verwijzen naar AI-tools die zijn ontworpen om taken te automatiseren.
— Anniek Bao en Dylan Butts van CNBC hebben bijgedragen aan dit rapport.



