Home Nieuws Waarom 2026 behoort tot multimodale AI

Waarom 2026 behoort tot multimodale AI

3
0
Waarom 2026 behoort tot multimodale AI

De afgelopen drie jaar heeft AI’s ontsnappingsmoment is bijna volledig via tekst gebeurd. We typen een prompt, krijgen een antwoord en gaan naar de volgende taak. Hoewel deze intuïtieve interactiestijl chatbots van de ene op de andere dag tot een huishoudelijk hulpmiddel heeft gemaakt, schetst het nauwelijks de oppervlakte van wat de meest geavanceerde technologie van onze tijd daadwerkelijk kan doen.

Deze ontkoppeling heeft een aanzienlijke kloof gecreëerd in de manier waarop consumenten AI gebruiken. Hoewel de onderliggende modellen snel multimodaal worden – in staat om spraak, beeld en video in realtime te verwerken – gebruiken de meeste consumenten ze nog steeds als zoekmachine. Als ik naar 2026 kijk, geloof ik dat de volgende adoptiegolf niet alleen over nut zal gaan, maar over de ontwikkeling van statische tekst naar dynamische, meeslepende interacties. Dit is AI 2.0: niet alleen sneller informatie ophalen, maar intelligentie ervaren door middel van geluid, beeld, beweging en realtime context.

De adoptie van AI heeft een omslagpunt bereikt. In 2025 het wekelijkse gebruikersbestand van ChatGPT verdubbeld van ongeveer 400 miljoen in februari tot 800 miljoen aan het einde van het jaar. Concurrenten als Gemini en Anthropic zagen een vergelijkbare groei, maar toch communiceren de meeste gebruikers nog steeds voornamelijk met LLM’s via tekstchatbots. In werkelijkheid, Het Connected Consumer Survey van Deloitte laat zien dat ondanks dat meer dan de helft (53%) van de consumenten experimenteert met generatieve AI, de meeste mensen AI nog steeds delegeren aan administratieve taken zoals schrijven, samenvatten en onderzoeken.

Maar als je naar het digitale gedrag van consumenten buiten AI kijkt, is het duidelijk dat consumenten verlangen naar meeslepende ervaringen. Volgens Activeer de Tech & Media Outlook 2026 van Consulting, 43% van Generatie Z geeft de voorkeur aan door gebruikers gegenereerde platforms zoals TikTok en YouTube via traditionele tv of betaalde streaming, en ze besteden 54% meer tijd op sociale videoplatforms dan de gemiddelde consument, waarbij ze traditionele media verruilen voor interactieve sociale platforms.

Dit zorgt voor een fundamentele mismatch: consumenten leven in een multisensorische wereld, maar hun AI-tools blijven steken in het leveren van platte tekst. Hoewel de industrie deze kloof onderkent en investeert om deze te dichten, voorspel ik dat we een fundamentele verschuiving zullen zien in de manier waarop mensen AI gebruiken en creëren. In AI 2.0 zullen gebruikers niet langer eenvoudigweg door AI gegenereerde inhoud consumeren, maar in plaats daarvan multimodale AI gebruiken om stem, beeld en tekst samen te brengen, waardoor ze hun ervaringen in realtime kunnen vormgeven en sturen.

MULTIMODAL AI ONTGRENDELT MEESLEPENDE VERHALEN

Als AI 1.0 over efficiëntie ging, gaat AI 2.0 over betrokkenheid. Hoewel op tekst gebaseerde AI beperkt is in hoe diep het publiek kan worden betrokken, stelt multimodale AI de gebruiker in staat een actieve deelnemer te worden. In plaats van een verhaal te lezen, kun je communiceren met een hoofdpersoon en de plot in een nieuwe richting sturen, of je eigen wereld bouwen waarin verhalen en personages met je mee evolueren.

We kunnen de game-industrie ter waarde van 250 miljard dollar beschouwen als de blauwdruk voor het potentieel dat multimodale AI heeft. Videogames combineren beeld, audio, verhaal en real-time agency, waardoor een meeslepende ervaring ontstaat die traditioneel entertainment niet kan repliceren. Platforms zoals Roblox en Minecraft laten spelers inhoud bewonen. Roblox alleen bereikt meer dan 100 miljoen dagelijkse gebruikersdie gezamenlijk tientallen miljarden uren per jaar doorbrengen ondergedompeld in deze werelden; betrokkenheid die tekst alleen nooit zou kunnen genereren.

Met de opkomst van multimodale AI zullen gebruikers overal ter wereld dit soort ervaringen kunnen creëren waaraan ze graag deelnamen door middel van gaming. Door technische barrières weg te nemen, zorgt multimodal ervoor dat iedereen ervaringen kan opbouwen die niet alleen authentiek aanvoelen in de echte wereld, maar er ook actief aan deelnemen. Ook oudere media spelen in op deze trend. Onlangs Disney aangekondigd een investering van $1 miljard in OpenAI en een licentieovereenkomst waarmee gebruikers via het Sora-platform korte clips kunnen maken met personages uit Marvel, Pixar en Star Wars.

WAAROM MULTIMODAL AI KAN VEILIGER ZIJN VOOR JONGERE GEBRUIKERS

Nu AI onderdeel wordt van het dagelijks leven, is veiligheid – vooral voor jongere gebruikers – een van de meest kritieke problemen geworden waarmee de sector wordt geconfronteerd.

Door van chat met een open einde naar gestructureerde, multimodale werelden te gaan, kunnen we vangrails binnen de gameplay ontwerpen. In plaats van te vertrouwen op voortdurende ongestructureerde aanwijzingen, zijn deze omgevingen opgebouwd rond personages, beelden, stemmen en gedefinieerde verhaalwerelden. Interactie wordt geleid door de ervaring zelf. Die structuur verandert hoe en waar veiligheid in het systeem wordt ontworpen.

Educatieve AI demonstreert deze aanpak. Platforms zoals Khan Academy Kids en Duolingo combineren beeld, audio en gestructureerde aanwijzingen om het leerproces te begeleiden. De AI probeert niet alles te zijn; het concentreert zich goed op één taak. Naarmate multimodale AI evolueert, kan een van de meest betekenisvolle kansen het vermogen zijn om creatieve vrijheid in evenwicht te brengen met doordachte beperkingen. AI 2.0 presenteert een ontwerpverandering die bouwers, docenten en gezinnen nieuwe manieren zou kunnen bieden om veiligere, meer doelgerichte digitale ruimtes voor de volgende generatie vorm te geven.

WAAROM MULTIMODALE AI DE VOLGENDE GRENS IS

Ik voorspel dat consumenten in 2026 niet meer om AI zullen vragen; het wordt een meer meeslepende interactieve ervaring. Dit boeit mij omdat gebruikers niet alleen maar passief output ontvangen; ze zullen ervaringen actief vormgeven en beïnvloeden hoe AI in realtime evolueert. We zouden kunnen zien hoe gebruikers de laatste aflevering van hun favoriete tv-programma remixen, of hoe studenten geschiedenis leren, niet door een leerboek te lezen, maar door actief te debatteren over een historisch nauwkeurige AI-simulatie.

Voor oprichters en makers is de volgende stap om te stoppen met het bouwen van tools die alleen voor efficiëntie bedoeld zijn, en te beginnen met het bouwen van omgevingen voor onderdompeling en verkenning. De winnaars van de volgende cyclus zullen niet degenen zijn met de slimste modellen, maar degenen die AI minder als een nutsvoorziening laten voelen en meer als een bestemming voor rijke, interactieve ervaringen.

Karandep Anand is CEO van Character.AI

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in