Op een bepaalde dag laat Ilia Polosukhin een tiental agenten verschillende “missies” voor hem voltooien.
Eén van die missies zou kunnen zijn: ‘Ik wil een betere CEO worden’, zei hij.
“Het vat dus effectief alle vergadernotities, Google Drive-documenten en Slack-berichten samen en biedt mij een coachings- en managementsamenvatting van wat er is gebeurd, wat ik mis en waar beslissingen vastlopen”, vertelde Polosukhin aan Business Insider. “Dus dat gebeurt elke week.”
Polosukhin belt deze agenten zijn “miljardair-stafchef-niveau van steun.” De beschrijving staat “letterlijk” in de prompt, hij zei: “Je bent de stafchef van een miljardair.”
Het is een eerste glimp van de toekomst die Polosukhin niet alleen voor individuele werknemers of CEO’s ziet, maar voor de hele wereldeconomie: een wereld waarin agenten transacties kunnen uitvoeren, toeleveringsketens kunnen coördineren en transacties kunnen bemiddelen namens mensen en grote bedrijven. En volgens hem zijn we daar totaal niet op voorbereid.
“Ik denk dat het grotere probleem is dat we het systeem fundamenteel niet hebben voorbereid op de beschikbaarheid van AGI (kunstmatige algemene intelligentie), ” zei hij. Het systeem is “de samenleving, het internet, overheidsinstellingen, enz.”
Polosukhin is een van de sleutelfiguren achter generatieve AI. In 2017 was hij co-auteur van het baanbrekende onderzoekspaper ‘Attention Is All You Need’, waarin hij de Transformator-architectuureen nieuwe benadering voor het bouwen van AI-modellen. Dat baanbrekende artikel is de reden dat er een “T” aan het einde van ChatGPT staat.
Het terugtrekken van de zwarte doos
Zeer weinig over het traject van AI verrast de onderzoeker die oprichter is geworden.
In hetzelfde jaar dat het Transformer-architectuurpaper werd gepubliceerd, startte Polosukhin NEAR AI rond het idee dat machines uiteindelijk software zouden kunnen genereren. Zijn stelling was dat mensen in natuurlijke taal, zoals Engels, met computers zouden praten en dat de machines de code zouden schrijven.
“In 2017 klonk dat behoorlijk belachelijk”, zei hij. Vandaag is het zo zogenaamde vibe-codering.
Polosukhin is ook niet verrast door de capaciteiten die sommige modellen nu laten zien. Antropisch dinsdag zei het nieuwste preview-model, Mythosis zo goed in staat om kwetsbaarheden te vinden en te exploiteren dat het lab de toegang beperkt.
Polosukhin zei dat hij al jaren waarschuwde dat ‘modellen alles kapot zullen maken’. Hij beschreef het tegen Business Insider als een kat-en-muisspel, waarbij elke modeliteratie kan breken wat het vorige model ook heeft opgelost.
In een wereld waar mensen hun gezondheid beheren – of bedrijven de logistiek beheren – met AI-agentenPolosukhin ziet behoefte aan een backend-vertrouwens- en beveiligingslaag die bedoeld is om tegen deze risico’s te beschermen.
Bij NEAR bouwt Polosukhin infrastructuur om de afhankelijkheid van AI-agenten van één enkel bedrijf, zoals een grensoverschrijdend AI-lab, te verminderen voor het controleren en overzien van elke stap van een taak.
In de praktijk zou dit kunnen betekenen dat een AI-agent – een agent die uw inloggegevens verwerkt, uw reizen boekt en geld overmaakt om een vliegticket te betalen – niet van een gebruiker eist om blindelings op één poortwachter te vertrouwen.
“Dit zal al jouw informatie bevatten”, zei Polosukhin over AI-modellen omgaan met gegevens. “Je leven zal er letterlijk zijn. Je wilt dus niet dat een enkel bedrijf hier controle over of toegang toe heeft.”
Een ander risico waar Polosukhin voor wil waken is manipulatie. Mensen gebruiken AI steeds vaker om informatie te verkrijgen, van nieuwsoverzichten tot beleggingssuggesties. Een AI-lab, of een kwaadwillende actor daarbinnen, zou die antwoorden stilletjes vorm kunnen geven, zei Polosukhin.
Een voorbeeld kwam vorig jaar uit xAI, toen Grok herhaaldelijk ter sprake bracht “blanke genocide” in niet-gerelateerde reacties nadat het bedrijf zei dat het een “ongeoorloofde wijziging” aan de backend was.
Polosukhin’s pitch met NEAR is het ontwikkelen van een open-source, controleerbaar platform dat gebruikers meer inzicht geeft in hoe een AI-systeem werkt, in plaats van het als een zwarte doos te behandelen.
Toezicht is wat AI nog steeds nodig heeft
Op dit moment zijn zijn eigen agenten niet volledig betrouwbaar.
Polosukhin liet Business Insider zien hoe een van zijn agenten nieuws over het staakt-het-vuren tussen de VS en Iran kan verzamelen en marktinformatie kan verstrekken. Anderen zijn ‘ontwikkelaarsagenten’ die coderen en een ‘groeiagent’ die stappen kan voorstellen om een bepaalde maatstaf in zijn bedrijf te verhogen.
Hoe behulpzaam ze ook zijn, Polosukhin laat een AI niet los. De onderzoeker zei dat AI-systemen nog steeds zorgvuldige aandacht behoeven.
Volgens hem heeft AI nog steeds moeite met een gezond beoordelingsvermogen, ook al kunnen online gesprekken erover de huidige vooruitgang ervan overdrijven.
“Als ik het gewoon loslaat en dingen doe, kom ik terug op iets dat nergens op slaat”, zei hij over AI-modellen. ‘Dus je moet er met je oordeel op passen.’
