Home Nieuws De enorme inzet van de AI-industrie op transformatormodellen is misschien niet genoeg...

De enorme inzet van de AI-industrie op transformatormodellen is misschien niet genoeg voor echte AGI

4
0
De enorme inzet van de AI-industrie op transformatormodellen is misschien niet genoeg voor echte AGI

Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.

Wedden de grootste AI-laboratoria op het verkeerde paard?

Groot AI Bedrijven zetten bijna al hun R&D- en kapitaaluitgaven in op het idee dat vooraf getrainde transformatormodellen AI kunnen leveren met algemene intelligentie op menselijk niveau. Deze aanpak leunt zwaar op terugpropagatiehet standaardalgoritme dat wordt gebruikt om diepe neurale netwerken te trainen.

Ben Goertzel, wie bedacht de term “AGI” met zijn boek uit 2005 Kunstmatige algemene intelligentie (geschreven in samenwerking met DeepMind-oprichter Shane Legg), is sceptisch. “De commerciële AI-industrie zet gewoon alles in op het kopiëren van GPT (generatieve, vooraf getrainde transformatoren) in verschillende permutaties, wat naar mijn mening een verspilling van middelen is, omdat al deze LLM’s ongeveer hetzelfde doen.”

“Als iets werkt, wil iedereen het aantal dat werkte verdubbelen of verdrievoudigen”, zegt hij. Maar deze concentratie van middelen rond één enkel paradigma kan riskant zijn. Transformer-modellen vereisen miljarden dollars aan rekenkracht om te trainen, samen met enorme voortdurende rekenkracht om te kunnen werken. Tot nu toe hebben grote AI-laboratoria nog steeds intelligentiewinst geboekt door het toevoegen van meer reken- en trainingsgegevens. Maar naarmate de modellen groter worden, worden die winsten steeds duurder, waardoor de mogelijkheid groter wordt dat de opbrengsten uiteindelijk de kosten niet langer rechtvaardigen. En omdat de financiële inzet zo hoog is, hebben laboratoria weinig ruimte om serieus te investeren in fundamenteel andere benaderingen.

Goertzel stelt dat schaal alleen niet voldoende is zonder de juiste onderliggende algoritmen. Volgens hem is een belangrijke beperking van transformatormodellen dat ze niet voortdurend kunnen leren van nieuwe ervaringen en hun interne parameters niet in realtime kunnen bijwerken zoals mensen dat doen. In plaats daarvan keren ze bij elke nieuwe interactie terug naar hun basisparameters, zonder zinvol te leren van eerdere uitwisselingen.

Onderzoekers van Google DeepMind, Microsoft en Ilya Sutskever’s Safe Superintelligence onderzoeken alternatieve neurale netwerkarchitecturen die continu leren mogelijk kunnen maken, zegt Goertzel. “DeepMind heeft een ongelooflijke diversiteit binnen hun AI-team” en beschikt over een “diepe ervaring” met alternatieve AI-paradigma’s, zegt hij.

Het resultaat is een AI-landschap waarin enorme computerbronnen grotendeels worden besteed aan het verfijnen van bestaande methoden in plaats van het nastreven van fundamenteel andere architecturen die wellicht beter geschikt zijn voor het soort generalisatie op menselijk niveau dat nodig is voor echte AGI. Goertzel blijft optimistisch dat AGI de komende jaren zou kunnen ontstaan, maar hij denkt dat dit waarschijnlijk een stap verder zal vereisen dan alleen het opschalen van de huidige LLM’s.

Sakana’s nieuwe agenten combineren de intelligentie van grensverleggende AI-modellen

Vorige week startte de in Tokio gevestigde Sakana AI heeft de bètaversie aangekondigd van zijn belangrijkste commerciële product, Sakana Fugu. De lancering volgt op een relatief rustig traject voor het bedrijf, dat in 2023 werd opgericht door Llion Jones, een van de negen uitvinders van transformatormodellen, samen met voormalig Google DeepMind-onderzoeker David Ha.

Fugu is een multi-agent orkestratiesysteem dat is ontworpen om meerdere frontier foundation-modellen, waaronder die van OpenAI, Google en Anthropic, te coördineren in één enkele collectieve intelligentie-engine. Binnen het systeem functioneren deze modellen als agenten die samenwerken aan complexe taken op het gebied van coderen, wiskunde en wetenschappelijk redeneren.

AI-systemen die meerdere modellen in een pijplijn combineren zijn niets nieuws, maar het toewijzen van taken aan specifieke modellen of het schakelen tussen deze modellen vereiste vaak handmatig toezicht. Fugu is ontworpen om deze modellen autonoom te orkestreren, samenwerkingstopologieën op te zetten en subtaken door te sturen naar het model dat het meest geschikt is voor een bepaald probleem.

Een ander belangrijk kenmerk is een lusmechanisme dat in werking treedt terwijl het systeem een ​​taak uitvoert. Als het vastloopt of er niet in slaagt een veelbelovend pad voorwaarts te identificeren, kan het die impasse herkennen, corrigerende workflows lanceren en iteratief naar een sterkere oplossing toewerken.

Door de sterke punten van diverse modellen te combineren, presteert Fugu volgens Sakana AI beter dan vergelijkbare systemen benchmarks voor de sector waaronder SWE-Pro, dat de prestaties van software-engineering in de echte wereld meet, en GPQA-D, dat wetenschappelijke redeneringen op universitair niveau evalueert.

Peter Thiel steunt een AI-startup die journalisten op feiten controleert

De invloedrijke VC Peter Thiel steunt een nieuwe startup genaamd Objection AI, wiens missie het is om “het vertrouwen in de Vierde Stand te herstellen.” Tenminste, zo heeft de CEO van het bedrijf het geformuleerd TechCrunch.

Objection AI wordt geleid door advocaat en ondernemer Aron D’Souza, die hielp bij het leiden van de door Thiel gesteunde rechtszaak die uiteindelijk failliete Gawker Media. Die juridische kruistocht volgde op een Gawker-artikel uit 2007 waarin Thiel als homo werd ontmaskerd. Hoewel Thiel Gawker destijds niet rechtstreeks aanklaagde, financierde hij in het geheim meerdere rechtszaken tegen de uitgever.

Als iemand gelooft dat de media schadelijke of valse beweringen over hem of haar hebben gepubliceerd, kan hij/zij Objection AI $2.000 betalen om een ​​door AI ondersteund onderzoek te starten. Het bedrijf zegt dat het een team van AI-modellen inzet om feiten te analyseren die zijn verzameld door crowdsourced ‘onderzoekers’, en uiteindelijk tot een oordeel komt dat is vormgegeven als een officieel certificaat. De uitspraak heeft geen wettelijke bevoegdheid, maar kan op grote schaal op sociale media worden verspreid als een instrument ter verdediging van de reputatie.

D’Souza stelt dat mediaorganisaties te gemakkelijk reputaties kunnen schaden, vooral wanneer berichtgeving zich baseert op anonieme bronnen en later onnauwkeurig blijkt te zijn. (En er schuilt inderdaad enige logica in die kritiek.) Bezwaar biedt klanten een mechanisme om de berichtgeving aan te vechten en een openbaar beoordelingsproces op gang te brengen, wat mogelijk een snellere reactie oplevert dan een langdurige rechtszaak wegens smaad.

Maar critici wijzen erop dat Objection meer kan doen om de waarheid te onderdrukken dan om desinformatie te bestrijden. Door journalisten onder druk te zetten om bronnen vrij te geven of klokkenluiders te ontmoedigen naar voren te komen, zou een dergelijk systeem een ​​huiveringwekkend effect kunnen hebben op de onderzoeksjournalistiek.

Het echte product hier is waarschijnlijk niet het objectief controleren van feiten. Het is waarschijnlijker dat het om een ​​database met geloofwaardigheidsscores van journalisten gaat die gebruikt kan worden om verslaggevers in diskrediet te brengen, rechtszaken te ondersteunen, bronnen te intimideren of machtige figuren een andere mogelijkheid te bieden om ongunstige berichtgeving aan te vechten. “Uw verslaggever heeft een geloofwaardigheidsscore van 62%” zou een krachtig gespreksonderwerp kunnen worden in een lasterzaak of PR-offensief. Bezwaar AI vermeldt al een aantal actieve onderzoeken op zijn website, en er is weinig transparantie over de vraag of deze kunnen uitmonden in rechtszaken, mogelijk gesteund door rijke belangen die achter de schermen opereren.

Namens journalisten overal ter wereld: veel dank aan Thiel en D’Souza voor hun onvermoeibare inspanningen om het vertrouwen van het publiek in de pers te herstellen. Dat doen nu VC’s en advocaten.

Meer AI-dekking van Snel bedrijf:

Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in