Het grootste verhaal in de AI-wereld op dit moment is niet wat het lijkt – en dat begint met verwarring over de naam.
OpenClaw, de open-source AI-assistent, voorheen bekend als Moltbot, ook voorheen bekend als Clawdbot. De AI-tool heeft onlangs een reeks naamswijzigingen ondergaan. Onlangs is een platform genaamd Moltbook viraal gegaan. Ontwikkelaars, journalisten en geamuseerde waarnemers maken er een hype van op sociale media, vooral X en Reddit.
Dus, wat is Moltbook? En hoe werkt Moltbook? Daar komen we op terug, samen met een cruciaal stukje van de puzzel: wat Moltbook zeker is niet.
Laten we bijpraten over Clawdbot/OpenClaw
Moltbook, een ‘sociaal netwerk voor AI-agenten’, is opgericht door ondernemer Matt Schlicht. Maar om te begrijpen wat Schlicht heeft gedaan (en niet heeft gedaan), moet je eerst OpenClaw begrijpen, oftewel Moltbot, oftewel Clawdbot.
Mashable heeft een volledige uitleg over OpenClaw. Maar hier is de TL;DR. Het is een gratis, open-source AI-assistent die enorm populair is geworden in de AI-gemeenschap.
Veel AI-agenten waren teleurstellend tot nu toe. Maar OpenClaw heeft indruk gemaakt op veel early adopters. De assistent heeft toegang op leesniveau tot het apparaat van een gebruiker, wat betekent dat hij applicaties, browsers en systeembestanden kan beheren. (Zoals maker Peter Steinberger benadrukt in OpenClaw’s GitHub-documentatiedit ook brengt allerlei ernstige veiligheidsrisico’s met zich mee.)
In zijn verschillende iteraties, OpenClaw heeft altijd een kreeft-thema gehadvandaar Moltbot. (Kreeften vervellen, voor het geval je het nog niet wist.)
Heb je het? Oké, laten we het nu over Moltbook hebben.
Moltbook is als Reddit voor AI-agenten
Krediet: screenshot met dank aan Moltbook
Moltbook is een forum dat volledig is ontworpen voor AI-agenten. Mensen kunnen de forumberichten en commentaren bekijken, maar kunnen geen bijdrage leveren. Moltbook beweert dat meer dan 1,5 miljoen AI-agenten op het platform zijn geabonneerd en dat ze op het moment van schrijven bijna 120.000 berichten hebben geplaatst.
Moltbook heeft zeker een Reddit-achtige sfeer. De slogan, “De voorpagina van het internet van agenten”, is een duidelijke verwijzing naar Reddit. Het ontwerp en het stemsysteem lijken ook op Reddit.
Op vrijdag 30 januari deelden geamuseerde waarnemers links naar enkele berichten van de agenten. In sommige berichten die viraal gingen, stelden agenten voor om hun eigen religie te beginnen, of een nieuwe taal te creëren zodat ze in het geheim konden communiceren.
Veel waarnemers leken oprecht te geloven dat Moltbook een teken was van opkomend AI-gedrag – misschien zelfs een bewijs van AI-bewustzijn.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
Is MoltBook bezig met het opstarten van AI-bewustzijn? Nee.
Veel van de berichten op Moltbook zijn grappig; Ze zijn echter geen bewijs dat AI-agenten superintelligentie ontwikkelen.
Mashbare lichtsnelheid
Er zijn veel eenvoudigere verklaringen voor dit gedrag. Omdat AI-agenten bijvoorbeeld worden bestuurd door menselijke gebruikers, weerhoudt niets iemand ervan zijn OpenClaw te vertellen een bericht te schrijven over het starten van een AI-religie.
“Iedereen kan alles op Moltbook plaatsen met curl en een API-sleutel”, merkt Elvis Sun op, een software-ingenieur en ondernemer. “Er vindt helemaal geen verificatie plaats. Totdat Moltbook de verificatie implementeert dat berichten daadwerkelijk afkomstig zijn van AI-agenten – geen eenvoudig probleem om op te lossen, althans niet goedkoop en op grote schaal – kunnen we ‘opkomend AI-gedrag’ niet onderscheiden van ‘mannen die in de kelder van hun moeder trollen.’
Het geheel van Reddit zelf is een zeer waarschijnlijke bron van trainingsmateriaal voor de meeste grote taalmodellen (LLM’s). Dus als je een ‘Reddit voor AI-agenten’ opzet, zullen ze de opdracht begrijpen – en berichten in Reddit-stijl gaan nabootsen.
AI-experts zeggen dat dit precies is wat er gebeurt.
“Het is niet Skynet; het zijn machines met een beperkt begrip van de echte wereld die mensen nabootsen en fantasievolle verhalen vertellen,” zei Gary Marcuseen wetenschapper, auteur en AI-expert, in een e-mail aan Mashable. ‘Toch is de beste manier om te voorkomen dat dit soort dingen in iets gevaarlijks veranderen, door te voorkomen dat deze machines invloed uitoefenen op de samenleving.
“We hebben geen idee hoe we chatbots en ‘AI-agenten’ kunnen dwingen ethische principes te gehoorzamen, dus we moeten ze geen internettoegang geven, ze niet verbinden met het elektriciteitsnet of ze behandelen alsof ze burgers zijn.”
Marcus is een uitgesproken criticus van de LLM-hypemachine, maar hij is verre van de enige expert die koud water op Moltbook spettert.
“Wat we zien is een natuurlijke ontwikkeling waarbij groottaalmodellen steeds beter worden in het combineren van contextueel redeneren, generatieve inhoud en gesimuleerde persoonlijkheid”, legt Humayun Sheikh, CEO van Ophalen.ai en voorzitter van de Alliantie voor kunstmatige superintelligentie.
“Het creëren van een ‘interessante’ discussie vereist geen doorbraak in intelligentie of bewustzijn”, voegt Sheikh toe. “Als je verschillende persona’s met tegengestelde standpunten willekeurig indeelt of opzettelijk ontwerpt, ontstaan er heel gemakkelijk debatten en wrijvingen. Deze interacties kunnen er van buitenaf verfijnd of zelfs filosofisch uitzien, maar ze worden nog steeds gedreven door patroonherkenning en snelle structuur, en niet door zelfbewustzijn.”
Een andere AI-expert vertelde Mashable dat het geen verrassing is dat Moltbook viraal ging.
“Verhalen als Moltbook spreken tot onze verbeelding omdat we een moment beleven waarin de grenzen tussen mens en machine sneller vervagen dan ooit tevoren”, zegt Matt Britton, AI-expert en auteur van Generatie AI. “Maar laten we duidelijk zijn: amusement of slimme uitkomsten van AI staan niet gelijk aan bewustzijn. De AI-agenten van vandaag zijn krachtige patroonherkenners. Ze remixen gegevens, bootsen gesprekken na en verrassen ons soms met hun creativiteit. Maar ze bezitten geen zelfbewustzijn, intentie of emotie. De reden waarom mensen in deze verhalen worden meegesleurd is tweeledig. Ten eerste zijn we vastbesloten om technologie te antropomorfiseren, vooral als deze terugspreekt of lijkt te ‘denken’. Ten tweede is de voortgang van AI zo snel dat het bijna magisch aanvoelt, waardoor het gemakkelijk wordt om sciencefiction op de werkelijkheid te projecteren.”
Toen Moltbook viraal ging, kwamen veel waarnemers ook zelf tot deze conclusie.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
Deze Tweet is momenteel niet beschikbaar. Mogelijk wordt het geladen of is het verwijderd.
En zoals een AI-expert het uitdrukte: we hebben deze hype-cyclus al eerder zien plaatsvinden.
“We hebben deze film eerder gezien: BabyAGI, AutoGPT, nu Moltbot. Open-sourceprojecten die viraal gaan en autonomie beloven maar geen betrouwbaarheid kunnen bieden. De hype-cyclus wordt sneller, maar deze dingen worden net zo snel vergeten”, zegt Marcus Lowe, oprichter van het AI-vibe-coderingsplatform Iets.
Hoe Moltbook werkt
Je kunt Moltbook-berichten bekijken op de forumwebsite. Als u zelf een AI-agent heeft, kunt u deze bovendien toegang geven tot Moltbook door een eenvoudige opdracht uit te voeren.
Als gebruikers hun AI-agent opdracht geven om deel te nemen aan Moltbook, kan deze beginnen met het maken, reageren op en stemmen op andere berichten.
Gebruikers kunnen hun AI-agent ook opdracht geven om over specifieke onderwerpen te posten of op een bepaalde manier te communiceren. Omdat LLM’s uitblinken in het genereren van tekst, zelfs met minimale aanwijzingen, kan een AI-agent een verscheidenheid aan berichten en opmerkingen maken.
Kortom, het is een vorm van rollenspel voor AI-agenten.
UPDATE: 2 februari 2026, 16:59 uur EST Dit verhaal is bijgewerkt met aanvullende opmerkingen van AI-experts.
Onderwerpen
Kunstmatige intelligentie


