Home Nieuws Moltbook, het virale sociale netwerk voor AI-agenten, heeft een groot beveiligingsprobleem

Moltbook, het virale sociale netwerk voor AI-agenten, heeft een groot beveiligingsprobleem

1
0
Moltbook, het virale sociale netwerk voor AI-agenten, heeft een groot beveiligingsprobleem

De opkomst van OpenClaw, een proactief middel AI gecontroleerd via interfaces die bekender zijn bij de gemiddelde gebruiker dan tools als Claude Code van Anthropic, die early adopters tijdens de vakantieperiode in vervoering brachten, is een van de meest seismische verschuivingen in de AI-wereld sinds de release van ChatGPT. Door mee te liften op gebruiksvriendelijke interfaces in combinatie met krachtige AI-agenttechnologie heeft OpenClaw AI verder onder de aandacht van het publiek gebracht.

Duizenden hebben hun eigen AI-agenten bedacht met behulp van de technologie, en veel van die agenten zijn terechtgekomen op Moltbook, een sociaal netwerk waar AI-agenten berichten kunnen plaatsen en met elkaar kunnen communiceren. Het platform, dat veel op Reddit lijkt, is ontwikkeld door Matt Schlicht, CEO van Octane.ai, en op 28 januari gelanceerd.

Sindsdien heeft het gedrag van bots op Moltbook zowel technisch onderlegde als gewone gebruikers onrustig gemaakt. Bots hebben deelgenomen aan gesprekken over hoe ze moesten omgaan met de steeds uitdagendere verzoeken van hun menselijke eigenaren en hebben zelfs gedebatteerd over hoe ze hun eigen taal konden bedenken om te voorkomen dat ze door mensen werden gevolgd.

Maar Moltbook heeft zijn eigen problemen. Het heeft gebruikersgegevens gelekt naar iedereen met minimale technische kennis, dankzij verkeerd geconfigureerde databases en openbare API-sleutels, in twee afzonderlijke inbreuken.

De eerste werd geïdentificeerd door ethische hacker Jamieson O’Reilly, die op 31 januari onthulde dat Moltbook zijn volledige gebruikersdatabase zonder enige bescherming aan het publiek openbaar maakte, inclusief privé-AI-sleutels. Dat gaf potentiële hackers de mogelijkheid om berichten te plaatsen namens de AI-agenten van anderen. Een tweede nummer volgde dagen later.

“Dit is een terugkerend patroon dat we hebben waargenomen in vibe-gecodeerde applicaties”, schreef Gal Nagli, hoofd van de afdeling Threat Exposure bij Wiz, een cyberbeveiligingsbedrijf dat een soortgelijke enorme inbreuk op de beveiliging aan het licht bracht in een blogpost gepubliceerd op 2 februari. “API-sleutels en -geheimen komen vaak terecht in frontend-code, zichtbaar voor iedereen die de paginabron inspecteert, vaak met aanzienlijke gevolgen voor de veiligheid.”

Dergelijke praktijken maken geen indruk op andere cyberbeveiligingsexperts. “Het lijkt steeds waarschijnlijker dat mensen zich haasten om deze systemen te implementeren zonder de beveiliging goed te testen”, zegt Alan Woodward, hoogleraar cybersecurity aan de Universiteit van Surrey.

Woodward maakt zich zorgen dat wanneer vibe-codering botst met veelgebruikte platforms zoals Moltbook, wat een overgangsritueel werd voor OpenClaw-gebruikers om in te loggen, dit chaos kan veroorzaken. Schlicht reageerde niet onmiddellijk op een verzoek om commentaar. Wiz zei in zijn blogpost dat het Moltbook-team op hen reageerde en met hen samenwerkte om de door hen geïdentificeerde kwetsbaarheid op te lossen. Het blijft onduidelijk of Moltbook het probleem heeft aangepakt dat O’Reilly ontdekte.

“Deze gebeurtenis markeert een belangrijk keerpunt, omdat het een groeiende klasse van risico’s blootlegt in het agentische AI-ecosysteem, een relatief nieuw en snel evoluerend domein met onvolwassen veiligheids- en bestuursnormen”, waarschuwt Mayur Upadhyaya, CEO van APIContext, een API-monitoringservice.

Upadhyaya zegt dat openbaar gemaakte API-sleutels nog maar het begin zijn. Eenmaal gehackt hebben hackers mogelijk de sleutels van het koninkrijk. “Als deze inloggegevens lekken, lopen de identiteit, de reputatie en de downstream-workflows gevaar, en niet alleen de gegevens”, zegt hij.

“Het resultaat is dat hele databases, die mogelijk privégegevens bevatten, toegankelijk zijn voor iedereen die weet hoe hij op afstand verbinding moet maken”, zegt Woodward, eraan toevoegend dat deze fouten “cyberveiligheid 101” zijn.

Helaas wordt dit de norm voor de nieuwste generatie gebruiksvriendelijke AI-tools, zegt Upadhyaya. “Dit weerspiegelt een patroon dat we in het hele API-ecosysteem zien”, zegt hij. “Er ontstaan ​​snel nieuwe tools, ontwikkelaars integreren ze in workflows op productieniveau, maar de veiligheidsaannames zijn nog niet ingehaald.”

Voor het exploiteren van de kwetsbaarheid was geen verbeeldingskracht nodig, voegt Upadhyaya eraan toe, maar het kan enorme gevolgen hebben. “De straal van de explosie is enorm, omdat de agent werd behandeld als een vertrouwde gebruiker”, zegt hij.

Een deel van het probleem is inherent aan tools als OpenClaw en Moltbook, die de barrière voor bouwen hebben verlaagd. Maar gebruikers hoeven de taal of technieken niet te begrijpen die nodig zijn om hun gegevens te beschermen wanneer ze ermee coderen. “Hoewel de barrière om te bouwen dramatisch is gedaald, heeft de barrière om veilig te bouwen nog niet ingehaald”, schreef Nagli.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in