Volg ZDNET: Voeg ons toe als voorkeursbron op Google.
De belangrijkste conclusies van ZDNET
- Moltbot, voorheen bekend als Clawdbot, is viraal gegaan als een ‘AI die daadwerkelijk dingen doet’.
- Beveiligingsexperts hebben gewaarschuwd om niet mee te doen aan de trend en de AI-assistent niet zonder voorzichtigheid te gebruiken.
- Als u van plan bent Moltbot zelf uit te proberen, houd dan rekening met deze beveiligingsproblemen.
Clawdbot, nu omgedoopt tot Moltbot na een IP-stootje van Anthropic, stond deze week in het middelpunt van een virale wervelwind – maar er zijn veiligheidsgevolgen aan het gebruik van de AI-assistent waar je op moet letten.
Wat is Moltbot?
Moltbot, weergegeven als een schattig schaaldier, promoot zichzelf als een “AI die daadwerkelijk dingen doet.” De open-source AI-assistent, voortgekomen uit de geest van de Oostenrijkse ontwikkelaar Peter Steinberger, is ontworpen om aspecten van uw digitale leven te beheren, inclusief het verwerken van uw e-mail, het verzenden van berichten en zelfs het uitvoeren van acties namens u, zoals u inchecken voor vluchten en andere diensten.
Ook: 10 manieren waarop AI in 2026 ongekende schade kan aanrichten
Zoals eerder gemeld door ZDNET, communiceert deze agent, opgeslagen op individuele computers, met zijn gebruikers via chat-berichtenapps, waaronder iMessage, WhatsApp en Telegram. Er zijn meer dan 50 integraties, vaardigheden en plug-ins, permanent geheugen en zowel browser- als volledige systeemcontrolefunctionaliteit.
In plaats van een op zichzelf staand backend AI-model te gebruiken, maakt Moltbot gebruik van de kracht van Claude van Anthropic (raad eens waarom de naamswijziging van Clawdbot werd aangevraagd, of bekijk de lore-pagina van de kreeft) en ChatGPT van OpenAI.
Binnen een paar dagen is Moltbot viraal gegaan. Op GitHub heeft het nu honderden bijdragers en ongeveer 100.000 sterren, waardoor Moltbot een van de snelstgroeiende AI-systemen is open source-projecten op het platform tot nu toe.
Wat is het probleem?
1. Virale interesse creëert kansen voor oplichters
Velen van ons houden van open source-software vanwege de transparantie van de code, de mogelijkheid voor iedereen om audits uit te voeren software voor kwetsbaarheden en beveiliging kwesties, en, in het algemeen, de gemeenschap die populaire projecten creëren.
De razendsnelle populariteit en veranderingen kunnen er echter ook voor zorgen dat kwaadwillige ontwikkelingen door de kieren glippen, zo blijkt uit rapporten valse repo’s en crypto-oplichting al in omloop. Door gebruik te maken van de plotselinge naamswijziging lanceerden oplichters een nep Clawdbot AI-token dat erin slaagde $ 16 miljoen op te halen voordat het crashte.
Dus als u van plan bent het uit te proberen, zorg er dan voor dat u alleen vertrouwde opslagplaatsen gebruikt.
2. Overhandiging van de sleutels van jouw digitale koninkrijk
Als u ervoor kiest om Moltbot te installeren en de AI als een persoonlijke, autonome assistent wilt gebruiken, moet u hem toegang verlenen tot uw accounts en controles op systeemniveau inschakelen.
Er bestaat geen perfect veilige installatie, zoals de documentatie van Moltbot erkent, en Cisco noemt Moltbot een “absolute nachtmerrie” vanuit beveiligingsperspectief. Omdat de autonomie van de bot afhankelijk is van machtigingen om shell-opdrachten uit te voeren, bestanden te lezen of te schrijven, scripts uit te voeren en namens u computertaken uit te voeren, kunnen deze bevoegdheden u en uw gegevens aan gevaar blootstellen als ze verkeerd zijn geconfigureerd of als malware infecteert uw machine.
Ook: Linux na Linus? De kernelgemeenschap stelt eindelijk een plan op om Torvalds te vervangen
“Er is al gemeld dat Moltbot API-sleutels en inloggegevens in platte tekst heeft gelekt, die door bedreigingsactoren kunnen worden gestolen via snelle injectie of onbeveiligde eindpunten”, aldus de beveiligingsonderzoekers van Cisco. “De integratie van Moltbot met berichtenapplicaties breidt het aanvalsoppervlak uit naar die applicaties, waar bedreigingsactoren kwaadaardige aanwijzingen kunnen creëren die onbedoeld gedrag veroorzaken.”
3. Blootgestelde inloggegevens
Offensieve beveiligingsonderzoeker en Dvuln-oprichter Jamieson O’Reilly heeft Moltbot in de gaten gehouden en blootgestelde, verkeerd geconfigureerde instanties gevonden die zonder enige authenticatiebescherming met het internet waren verbonden, en sloot zich aan bij andere onderzoekers die dit gebied ook verkennen. Van de honderden gevallen hadden sommige helemaal geen bescherming, waardoor Anthropic API-sleutels, Telegram-bottokens, Slack OAuth-inloggegevens en ondertekeningsgeheimen lekten, evenals gespreksgeschiedenis.
Hoewel ontwikkelaars onmiddellijk in actie kwamen en nieuwe beveiligingsmaatregelen introduceerden die dit probleem kunnen verhelpen, moet je, als je Moltbot wilt gebruiken, vertrouwen hebben in de manier waarop je het configureert.
4. Snelle injectie-aanvallen
Snelle injectie-aanvallen zijn een nachtmerrie voor cybersecurity-experts die nu betrokken zijn bij AI. Rahul Sood, CEO en mede-oprichter van Irreverent Labs, heeft een reeks potentiële beveiligingsproblemen op een rij gezet die verband houden met proactieve AI-agenten, en zegt dat het beveiligingsmodel van Moltbot/Clawdbot “mij de stuipen op het lijf jaagt.”
Ook: de beste gratis AI-cursussen en certificaten voor bijscholing in 2026 – en ik heb ze allemaal geprobeerd
Deze aanvalsvector vereist dat een AI-assistent kwaadaardige instructies leest en uitvoert, die bijvoorbeeld verborgen kunnen zijn in bronwebmateriaal of URL’s. Een Een AI-agent kan dan gevoelige gegevens lekkenstuur informatie naar door de aanvaller bestuurde servers of voer taken uit op uw machine – als deze daartoe de rechten heeft.
Sood ging dieper in op het onderwerp op X en merkte op:
“En waar je het ook draait… Cloud, thuisserver, Mac Mini in de kast… onthoud dat je niet alleen toegang geeft aan een bot. Je geeft toegang tot een systeem dat inhoud leest van bronnen waar je geen controle over hebt. Denk er eens op deze manier over na: oplichters over de hele wereld zijn blij terwijl ze zich voorbereiden om je leven te vernietigen. Dus alsjeblieft, reikwijdte dienovereenkomstig.”
Zoals de documentatie van Moltbot opmerkt, is het probleem met de snelle injectie-aanval bij alle AI-assistenten en agenten nog niet opgelost. Er zijn maatregelen die u kunt nemen om de dreiging om slachtoffer te worden te beperken, maar het combineren van wijdverbreide systeem- en accounttoegang met kwaadaardige aanwijzingen klinkt als een recept voor een ramp.
“Zelfs als je de bot maar een bericht kunt sturen, kan snelle injectie nog steeds plaatsvinden via alle niet-vertrouwde inhoud die de bot leest (zoek-/ophaalresultaten op internet, browserpagina’s, e-mails, documenten, bijlagen, geplakte logs/code)”, aldus de documentatie. “Met andere woorden: de afzender is niet het enige bedreigingsoppervlak; de inhoud zelf kan vijandige instructies bevatten.”
5. Schadelijke vaardigheden en inhoud
Cybersecurity-onderzoekers hebben al gevallen ontdekt van kwaadaardige vaardigheden die geschikt zijn voor gebruik met Moltbot die online verschijnt. In een voorbeeld hiervan werd op 27 januari een nieuwe VS Code-extensie genaamd “ClawdBot Agent” als schadelijk gemarkeerd. Deze extensie was eigenlijk een volwaardige Trojan die gebruik maakt van software voor externe toegang, waarschijnlijk voor surveillance en gegevensdiefstal.
Moltbot heeft geen VS Code-extensie, maar deze zaak laat wel zien hoe de toenemende populariteit van de agent waarschijnlijk zal leiden tot een hele reeks kwaadaardige extensies en vaardigheden die repository’s zullen moeten detecteren en beheren. Als gebruikers er per ongeluk een installeren, bieden ze mogelijk onbedoeld een open deur waardoor hun instellingen en accounts kunnen worden gecompromitteerd.
Bovendien: Claude Cowork automatiseert nu complexe taken voor u – op eigen risico
Om dit probleem onder de aandacht te brengen, heeft O’Reilly een veilige, maar achterdeurige vaardigheid ontwikkeld en deze vrijgegeven. Het duurde niet lang voordat de vaardigheid er was duizenden keren gedownload.
Hoewel ik aandring op voorzichtigheid bij het adopteren van AI-assistenten en -agenten met een hoge mate van autonomie en toegang tot uw accounts, wil dat niet zeggen dat deze innovatieve modellen en hulpmiddelen geen waarde hebben. Moltbot is misschien wel de eerste versie van hoe AI-agenten zullen zich in onze toekomstige levens verweven, maar we moeten nog steeds uiterst voorzichtig zijn en vermijden gemak boven persoonlijke veiligheid te verkiezen.


