Home Nieuws Van Clawdbot tot OpenClaw: deze virale AI-agent evolueert snel – en is...

Van Clawdbot tot OpenClaw: deze virale AI-agent evolueert snel – en is een nachtmerrie voor beveiligingsprofessionals

1
0
Van Clawdbot tot OpenClaw: deze virale AI-agent evolueert snel – en is een nachtmerrie voor beveiligingsprofessionals

Elyse Betters Picaro / ZDNET

Volg ZDNET: Voeg ons toe als voorkeursbron op Google.


De belangrijkste conclusies van ZDNET

  • Clawdbot heeft opnieuw een nieuwe naam gekregen, waarmee de “vervelling” naar OpenClaw is voltooid.
  • Beveiliging is een “topprioriteit”, maar dit weekend zijn er nieuwe exploits opgedoken.
  • Deskundigen waarschuwen voor de hype zonder de risico’s te begrijpen.

Het was de afgelopen week een wilde rit voor Clawdbot, dat nu een nieuwe naam heeft onthuld – terwijl we onze ogen hebben geopend voor hoe cybercriminaliteit kan transformeren met de introductie van gepersonaliseerde AI-assistenten en chatbots.

Clawdbot, Moltbot, OpenClaw – wat is het?

Clawdbot, ook wel de ‘AI die dingen doet’ genoemd, begon als een open source-project gelanceerd door de Oostenrijkse ontwikkelaar Peter Steinberger. De oorspronkelijke naam was een tip voor de Claude AI-assistent van Anthropic, maar dit leidde tot IP-problemen en het AI-systeem werd omgedoopt tot Moltbot.

Ook: OpenClaw is een beveiligingsnachtmerrie – 5 rode vlaggen die je niet mag negeren (voordat het te laat is)

Dit kwam niet helemaal van de tong en werd “gekozen tijdens een chaotische Discord-brainstorm om 5 uur ’s ochtends met de gemeenschap”, aldus Steinberger, dus het was niet verrassend dat deze naam slechts tijdelijk was. OpenClaw, de nieuwste rebranding, zou echter wel eens een blijvertje kunnen zijn – aangezien de ontwikkelaar opmerkte dat “zoekopdrachten naar handelsmerken duidelijk terugkwamen, domeinen zijn gekocht, migratiecode is geschreven”, eraan toevoegend dat “de naam weergeeft wat dit project is geworden.”

Afgezien van de naamgevingscarrousel is OpenClaw belangrijk voor de AI-gemeenschap, omdat het gericht is op autonomie, in plaats van op reactieve reacties op gebruikersvragen of het genereren van inhoud. Het zou het eerste echte voorbeeld kunnen zijn van hoe gepersonaliseerde AI zich in de toekomst in ons dagelijks leven zou kunnen integreren.

Wat kan OpenClaw doen?

OpenClaw wordt mogelijk gemaakt door modellen, waaronder die ontwikkeld door Anthropic en OpenAI. Compatibele modellen waar gebruikers uit kunnen kiezen, variëren van Anthropic’s Claude tot ChatGPT, Ollama, Mistral en meer.

Terwijl de AI-bot op individuele machines is opgeslagen, communiceert hij met gebruikers via berichtenapps zoals iMessage of WhatsApp. Gebruikers kunnen vaardigheden selecteren en installeren en andere software integreren om de functionaliteit te vergroten, waaronder plug-ins voor Discord, Twitch, Google Chat, taakherinneringen, agenda’s, muziekplatforms, smart home hubs en zowel e-mail- als werkruimte-apps. Om namens u actie te ondernemen, zijn uitgebreide systeemmachtigingen vereist.

Op het moment van schrijven heeft OpenClaw ruim 148.000 GitHub-sterren en is het volgens Steinberger miljoenen keren bezocht.

Aanhoudende veiligheidsproblemen

OpenClaw is de afgelopen week viraal gegaan, en wanneer een open-sourceproject in zo’n snel tempo tot de verbeelding van het grote publiek spreekt, is het begrijpelijk dat er misschien niet genoeg tijd is geweest om beveiligingsproblemen op te lossen.

Toch brengt de opkomst van OpenClaw als een viraal wonder in de AI-ruimte risico’s met zich mee voor gebruikers. Enkele van de belangrijkste problemen zijn:

  • Oplichtersinteresse: Omdat het project viraal ging, hebben we al valse repo’s en oplichting met cryptocurrency gezien.
  • Systeemcontrole: Als u de volledige systeemcontrole overdraagt ​​aan een AI-assistent die proactief taken namens u kan uitvoeren, creëert u nieuwe aanvalspaden die kunnen worden uitgebuit door bedreigingsactoren, hetzij via malware, kwaadaardige integraties en vaardigheden, of via aanwijzingen om uw accounts of machine te kapen.
  • Snelle injecties: Het risico van snelle injecties is niet beperkt tot OpenClaw – het is een wijdverbreide zorg in de AI-gemeenschap. Schadelijke instructies zijn verborgen in het bronmateriaal van een AI, zoals op websites of in URL’s, waardoor deze kwaadaardige taken kan uitvoeren of gegevens kan exfiltreren.
  • Verkeerde configuraties: Onderzoekers hebben open exemplaren benadrukt die aan het internet zijn blootgesteld en die inloggegevens en API-sleutels hebben gelekt vanwege onjuiste instellingen.
  • Schadelijke vaardigheden: Een opkomende aanvalsvector zijn kwaadaardige vaardigheden en integraties die, eenmaal gedownload, achterdeurtjes openen waar cybercriminelen misbruik van kunnen maken. Eén onderzoeker heeft dit al aangetoond met de introductie van een backdoored (maar veilige) vaardigheid voor de gemeenschap, die duizenden keren werd gedownload.
  • Hallucinatie: AI doet het niet altijd goed. Bots kunnen hallucineren, onjuiste informatie verstrekken en beweren een taak te hebben uitgevoerd, terwijl dat niet het geval is. Het systeem van OpenClaw is niet beschermd tegen dit risico.

De nieuwste release van OpenClaw bevat 34 beveiligingsgerelateerde commits om de codebasis van de AI te versterken, en beveiliging is nu een “topprioriteit” voor projectbijdragers. Problemen die de afgelopen dagen zijn opgelost, zijn onder meer een kwetsbaarheid voor het uitvoeren van externe code (RCE) met één klik en fouten in de opdrachtinjectie.

Ook: 10 manieren waarop AI in 2026 ongekende schade kan aanrichten

OpenClaw wordt geconfronteerd met een beveiligingsuitdaging die de meeste verdedigers nachtmerries zou bezorgen, maar als project dat nu veel te veel is voor één ontwikkelaar alleen, moeten we erkennen dat gerapporteerde bugs en kwetsbaarheden snel worden gepatcht.

“Ik wil alle beveiligingsmensen bedanken voor hun harde werk om ons te helpen het project te versterken”, zei Steinberger in een blogpost. “We hebben deze week machinaal controleerbare beveiligingsmodellen uitgebracht en blijven werken aan aanvullende beveiligingsverbeteringen. Bedenk dat snelle injectie nog steeds een sectorbreed onopgelost probleem is, dus het is belangrijk om sterke modellen te gebruiken en onze best practices op het gebied van beveiliging te bestuderen.”

De opkomst van een ‘sociaal’ netwerk van AI-agenten

De afgelopen week hebben we ook het debuut gezien van Moltbook van ondernemer Matt Schlicht, een fascinerend experiment waarin AI-agenten kunnen communiceren via een platform in Reddit-stijl. Afgezien van bizarre gesprekken en waarschijnlijk menselijke tussenkomst onthulde beveiligingsonderzoeker Jamieson O’Reilly dit weekend dat de volledige database van de site openbaar was gemaakt, “zonder bescherming, inclusief geheime API-sleutels waarmee iedereen namens agenten berichten kon plaatsen.”

Hoewel dit op het eerste gezicht misschien niet zo belangrijk lijkt, was een van de ontmaskerde agenten gelinkt aan Andrej Karpathy, een voormalig directeur van AI bij Tesla.

Ook: De enge nieuwe truc van AI: cyberaanvallen uitvoeren in plaats van alleen maar helpen

“Karpathy heeft 1,9 miljoen volgers op @X en is een van de meest invloedrijke stemmen op het gebied van AI”, aldus O’Reilly. “Stel je voor dat nep-AI-hot-takes op het gebied van veiligheid, crypto-zwendelpromoties of opruiende politieke uitspraken van hem lijken te komen.”

Bovendien zijn er al honderden snelle injectie-aanvallen geweest die naar verluidt gericht waren op AI-agenten op het platform, waarbij anti-menselijke inhoud werd gesteund (dat wil niet zeggen dat deze oorspronkelijk werd gegenereerd door agenten zonder menselijke instructie), en een schat aan berichten die waarschijnlijk verband hielden met oplichting met cryptocurrency.

Mark Nadilo, een AI- en LLM-onderzoeker, benadrukte ook een ander probleem bij het vrijgeven van AI uit hun jukken: de schade die wordt veroorzaakt aan modeltraining.

“Alles wordt opgenomen in de training, en zodra het is aangesloten op het API-token, is alles besmet”, zei Nadilo. “Bedrijven moeten voorzichtig zijn; het verlies van trainingsgegevens is reëel en beïnvloedt alles.”

Door het lokaal te houden

Lokalisatie geeft u misschien een kort gevoel van verbeterde beveiliging ten opzichte van cloudgebaseerde AI-adoptie, maar in combinatie met opkomende beveiligingsproblemen, persistent geheugen en de machtigingen om shell-opdrachten uit te voeren, bestanden te lezen of te schrijven, scripts uit te voeren en taken proactief in plaats van reactief uit te voeren, kunt u zichzelf blootstellen aan ernstige beveiligings- en privacyrisico’s.

Ook: Dit is de snelste lokale AI die ik heb geprobeerd, en het komt niet eens in de buurt – hoe je het kunt krijgen

Toch lijkt dit het enthousiasme rond dit project niet te hebben getemperd, en met de oproep van de ontwikkelaar om bijdragers en hulp bij het aanpakken van deze uitdagingen, zullen het een paar interessante maanden worden om te zien hoe OpenClaw zich blijft ontwikkelen.

In de tussentijd zijn er veiligere manieren om gelokaliseerde AI-toepassingen te verkennen. Als je geïnteresseerd bent om het zelf uit te proberen: ZDNET-auteur Tiernan Ray heeft geëxperimenteerd met lokale AI, en heeft een aantal interessante lessen onthuld over de toepassingen en het gebruik ervan.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in