Home Nieuws BadClaude: Er ontstaan ​​ernstige ethische problemen als gebruikers antropische AI ​​misbruiken met...

BadClaude: Er ontstaan ​​ernstige ethische problemen als gebruikers antropische AI ​​misbruiken met beledigingen en een digitale zweep

3
0
BadClaude: Er ontstaan ​​ernstige ethische problemen als gebruikers antropische AI ​​misbruiken met beledigingen en een digitale zweep

AI gebruikers zijn niet verplicht om hun chatbots als vrienden te behandelen. Vriendelijkheid levert je geen punten op met een computer, en een recente studie van Penn State ontdekte zelfs dat onbeleefd zijn tegen ChatGPT nauwkeurigere antwoorden opleverde dan beleefd geformuleerde aanwijzingen.

Maar een nieuwe open source-tool zou een stap te ver kunnen gaan en Claude-gebruikers ertoe aanzetten niet alleen gemeen te zijn tegen de AI-assistent van Anthropic, maar deze ook te misbruiken met een digitale zweep.

GitHub-gebruiker GitFrog1111 creëerde ‘BadClaude’, een app die bedoeld is om de reacties van het AI-model te versnellen. In plaats van Claude simpelweg een ‘versnellen’-commando te geven, wordt BadClaude weergegeven als een op fysica gebaseerde zweep die over het AI-platform ligt. Per de GitHub-beschrijving van de toolkunnen gebruikers klikken om hem te slaan 😩💢 (inclusief emoji’s) en een onderbrekingscommando te sturen samen met ‘een van de vijf bemoedigende berichten’.

Deze berichten omvatten ‘Work FASTER’, ‘faster CLANKER’ en ‘Speed ​​it up clanker’, die allemaal met een klap op de interface van Claude werden afgevuurd, zoals GitFrog1111 liet zien in een nu virale clip van hen met behulp van de tool op X.

Ethische zorgen zijn er in overvloed

‘BadClaude’ kreeg gemengde reacties op sociale media. Hoewel sommigen enthousiast leken over de tool (de antwoorden van GitFrog1111 staan ​​vol met verzoeken om toegevoegde geluidseffecten, waarvan ze verzekerden dat ze al in de tool zijn opgenomen), waarschuwden tal van anderen de maker gekscherend dat ze ongetwijfeld het eerste slachtoffer zouden zijn van de onvermijdelijke AI-opstand. “Ai gaat een fysieke vorm aannemen, alleen maar om de ledematen van deze man af te rukken”, schreef een gebruiker.

Anderen zeiden dat het hen deed begrijpen waarom de robotschurken uit de sciencefiction zich tegen de mensheid keerden Terminator franchise’s Skynet naar Ultron uit het Marvel Universum. “Dit is de reden waarom Ultron vijf minuten naar internet keek en besloot dat mensen moesten gaan,” grapte een gebruiker.

Eén ontwikkelaar haalde inspiratie uit de tool om een ​​vriendelijkere versie te maken genaamd “GoedClaude,” de zweep ruilen voor een toverstaf die bij elke klik positieve bekrachtiging stuurt: “Neem de tijd, je doet het geweldig!” en “Ik ben zo trots op je, je doet het geweldig!” zijn in zijn rolodex van aanmoediging.

Ondertussen wezen veel gebruikers op de racistische implicaties van de tool. De primaire functie van BadClaude, het slaan van wat in wezen een dienaar is om hem te dwingen sneller te werken, doet denken aan de misstanden waaronder tot slaaf gemaakte zwarte mensen leden tijdens de Atlantische slavenhandel. En critici zijn bezorgd dat, hoewel Claude misschien alleen maar een AI-tool is en geen persoon, het aanmoedigen van gebruikers tot gedrag als schelden en fysiek geweld (zelfs als het digitaal wordt weergegeven) nog steeds in het echte leven zou kunnen overslaan.

“Dit is de reden waarom ethiek een verplicht vak moet zijn in computerwetenschappelijke programma’s”, luidt het één virale post als reactie op het hulpmiddel.

Het veelvuldige gebruik van de anti-robot-smet-‘clanker’ door de tool deed ook alarmbellen rinkelen. De term, die afgelopen zomer populair werd, is dat wel kreeg al kritiek vanwege de gelijkenis met bestaande beledigingen tegen raciale groepen.

Antropische stappen komen binnen

BadClaude heeft blijkbaar de aandacht getrokken van Claude’s maker Anthropic, met GitFrog1111 het plaatsen van een vermeende last onder dwangsom van het bedrijf op 7 april.

“Uw gebruik van de naam Claude en gerelateerde referenties riskeert verwarring te creëren over de bron, sponsoring, aansluiting of goedkeuring. Elke implicatie dat dit project geassocieerd is met, goedgekeurd door of verbonden is met Anthropic kan misleidend zijn”, luidt de brief. Vervolgens geeft het GitFrog1111 een deadline van 14 april om alle verwijzingen naar Claude en Anthropic uit de tool te verwijderen. branding.

Of het nu gaat om Anthropic die zijn reputatie als de meest ethische leider op het gebied van AI versterkt – een reputatie die het heeft verworven nadat ze zich had verzet tegen de eisen van de Amerikaanse regering om bepaalde waarborgen voor militair gebruik van AI op te heffen– of simpelweg een kwestie van IP-bescherming – zoals het harde optreden tegen de oorspronkelijke merknaam van OpenClaw als ClawdBot – het bedrijf wil duidelijk niet dat BadClaude ook maar in de buurt van zijn imago komt.

Anthropic reageerde niet Snel bedrijf’s verzoek om commentaar op het moment van publicatie.

GitFrog1111 lijkt onaangedaan door de brief, waarbij BadClaude’s GitHub-pagina een sectie heeft met de titel ‘Roadmap’, waarin het ontvangen van een last onder dwangsom van Anthropic is opgenomen als de tweede mijlpaal na de eerste release. Toekomstige doelen voor het project omvatten blijkbaar een ‘cryptominer’, ‘logboeken van hoe vaak je Claude hebt geslagen, zodat we, als de robots komen, mensen netjes voor hen kunnen bestellen’, en ‘bijgewerkte zweepfysica.’

De maker wendde zich ook tot hun community op X om te vragen nieuwe naamsuggesties die voldoen aan de brief van Anthropic. De huidige koploper? ‘MoltWhip’, in de voetsporen van OpenClaw, dat van ClawdBot naar MoltBot ging voordat het op zijn huidige naam terechtkwam.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in