Home Nieuws Anthropic zegt dat DeepSeek frauduleus heeft gebruikt Claude

Anthropic zegt dat DeepSeek frauduleus heeft gebruikt Claude

1
0
Anthropic zegt dat DeepSeek frauduleus heeft gebruikt Claude

Anthropic zegt dat zijn Chinese concurrenten stelen van de AI-startup om een ​​voorsprong te verwerven in de wereldwijde AI-race.

Maandag zei Anthropic dat drie van de grootste AI-laboratoria van China: DiepzoekenMiniMax en Moonshot AI gebruikten Claude “illegaal” om hun eigen modellen te verbeteren, via een proces dat bekend staat als destillatie.

“Deze campagnes worden steeds intenser en verfijnder”, zei Anthropic maandag in zijn lange verklaring. “De ruimte om te handelen is smal en de dreiging reikt verder dan een enkel bedrijf of regio. Om deze dreiging aan te pakken is snelle, gecoördineerde actie nodig tussen spelers uit de sector, beleidsmakers en de mondiale AI-gemeenschap.

Anthropic zei dat de distillatie-inspanningen “campagnes op industriële schaal” waren, die ongeveer 24.000 frauduleuze Claude-accounts omvatten die meer dan 16 miljoen uitwisselingen genereerden “in strijd met onze servicevoorwaarden en regionale toegangsbeperkingen.”

Distillatie is het proces waarbij een minder krachtig model wordt getraind op basis van de output van een krachtiger model. Deze praktijk is een legitieme manier die veel Amerikaanse bedrijven gebruiken om hun modellen te trainen voor publieke publicatie. Steeds vaker beweren ook grote Amerikaanse bedrijven dat hun Chinese concurrenten deze praktijk op ongepaste wijze gebruiken om hun werk te stelen.

In januari 2025 zei OpenAI dat DeepSeek mogelijk “ten onrechte” gebruikt OpenAI’s output om hun modellen te trainen. Eerder deze maand, Google onthuld het had “een toename van pogingen tot modelextractie of ‘distillatieaanvallen’ geïdentificeerd.”

“Concurrenten kunnen het gebruiken om krachtige mogelijkheden van andere laboratoria te verwerven in een fractie van de tijd en tegen een fractie van de kosten die nodig zijn om ze onafhankelijk te ontwikkelen”, zei Anthropic maandag.

Anthropic heeft opmerkelijke details onthuld over de mate waarin DeepSeek, MiniMax en Moonshot AI hun systemen “illegaal” gebruikten. Claude is niet beschikbaar voor commerciële toegang in China, hoewel Anthropic zei dat de rivaliserende laboratoria oplossingen hebben gevonden.

Een van de opmerkelijke bevindingen is volgens Anthropic dat DeepSeek probeerde “censuurveilige alternatieven voor beleidsgevoelige vragen” te creëren. Het bedrijf zei ook dat het de campagne van MiniMax had ontdekt “terwijl deze nog actief was”, waardoor ze een diepgaand inzicht kregen in wat hun concurrent aan het doen was.

“Toen we tijdens de actieve campagne van MiniMax een nieuw model uitbrachten, draaiden ze binnen 24 uur om, waardoor bijna de helft van hun verkeer werd omgeleid om de mogelijkheden van ons nieuwste systeem te benutten”, aldus Anthropic.

Vertegenwoordigers van DeepSeek, MiniMax en Moonshot AI reageerden niet onmiddellijk op het verzoek van Business Insider om commentaar.

Naast bedrog in de AI, zei Anthropic dat ongepaste distillatie veiligheidsrisico’s met zich meebrengt, omdat minder getrainde modellen mogelijk niet over de juiste waarborgen beschikken, zoals die om de ontwikkeling van biowapens te voorkomen.

Als reactie op dergelijke destillatiecampagnes zei Anthropic dat het ‘gedragsvingerafdruksystemen’ heeft ingebouwd, gegevens deelt met andere AI-bedrijven over waar ze op moeten letten, en doorgaat met het ontwikkelen van aanvullende tegenmaatregelen.

Antropische CEO Dario Amodei schreven onlangs dat leidende modellen het punt naderen waarop ze, zonder de juiste waarborgen, iemand zouden kunnen helpen bij het bouwen van een biowapen.

Amodei is ook een uitgesproken voorstander van Amerikaanse exportcontroles, een onderwerp dat verdeeldheid zaait bij sommige vooraanstaande technologie-CEO’s. Nvidia-CEO Jensen Huang heeft herhaaldelijk gezegd dat het beperken van Amerikaanse bedrijven, waaronder de zijne, in de verkoop van geavanceerde chips aan China de Chinese vooruitgang op het gebied van AI niet zal beteugelen.

“Distillatieaanvallen versterken daarom de grondgedachte voor exportcontroles: beperkte toegang tot chips beperkt zowel de directe modeltraining als de omvang van illegale distillatie”, aldus Anthropic.

Anthropic heeft ook te maken gehad met beschuldigingen van het gebruik van auteursrechtelijk beschermd materiaal om zijn modellen te trainen. In januari, de Washington Post gemeld nieuwe details over een onderneming bij het bedrijf genaamd Project Panama, dat het bedrijf naar verluidt omschreef als “onze poging om alle boeken ter wereld destructief te scannen.” Vorig jaar schikte Anthropic een class action-rechtszaak die was aangespannen door de auteurs en uitgevers van enkele van de boeken voor 1,5 miljard dollar. Als onderdeel van de schikking gaf het bedrijf geen wangedrag toe.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in