Notebookcheck Logo

Anthropic beschuldigt China's DeepSeek van het plagiëren van Claude AI om censuur te bevorderen

De mogelijkheden van Anthropic Claude AI.
ⓘ Anthropic
De mogelijkheden van Anthropic Claude AI.
Chinese AI-laboratoria oogsten de antwoorden van Claude en andere grote taalmodellen om hun prestaties na te bootsen voor hun eigen producten zonder de veiligheidsmaatregelen. Anthropic roept op tot een industriebrede reactie en heeft contact opgenomen met de relevante autoriteiten.

Terwijl AI-modellen van Chinese bedrijven steeds geavanceerder worden, heeft Anthropic een gezamenlijke inspanning onthuld van onder andere DeepSeek om de innerlijke werking van haar bekroonde Claude LLM te plagiëren en voor te doen als haar eigen innovatie.

Anthropic is bezorgd dat de resulterende AI-agenten ontdaan zijn van de bescherming tegen kwaadwillig gebruik die inherent is aan Claude en dat de open-source aanpak van DeepSeek krachtige AI-instrumenten in handen zou kunnen geven van zowel staats- als niet-staatsactoren die minder scrupules hebben wat betreft het gebruik ervan.

DeepSeek bijvoorbeeld, dat de industrie deed schudden met zijn efficiëntie om meer te doen met minder in termen van AI-rekenkracht, had de Claude-code ontdaan van zijn waarborgen voor vrije meningsuiting en zijn agent onderwerpen laten omzeilen die de censuurmachine van de Chinese overheid tracht te vermijden.

Anthropic, dat enkele van de meest geavanceerde AI-tools maakt die er zijn, heeft net een aanvaring gehad met het Pentagon met betrekking tot het gebruik van Claude voor militaire doeleinden. Het Pentagon staat erop dat Claude niet wordt gebruikt voor het besturen van onbemande wapensystemen of voor het surveilleren van Amerikaanse burgers, terwijl het Pentagon meer vrijheid wil hebben in het gebruik van zijn AI-agent zonder dergelijke lastige afrasteringen.

Wanneer DeepSeek en anderen de besluitvormingsalgoritmen van Claude opscheppen via een groot gedistribueerd proxy-netwerk dat miljoenen zoekopdrachten uitvoert via nepaccounts, of de zogenaamde "distillatie", kunnen de resulterende agenten gebruikt worden door een staatsleger zonder dergelijke beperkingen.

Dit is de reden waarom Anthropic alarm slaat over de praktijken die het heeft getraceerd bij drie Chinese AI-bedrijven-DeepSeek, MiniMax en Moonshot, en manieren introduceert om ze te beperken. Vooral in het geval van MiniMax is de omvang van het plagiaat van AI-modellen adembenemend. Anthropic ontdekte meer dan 13 miljoen query-uitwisselingen met Claude die vaak resulteerden in het verbeteren van het MiniMax-model in realtime, terwijl Anthropic bezig was met het uitrollen van grote Claude-updates.

Anthropic heeft nu beveiligingen ingebouwd om miljoenen schijnbaar onschuldige query's te detecteren die worden gebruikt voor distillatie, zoals Claude vragen hoe het zou omgaan met een"doel om datagestuurde inzichten te leveren - geen samenvattingen of visualisaties - gegrond in echte gegevens en ondersteund door volledige en transparante redeneringen" en de resultaten analyseren om Chinese LLM's te verbeteren.

Het bedrijf waarschuwt dat het de praktijk niet alleen kan bestrijden en probeert andere industriële giganten zoals OpenAI of Google aan boord te krijgen, zodat ze beleidsmakers kunnen beïnvloeden om de AI-exportcontrolewetgeving uit te breiden met antidistillatiemaatregelen in plaats van alleen verboden op Nvidia Blackwell GPU's en andere hardware.

Koop de NVD RTX PRO 6000 Blackwell Professional Edition AI GPU op Amazon

Bron(nen)

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2026 02 > Anthropic beschuldigt China's DeepSeek van het plagiëren van Claude AI om censuur te bevorderen
Daniel Zlatev, 2026-02-24 (Update: 2026-02-24)