Anthropic beschuldigt China's DeepSeek van het plagiëren van Claude AI om censuur te bevorderen

Terwijl AI-modellen van Chinese bedrijven steeds geavanceerder worden, heeft Anthropic een gezamenlijke inspanning onthuld van onder andere DeepSeek om de innerlijke werking van haar bekroonde Claude LLM te plagiëren en voor te doen als haar eigen innovatie.
Anthropic is bezorgd dat de resulterende AI-agenten ontdaan zijn van de bescherming tegen kwaadwillig gebruik die inherent is aan Claude en dat de open-source aanpak van DeepSeek krachtige AI-instrumenten in handen zou kunnen geven van zowel staats- als niet-staatsactoren die minder scrupules hebben wat betreft het gebruik ervan.
DeepSeek bijvoorbeeld, dat de industrie deed schudden met zijn efficiëntie om meer te doen met minder in termen van AI-rekenkracht, had de Claude-code ontdaan van zijn waarborgen voor vrije meningsuiting en zijn agent onderwerpen laten omzeilen die de censuurmachine van de Chinese overheid tracht te vermijden.
Anthropic, dat enkele van de meest geavanceerde AI-tools maakt die er zijn, heeft net een aanvaring gehad met het Pentagon met betrekking tot het gebruik van Claude voor militaire doeleinden. Het Pentagon staat erop dat Claude niet wordt gebruikt voor het besturen van onbemande wapensystemen of voor het surveilleren van Amerikaanse burgers, terwijl het Pentagon meer vrijheid wil hebben in het gebruik van zijn AI-agent zonder dergelijke lastige afrasteringen.
Wanneer DeepSeek en anderen de besluitvormingsalgoritmen van Claude opscheppen via een groot gedistribueerd proxy-netwerk dat miljoenen zoekopdrachten uitvoert via nepaccounts, of de zogenaamde "distillatie", kunnen de resulterende agenten gebruikt worden door een staatsleger zonder dergelijke beperkingen.
Dit is de reden waarom Anthropic alarm slaat over de praktijken die het heeft getraceerd bij drie Chinese AI-bedrijven-DeepSeek, MiniMax en Moonshot, en manieren introduceert om ze te beperken. Vooral in het geval van MiniMax is de omvang van het plagiaat van AI-modellen adembenemend. Anthropic ontdekte meer dan 13 miljoen query-uitwisselingen met Claude die vaak resulteerden in het verbeteren van het MiniMax-model in realtime, terwijl Anthropic bezig was met het uitrollen van grote Claude-updates.
Anthropic heeft nu beveiligingen ingebouwd om miljoenen schijnbaar onschuldige query's te detecteren die worden gebruikt voor distillatie, zoals Claude vragen hoe het zou omgaan met een"doel om datagestuurde inzichten te leveren - geen samenvattingen of visualisaties - gegrond in echte gegevens en ondersteund door volledige en transparante redeneringen" en de resultaten analyseren om Chinese LLM's te verbeteren.
Het bedrijf waarschuwt dat het de praktijk niet alleen kan bestrijden en probeert andere industriële giganten zoals OpenAI of Google aan boord te krijgen, zodat ze beleidsmakers kunnen beïnvloeden om de AI-exportcontrolewetgeving uit te breiden met antidistillatiemaatregelen in plaats van alleen verboden op Nvidia Blackwell GPU's en andere hardware.
Koop de NVD RTX PRO 6000 Blackwell Professional Edition AI GPU op Amazon
Bron(nen)
Top 10 Testrapporten
» Top 10 Multimedia Notebooks
» Top 10 Gaming-Notebooks
» Top 10 Budget Gaming Laptops
» Top 10 Lichtgewicht Gaming-Notebooks
» Top 10 Premium Office/Business-Notebooks
» Top 10 Budget Office/Business-Notebooks
» Top 10 Workstation-Laptops
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Notebooks tot €300
» Top 10 Notebooks tot €500
» Top 10 Notebooks tot € 1.000De beste notebookbeeldschermen zoals getest door Notebookcheck
» De beste notebookbeeldschermen
» Top Windows Alternatieven voor de MacBook Pro 13
» Top Windows Alternatieven voor de MacBook Pro 15
» Top Windows alternatieven voor de MacBook 12 en Air
» Top 10 best verkopende notebooks op Amazon
» Top 10 Convertible Notebooks
» Top 10 Tablets
» Top 10 Tablets tot € 250
» Top 10 Smartphones
» Top 10 Phablets (>90cm²)
» Top 10 Camera Smartphones
» Top 10 Smartphones tot €500
» Top 10 best verkopende smartphones op Amazon









