Anthropic accusa tre aziende cinesi: “Attacchi su scala industriale” per copiare Claude
Anthropic accusa DeepSeek, Moonshot e MiniMax di “attacchi industriali” per copiare Claude. La guerra globale sull’AI entra in una nuova fase legale e strategica.

Anthropic lancia un allarme sul fronte della sicurezza dell’intelligenza artificiale e punta il dito contro tre società cinesi, accusate di aver condotto “campagne su scala industriale” per estrarre illegalmente le capacità del suo chatbot Claude. Una mossa che riaccende la tensione nella guerra globale dell’AI.
Secondo quanto pubblicato sul sito ufficiale, Anthropic sostiene che DeepSeek, Moonshot AI e MiniMax abbiano orchestrato “campagne su scala industriale per estrarre illecitamente le capacità di Claude al fine di migliorare i propri modelli”.
Cos’è la distillazione AI
Nel mondo dell’intelligenza artificiale, la “distillazione” è una tecnica nota: modelli meno avanzati si allenano sfruttando le risposte di sistemi più potenti. In molti casi è una pratica legittima. Ma, secondo Anthropic, può trasformarsi in un attacco quando viene usata per aggirare protezioni o accelerare in modo improprio lo sviluppo competitivo.
L’azienda afferma che le tre società avrebbero generato oltre 16 milioni di interazioni con Claude attraverso circa 24.000 account fraudolenti. Dal punto di vista di Anthropic, queste aziende avrebbero utilizzato il chatbot come scorciatoia per costruire modelli più sofisticati, potenzialmente eludendo anche i meccanismi di sicurezza integrati.
La società dichiara di aver collegato le campagne ai soggetti coinvolti con “elevata confidenza”, grazie alla correlazione degli indirizzi IP, alle richieste di metadati e a indicatori infrastrutturali, oltre a riscontri condivisi con altri operatori del settore AI che avrebbero osservato comportamenti simili.
Guerra fredda dell’AI
Non è la prima volta che emergono accuse di questo tipo. All’inizio dello scorso anno anche OpenAI aveva denunciato presunti tentativi di distillazione indebita dei propri modelli, arrivando a bannare account sospetti.
Anthropic ha annunciato che rafforzerà i propri sistemi per rendere più difficile l’esecuzione di attacchi di distillazione e più semplice la loro identificazione. Il tema è strategico: in un mercato dove lo sviluppo dei modelli avanza a ritmi vertiginosi, proteggere il vantaggio tecnologico è cruciale quanto innovare.
La vicenda si inserisce in un contesto già delicato. Mentre accusa i concorrenti di pratiche scorrette, Anthropic è infatti oggetto di una causa legale da parte di editori musicali, che sostengono che la società abbia utilizzato copie illegali di brani per addestrare Claude.