Un ricercatore lascia Anthropic lanciando un inquietante allarme sul futuro dell’AI
Un ricercatore lascia Anthropic denunciando rischi dell’AI e pressioni interne. Cresce il dibattito su sicurezza, regolazione e corsa tra aziende come OpenAI e altri leader del settore.

Mrinank Sharma, ricercatore specializzato in sicurezza presso Anthropic, ha annunciato le proprie dimissioni lanciando un avvertimento netto: i progressi dell’AI starebbero procedendo a una velocità tale da creare rischi concreti per la società.
Le ragioni dell’addio di Sharma
Secondo Sharma, i team dedicati alla sicurezza si troverebbero spesso sotto pressione a mettere in secondo piano alcune cautele. Tra le principali preoccupazioni, il ricercatore cita alcuni esempi estremi, che in assenza di strumenti di mitigazione robusti potrebbero diventare un’inquietantissima realtà: le AI, spiega, potrebbero venire sfruttate per generare minacce di bioterrorismo estremamente sofisticate e per creare altri pericoli sistemici, come attacchi hacker su larghissima scala.
Non si tratta di un’uscita isolata: si inserisce in una discussione sempre più ampia sul rapporto tra competizione industriale e prevenzione dei rischi.
L’azienda in cui lavorava era nata proprio con l’obiettivo di sviluppare sistemi più controllabili. Il CEO Dario Amodei ha più volte dichiarato che l’innovazione sta accelerando ad un ritmo eccessivo, ben superiore a quello che i regolatori possono sostenere. In passato aveva chiesto all’intera industria di rallentare il progresso delle AI, in modo da poter individuare regole e misure di sicurezza comuni per scongiurare pericoli esistenziali per il mondo.
Dobbiamo avere paura delle AI?
Nel 2024 due membri chiave del team “Superalignment” di OpenAI, incaricato di studiare come guidare sistemi più intelligenti degli esseri umani, hanno lasciato l’azienda sostenendo che la priorità economica stesse superando quella della sicurezza. Insomma, l’azienda dietro a ChatGPT, secondo loro, starebbe anteponendo il profitto alla mitigazione dei rischi di sicurezza posti dalle AI più avanzate.
Il tema centrale riguarda la natura stessa dell’AI moderna. Le nuove generazioni di modelli non sono più semplici strumenti automatizzati ma piattaforme cognitive generali, utilizzabili in campi molto diversi tra loro. Per alcuni ricercatori la velocità dello sviluppo tecnologico sta superando la capacità delle istituzioni di comprenderne gli effetti.
La vicenda riporta al centro una domanda più ampia: l’innovazione deve essere guidata principalmente dal mercato o accompagnata da limiti condivisi? Nel frattempo, i chatbot AI stanno ufficialmente entrando in una nuova fase: quella delle pubblicità. Ad aprire le danze sarà ChatGPT di OpenAI.