Leganerd.com
Menu

OpenAI blocca account legati alla Cina: progettavano strumenti di sorveglianza

OpenAI ha bannato account cinesi che chiedevano a ChatGPT progettazioni di strumenti per monitorare contenuti politici e religiosi online.

OpenAI blocca account legati alla Cina: progettavano strumenti di sorveglianza

Nel suo ultimo rapporto sulle minacce digitali, OpenAI ha rivelato di aver sospeso un account proveniente dalla Cina che utilizzava ChatGPT per generare contenuti di propaganda e possibili idee per un progetto di sorveglianza.

Secondo l’azienda, l’attività sarebbe stata commissionata da un cliente governativo. Pur non potendo confermare se fosse un ente statale, OpenAI ha già contrastato sforzi analoghi nei mesi precedenti. Allo stesso tempo, è stato bloccato un account che proponeva lo sviluppo di un modello a “alto rischio” per tracciare movimenti di persone “legate agli uiguri”, in un contesto già delicato per le accuse di violazioni dei diritti umani che gravano sulla Cina.

Le potenziali implicazioni

Gli account bannati avrebbero richiesto a ChatGPT di delineare uno strumento in grado di scandagliare piattaforme come X, Facebook, Instagram, Reddit, TikTok e YouTube alla ricerca di contenuti definiti dal committente con criteri politici, etnici o religiosi.

Nel caso specifico, uno dei progetti era presentato come un “inflow warning model” per soggetti “relativi agli uiguri”, che avrebbe potuto monitorarne gli spostamenti. Nelle sue pagine sul contrasto agli usi malevoli dell’intelligenza artificiale, OpenAI afferma di aver già interrotto operazioni simili in Iran, Russia e Cina, dove GPT è stato impiegato per generare post e commenti con intenti di influenza o polarizzazione.

L’azienda sottolinea che non dispone di elementi indipendenti per attribuire l’origine governativa dei progetti, ma la natura dei contenuti e delle richieste ha attivato i suoi sistemi di sicurezza. OpenAI ha già segnalato la presenza di account che raffinavano malware, orchestravano phishing, conducevano campagne di disinformazione, operazioni di influenza e attività di ingegneria sociale.

Contrasto agli abusi: dagli hacker ai diritti umani

Dal febbraio 2024, OpenAI ha avviato la pubblicazione regolare di report sulle minacce digitali, con l’obiettivo di rendere pubblici i casi in cui i suoi modelli sono stati impiegati per scopi malevoli. Nella sua più recente analisi, l’azienda descrive decine di account che chiedevano assistenza tecnica per strumenti offensivi: alcuni concentrati su sorveglianza politica, altri su codici di hacking e malware. In molti casi, l’azienda ha interrotto queste attività coadiuvandosi con analisti, cloud provider e organismi di sicurezza internazionali.

OpenAI e AMD: patto da 6 gigawatt per dominare l’infrastruttura AI OpenAI e AMD: patto da 6 gigawatt per dominare l’infrastruttura AI

OpenAI afferma di non aver mai fornito capacità offensive inedite: molti dei progetti erano perfezionamenti o automazioni di tecniche già note. Il suo approccio è stato descritto come “forza moltiplicatrice” dei team investigativi, che combinano sistemi automatizzati e revisione umana per rilevare comportamenti sospetti.

Fonte:
Ti potrebbero interessare
OpenAI blocca account legati alla Cina: progettavano strumenti di sorveglianza