All’inizio dello scorso anno, un hacker ha avuto accesso ai sistemi di messaggistica interna di OpenAI, l’azienda che ha creato e controlla ChatGPT. L’hacker ha avuto accesso, in altre parole, a moltissimi dei segreti più delicati dell’IA usata da centinaia di milioni di utenti al mondo.

Se ci è riuscito così facilmente lui – si chiede, tra gli altri, il New York Times – cosa di assicura che non sia stato fatto anche da altri, tra cui i tanti rivali dell’occidente interessati ad ottenere la supremazia nel campo delle IA, come la Cina?

Spiati per un anno i messaggi dei dipendenti di ChatGPT

I dirigenti di OpenAI hanno rivelato l’incidente ai dipendenti durante una riunione aziendale nell’aprile 2023, ma hanno deciso di non diffondere pubblicamente la notizia poiché non erano stati rubati dati di clienti o partner. Inoltre, non consideravano l’incidente una minaccia alla sicurezza nazionale, ritenendo che l’hacker fosse un individuo privato senza legami noti con governi stranieri. Di conseguenza, non hanno informato l’FBI o altre autorità competenti.

Una scelta imprudente, secondo l’ex dipendente di OpenAI Leopold Aschenbrenner, che sempre un anno fa aveva inviato ai dirigenti un documento dove li accusava di non star facendo abbastanza per proteggere i segreti aziendali dalla Cina. Aschenbrenner è nel frattempo stato licenziato, anche se OpenAI sostiene che i due eventi non siano collegati.

Secondo i principali esperti, oggi le intelligenze artificiali sul mercato non sono particolarmente pericolose. Non più dei motori di ricerca, quantomeno. Ma sulle IA, e sulle aspettative sulle loro potenziali capacità future, spesso viene costruita una narrazione quasi apocalittica.

ChatGPT verrà corretto da un’altra IA: CriticGPT è più preciso dei dipendenti di OpenAI ChatGPT verrà corretto da un’altra IA: CriticGPT è più preciso dei dipendenti di OpenAI

I segreti delle IA in mano alla Cina: c’è da avere paura?

“Non è folle pensare che la Cina sarà presto avanti agli Stati Uniti,” ha detto al NY Times Clément Delangue, amministratore delegato di Hugging Face, un’azienda che ospita molti dei progetti open source di intelligenza artificiale del mondo.

Alcuni ricercatori e leader della sicurezza nazionale – continua il quotidiano – sostengono che gli algoritmi matematici al centro dei sistemi di intelligenza artificiale attuali, sebbene non pericolosi oggi, potrebbero diventarlo un domani. Per questo chiedono controlli più rigidi sui laboratori di intelligenza artificiale.

“Anche se gli scenari peggiori hanno una probabilità relativamente bassa, se si tratta di ipotesi che avrebbero un esisto catastrofico è comunque nostra responsabilità prenderli sul serio, preparandoci al peggio”, ha commentato Susan Rice, dirigente con un lungo passato da consigliera della Casa Bianca sia sotto Biden che sotto Obama. “Molti ritengono che si tratti di fantascienza, io non sono d’accordo”.

 

Un altro brutto guaio per ChatGPT: le chat degli utenti di MacOS erano salvate in chiaro

Nel frattempo, i guai per OpenAI non sono finiti. In questi giorni un ricercatore ha scoperto una vulnerabilità che esponeva le chat private degli utenti con l’IA generativa. In breve: si è scoperto che la versione per MacOS del chatbot salvava le conversazioni in chiaro nei file locali del computer, senza alcuna forma di protezione.

Questo significa che un qualsiasi malintenzionato – hacker o meno – avrebbe potuto leggerle in integrale semplicemente prendendo il controllo del Mac. Nel frattempo, l’azienda ha comunicato di aver risolto il problema.

Fonte:
  • New York Times