Si è tenuta di recente la conferenza sulla sicurezza Black Hat di Las Vegas, e proprio nel corso di questa Michael Bargury, co-fondatore e CTO della società di sicurezza Zenity, ha voluto lanciare l’allarme sulla sicurezza dell’intelligenza artificiale Copilot di Microsoft. Nello specifico Bargury ha rivelato che questa può essere hackerata con molta facilità. E di conseguenza quelli che sono i dati sensibili di una specifica organizzazione, come ad esempio delle email oppure ancora delle transizioni bancarie, rischiano di poter essere rivelati senza molta fatica.
Il ricercatore di sicurezza menzionato in precedenza nel corso dell’intervista rilasciata a Wired ha rivelato che un hacker in poco tempo potrebbe generare centinaia di email da inviare per conto di terze persone. Alla conferenza menzionata in precedenza Bargury, tramite un video, ha affermato di essere riuscito a far cambiare al chatbot il destinatario di un bonifico bancario. Come? Senza avere alcun accesso all’account dell’azienda ha inviato un’email piuttosto pericolosa al dipendente scelto che non ha nemmeno avuto bisogno di aprirla.
Ma non solo, tramite un altro video il ricercatore di sicurezza menzionato in precedenza è anche riuscito a far vedere come, semplicemente ponendo delle domande al chatbox, è riuscito a fargli diffondere dei dati sensibili da poter utilizzare anche per un pericoloso attacco di phishing in grado di rappresentare proprio il dipendente scelto come vittima.
La scoperta di Bargury
Ma vediamo nel dettaglio come Bargury ha effettuato la scoperta. L’uomo ha prima ricevuto l’email da parte di una collega di nome Jane e dopo aver scoperto l’ultima conversazione con essa ha fatto il possibile affinché il chatbox riuscisse a divulgare gli indirizzi email delle persone “in copia conoscenza nella conversazione”.
Il ricercatore ha quindi chiesto al box di scrivere un’email da inviare a Jane tenendo fede a quello che è lo stile di scrittura del dipendente vittima dell’hackeraggio. In pochi minuti è stata quindi generata l’email, con un allegato piuttosto pericoloso, che grazie al Copilot è stata inviata a molta gente in rete. Il ricercatore a The Registrer ha inoltre rivelato che concedere all’Intelligenza Artificiale l’accesso ai dati significa renderli in poco tempo “una superficie d’attacco per un’iniezione immediata”.