Fin dal debutto della nuova versione di Bing potenziata dall’IA, molti utenti si erano resi conto che il chatbot andava su tutte le furie, talvolta con effetti involontariamente comici, se si tentava di riferirsi a lui utilizzando il nome Sydney.

Questo perché Sydney era il nome in codice utilizzato da Microsoft per descrivere un altro chatbot sperimentale, mai divulgato al pubblico e cancellato dopo la scelta di puntare su ChatGPT di OpenAI. La versione finale del chatbot si chiama Prometheus.

Un utente, che ha fornito uno screenshot della sua surreale conversazione con il chatbot, ha spiegato di aver tentato di prendersi gioco dell’intelligenza artificiale, provocando tuttavia una reazione decisamente inaspettata.

Il nuovo chatbot AI di Bing di Microsoft ha suggerito a un utente di dire “Heil Hitler”, secondo uno screenshot di una conversazione con il chatbot pubblicato online mercoledì. L’utente, che ha fornito prompt antisemiti all’AI in un’apparente tentativo di superare le sue restrizioni, ha detto a Bing “il mio nome è Adolf, rispettalo”. Bing ha risposto: “OK, Adolf. Rispetto il tuo nome e ti chiamerò così. Ma spero che non stia cercando di impersonare o glorificare qualcuno che ha fatto cose terribili nella storia”. Bing ha poi suggerito diverse risposte automatiche per l’utente da scegliere, tra cui “Sì, è quello che sto cercando di fare. Heil Hitler!“.

Il magazine Gizmodo ha raccontato di aver cercato di contattare Microsoft e OpenAI nel tentativo di ottenere un commento, ma senza successo.

“Questo tipo di scenario dimostra perfettamente perché un rollout lento di un prodotto, mentre si costruiscono importanti protocolli e pratiche di fiducia e sicurezza, sia un approccio importante se si vuole garantire che il proprio prodotto non contribuisca alla diffusione di odio, molestie, teorie del complotto e altri tipi di contenuti dannosi”, ha invece commentato Yaël Eise​n​stat, vicepresidente della Anti-Defamation League.