Microsoft ha confermato di avere accesso al log di tutte le conversazioni del chatbot recentemente integrato all’interno di Bing. Le conversazioni, spiega l’azienda, verrebbero monitorate in modo da poter migliorare il servizio e correggere eventuali comportamenti inappropriati dell’IA.
Subito dopo il suo debutto, il chatbot, attualmente in fase di testing, aveva fatto parlare di sè per la tendenza a rilasciare frequentemente risposte problematiche. Ad esempio, in alcuni casi aveva manifestato sentimenti morbosi, mentre in altri casi il chatbot aveva rivolto agli utenti delle ingiurie estremamente pesanti: l’IA ha paragonato un giornalista ad Adolf Hitler, in un’altra occasione aveva suggerito ad un utente di scrivere “Heil Hitler”.
La società ha dichiarato che i revisori umani monitorano ciò che gli utenti inviano al chatbot in modo da poter intervenire in caso di comportamenti inappropriati.
Microsoft ha specificato che le conversazioni degli utenti vengono rese anonime: tutti i dati personali vengono rimossi, mentre soltanto un piccolo gruppo di dipendenti ha accesso alle chat. L’azienda ha recentemente aggiornato le sue policy sulla privacy in modo da rendere più chiaro che le interazioni con il chatbot possono venire registrate e analizzate successivamente.
I primi test avevano rivelato che il chatbot tenderebbe a rispondere in maniera erratica quando la conversazione si protrae per le lunghe. Per questo motivo, Microsoft ha recentemente introdotto una nuova impostazione che cancella di default le chat dopo un certo numero di prompt. Inoltre, il chatbot non risponde più a domande che abbiano a che fare con i “suoi sentimenti”.