Secondo un dettagliato rapporto di Bloomberg, molti dipendenti di Google continuano ad essere scettici sul successo di Bard, l’IA conversazionale nata in risposta a ChatGPT di OpenAI. Il media outlet ha riportato di aver parlato con 18 dipendenti dell’azienda e di aver letto anche diverse conversazioni interne all’azienda, ottenendo una fotografia poco rassicurante.

In queste discussioni interne, un dipendente ha notato come Bard desse frequentemente consigli pericolosi agli utenti su molti temi assolutamente delicati. Ad esempio, in alcuni test Bard avrebbe dato dei consigli al limite del suicida sulle pratiche da seguire per far atterrare con successo un aeroplano, oppure su come fare immersioni subacquee.

In alcuni test Bard avrebbe dato dei consigli al limite del suicida sulle pratiche da seguire per far atterrare con successo un aeroplano, oppure su come fare immersioni subacquee.

Un altro dipendente ha definito Bard “peggio che inutile”, supplicando i suoi superiori di riconsiderare il lancio della beta pubblica. Attualmente Bard non è disponibile al grande pubblico ma è in fase di beta esclusivamente negli Stati Uniti. Sempre secondo Bloomberg, i dirigenti di Google avrebbero addirittura ignorato una valutazione del rischio curata da un team interno di sicurezza, decidendo di lanciare l’IA anche se non era pronta.

Onde evitare equivoci, il rapporto non ha valutato il rischio di Bard per la sicurezza degli utenti, quanto per la reputazione di Google come fonte affidabile per reperire informazioni di qualità.

Ovviamente non tutti i dipendenti condividono questo sentimento e ci sono anche alcune fonti che hanno difeso le scelte di Google, sostenendo che aprire la fase di beta quanto prima sia fondamentale, proprio per riuscire ad avere un prodotto maturo (e sicuro per gli utenti) in tempi rapidi.