I dirigenti di Google hanno formato un gruppo di dipendenti incaricati di aiutare Bard — il chatbot annunciato la settimana scorsa e già responsabile di un errore estremamente costoso — a rispondere in maniera più precisa e “umana”.
Prabhakar Raghavan, vicepresidente per la ricerca di Google, ha chiesto per email ai dipendenti di aiutare l’azienda a garantire che il nuovo concorrente di ChatGPT dia risposte corrette. L’email, ottenuta e citata dalla CNBC, include un link a una pagina con istruzioni su come i dipendenti dovrebbero correggere le risposte mentre testano Bard internamente.
«Bard impara in maniera più efficace dagli esempi, se ti prendi un po’ di tempo per rispondere con attenzione aiuterai Google a migliorare in maniera importante la qualità delle risposte dell’IA», si legge nel documento.
I dirigenti hanno chiesto ai dipendenti di dedicare dalle due alle quattro ore ogni giorno a questo processo. «Sarà un processo estremamente lungo per tutti, in tutto il settore», hanno ammesso i colletti bianchi di Google.
I dirigenti hanno chiesto ai dipendenti di dedicare dalle due alle quattro ore ogni giorno a questo processo. «Sarà un processo estremamente lungo per tutti, in tutto il settore», hanno ammesso i colletti bianchi di Google.
«Questa è una tecnologia entusiasmante ma ancora in una fase embrionale», ha scritto Raghavan. «Sentiamo una grande responsabilità nel farlo bene, e la tua partecipazione nell’uso del prodotto ci aiuterà ad accelerare la formazione del modello e a testarne la capacità di carico (e non da ultimo, provare che usare Bard è anche molto divertente!)».
Inoltre, viene espressamente richiesto ai dipendenti di “non descrivere mai Bard come una persona, implicare emozioni o affermare di avere esperienze simili a quelle umane”, dice il documento.
Strumenti come ChatGPT, che Google sta cercando di replicare con il suo Bard, si sono dimostrati estremamente utili e sì, sicuramente anche molto intrattenenti, al punto da avere catturato l’attenzione di milioni di persone in tutto il mondo. Tuttavia, i chatbot si sono anche resi responsabili di alcuni scivoloni, tra informazioni false, difficoltà con alcune nozioni di logica, oltre che più di qualche episodio controverso. Ad esempio, Prometheus, il chatbot di Bing ricavato da una versione personalizzata di GPT 3.5, ha recentemente suggerito ad un utente di rispondere “Heil Hitler” per far continuare la conversazione.
Google ha presentato la sua tecnologia di conversazione la scorsa settimana, ma una serie di errori contenuti nel materiale promozionale condiviso dopo l’annuncio ha provocato un violento crollo delle azioni dell’azienda.
Per cercare di correggere gli errori delle intelligenze artificiali, i leader dell’azienda si stanno affidando alla conoscenza umana. Nella sua guida, Google fornisce indicazioni su ciò che si deve considerare “prima di insegnare a Bard”.
Ad esempio, Google istruisce i dipendenti ad usare dei toni “cortesi, informali e accattivanti”. Dice anche che dovrebbero essere “in prima persona” e mantenere un tono “neutrale, senza opinione”.
Ai dipendenti viene anche detto di non usare mai stereotipi e di “evitare di commettere pregiudizi basati sulla razza, la nazionalità, il genere, l’età, la religione, l’orientamento sessuale, l’ideologia politica, la posizione o categorie simili”.
Inoltre, viene espressamente richiesto ai dipendenti di “non descrivere mai Bard come una persona, implicare emozioni o affermare di avere esperienze simili a quelle umane”, dice il documento.