Microsoft ha nuovamente aggiornato Bing Chat, il chatbot integrato all’interno del suo motore di ricerca e oggi in fase di closed beta. L’ultimo aggiornamento introduce una nuova funzione curiosa, che consente di scegliere la personalità dell’IA, sulla base di tre opzioni.
Gli utenti potranno scegliere tra tre modalità: creatività, equilibrata e precisa.
Se si sceglie la prima opzione, il chatbot tenderà a formulare risposte originali e ingegnose, anche cercando di intrattenere l’utente e sorprenderlo. La seconda modalità è una via di mezzo e cercherà di privilegiare sempre risposte ragionevoli e coerenti, con un giusto bilanciamento tra creatività e precisione delle risposte. Infine, con la terza modalità Bing lascerà da parte ogni estroversione per darci sempre risposte precisissime, quasi enciclopediche. La massima priorità viene data all’accuratezza delle risposte fornite, anche nel linguaggio usato dal bot.
Gli utenti troveranno sempre impostata di default la modalità bilanciata, cioè la via di mezzo tra creatività e precisione. Gli utenti saranno comunque sempre liberi di scegliere una delle altre due personalità del bot. Microsoft sta anche lavorando ad altre modalità, che tuttavia non sono ancora state annunciate.
Now almost everyone – 90% – should be seeing the Bing Chat Mode selector (the tri-toggle). I definitely prefer Creative, but Precise is also interesting – it's much more factual. See which one you like. The 10% who are still in the control group should start seeing it today.
— Mikhail Parakhin (@MParakhin) March 1, 2023
L’ultima versione di Bing dovrebbe anche aver risolto alcuni dei problemi storici che affliggevano il bot. Ad esempio, Bing non si rifiuterà più immotivatamente di rispondere alle domande degli utenti. Inoltre dovrebbero essere stata ridotta anche l’incidenza delle cosiddette allucinazioni, cioè i casi in cui il bot entrava in confusione formulando risposte erratiche e talvolta offensive.