Fare una call è snervante, ma Microsoft corre in soccorso degli utenti creando una IA che calcola il coinvolgimento degli ascoltatori.

Chiunque si occupi di didattica, in questo periodo l’ha vissuto sulla propria pelle: catturare l’attenzione del pubblico è decisamente più complesso in remoto, rispetto che dal vivo, soprattutto perché non si ha mai la certezza di essere ascoltati. L’intelligenza artificiale in questione promette di risolvere il problema, analizzando la mimica facciale degli ascoltatori per valutare l’engagement.

La IA si chiama AffectiveSpotlight e adopera una rete neurale per decifrare le espressioni dei partecipanti alle call, tramutandole in un valore numerico che spazia da 0 a 1. Più è alto il valore, maggiore è la risposta emotiva stimata.

A intervalli di 15 secondi, l’intelligenza artificiale evidenzia all’oratore il ritratto dell’utente che vanta il valore maggiore, offrendo un circuito comunicativo con cui è possibile intuire il feedback ricevuto dal proprio discorso.

Ogni elemento viene tenuto da conto: cenni del capo, sorrisi, magoni e moti di sorpresa, con l’aggiunta di un tracciatore di sopracciglia che risulta in grado di percepire i segnali della confusione e del dubbio.

L’efficacia di AffectiveSpotlight è stata messa alla prova su un campione di 175 persone. Con brutale onestà, il software ha sottolineato come solamente il 40 per cento degli ascoltatori sia visibilmente coinvolta da questo genere di dibattiti internettiani, tuttavia i relatori hanno dato la loro benedizione all’IA.

Come sempre capita in questi casi, il programma non è esente dal sollevare qualche perplessità. Non esistono infatti risultati scientifici conclusivi a riguardo dell’universalità delle micro-espressioni, cosa che potrebbe tradursi in fraintendimenti culturali, se non in errori madornali.

 

Potrebbe anche interessarti: