Kate Crawford, ricercatrice presso Microsoft e presso la scuola di giornalismo e comunicazione della Southern California Annenberg, manifesta tutta la sua preoccupazione, scioccata dal fatto che molte aziende si ostinino ad addestrare IA (intelligenze artificiali) per portare a termine scopi pseudoscientifici quali la lettura delle emozioni o l’identificazione delle menzogne attraverso le microespressioni facciali.

La ricercatrice ha riadattato per il The Atlantic un assaggio del suo ultimissimo libro, “Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence”, ricordando al mondo come la storia delle scienze sia disseminata di espedienti privi di basi attendibili e di come l’applicazione del machine learning in questi contesti sia condannata a fallire clamorosamente.

Crawford cita tra tutti l’algoritmo di screening ideato dalla Transportation Security Administration immediatamente dopo al disastro delle torri gemelle. Il sistema, noto come SPOT, avrebbe dovuto identificare i terroristi direttamente durante l’ingresso negli States, traendo conclusioni dal come avrebbero o meno dimostrato stress, paura o inganno.

Un progetto da 900 milioni, soldi che probabilmente sono stati buttati al vento, visto che la IA non ha mai dato segno di interpretare consistentemente le emozioni umane. D’altronde la mimica facciale è in gran parte legata alla cultura e alle abitudini locali: come spesso vediamo, quello che può funzionare sugli uomini caucasici raramente rende risultati altrettanto efficienti sulle donne afroamericane.

Vi è del pericolo nell’automatizzare il riconoscimento delle emozioni. Questi tool possono portarci indietro ai tempi della frenologia, quando dichiarazioni fasulle erano adoperate per supportare i sistemi di potere esistenti. Le emozioni sono complicate e sviluppano e cambiano in relazione alle nostre culture e alle nostre storie – tutta una serie di contesti che vive al di fuori della sfera delle IA,

ha scritto la ricercatrice.

 

Potrebbe anche interessarti: