La Commissione commerciale federale (FTC) degli USA ha avvisato le aziende private che ha intenzione di vegliare con maggiore attenzione i casi in cui le IA, le intelligenze artificiali, finiscono con il creare pregiudizi razziali o di genere tanto gravi da violare le leggi di tutela dei consumatori.
Nella gara per mettere le mani sulla nuova tecnologia, state attenti a non esagerare nel descrivere le potenzialità del vostro algoritmo. Per esempio, ipotizziamo che uno sviluppatore di IA dica ai suoi clienti che il suo prodotto sia in grado di garantire decisioni d’assunzione che sono al “100 per cento” privi di bias, ma che l’algoritmo sia stato programmato con dei dati che mancano di diversità di razza o di genere. Il risultato potrebbe essere ingannevole e discriminatorio – il che si tradurrebbe con l’intervento della FTC. […]
È importante che vi consideriate responsabili per la performance del vostro algoritmo. Le nostre raccomandazioni riguardanti la trasparenza e l’autonomia possono aiutarvi a prendere consapevolezza, ma tenete a mente che se non vi considerato responsabili di vostro, ci penserà la FTC a responsabilizzarvi,
ha scritto, non senza una certa aggressività, Elisa Jillson, procuratrice della FTC.
Gli Stati Uniti, insomma, si stanno muovendo a loro volta per evitare che la situazione della tecnologia legata al machine learning sfugga completamente di mano, in un territorio digitale che ancora non risulta adeguatamente mappato. Una simile preoccupazione è condivisa anche dall’UE, la quale si starebbe preparando ad avanzare in tal senso una nuova bozza di legge.
Potrebbe anche interessarti: