IBM prende posizione in merito ad un uso non regolamentato del riconoscimento facciale e ferma (per il momento?) qualsiasi sviluppo e commercializzazione della tecnologia.
Il CEO di IBM, Arvind Krishna, ha inviato una lettera al Congresso degli Stati Uniti in cui comunica che l’azienda non offrirà più software di analisi o riconoscimento facciale per scopi generici e che non svilupperà o effettuerà più ricerche sulla tecnologia.
La lettera è stata scritta a sostegno Justice in Policing Act, disegno di legge presentato ieri.
IBM si oppone fermamente e non perdonerà l’uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà di base o qualsiasi scopo che non sia coerente con i nostri valori e Principi di fiducia e trasparenza. Riteniamo che sia giunto il momento di avviare un dialogo nazionale su se e come la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell’ordine nazionali.
Il disegno di legge affronta una vasta gamma di questioni: tra le altre cose, espande i requisiti per le fotocamere corporee, ma limita l’uso del riconoscimento facciale in relazione ad esse. Fornirebbe sussidi per l’hardware, ma solo se fossero utilizzati secondo i protocolli sviluppati ed elencati pubblicamente.
Nella sua lettera il CEO di IBM parla anche dell’intelligenza artificiale:
I fornitori e gli utenti dei sistemi Al hanno una responsabilità condivisa per garantire che Al sia sottoposto a test di parzialità, in particolare quando utilizzato dalle forze dell’ordine, e che tali test siano controllati e segnalati
Nella sua lettera, Krishna ha anche sostenuto la riforma della polizia, sostenendo che un maggior numero di casi di cattiva condotta della polizia dovrebbe essere posto sotto la giurisdizione del tribunale federale e che il Congresso dovrebbe apportare modifiche alla dottrina dell’immunità qualificata, tra le altre misure.