Ci sono sempre più ambienti in cui le decisioni vengono prese senza l’intervento umano: ecco un metodo per indurre l’intelligenza artificiale a fare scelte etiche.

C’è un metodo per mettere un occhio etico sull’intelligenza artificiale che proviene dal mondo della matematica.

I ricercatori dell’Università di Warwick, dell’Imperial College di Londra, dell’EPFL (Losanna) e di Sciteb Ltd hanno trovato un mezzo matematico che gestisce e sorveglia le scelte effettuate da sistemi di intelligenza artificiale in modo che siano etiche.

Ci sono sempre più ambienti in cui le decisioni vengono prese senza l’intervento umano, vi è quindi un forte incentivo a sapere in quali circostanze i sistemi di intelligenza artificiale potrebbero adottare una strategia non etica e ridurre o eliminare del tutto tale rischio.

L’intelligenza artificiale (IA) è sempre più diffusa in situazioni commerciali: il suo utilizzo è sfruttato, per esempio, per stabilire i prezzi dei prodotti assicurativi da vendere a un determinato cliente. Ci sono motivi legittimi per fare prezzi diversi per persone differenti, ma può anche essere redditizio “giocare” con la loro psicologia.

L’intelligenza artificiale potrebbe fare scelte non etiche con conseguenze morali ed economiche.

L’intelligenza artificiale ha un vasto numero di potenziali strategie tra cui scegliere, ma alcune non sono etiche e potrebbero comportare non solo un costo morale, ma una potenziale penalità economica significativa da parte dei garanti che, accorgendosi di operazioni illecite, potrebbero applicare multe significative.

Matematici e statistici dell’Università di Warwick, Imperial, EPFL e Sciteb Ltd si sono uniti per aiutare le aziende e i regolatori a creare un nuovo “Principio di ottimizzazione non etico” e fornire una formula semplice per stimarne l’impatto.

Il professor Robert MacKay del Mathematics Institute dell’Università di Warwick ha dichiarato:

Il nostro “Principio di ottimizzazione non etico” suggerito può essere utilizzato per aiutare i regolatori, il personale addetto alla conformità e altri a trovare strategie problematiche che potrebbero essere nascoste in un ampio spazio strategico. L’ottimizzazione può prevedere di scegliere in modo sproporzionato molte strategie non etiche, il cui controllo dovrebbe mostrare dove è probabile che sorgano problemi e quindi suggeriscono come l’algoritmo di ricerca AI debba essere modificato per evitarli in futuro.

Il Principio suggerisce anche che potrebbe essere necessario ripensare il modo in cui l’IA opera in spazi strategici molto ampi, in modo che i risultati non etici vengano esplicitamente respinti nel processo di ottimizzazione / apprendimento.