Gli scienziati hanno messo a punto un sistema neurale che permette di valutare l’affidabilità dell’Intelligenza Artificiale.

L’avanzamento dell’Intelligenza Artificiale è tale che riesce a prendere decisioni in campi che influenzano le nostre vite come la guida autonoma e la diagnosi medica. Oltre all’alto grado di precisione questi sistemi devono essere anche affidabili. Un gruppo di scienziati ha messo a punto un sistema di rete neurale che può definire il suo livello di sicurezza e l’affidabilità sue previsioni.

La consapevolezza e affidabilità di questi sistemi è si basa sulla qualità dei dati su cui deve lavorare ed è stata chiamata Deep Evidential Regression.

Si tratta di valutare la fiducia del sistema stesso includendo la possibilità di suggerimenti per aumentare questa valutazione: ad esempio modificando la rete o i dati di input.

Abbiamo bisogno della capacità non solo di avere modelli ad alte prestazioni, ma anche di capire quando non possiamo fidarci di quei modelli

afferma l’informatico Alexander Amini del MIT Computer Science and Artificial Intelligence Laboratory (CSAIL).

 

Gli scienziati hanno testato il loro nuovo sistema indirizzandolo a giudicare le profondità in diverse parti di un’immagine. La rete si è confrontata bene con le configurazioni esistenti, stimando anche la propria incertezza.

 

Rispetto a sistemi di protezione già esistenti questa è innovativa per la velocità con cui funziona e senza un’eccessiva richiesta di calcolo.

 

In aggiunta però la rete è stata in grado di segnalare i momenti in cui ha riscontrato immagini molto diverse dai dati su cui era stata addestrata.

I ricercatori hanno paragonato la loro idea alla guida autonoma su un auto. Considerando diversi livelli di certezza sull’opportunità di procedere attraverso un incrocio o se aspettare: questo sistema può verificare se la rete neurale è meno sicura delle sue previsioni, comprendendo anche suggerimenti per aumentare la valutazione modificando la rete o i dati di input.

Questo approccio permette di sistemare l’incertezza di un modello, definire quanta percentuale di errore aspettarci e determinare quali sono i dati mancanti che potrebbero migliorare il modello.

La ricerca è stata presentata alla conferenza NeurIPS ed è disponibile un documento online.

 

Può interessarti anche: