Google, le 5 regole per una IA sicura #LegaNerd

Terminator-Salvation_0

Dopo le leggi di Asimov sulla robotica, è Google a dettare le sue regole per la realizzazione sicura di una inteligenza artificiale.

Tutti vogliono creare una perfetta intelligenza artificiale, ma nessuno vuole rischiare di ricreare Skynet del film Terminator. Così la divisione Google Research rende pubblico un comunicato con le sue 5 regole per lo sviluppo di un’IA sicura.

Il titolo del documento prende il nome di Concrete Problems in AI Safety. Vediamo i punti principali:

 

  • Evitare effetti collaterali negativi: bisogna asscurarsi che l’IA non disturbi l’ambiente circostante, nello svolgimento delle sue attività.
  • Evitare il “Reward Hacking”: l’intelligenza artificiale non deve imbrogliare, dando a credere di aver compiuto la sua attività in modo corretto, quando invece non è così.
  • Supervisione scalabile: l’intelligenza artificiale può ricevere feedback dall’uomo per migliorarsi, ma a un certo punto deve essere in grado di cavarsela da sola.
  • Esplorazione sicura: l’IA può esplorare per compiere le sue attività, ma non deve danneggiare se stessa o l’ambiente circostante
  • Affidabilità al cambiamento: l’intelligenza artificiale deve essere in grado di svolgere le sue mansioni in modo efficace anche in un ambiente diverso da quello in cui ha imparato ad agire inizialmente.

 

Le macchine emersero dalle ceneri dell’incendio nucleare. La loro guerra per sterminare il genere umano aveva infuriato per anni e anni. Ma la battaglia finale non si sarebbe combattuta nel futuro: sarebbe stata combattuta qui, nel nostro presente… Oggi.

da Terminator

 

 

Aree Tematiche
Creatività Hardware Idee Internet Opensource Robotica Software Tecnologie
Tag
lunedì 11 luglio 2016 - 11:15
Edit

Lega Nerd Podcast

Lega Nerd Live

LN Panic Mode - Premi "P" per tornare a Lega Nerd