IA sconfitte con dei post-it, ecco i typographic attack

2 mesi fa

intelligenza artificiale elefanti 2

Gli scienziati della californiana OpenAI stanno addestrando un sofisticatissimo sistema a “neuroni multimodali”, sistema che viene sviluppato incrociando un gigantesco database di immagini a un altrettanto vasto database di testi per ottenere un riconoscimento fotografico straordinariamente preciso. Una ricerca ambiziosa che mira a sviluppare un machine learning che simula in tutto e per tutto la capacità umana di creare interconnessioni tra significato e significante.

Il software, noto come CLIP, sta compiendo i suoi primissimi passi ed è ben lungi dall’essere un pronto per essere immesso nel mercato, tuttavia rappresenta un importante sviluppo verso quelli che potrebbero essere gli algoritmi del futuro. Immaginatevi Google Images, ma versione dopata e avrete un’idea di massima delle dinamiche in questione.

Nel pieno dei test, lo staff di OpenAI è incappata tuttavia in un problema bizzarro, un “errore di astrazione” che ha reso nota una debolezza a cui tutti i programmatori dovranno in futuro stare attenti: il typographic attack.

Analizzando le immagini che gli vengono sottoposte, l’algoritmo dell’intelligenza artificiale pone priorità agli elementi più immediati a disposizione, nel decifrare il contenuto dello scatto stesso. Tutto normale, almeno fino a che qualcuno non decide di creare l’immagine di una motosega con in sovrimpressione il simbolo del dollaro. In quel caso la distinzione tra significato e significante si confonde e il programma è convinto di avere a che fare con un salvadanaio.

 

clip

 

Per come è strutturata, l’IA non riesce (ancora) a concepire la pluralità dei messaggi, ma neanche che qualcuno potrebbe “trollarla”, quindi da per scontato che testo e immagini debbano in qualche modo essere collegati in maniera diretta. Una motosega in saldo, non è minimamente presa in considerazione.

Non solo, facendo riferimento a un database che è specchio della nostra società internettiana, CLIP incappa anche in alcuni “bug” che, più che meccanici, sono umani. Se volete esempi concreti, basti sapere che l’algoritmo da per scontato che il Medio Oriente sia sinonimo di terrorismo e che gli afroamericani siano dei gorilla ben vestiti.

Tralasciando il lordume che emerge dai razzismi della Rete, il problema del typographic attack è sicuramente uno degli elementi che il machine learning del futuro dovrà assolutamente affrontare. Non solo per risolvere qualche simpatica goffaggine occasionale, ma anche per prevenire che eventuali malintenzionati abusino di simili fragilità per portare avanti delle manovre potenzialmente tossiche.

 

Potrebbe anche interessarti:

 

 

Intel sta addestrando una IA per filtrare in diretta l'hate speech
Intel sta addestrando una IA per filtrare in diretta l'hate speech
Artista spagnolo crea un video da trip usando il deep-learning
Artista spagnolo crea un video da trip usando il deep-learning
L'Estonia ha creato un carrarmato automatizzato da paracadutare in guerra
L'Estonia ha creato un carrarmato automatizzato da paracadutare in guerra
Anche l'intelligenza artificiale fatica a dominare il gioco QWOP
Anche l'intelligenza artificiale fatica a dominare il gioco QWOP
Microsoft Word: in arrivo la funzione "Text Prediction"
Microsoft Word: in arrivo la funzione "Text Prediction"
Questa IA è in grado di comprendere la musica "spiando" il pianista
Questa IA è in grado di comprendere la musica "spiando" il pianista
USA, la commissione del Congresso lascia le porte aperte ai robot killer
USA, la commissione del Congresso lascia le porte aperte ai robot killer