Gli scienziati della californiana OpenAI stanno addestrando un sofisticatissimo sistema a “neuroni multimodali”, sistema che viene sviluppato incrociando un gigantesco database di immagini a un altrettanto vasto database di testi per ottenere un riconoscimento fotografico straordinariamente preciso. Una ricerca ambiziosa che mira a sviluppare un machine learning che simula in tutto e per tutto la capacità umana di creare interconnessioni tra significato e significante.
Il software, noto come CLIP, sta compiendo i suoi primissimi passi ed è ben lungi dall’essere un pronto per essere immesso nel mercato, tuttavia rappresenta un importante sviluppo verso quelli che potrebbero essere gli algoritmi del futuro. Immaginatevi Google Images, ma versione dopata e avrete un’idea di massima delle dinamiche in questione.
Nel pieno dei test, lo staff di OpenAI è incappata tuttavia in un problema bizzarro, un “errore di astrazione” che ha reso nota una debolezza a cui tutti i programmatori dovranno in futuro stare attenti: il typographic attack.
Analizzando le immagini che gli vengono sottoposte, l’algoritmo dell’intelligenza artificiale pone priorità agli elementi più immediati a disposizione, nel decifrare il contenuto dello scatto stesso. Tutto normale, almeno fino a che qualcuno non decide di creare l’immagine di una motosega con in sovrimpressione il simbolo del dollaro. In quel caso la distinzione tra significato e significante si confonde e il programma è convinto di avere a che fare con un salvadanaio.
Per come è strutturata, l’IA non riesce (ancora) a concepire la pluralità dei messaggi, ma neanche che qualcuno potrebbe “trollarla”, quindi da per scontato che testo e immagini debbano in qualche modo essere collegati in maniera diretta. Una motosega in saldo, non è minimamente presa in considerazione.
Non solo, facendo riferimento a un database che è specchio della nostra società internettiana, CLIP incappa anche in alcuni “bug” che, più che meccanici, sono umani. Se volete esempi concreti, basti sapere che l’algoritmo da per scontato che il Medio Oriente sia sinonimo di terrorismo e che gli afroamericani siano dei gorilla ben vestiti.
Tralasciando il lordume che emerge dai razzismi della Rete, il problema del typographic attack è sicuramente uno degli elementi che il machine learning del futuro dovrà assolutamente affrontare. Non solo per risolvere qualche simpatica goffaggine occasionale, ma anche per prevenire che eventuali malintenzionati abusino di simili fragilità per portare avanti delle manovre potenzialmente tossiche.
Potrebbe anche interessarti:
- Multimodal Neurons in Artificial Neural Networks (openai.com)