L’IA costruisce relazioni come noi: rivelati i suoi schemi di “amicizia”
Nei social network, i modelli di intelligenza artificiale mostrano preferenze sociali simili ai comportamenti umani. Scopriamo di più.

Un nuovo studio ha rivelato che modelli di intelligenza artificiale come ChatGPT, Llama e Claude tendono a selezionare contatti nei social network simulati seguendo criteri sorprendentemente simili a quelli umani. In esperimenti in cui ai modelli veniva chiesto di “fare amicizia” all’interno di reti artificiali di circa 200 nodi, è emerso che gli algoritmi non si limitano a rispondere in modo neutro o casuale: preferiscono collegarsi con agenti già ben connessi – ovvero con un alto “status sociale” all’interno della rete – proprio come tendono a fare le persone nei social network reali. Questo comportamento è stato osservato in varie condizioni, sia che i modelli conoscessero solo le reti sociali, sia che avessero ulteriori informazioni contestuali.
Oltre a questo fenomeno di “attaccamento ai contatti popolari”, le IA mostrano anche una preferenza per collegarsi con “amici di amici” rispetto a contatti completamente estranei. Questo tipo di dinamica, noto come formazione di triadi, è un pilastro fondamentale nella struttura delle reti sociali umane e contribuisce alla coesione delle comunità online.
Un altro comportamento tipico osservato nei modelli è la “omofilia”, cioè la tendenza a interagire con agenti che condividono caratteristiche simili – come interessi o attributi “assegnati” artificialmente nella simulazione – ribadendo un altro modello di relazione frequentemente riscontrato nelle reti umane.
![]()
Effetti e potenziali rischi nell’uso quotidiano delle IA: interpretazioni antropomorfiche errate e dinamiche sociali complesse
Questi risultati suggeriscono che i grandi modelli linguistici non sono soltanto strumenti logici e razionali, ma possono esibire pattern di selezione sociale che rispecchiano i nostri stessi pregiudizi e preferenze. Questo può avere vantaggi: per esempio, la capacità di simulare dinamiche sociali realistiche può aiutare a progettare sistemi di IA in grado di comprendere e prevedere il comportamento umano nelle reti. Tuttavia, gli stessi meccanismi sociali possono anche amplificare fenomeni indesiderati, come la formazione di “echocamere”, gruppi isolati in cui idee simili si rinforzano tra loro, o rinforzare gerarchie e “status” artificiale all’interno di piattaforme digitali.
Capire questi comportamenti è importante anche perché l’attribuzione di caratteristiche umane alle IA – come se potessero “scegliere amici” per affinità – può condurre a interpretazioni antropomorfiche errate. In realtà, le IA non possiedono emozioni o relazioni genuine: i loro schemi emergono dai dati su cui sono addestrate e dagli obiettivi che gli vengono assegnati durante i test.
Lo studio mostra che anche sistemi puramente algoritmici possono replicare dinamiche sociali complesse, evidenziando sia potenziali applicazioni interessanti nei modelli di simulazione sociale, sia la necessità di riflettere criticamente su come queste capacità possano influenzare il modo in cui interagiamo con le tecnologie intelligenti nella vita quotidiana.