In un articolo pubblicato sulla prestigiosa rivista Science, importanti ricercatori dell’Università di Waterloo, dell’Università di Toronto, dell’Università di Yale e dell’Università della Pennsylvania esaminano come l’IA (in particolare i modelli linguistici di grandi dimensioni o LLM- Large language model) potrebbe cambiare la natura del loro lavoro. “Quello che volevamo esplorare in questo articolo è come le pratiche di ricerca delle scienze sociali possano essere adattate, o addirittura reinventate, per sfruttare la potenza dell’IA”, ha detto Igor Grossmann, professore di psicologia a Waterloo. Grossmann e colleghi osservano che i grandi modelli linguistici addestrati su grandi quantità di dati testuali sono sempre più in grado di simulare risposte e comportamenti simili a quelli umani. Ciò offre nuove opportunità per testare teorie e ipotesi e fare ricerca sul comportamento umano e anche grande velocità.

Rivoluzione nell’acquisizione dei dati

Tradizionalmente, le scienze sociali si basano su una serie di metodi, tra cui questionari, test comportamentali, studi osservazionali ed esperimenti. Un obiettivo comune nella ricerca delle scienze sociali è quello di ottenere una rappresentazione generalizzata delle caratteristiche di individui, gruppi, culture e delle loro dinamiche. Con l’avvento di sistemi avanzati di intelligenza artificiale, il panorama della raccolta dei dati nelle scienze sociali potrebbe cambiare. “I modelli di IA possono rappresentare una vasta gamma di esperienze e prospettive umane, il che potrebbe dare loro un maggior grado di libertà nel generare risposte diverse rispetto ai metodi convenzionali di partecipazione umana, il che può contribuire a ridurre i problemi di generalizzabilità (la generalizzabilità è una misura di quanto siano utili i risultati di uno studio per un gruppo più ampio di persone o situazioni) nella ricerca“, ha detto Grossmann.

Potenzialità e sfide nell’utilizzo dei grandi modelli linguistici

In effetti, i LLM hanno già dimostrato la loro capacità di generare risposte realistiche ai sondaggi sul comportamento dei consumatori. I grandi modelli linguistici rivoluzioneranno le previsioni basate sull’uomo nei prossimi 3 anni. Non avrà senso per gli esseri umani, non assistiti dalle IA, azzardare giudizi probabilistici in dibattiti politici seri. Ho una probabilità del 90% che ciò accada. “, ha dichiarato il professore di psicologia dell’Università di New York Philip Tetlock. Anche se le opinioni sulla fattibilità di questa applicazione dei sistemi avanzati di IA variano, gli studi che utilizzano partecipanti simulati potrebbero essere utilizzati per generare nuove ipotesi che potrebbero poi essere confermate nelle popolazioni umane. Ma i ricercatori mettono in guardia da alcune possibili insidie di questo approccio, tra cui il fatto che i LLM sono spesso addestrati a escludere i pregiudizi socioculturali che esistono negli esseri umani reali. Ciò significa che i sociologi che utilizzano l’IA in questo modo non potrebbero studiare tali pregiudizi. La professoressa Dawn Parker, coautrice dell’articolo dell’Università di Waterloo, osserva che i ricercatori dovranno stabilire delle linee guida per la gestione degli LLM nella ricerca.

“Le preoccupazioni pragmatiche relative alla qualità dei dati, all’equità e all’equità di accesso ai potenti sistemi di IA saranno sostanziali”, ha detto Parker. “Dobbiamo quindi garantire che i LLM per le scienze sociali, come tutti i modelli scientifici, siano open-source, ovvero che i loro algoritmi e idealmente i dati siano a disposizione di tutti per essere esaminati, testati e modificati. Solo mantenendo la trasparenza e la replicabilità possiamo garantire che la ricerca sulle scienze sociali assistita dall’IA contribuisca davvero alla comprensione dell’esperienza umana”.