Affidarsi solo all’IA per la salute mentale può essere un rischio sottovalutato
Intelligenza artificiale e salute mentale, che cosa chiede un'importante associazione americana di psicologi?

Le Iene, lo storico programma di inchieste su Italia 1, hanno trattato tempo fa il tema dell’uso dell’intelligenza artificiale prima di entrare in un pronto soccorso. Ci prende nelle diagnosi oppure no? Qualche volta sì, ma alla fine del servizio si è concluso che il parere medico deve essere sempre quello umano e specialistico, anche quando riguarda la salute mentale.
Sta di fatto che le persone chiacchierano di salute, benessere e psicologia con i chatbot e si sentono sicuri grazie alle risposte con linguaggio naturale che ricevono. Finalmente, qualcuno ha analizzato proprio questo micro fenomeno di un tema più grande che riguarda Internet e le informazioni sulla salute che circolano, all’interno di questo l’Intelligenza artificiale che ormai sostituisce la più classica e semplice ricerca sui motori.
APA è la sigla che sta per American Psychological Association, e lancia un monito: l’intelligenza artificiale generativa non può sostituire il supporto professionale. Anche con chatbot e app studiate apposta per salute e benessere, offrono un’accessibilità e un comfort immediato non privo di rischi. Gli utenti , infatti, non sono consapevoli di cosa sia una convalida clinica, le sperimentazioni e i confronti interdisciplinari che ha dietro, della regolamentazione che richiede proprio per prevenire errori medici. I chatbot mancano anche di intelligenza emotiva, empatica, quella che permette al dottore di capire dove ci sia ansia facilmente o difficilmente superabile.
All’intelligenza artificiale può essere imposto di non impersonare medici, psicologi e terapeuti su richiesta degli utenti. Queste impostazioni si chiamano “safe-by-default”
L’APA ha inquadrato anziani, persone vulnerabili, ma soprattutto bambini e adolescenti esposti ai rischi dell’intelligenza artificiale. Usarla per risolvere problemi psicologici può rafforzare dei pensieri distorti, dei bias, compromettere anche dei successi o dei percorsi positivi intrapresi. In più, l’intelligenza artificiale espone informazioni e dati personali, quindi c’è un grosso rischio per la privacy. Gli interventi richiesti dall’associazione sono diversi, partendo dalle impostazioni “safe-by-default“, che vietano ai chatbot di impersonare psicologi o terapeuti.
Si aggiungono anche nuove norme per sviluppatori e società digitali, anche dove specializzate sul tema della salute. In più, creare maggiore consapevolezza tra gli utenti e una collaborazione di supervisione e approccio sull’IA e la salute mentale. Questa collaborazione deve coinvolgere psicologi, sviluppatori, legislatori, esperti di etica ma anche i pazienti stessi e le loro famiglie. L’Apa non va contro una democratizzazione anche digitale sulla salute mentale ma è un processo molto vasto che richiede controlli e prudenza.