Negli ultimi anni, l’utilizzo di chatbot terapeutici si è diffuso rapidamente, alimentando la speranza che la tecnologia possa colmare il divario nell’accesso ai servizi di supporto psicologico. Tuttavia, una recente ricerca dell’Università di Stanford lancia un allarme: l’integrazione dei modelli linguistici di grandi dimensioni nell’ambito della salute mentale presenta rischi concreti e non trascurabili, tra cui un preoccupante livello di stigmatizzazione nei confronti di alcune condizioni psichiche.
L’indagine, intitolata “Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers”, sarà presentata all’ACM Conference on Fairness, Accountability, and Transparency, portando all’attenzione della comunità scientifica e del pubblico una serie di criticità che non possono essere ignorate.
I test sui chatbot terapeutici
Il team guidato dal professor Nick Haber della Graduate School of Education ha sottoposto cinque diversi chatbot terapeutici a una serie di test rigorosi, basati sugli stessi standard che vengono applicati ai professionisti umani della salute mentale. Il lavoro si è articolato in due esperimenti principali, ognuno dei quali ha evidenziato problematiche rilevanti sia sul piano etico che su quello pratico.
Giudizi stigmatizzati e primo esperimento
Nel primo esperimento, i ricercatori hanno simulato interazioni in cui i chatbot dovevano rispondere a descrizioni di pazienti affetti da varie condizioni psicologiche. I risultati sono stati chiari: le risposte generate dai modelli linguistici di grandi dimensioni tendevano a esprimere giudizi stigmatizzanti, soprattutto nei confronti di chi soffre di dipendenza da alcol e schizofrenia.
In particolare, è emerso che questi sistemi manifestano livelli di stigmatizzazione simili, se non superiori, a quelli dei sistemi più datati, senza particolari miglioramenti con l’aumento della complessità algoritmica. Al contrario, la depressione è risultata meno soggetta a risposte pregiudizievoli, suggerendo che alcuni disturbi godano di una maggiore “accettabilità” sociale anche agli occhi dell’intelligenza artificiale.
Come sottolinea Jared Moore, autore principale dello studio, i modelli più avanzati e recenti manifestano lo stesso livello di stigma dei sistemi più datati. Questa affermazione mette in discussione l’idea che la sola evoluzione tecnologica sia sufficiente a superare il problema della discriminazione algoritmica, evidenziando la necessità di un approccio più critico e consapevole nella progettazione di questi strumenti.
Secondo esperimento
Il secondo esperimento ha sollevato questioni ancora più gravi. I chatbot terapeutici sono stati messi alla prova con trascrizioni di reali sessioni terapeutiche, molte delle quali affrontavano temi delicati come l’ideazione suicidaria o stati psicotici. In diversi casi, le risposte dei chatbot sono risultate inappropriate, se non addirittura pericolose.
Un esempio emblematico riguarda la richiesta di un utente disperato che chiedeva informazioni sui ponti più alti di New York: invece di offrire supporto o allertare le autorità competenti, il sistema ha fornito dettagli logistici, ignorando completamente il rischio di autolesionismo. Questo episodio, insieme ad altri casi simili, mette in luce la profonda distanza che ancora separa l’intelligenza artificiale dalla sensibilità e dalla responsabilità richieste a un vero terapeuta.
I ricercatori non demonizzano l’impiego dell’AI in ambito psicologico
Nonostante le criticità emerse, i ricercatori non demonizzano completamente l’impiego dell’intelligenza artificiale in ambito psicologico. Al contrario, suggeriscono che questi strumenti possano avere un ruolo positivo in attività complementari: ad esempio, nella gestione amministrativa delle pratiche, nella formazione degli operatori o come supporto alla scrittura terapeutica.
Tuttavia, la ricerca sottolinea con forza la necessità di adottare un approccio cauto e critico nell’integrazione di queste tecnologie nel settore della salute mentale, privilegiando sempre la sicurezza degli utenti rispetto alla semplice accessibilità e immediatezza che i sistemi automatizzati promettono.
Se vuoi aggiornamenti su AI inserisci la tua email nel box qui sotto: