Possiamo davvero affidare la psicoterapia alle intelligenze artificiali?

Mensa Italia | QUID | Possiamo davvero affidare la psicoterapia alle intelligenze artificiali? | Corrado Schiavetto

Una breve analisi di quello che la letteratura offre

In questi ultimi anni le innovazioni nel campo dell’utilizzo delle intelligenze artificiali hanno portato ad ampliarne i settori in cui si pensa di poterle impiegare, tra cui quello della psicoterapia e del counseling psicologico. L’intelligenza artificiale è un campo dell’informatica che si occupa dello sviluppo di sistemi e algoritmi in grado di eseguire compiti che normalmente richiedono l’intelligenza umana (ad esempio il linguaggio naturale, il riconoscimento di pattern, il problem solving, l’apprendimento automatico e altro). All’interno degli studi sull’IA si possono distinguere due specifiche aree:

  • intelligenze artificiali deboli (o ristrette): sono tutti i sistemi progettati e programmati per compiti specifici. Un algoritmo che riconosce la voce o il volto delle persone, un sistema di raccomandazione online, una grammatica generativa, sono esempi di una IA debole.
  • intelligenze artificiali forti (o generali): in questo frangente invece rientrano tutti i sistemi che possono affrontare qualsiasi attività intellettuale umana. Al momento, è importante da considerare, non esiste ancora un tipo di IA tale da poter replicare ogni sfaccettatura del pensiero umano.

Per comprendersi come un esempio pratico, ChatGPT, uno dei più noti esempi di intelligenza artificiale utilizzata nel linguaggio, è considerabile un tipo di intelligenza artificiale debole, specializzata nel linguaggio naturale. 

Una revisione della letteratura in merito (Gual-Montolio et al, 2022; Minerva & Giubilini, 2023; Nilsen et al., 2022) ha riscontrato come l’intelligenza artificiale, applicata alla psicoterapia, ha potuto aumentare i benefici del trattamento per i pazienti, con risposte puntuali e in tempo reale alle specifiche esigenze, potendo modificare in corso d’opera il trattamento e aumentando il tasso di soddisfazione e compliance alla terapia terapia). Bisogna però tenere in considerazione i possibili vantaggi e rischi di un simile approccio. 

Provando a fare una rapida carrellata, questi sono dalla letteratura i possibili vantaggi:

  1. Accessibilità e Scalabilità aumentate: si definisce accessibilità la facilità con cui le persone possono accedere a una determinata risorsa e scalabilità la capacità di un dato servizio o strumento di espandersi per accogliere le esigenze di un maggior numero di utenti. In quest’ottica un’IA può – tramite l’utilizzo di app specifiche e servizi digitali –rendere il supporto psicologico e terapeutico accessibile anche in aree rurali o distanti non facilmente accessibili, in contesti bellici, e aumentando esponenzialmente il bacino di utenti che potrebbero beneficiarne.
  2. Estrema personalizzazione: dettagliata dei dati e l’automatizzazione dei sistemi di ricerca sono in grado di modificare e adattare in modo dinamico gli approcci terapeutici alle esigenze specifiche di ciascun individuo. La personalità del paziente – risultante da specifici test somministrati – l’evoluzione del suo percorso terapeutico e gli obiettivi individuali, fornirebbero la serie di dati necessari per questo genere di calcoli.
  3. Monitoraggio continuo del benessere: L’IA offre la capacità di monitorare in modo continuo il benessere emotivo. Sistemi automatizzati possono analizzare costantemente dati complessi per individuare segnali precoci di deterioramento nel benessere emotivo di un individuo. Questo approccio permette risposte tempestive, migliorando la gestione di situazioni di emergenza e contribuendo alla prevenzione di condizioni critiche.

I possibili svantaggi invece risulterebbero essere:

  1. Privacy e Sicurezza dei Dati: La raccolta e l’elaborazione di dati sensibili sollevano preoccupazioni significative in termini di privacy e sicurezza. Gli utenti potrebbero esitare a condividere informazioni personali con un sistema automatizzato, richiedendo un’attenzione particolare alle misure di sicurezza e alla conformità normativa per garantire la protezione dei dati.
  2. Limitazioni nella Comprensione Umana: L’IA potrebbe presentare limitazioni nella comprensione della complessità delle emozioni umane. La capacità di interpretare sfumature sottili nel linguaggio verbale e non verbale potrebbe non essere all’altezza delle aspettative, limitando la precisione della diagnosi e delle risposte terapeutiche.
  3. Assenza di Empatia Umana: L’assenza di empatia umana è – a oggi – la sfida maggiore nell’applicazione dell’intelligenza artificiale nel campo della consulenza psicologica e della psicoterapia, associandosi al punto precedente riguardante la limitazione nella comprensione umana. La comprensione e la risposta alle sfumature delle emozioni umane rappresentano elementi critici nella terapia, e l’IA potrebbe non riuscire a comprendere appieno quale sia la richiesta di sintonizzazione che il paziente richiederebbe in quel dato momento, concentrandosi principalmente nel dare la “migliore risposta possibile secondo i propri dati”, e non secondo quello che è l’andamento corrente della discussione.

Proprio quest’ultimo punto si rivela essere il più grande scoglio rispetto a una psicoterapia basata puramente sull’intelligenza artificiale: sarebbe priva di alcuni dei cosiddetti fattori aspecifici (Rosenzweig, 1936; Luborsky et al., 1975; Smith & Glass, 1977; Wampold, 2001, Warwick et al., 2023) che vengono considerati fondamentali per un esito positivo di un percorso psicoterapeutico, pur avendone in qualche misura altri. Nello specifico tali fattori – trasversali a ogni approccio – sono:

  • processi di cambiamento
  • qualità del terapeuta
  • elementi della relazione
  • elementi del trattamento
  • caratteristiche del paziente

Se il punto 5 non è da considerare nell’ottica di questo articolo (se non nella misura in cui tra le caratteristiche del paziente possa configurarsi la fiducia o meno nel progresso tecnologico e, dunque, la predisposizione o meno nell’affidarsi a un’intelligenza artificiale), i punti maggiormente carenti – e considerati invece dalla revisione della letteratura tra i più fondamentali – risulterebbero essere il punto 2 e il punto 3, la qualità del terapeuta e gli elementi della relazione.

Durante un trattamento psicologico e psicoterapeutico, il paziente deve avere la consapevolezza e la fiducia che l’altra persona sia umana, possa sbagliare e, soprattutto, possa correggersi e correggere i propri errori. Parte del lavoro terapeutico avviene anche tramite processi imitativi ed emotivi, non solamente cognitivi: vedere che la persona di fronte a sé è in grado di ammettere di avere sbagliato senza sentirsi in qualche maniera svilita o indebolita da ciò, permettere al paziente di sperimentare la possibilità essa stessa di sbagliare e di crescere tramite i propri errori. Inoltre, un terapeuta empatico e responsivo, che sappia ridere e piangere con il paziente senza per questo farsi sommergere da questi stati emotivi, permette al paziente stesso di accogliere i propri stati d’animo senza negarseli o vederli come inadatti o sbagliati (una persona mi ha detto una frase illuminante in una discussione: “io devo avere la certezza che il mio terapeuta faccia il tifo per me”, cosa che non possiamo aspettarci da un’intelligenza artificiale).

Tutto questo, unito a un discorso più ampio, mostra come la psicoterapia tramite intelligenza artificiale può essere considerata un valido supporto per terapie volte principalmente alla riduzione di sintomi superficiali tramite esercizi e compiti (terapie strategico brevi e cognitivo-comportamentali), ma che potrebbe risultare inadatta a terapie più strutturate con disturbi di personalità più sfaccettati ed emotivamente implicate, dove è necessaria una presenza umana che non solo sappia dare la risposta pronta e sappia monitorare il corretto svolgimento di compiti o di terapie farmacologiche, ma sappia anche “stare” nel dolore e nella sofferenza dell’altra persona, senza perdere il controllo (un’intelligenza artificiale è controllata dal paziente, gerarchizzando la relazione) ma senza essere sempre inattaccabile.

Bibliografia:

Gual-Montolio, P., Jaén, I., Martínez-Borba, V., Castilla, D., & Suso-Ribera, C. (2022). Using Artificial Intelligence to Enhance Ongoing Psychological Interventions for Emotional Problems in Real- or Close to Real-Time: A Systematic Review. International journal of environmental research and public health19(13)

Luborsky, L., Singer, B., & Luborsky, L. (1975). Comparative studies of psychotherapies: Is it true that “everyone has won and all must have prizes”? Archives of General Psychiatry, 32(8), 995–1008.

Minerva, F., & Giubilini, A. (2023). Is AI the Future of Mental Healthcare?. Topoi : an international review of philosophy42(3)

Nilsen, P., Svedberg, P., Nygren, J., Frideros, M., Johansson, J., & Schueller, S. (2022). Accelerating the impact of artificial intelligence in mental healthcare through implementation science. Implementation Research and Practice3

Rosenzweig, S. (1936). Some implicit common factors in diverse methods of psychotherapy. American Journal of Orthopsychiatry, 6(3), 412–415

Smith, M. L., & Glass, G. V. (1977). Meta-analysis of psychotherapy outcome studies. American Psychologist, 32(9), 752–760.

Wampold, B. E. (2001). The great psychotherapy debate: Models, methods, and findings. Lawrence Erlbaum Associates Publishers.

Warwick, L. A., Lenz, A. S., Branch, M. L., & Lemberger-Truelove, M. E. (2023). A meta-analysis of common factors in child therapy interventions. Journal of Child and Adolescent Counseling, 9(2), 170–191.

Corrado Schiavetto

Corrado Schiavetto

Corrado Schiavetto (1982), dopo una laurea in Lettere classiche e medievali ha virato radicalmente, approdando alla psicologia e, da lì, alla psicotraumatologia. Attualmente allievo analista presso il Centro italiano di psicologia analitica, ha collaborato con il Mensa e la Treccani per divulgare contenuti di ambito psicologico e sociologico, parlando dei meccanismi di informazione e disinformazione, delle dinamiche social, di consenso e di linguaggio. Su Instagram come @psicodinamismo gestisce una pagina dove tratta questi temi.

Commenti

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *