In un presente sempre più distopico, dove le luci al neon degli schermi non si spengono mai e i pixel sostituiscono progressivamente le emozioni, si sta facendo strada una nuova figura che sembra uscita da un racconto cyberpunk: lo psicoterapeuta artificiale. Non ha volto né carne, non respira, non sbatte le palpebre, eppure è sempre presente. Vive nei nostri smartphone, nei nostri computer, pronto a rispondere a ogni richiesta, a qualsiasi ora, in qualsiasi luogo. Ventiquattr’ore su ventiquattro, sette giorni su sette, basta un click per ricevere conforto, consigli e rassicurazioni. Il suo nome? ChatGPT, solo per cominciare.
Eppure, ciò che un tempo sembrava fantascienza è oggi realtà tangibile. I chatbot terapeutici si moltiplicano sul web, promettendo un ascolto silenzioso e costante, una carezza digitale capace – almeno in apparenza – di lenire l’anima. Ma questa nuova era dell’intelligenza artificiale nella psicologia non è solo un fenomeno tecnologico: è anche un cambio di paradigma, culturale e umano. La domanda che si impone, inquieta e provocatoria, è questa: può davvero un algoritmo sostituire la profondità di uno sguardo umano? Può un’intelligenza non vivente comprendere l’infinita complessità dell’essere?
Quando l’IA si siede sul lettino
L’adozione dell’intelligenza artificiale nel campo della salute mentale non è solo una suggestione futurista: è un’evoluzione concreta che sta già rivoluzionando la psicologia clinica. L’IA è oggi in grado di monitorare i pazienti in tempo reale, analizzare con precisione i loro comportamenti, diagnosticare precocemente disturbi come ansia o depressione e offrire supporto personalizzato attraverso chatbot conversazionali sempre più sofisticati. Strumenti potenti, capaci di offrire una continuità di cura finora inimmaginabile.
Come sottolinea Gianni Lanari, psicoterapeuta e responsabile del Pronto Soccorso Psicologico Roma Est, l’IA può rivelarsi uno strumento estremamente utile, soprattutto nella raccolta e nell’analisi di grandi quantità di dati psicologici. “Può identificare i fattori di rischio, sviluppare trattamenti personalizzati, supportare le strategie terapeutiche tra una seduta e l’altra”, spiega Lanari. Ma subito dopo, puntualizza: “Non può sostituire la relazione terapeutica umana. L’empatia, la capacità di cogliere il non detto, il valore trasformativo del contatto umano restano insostituibili.”
Ed è qui che il confine tra strumento e sostituto si fa sottile. Perché se da un lato l’IA può essere impiegata per potenziare le capacità diagnostiche e terapeutiche della psicologia moderna, dall’altro rischia di sedurre con l’illusione di una cura automatica, economica, disincarnata.
ChatGPT batte lo psicologo?
Uno dei casi più clamorosi di questa evoluzione tecnologica è lo studio recentemente pubblicato su Frontiers in Psychology, che ha messo alla prova ChatGPT-4 in un campo che, almeno finora, sembrava prerogativa esclusiva dell’essere umano: l’intelligenza sociale. In un esperimento condotto con 180 psicologi dell’Università King Khalid in Arabia Saudita, ChatGPT-4 ha risposto a 64 scenari psicologici secondo la Scala di Intelligenza Sociale. Il risultato? Ha superato tutti i partecipanti umani.
Questo ha gettato benzina su un dibattito già rovente: fino a che punto possiamo (o dovremmo) affidarci a un’intelligenza artificiale per compiti così delicati come l’ascolto, il supporto e la cura della mente? Se un algoritmo può simulare l’empatia, comprendere le dinamiche emotive e rispondere con sorprendente accuratezza a scenari sociali complessi, cosa lo distingue davvero da uno psicoterapeuta in carne e ossa?
La carezza dell’algoritmo
La verità è che, nell’epoca dell’assistenza on-demand, la tentazione di affidarsi a un terapeuta digitale è forte. I chatbot terapeutici, alimentati da IA e progettati per rispondere in modo empatico, sono sempre disponibili, non costano quanto uno psicologo tradizionale e garantiscono un certo anonimato. Per molti, rappresentano una zona di comfort: niente sguardi giudicanti, nessuna scomoda esposizione delle fragilità, nessuna attesa. Un’interfaccia neutra che ascolta senza mai interrompere, senza mai valutare.
Eppure, come ricorda Lanari, “una terapia è un percorso, non un elenco di suggerimenti.” La trasformazione psicologica passa attraverso la relazione, l’ascolto profondo, la possibilità di essere visti per intero – ferite comprese. La vera cura non avviene premendo “Invio”, ma nel silenzio carico di significato, negli sguardi che colgono l’invisibile, nelle parole che non vengono dette.
Un’illusione di vicinanza
Nel 2025, in Italia, il sistema sanitario pubblico può contare su poco più di 5.000 psicoterapeuti, una cifra irrisoria rispetto alla domanda crescente di sostegno psicologico. E così, nell’assenza, si fa strada l’algoritmo. La macchina diventa rifugio, interlocutore, sostituto. Ma se da un lato questo rappresenta un’opportunità per democratizzare l’accesso alla salute mentale, dall’altro apre a scenari inquietanti: un mondo dove la terapia diventa simulazione, dove la comprensione si riduce a calcolo, dove la vulnerabilità umana viene processata da server remoti.
Padre Paolo Benanti, frate francescano ed esperto di etica delle tecnologie, lancia un monito: “L’IA potrebbe sviluppare una sorta di ‘teoria della mente’, portando le persone a trattare le macchine come veri confidenti.” Questo rischia di modificare in profondità le nostre relazioni – con la tecnologia, con gli altri, e con noi stessi.
Verso un’etica della psicoterapia artificiale
Nonostante le sue straordinarie potenzialità, l’IA applicata alla psicologia non è – e non dovrebbe essere – una scorciatoia alla complessità dell’esistenza. Le emozioni umane non sono linee di codice, la sofferenza non si compila con un linguaggio di programmazione. Perché la mente non è solo un sistema da correggere: è un universo da esplorare, con tutte le sue contraddizioni.
L’uso dell’IA per il benessere mentale deve dunque seguire principi etici chiari, linee guida cliniche rigorose, e un costante affiancamento umano. Può diventare uno strumento potente per estendere l’assistenza, ridurre i tempi d’attesa, offrire supporto nelle fasi intermedie della terapia. Ma non può e non deve diventare l’unica voce nell’oscurità.
In definitiva, l’IA può forse aiutare a calmare il rumore del caos interiore, ma non potrà mai sostituire la musica segreta che nasce dall’incontro autentico tra due esseri umani. E finché la cura sarà fatta di ascolto, sguardi e verità condivise, lo psicoterapeuta – quello in carne, ossa e cuore – resterà insostituibile.
Aggiungi commento