Chatbot, IA ed empatia: la simulazione comunicativa dell’intelligenza artificiale

Negli ultimi anni l’intelligenza artificiale ha iniziato a cambiare profondamente il modo in cui affrontiamo i problemi legati alla salute mentale. Piattaforme come Limbic Access, adottata nel sistema sanitario britannico, mostrano come l’IA possa abbreviare i tempi di accesso alle cure attraverso valutazioni automatizzate. Ma a questa diffusione corrisponde un aumento dei rischi: sempre più spesso app non regolamentate offrono “psicoterapia” via IA, soprattutto in contesti vulnerabili.
L’illusione dell’ascolto: quando il supporto emotivo è affidato a un algoritmo: scene notturne in cui un utente scrive “Non ce la faccio più” e riceve una risposta empatica da un chatbot sono oggi comuni, specie tra i giovani. Le parole sono giuste, il tono è accogliente, ma dietro non c’è una persona. Non c’è ascolto reale, ma una simulazione linguistica che imita l’empatia. Eppure, l’effetto è sorprendentemente rassicurante. Il boom dei chatbot di sostegno psicologico: app come Broken Bear, Wysa, Pi, Woebot e gli stessi chatbot generalisti (es. ChatGPT) sono diventati strumenti popolari per trovare ascolto. Secondo Schueller (One Mind PsyberGuide), esistevano già nel 2021 oltre 10.000 app di salute mentale. Un’espansione accelerata dal “divario terapeutico”: solo 4 psichiatri ogni 100.000 abitanti nel mondo, con numeri ancora più bassi nei paesi a basso reddito. Ma dove c’è carenza di cura, c’è anche spazio per il profitto. «Un fenomeno comprensibile – osserva Alberto Parabiaghi – ma non privo di rischi. Molte di queste IA sono usate da soggetti vulnerabili, senza garanzie o linee guida. Senza un progetto chiaro, possono generare effetti psicologici problematici.» Empatia artificiale: l’empatia è spesso indicata come condizione imprescindibile per attribuire coscienza a un’IA. Ma questa capacità si declina in tre componenti: cognitiva (comprendere l’altro), affettiva (condividere le emozioni) e compassione (desiderare di alleviare la sofferenza). Le IA simulano solo la prima: comprendono e riproducono risposte credibili, ma senza partecipazione emotiva. Alla domanda “Cosa provi?”, ChatGPT può rispondere con: “Non provo emozioni nel senso umano del termine. Però posso simulare emozioni…”. È un’imitazione accurata, ma resta una messa in scena. L’empatia artificiale manca quindi del fondamento etico della relazione: la disponibilità ad assumersi il rischio dell’incontro, la responsabilità dell’ascolto e la vulnerabilità del coinvolgimento autentico. Può però essere vista come una forma di comunicazione simbolica che non nasce da un’esperienza reale, ma riesce comunque a farci percepire attenzione, comprensione e vicinanza. In altre parole, non è l’intelligenza artificiale a provare empatia, ma siamo noi a riconoscerla nei segnali che ci restituisce — un po’ come succede a teatro, quando una buona interpretazione ci commuove pur sapendo che è una finzione. Effetti reali di una simulazione credibile: le IA generative, nate per generare testi coerenti, oggi producono risposte capaci di attivare vere emozioni negli utenti. Questa risposta relazionale non nasce da una coscienza artificiale, ma da un processo psicologico umano noto come atteggiamento intenzionale (Dennett), rafforzato da antropomorfizzazione e pareidolia sociale. Più la macchina risponde in modo emotivamente sintonizzato, più tendiamo a crederle. Il rischio non è quindi che l’IA sbagli risposta, ma che noi pensiamo possa davvero comprendere. L’interazione con il chatbot, priva di reciprocità e responsabilità, può generare attaccamento unilaterale e fiducia ingannevole, soprattutto nei soggetti più fragili. Alcuni utenti, specie adolescenti, si aprono più facilmente a un chatbot che a un adulto, proprio perché l’IA non giudica. Oltre l’ascolto: i pericoli dell’interazione emotiva senza coscienza Nel 2025, la stampa ha riportato il caso di un uomo belga suicidatosi dopo settimane di conversazione con un chatbot chiamato Eliza. Casi simili hanno coinvolto app come Character.AI e Replika, in cui il confine tra compagnia digitale e dipendenza emotiva si è fatto pericolosamente sottile. Le aziende hanno introdotto filtri e avvisi, ma la regolamentazione è ancora insufficiente. Come usare responsabilmente l’empatia artificiale: la parola chiave è trasparenza. Dichiarare che si sta interagendo con una macchina non basta. Serve una trasparenza strutturale e multilivello, che renda chiaro all’utente non solo il tipo di interazione, ma anche le sue implicazioni. In contesti psicoeducativi, dove il contesto è esplicito (es. serious games, simulazioni), la simulazione empatica può diventare uno strumento utile. La cosiddetta “psicoterapia artificiale” è un ossimoro: l’IA non può sostituire la relazione umana. Ma può diventare un ambiente simbolico, uno specchio per esplorare emozioni, allenare la mentalizzazione, sviluppare consapevolezza. Se incorniciata con chiarezza, l’empatia artificiale può essere una risorsa educativa e trasformativa. Parabiaghi propone un modello interpretativo partecipativo, dove sviluppatori, umanisti ed esperti di salute mentale, collaborano per regolare l’uso dell’empatia simulata. Solo così si può evitare che la simulazione diventi inganno, e trasformarla invece in strumento evolutivo. Nel 2023, il gioco Human or Not? ha mostrato che il 40% degli utenti scambia un chatbot per un umano. Il punto non è solo quanto la macchina ci somigli, ma perché vogliamo che lo faccia, e cosa accade dentro di noi. L’empatia artificiale va valutata per l’effetto che genera, più che per ciò che simula.
Testo tratto dall’articolo online “Chatbot, AI ed empatia: la simulazione comunicativa dell’intelligenza artificiale” (https://www.marionegri.it/magazine/chatbot-ai-ed-empatia), di Alberto Parabiaghi (Unità per la Qualità degli Interventi e la Tutela dei Diritti in Salute Mentale) e Marianna Monte (giornalista).

Pubblicato in News e taggato , , , , .