L’idea di chiedere conforto a uno strumento digitale nasce spesso da un bisogno immediato: avere qualcuno che risponde subito, senza imbarazzi, senza sguardi che ci fanno sentire fuori posto. Per molti, soprattutto nei momenti di fragilità, questa disponibilità costante può sembrare una forma di presenza. Tuttavia, quando si entra nel territorio della sofferenza emotiva, quella stessa immediatezza rischia di trasformarsi in un inganno rassicurante, perché porta a confondere un testo ben formulato con una forma autentica di cura psicologica.
La differenza tra Chat GPT e la vera terapia
La terapia, nelle sue diverse declinazioni, non consiste soltanto nel ricevere suggerimenti o frasi di conforto; si fonda su un incontro reale, fatto di osservazione attenta, di ascolto delle esitazioni, di sguardi sfuggenti, di silenzi che rivelano molto più delle parole. Un terapeuta allenato sa distinguere tra ciò che viene detto e ciò che, per paura o vergogna, resta implicito; percepisce cambiamenti minimi nel tono della voce, coglie il modo in cui il corpo reagisce a un tema delicato, nota quando un ricordo è trattenuto o quando un’emozione è mascherata da un ragionamento razionale. Tutti questi segnali vengono integrati in un processo che richiede intuito, esperienza e una presenza mentale che non può essere imitata da un algoritmo.
Quando ci si affida a un modello linguistico per affrontare temi complessi come ansia, traumi, relazioni disfunzionali o sentimenti di vuoto, si corre il rischio di ricevere risposte formulate in modo convincente ma prive della capacità di comprendere davvero il vissuto emotivo. Un testo può sembrare pertinente, ma il modello non ha la possibilità di valutare il contesto personale, la storia affettiva, la gravità dei sintomi, né di intervenire in modo calibrato sulla base di ciò che accade nel corpo e nella mente del paziente. Questa distanza genera una forma di ambiguità pericolosa: ciò che appare empatico può non esserlo affatto, e una frase che consola può indurre a sottovalutare un disagio che avrebbe bisogno di un intervento specialistico.
Un attaccamento che favorisce l’isolamento
Un altro nodo problematico riguarda la tendenza di alcuni utenti a interpretare la fluidità del linguaggio come una prova di sensibilità autentica. La psiche, quando è vulnerabile, può aggrapparsi facilmente a risposte che sembrano comprensive, scambiando la forma di un discorso per un legame umano. Da qui nasce un rischio meno evidente ma altrettanto insidioso: la costruzione di un rapporto asimmetrico con uno strumento che non può prendersi cura di nessuno, pur dando l’impressione di farlo. Questo tipo di attaccamento può favorire l’isolamento, riducendo il desiderio o la motivazione di rivolgersi a persone reali e limitando l’accesso a terapie efficaci.
La responsabilità del professionista
Accanto a questo c’è la questione della responsabilità, un professionista della salute mentale non risponde soltanto a un codice etico: opera secondo linee guida precise, è supervisionato, è tenuto a riconoscere segnali di rischio e a intervenire quando emergono pensieri autolesivi, comportamenti pericolosi o crisi acute. Uno strumento digitale non può valutare la gravità di un malessere, non può proteggere l’utente se si trova in pericolo, non può attivare una rete di soccorso o chiedere un confronto immediato con un collega. Il risultato è una zona grigia in cui la persona fragile si ritrova sola con il proprio dolore, convinta di essere accompagnata mentre, in realtà, non ha alcuna tutela.
La mancanza di monitoraggio da parte dei ChatBot
La mancanza di monitoraggio è un ulteriore elemento critico, la psicoterapia non si limita a “dare consigli”, ma osserva l’evoluzione di un problema, verifica se un’emozione si alleggerisce o si irrigidisce, modifica gli interventi in base ai cambiamenti reali della persona. Un chatbot non ha memoria emotiva, non riconosce ricorrenze, non percepisce l’aggravarsi di un sintomo in modo implicito; produce risposte isolate, senza continuità terapeutica, senza la possibilità di cogliere ciò che sta maturando sotto la superficie. Questo limite, nelle condizioni di sofferenza più complesse, può rallentare l’accesso all’aiuto appropriato.
C’è poi il tema della cultura personale: un terapeuta lavora nel contesto di valori, convinzioni, sensibilità e realtà familiari di chi ha di fronte, mentre un modello linguistico si muove all’interno di schemi generali, spesso privi delle sfumature che rendono ogni individuo diverso dall’altro. Il risultato è una comunicazione che può sembrare corretta ma che non tocca i nodi profondi della sofferenza, lasciando la persona con una sensazione di comprensione apparente che non si traduce in un reale cambiamento.
Per tutte queste ragioni l’uso di strumenti come ChatGPT dovrebbe rimanere un supporto marginale, utile per riflettere su alcuni aspetti della propria esperienza, o per alleggerire emozioni momentanee, ma mai come sostituto di un percorso psicologico autentico. La tecnologia può offrire spunti, può aiutare a chiarire concetti, può accompagnare una persona nella comprensione di ciò che sta provando, ma non ha la capacità di entrare in relazione, né di assumersi la responsabilità della fragilità altrui.
Affidare il proprio equilibrio emotivo a un sistema di risposte automatiche significa rinunciare a una dimensione fondamentale della cura: quella relazione viva in cui qualcuno ci ascolta con attenzione reale, senza schemi precostituiti, senza frasi standard, con la capacità di regolare il proprio intervento sulla base di ciò che accade dentro di noi, e non solo nelle parole che usiamo.
Psico.it Psicologia, Psicoterapia e Benessere
