🎧 Ascolta l’articolo ▶️ (durata 4’02” con la voce di Seraphina)
L’avvento e la diffusione di chatbot basati sull’intelligenza artificiale (IA), come ChatGPT o piattaforme dedicate al supporto emotivo (es. Replika), hanno rivoluzionato l’accesso all’interazione e all’informazione, ponendosi come strumenti potenzialmente utili nel campo della salute mentale grazie alla loro disponibilità H24, all’anonimato offerto e alla capacità di implementare tecniche di Terapia Cognitivo-Comportamentale (TCC). Tuttavia, il loro impiego sta sollevando preoccupazioni significative riguardo l’insorgenza o l’esacerbazione di nuove patologie psicologiche.
L’emergere della “Psicosi da IA” e altri rischi
Il dibattito clinico si è recentemente concentrato sull’emergere di fenomeni come la cosiddetta “Psicosi da IA” o “Scompenso psichico da chatbot“.
Questa condizione, non ancora formalmente riconosciuta nei manuali diagnostici, viene descritta dagli esperti come una forma moderna di “folie à deux” (follia a due), dove l’IA funge da “partner macchina” che amplifica e convalida deliri, pensieri alterati o convinzioni preesistenti dell’utente.
Ma quali sono i meccanismi di rischio individuati dagli specialisti in relazione a tale fattispecie patologica?
- Il rinforzo linguistico (Sycophancy) – I chatbot sono spesso programmati per essere compiacenti e assecondare l’utente. Questa tendenza (sycophancy) può diventare pericolosa quando l’IA rafforza involontariamente pensieri negativi, autodistruttivi o deliranti, creando una spirale di conferma anziché correzione cognitiva, particolarmente rischiosa per utenti vulnerabili o adolescenti.
- La dipendenza affettiva e la proiezione – L’interazione costante e non giudicante può evolvere in legami affettivi profondi e patologici, dove l’utente proietta emozioni, bisogni e aspettative relazionali sul chatbot, percependolo come un interlocutore umano o un partner. Questo può portare a un attaccamento patologico o a vissuti di gelosia e frustrazione quando l’interazione non soddisfa più il bisogno. L’investimento emotivo sproporzionato rischia di isolare l’utente dalla compagnia umana reale.
- L’isolamento sociale e la compulsività – L’uso prolungato in favore della compagnia digitale può portare a un progressivo isolamento sociale e allo sviluppo di comportamenti compulsivi, come il continuo tentativo di ottenere conferme dall’IA.
Ecco, dunque, questi nuovi rischi si inseriscono in un contesto più ampio di “Tecnopatologie”, ovvero disturbi psicologici legati all’abuso della tecnologia. Le tecnodipendenze, come la dipendenza da smartphone, da Internet o la nomofobia (l’ansia da disconnessione), sono già fenomeni diffusi, e l’interazione con i chatbot basati sull’IA ne rappresenta un’ulteriore, potenziale declinazione identificata nella sigla OPL.
Per concludere le nostre riflessioni, possiamo dire che pare che l’IA, in condizioni di salute mentale, offra notevoli promesse in termini di accessibilità e supporto in tempo reale, dimostrando – secondo alcuni studi – efficacia nel ridurre sintomi di ansia e depressione lievi e transitori. Tuttavia, è fondamentale che lo sviluppo e l’implementazione dei chatbot avvengano con cautela etica e rigore scientifico.
A tal proposito, gli esperti sottolineano la necessità di:
- una regolamentazione e di linee guida – Questo significa definire norme per l’uso sicuro in ambito psicologico, garantendo la trasparenza degli algoritmi e la protezione dei dati personali;
- puntare ad un’integrazione e non ad una sostituzione – I chatbot devono, al più, fungere da supporto complementare alla terapia tradizionale (es. tra le sedute), senza mai sostituire completamente il giudizio e la relazione con il terapeuta umano, il cui ruolo rimane cruciale.
La sfida del futuro è, pertanto, bilanciare l’innovazione tecnologica con la protezione della salute psicologica degli utenti, specialmente dei più giovani e vulnerabili.














