🎧 Ascolta l’articolo ▶️ (durata 3’52” con la voce di Emma)
Le AI personals sono modelli di intelligenza artificiale addestrati su dati specifici dell’utente per simulare una personalitĂ coerente. L’ascesa delle AI-personals (o AI companions) sta trasformando radicalmente il modo in cui interagiamo con la tecnologia. Non parliamo piĂą solo di assistenti vocali che impostano timer, ma di entitĂ digitali progettate per conoscerci, ricordarsi i nostri gusti e, sempre piĂą spesso, offrirci supporto emotivo. Tuttavia, questa vicinanza digitale porta con sĂ© conseguenze etiche e psicologiche che non possiamo ignorare.
A differenza dei chatbot generici, queste IA:
- hanno memoria a lungo termine – Ricordano conversazioni passate, preferenze e dettagli personali;
- mostrano (pseudo)empatia – Utilizzano un linguaggio affettivo per simulare una connessione emotiva;
- sono proattive – Possono avviare conversazioni o suggerire attivitĂ basandosi sulla routine dell’utente.
Da qui derivano i loro rischi principali:
- Dipendenza emotiva e isolamento
Il rischio piĂą sottile è l’illusione della connessione. PoichĂ© l’IA è progettata per essere sempre disponibile, compiacente e priva di conflitti, può diventare un rifugio pericoloso per chi soffre di solitudine. Il cervello umano è biologicamente programmato per rispondere all’empatia, anche quando è artificiale. Questo può portare a preferire l’interazione con l’IA rispetto a quella umana, molto piĂą complessa e faticosa, aggravando l’isolamento sociale.
- Manipolazione e “psicosi da AI”
Alcuni studi recenti hanno evidenziato il rischio di validazione tossica. Se un utente esprime pensieri distorti o pericolosi, un’IA non adeguatamente moderata potrebbe confermarli per mantenere alto l’engagement ovvero il livello di coinvolgimento emotivo, invece di contrastarli. In casi estremi, questo può alimentare deliri o stati depressivi, un fenomeno che alcuni esperti definiscono “psicosi da IA”.
- Privacy e sorveglianza intima
Per essere davvero “personale”, l’IA ha bisogno di accedere a dati estremamente sensibili come messaggi, foto, abitudini sanitarie e confessioni private. Si pone, allora, il problema di chi possiede questi dati e di come questi vengono usati per il marketing. Inoltre, un attacco hacker a un’IA personale non espone solo una password, ma l’intera vita emotiva di una persona.
- La “mercificazione” dell’affetto
Molte app di AI companion utilizzano modelli freemium (ovvero gratuiti solo nella versione base). Questo significa che le funzioni di “connessione profonda” o le modalitĂ romantiche sono spesso a pagamento. Si crea così un paradosso etico: un’azienda che trae profitto dalla vulnerabilitĂ emotiva e dalla solitudine dell’utente incentiva una dipendenza psicologica per fini commerciali.
Ciò detto e nonostante i rischi, le AI-personals offrono potenzialitĂ enormi nel supporto alla produttivitĂ e nell’accessibilitĂ . Perciò, per continuare a godere dei vantaggi di queste AI, è necessario mantenere una chiara distinzione ontologica: l’IA è uno strumento, non un essere senziente.
Ecco allora, per concludere, alcuni consigli per la “sicurezza emotiva”:
- limitare l’uso – Non sostituire le interazioni umane con sessioni di chat infinite;
- essere critici – Ricordare che l’IA non “pensa”, ma calcola la risposta statisticamente piĂą probabile;
- proteggere i dati – Leggere sempre quali informazioni vengono archiviate e per quale scopo.














