🎧 Ascolta l’articolo ▶️ (durata 5’02” con la voce di Seraphina)
L’intelligenza artificiale sta compiendo un salto di qualità che va oltre la semplice analisi dei dati per toccare l’essenza dell’esperienza umana: le emozioni e gli stati mentali. Attraverso l’analisi dei movimenti involontari del volto e del corpo, l’IA è ora in grado di compiere una profonda inferenza cognitiva, sfidando i confini della privacy e ponendo una domanda cruciale sulla nostra autonomia: chi controlla la tecnologia che legge le nostre intenzioni? La risposta a questa domanda è strettamente legata al concetto di sovranità tecnologica.
Il corpo umano, e in particolare il volto, è una fonte inesauribile di dati. Una volta era Paul Ekman a tentare di studiare questi feedback alle volte rapidissimi, ma i sistemi di intelligenza artificiale avanzati, supportati da reti neurali profonde, sono addestrati su vastissimi set di dati per analizzare i micro-movimenti facciali, i cambiamenti nella dilatazione delle pupille o i pattern del battito delle palpebre. L’efficacia di questi sistemi è talmente elevata da eguagliare, in certi contesti come la psicoterapia, l’affidabilità di terapeuti umani nel riconoscere le emozioni, anche quelle di brevissima durata. La questione, però, è ben più rilevante, perché l’IA non si limita ad etichettare un volto come “felice” o “triste”, piuttosto correla parametri complessi (ad esempio, quanto è rugoso il naso, quanto è serrata la mascella) a un ventaglio di stati come confusione, rabbia, coinvolgimento e intenzione. Questo permette, letteralmente, di “leggere nella mente” in modo non invasivo, aprendo nuove frontiere nella ricerca sul cervello e, contemporaneamente, rischi di sorveglianza e manipolazione senza precedenti. Il vero potere di questa tecnologia non sta nella diagnosi medica, ma nella sua potenziale applicazione in settori commerciali e di sicurezza.
Un’IA in grado di inferire l’attenzione di un consumatore o il livello di stress di un dipendente aziendale rappresenta uno strumento di controllo potentissimo, capace di erodere la nostra libertà cognitiva e la nostra privacy mentale. Ma se la nostra privacy mentale è messa a rischio significa che lo è la privacy di ogni cittadino all’interno di uno Stato. Se ne desume che l’erosione di questa libertà configura un rischio enorme a livello geopolitico.
Se, infatti, il rischio individuale riguarda l’intrusione nella nostra psiche, il rischio collettivo e statale è rappresentato dalla dipendenza da tecnologie critiche.
La sovranità tecnologica è definita come la capacità di uno Stato o di un’Unione (come l’Europa) di sviluppare, produrre e mantenere in autonomia le proprie tecnologie critiche senza dipendere da potenze straniere (Stati Uniti o Cina, in primis). L’Intelligenza Artificiale, specialmente quella capace di inferenza cognitiva, è una di queste tecnologie critiche.
Se le piattaforme e gli algoritmi che decifrano gli stati mentali della popolazione sono sviluppati e controllati da attori esterni, si apre uno scenario di vulnerabilità estrema che possiamo sintetizzare nei seguenti punti:
- controllo sui dati sensibili – Le informazioni più intime, generate dalle analisi facciali o corporee dei cittadini (i cosiddetti dati neurali o dati psicografici), verrebbero trattate al di fuori della giurisdizione nazionale o continentale, minando la sovranità sui dati;
- influenza geopolitica – La dipendenza da provider esteri in settori come l’IA, la cybersicurezza o le infrastrutture digitali espone un Paese a dinamiche geopolitiche negative, compromettendo la sua competitività e la capacità di definire i propri standard etici e normativi;
- standardizzazione a rischio – Se l’IA che legge le emozioni viene sviluppata altrove, anche le norme e i bias impliciti in quell’algoritmo (ad esempio, come definisce la “rabbia” o la “menzogna”) diventano standard, di fatto imposti a livello globale e potenzialmente in contrasto con i valori costituzionali e la cultura giuridica del continente.
Per gli Stati europei, dunque, l’obiettivo non è solo competere tecnologicamente, ma garantire che lo sviluppo dell’IA segua un modello democraticamente sostenibile. Ciò implica un approccio che metta al centro i diritti fondamentali dell’uomo.
La sfida della sovranità tecnologica, quindi, si articola su due livelli:
- investimento e autonomia – Rafforzare l’ecosistema interno di ricerca, infrastrutture digitali e AI factories per ridurre la dipendenza tecnologica;
- regolamentazione etica – Assicurare che la “sovranità” sull’IA rimanga nelle mani del pubblico-utente e sia guidata da principi etici e legali, in particolare per quanto riguarda le applicazioni ad alto rischio come l’inferenza degli stati mentali, che incidono sull’integrità e l’autonomia della persona.
In definitiva, l’IA che legge il nostro volto ci costringe a riflettere urgentemente su due questioni interconnesse:
- quanto siamo disposti a sacrificare della nostra intimità mentale in cambio di comodità o sicurezza?
- quanto controllo siamo disposti a cedere alle tecnologie?














