🎧 Ascolta l’articolo ▶️ (durata 7’0″ con la voce di Emma)
Il concetto di singolarità tecnologica non appartiene più soltanto alle pagine della fantascienza di Vernor Vinge o ai saggi futuristi di Ray Kurzweil. Infatti, recentemente, Musk ha scosso l’opinione pubblica dichiarando che il 2026 sarà l’anno della singolarità. Durante gli ultimi eventi aziendali e interventi sui social, il magnate ha ribadito che l’Intelligenza Artificiale Generale (AGI) — ovvero un’AI capace di eguagliare o superare l’intelletto umano in ogni ambito — verrà raggiunta proprio nel corso di quest’anno.
Ecco, di seguito, i punti chiave delle sue recenti affermazioni:
- Musk paragona la situazione attuale alla cima di una montagna russa: «Siamo già nell’orizzonte degli eventi, il processo è irreversibile»;
- prevede che, con l’abbassamento dei costi del lavoro e dell’intelligenza verso lo zero, i beni e i servizi diventeranno virtualmente gratuiti, rendendo obsoleti concetti come il risparmio pensionistico (affermazione pericolosa più che confortante);
- ha spinto l’acceleratore anche sul fronte fisico, prevedendo che entro tre anni i robot (come il Tesla Optimus) saranno chirurghi migliori degli esseri umani (empatia a parte, che non sarebbe un dettaglio).
Perché starebbe accadendo ora?
La singolarità è l’esito di una crescita esponenziale, non lineare. Diversi fattori convergono per creare questa tempesta perfetta:
- il miglioramento algoritmico – Infatti, non è solo una questione di potenza bruta; i nuovi modelli imparano a “imparare meglio”, ottimizzando i propri processi logici in modo autonomo;
- nonostante le crisi passate sui semiconduttori, l’integrazione di supercomputer dedicati (come il cluster “Colossus” di xAI) ha permesso l’addestramento su scale precedentemente inimmaginabili;
- esauriti i dati pubblici su internet, le AI hanno iniziato a generare “dati sintetici” di alta qualità per auto-istruirsi, innescando un ciclo di auto-miglioramento.
Le conseguenze? Un futuro a doppia faccia
La singolarità rappresenta un punto di non ritorno dove le previsioni diventano impossibili, ma gli esperti identificano due scenari principali.
1. Scenario utopico o età dell’oro che contempla:
- eradicazione delle malattie – Analisi genomiche e scoperte proteiche accelerate dall’AI potrebbero eliminare patologie oggi incurabili;
- reddito universale di “alta qualità” – Se le macchine producessero tutto, l’uomo potrebbe essere liberato dal lavoro salariato, dedicandosi a scopi puramente creativi o filosofici (certo, perché sul pianeta è noto che siamo tutti dei Socrate o dei Platone).
- Scenario distopico o rischio esistenziale che contempla:
- perdita di scopo – Una società senza necessità di sforzo potrebbe affrontare una crisi psicologica di massa;
- problema dell’allineamento – Se una superintelligenza sviluppa obiettivi non perfettamente allineati con i valori umani, le conseguenze potrebbero essere catastrofiche (il cosiddetto “rischio esistenziale”, appunto);
- instabilità sociale – Musk stesso avverte che i prossimi 3-7 anni saranno “turbolenti” a causa della transizione economica radicale.
Dunque, che si creda o meno alla timeline ultra-accelerata di Musk, è innegabile che la velocità del progresso stia sfidando la nostra capacità di adattamento legislativo ed etico. La singolarità non è più un “forse”, ma un “quando”. E, in quest’ottica, si sta muovendo l’Europa con l’AI Act, la prima legge organica al mondo sull’intelligenza artificiale.
Con essa, l’Europa cerca di giocare d’anticipo, anche se la velocità della singolarità prevista da Musk mette a dura prova l’impalcatura burocratica di Bruxelles.
Ecco come le normative attuali e future stanno cercando di arginare il rischio di una superintelligenza fuori controllo:
- l’AI Act non si limita a regolamentare le piccole app, ma introduce una categoria specifica per i modelli di grandi dimensioni (come GPT-4 o i futuri modelli di xAI);
- inoltre, se un modello viene addestrato con una potenza superiore a un certo limite (10^25 FLOPs), viene automaticamente considerato a “rischio sistemico”;
- questi giganti devono effettuare valutazioni del rischio, test avversari (cosiddetti red teaming) e segnalare immediatamente alla Commissione Europea eventuali incidenti gravi che potrebbero indicare una perdita di controllo o un comportamento imprevisto;
- uno dei timori legati alla Singolarità è che l’AI diventi una “scatola nera” incomprensibile. Perciò la legge impone che i creatori di AI forniscano documentazione tecnica dettagliata sul funzionamento interno del modello. E, nondimeno, è previsto che se un’AI prende una decisione che impatta un cittadino, quest’ultimo ha il diritto di sapere perché è stata presa quella decisione. Questo serve a evitare che una superintelligenza inizi a operare secondo logiche aliene ai valori umani.
Oltre a questi accorgimenti, sono previsti dei divieti per prevenire scenari distopici, ovvero per evitare che l’AI diventi uno strumento di controllo totale (uno scenario spesso citato dai critici della singolarità). L’AI Act vieta, pertanto:
- il social scoring, ovvero i sistemi che assegnano un punteggio ai cittadini in base al comportamento (stile “Black Mirror“);
- il riconoscimento delle emozioni sul posto di lavoro per evitare che le macchine giudichino il nostro stato mentale in modo intrusivo;
- la manipolazione comportamentale, in altre parole AI che utilizzano tecniche subliminali per distorcere il comportamento umano.
Ciò detto, il problema sollevato da Elon Musk è che le leggi sono statiche, mentre l’intelligenza artificiale è auto-migliorante. Se nel 2026 l’AI dovesse davvero raggiungere la singolarità, i tempi di aggiornamento delle leggi europee (spesso misurati in anni) risulterebbero obsoleti in pochi mesi. Inoltre, Musk e altri leader del settore avvertono che normative troppo stringenti potrebbero spingere lo sviluppo della superintelligenza verso regioni senza regole, aumentando paradossalmente il rischio globale.
Ecco che, proprio a causa della natura “esplosiva” della singolarità, Musk e altri esperti (come Sam Altman di OpenAI) hanno suggerito la creazione di un’agenzia internazionale simile all’AIEA (l’Agenzia Internazionale per l’Energia Atomica). L’idea è che una superintelligenza non possa essere gestita da un solo continente, ma richieda un “interruttore d’emergenza” globale e degli standard di sicurezza condivisi.














