Home / Cultura e Scuola / Tecnologia e AI / Legge 132/25 sui deepfake generati dall’IA

Legge 132/25 sui deepfake generati dall’IA

🎧 Ascolta l’articolo ▶️ (durata 4’49” con la voce di Ava)

L’entrata in vigore della Legge 23 settembre 2025, n. 132, in materia di Intelligenza Artificiale, segna un momento cruciale nel panorama giuridico italiano, ponendo l’attenzione sui rischi derivanti dall’uso distorto dell’IA. Tra le novità più significative spicca l’introduzione di norme per contrastare la diffusione illecita dei deepfake, ovvero quei contenuti audiovisivi generati o manipolati da sistemi di IA con un livello di realismo per il quale le nostre capacità di discernimento appaiono, ad oggi, impreparate.

La legge interviene sul Codice Penale, in particolare con l’introduzione dell’Art. 612-quater c.p. (illecita diffusione di contenuti generati o alterati con IA) e l’aggravante comune per i reati commessi mediante l’impiego di sistemi di IA. Questo approccio è lodevole per il suo intento di governare la rivoluzione tecnologica anziché subirla, ponendo l’individuo al centro della tutela. Ma, nonostante la sua importanza, l’impianto normativo solleva alcune questioni critiche che analizzeremo di seguito.

1. Il problema principale dei deepfake non è solo la loro capacità di inganno, ma la loro scalabilità e opacità. Un deepfake può essere prodotto in pochi minuti con strumenti accessibili, diffuso a milioni di persone e ritirato dalla rete con grande difficoltà, amplificando il danno a livelli esponenziali rispetto a qualsiasi falsificazione precedente. Sebbene, dunque, la previsione del reato sia un deterrente, la legge dovrà dimostrare di avere strumenti efficaci per l’identificazione tempestiva dei responsabili in un contesto in cui l’anonimato digitale e l’automazione della diffusione rendono le indagini estremamente complesse. La procedibilità a querela di parte (salvo eccezioni) per il reato di deepfake solleva dubbi sulla reale efficacia di contrasto, specialmente per le vittime più vulnerabili o meno consapevoli.
2. La legge deve bilanciare la repressione dei contenuti illeciti con la tutela della libertà di espressione e della satira. La distinzione tra un deepfake dannoso (es. diffamazione, frode) e un uso artistico o satirico è sottile. Il rischio è, pertanto, che una normativa troppo rigida possa inibire l’innovazione o l’uso creativo dell’IA. Sarà cruciale l’interpretazione giurisprudenziale del concetto di “danno” per evitare eccessi sanzionatori in contesti non prettamente offensivi.

Per comprendere la portata della Legge 132/25, è essenziale confrontare i deepfake con i loro predecessori analogici e digitali: i fotomontaggi.
Là dove il realismo dei fotomontaggi era, ed è, spesso grossolano e visibilmente alterato pur richiedendo tempi lunghi e abilità tecniche, quello dei deepfake è estremo e scarsamente distinguibile dalla realtà anche a partire da dati esigui. Ma il dato che, forse, spaventa di più è che i fotomontaggi avevano e hanno, tutto sommato, una diffusione limitata e dilazionata, mentre i deepfake hanno una diffusione istantanea e su vasta scala.

Se, inoltre, guardiamo al dato storico, quando si diffondeva un fotomontaggio offensivo, le tutele si basavano principalmente su reati preesistenti, come:

  • diffamazione (Art. 595 c.p.), quando il fotomontaggio ledeva la reputazione della vittima;
  • sostituzione di persona (Art. 494 c.p.), quando si creava un’identità falsa per trarre in inganno;
  • frode (Art. 640 c.p.), quando il fotomontaggio era usato per un illecito guadagno.

Queste norme, pur potendosi applicare anche ai deepfake, si rivelano insufficienti per due ragioni fondamentali:

  1. i vecchi strumenti consentivano di smascherare il falso con un’analisi meno complessa. I deepfake IA-generati richiedono strumenti forensi avanzati;
  2. l’impatto dei deepfake è ordini di grandezza superiore. Il danno a reputazione, dignità e processo democratico è immediato e potenzialmente irrimediabile.

Tirando le somme, la Legge 132/25, riconoscendo il deepfake come un fenomeno meritevole di una fattispecie penale autonoma e più severa (Art. 612-quater c.p. punito con reclusione da 1 a 5 anni), colma una lacuna cruciale. Essa segna il passaggio da una tutela basata sul “mezzo” (come il fotomontaggio) ad una basata sull’impatto massivo e la tecnologia intrinsecamente ingannevole dell’IA. Tuttavia, il successo della normativa dipenderà dalla sua capacità di adattamento alla rapidità evolutiva dell’IA e dall’istituzione di meccanismi di trasparenza (come la marcatura dei contenuti IA generati) che possano affiancare la semplice repressione penale, perché non è importante solo punire il creatore, ma è necessario garantire l’attendibilità dell’informazione nell’era dell’iper-realtà digitale.

Tag:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *