Vedere non è più credere: l’Italia reagisce all’era dei deepfake
-
Redazione IDCERT
La Legge 132/2025 punisce con la reclusione da uno a cinque anni chiunque causi un danno ingiusto diffondendo immagini, video o voci falsificati mediante sistemi di IA. Non è una norma perfetta, forse nemmeno completa. Ma è la prima. E questo conta.
Perché è arrivata dopo mesi in cui gli italiani hanno visto la propria premier, Giorgia Meloni, promuovere truffe online da uno studio televisivo falso, con un altrettanto falso Francesco Giorgino. Migliaia di persone ci hanno creduto. Hanno cliccato. Hanno perso denaro e fiducia. E finalmente qualcuno ha deciso che aspettare non era più un’opzione.
Il coraggio di essere primi
L’Italia è il primo paese in Europa a dotarsi di una normativa organica sull’intelligenza artificiale. Una scelta coraggiosa in un momento in cui sarebbe stato più comodo attendere il pieno dispiegamento dell’AI Act europeo. Ma c’è una differenza sostanziale tra chi aspetta che il consenso si formi lentamente nelle stanze di Bruxelles e chi decide di agire di fronte a un’emergenza reale, qui, ora.
Non è un’alternativa al quadro europeo, ma un suo complemento necessario. L’AI Act è un’architettura complessa, pensata per durare nel tempo e armonizzare 27 ordinamenti diversi. L’Italia ha scelto di intervenire subito sui punti più urgenti, sul danno concreto che sta accadendo oggi. È un approccio chirurgico in un momento che richiede rapidità.
E la rapidità, in questo campo, è essa stessa innovazione. Perché il problema dei deepfake non è teorico o futuribile. È quotidiano. Ogni giorno centinaia di video falsi circolano sui social italiani. Politici che promuovono investimenti truffa, celebrità che sponsorizzano prodotti inesistenti, cittadini comuni trasformati in protagonisti involontari di contenuti pornografici. La legge arriva tardi rispetto alla tecnologia, certo. Ma arriva prima di molti altri.
Dal caos alla coscienza
Il termine deepfake non ha traduzione in italiano, eppure ora ha una definizione giuridica. La legge non usa il neologismo inglese, preferisce parlare di contenuti “idonei a indurre in inganno sulla loro genuinità”. Una scelta che rivela maturità: non rincorrere la parola alla moda, ma definire il fenomeno nella sua sostanza. Perché tra dieci anni magari non parleremo più di deepfake, ma il problema della manipolazione digitale dell’identità sarà ancora lì, forse in forme che oggi non immaginiamo nemmeno.
Prima di questa legge, l’Italia affrontava i deepfake attraverso un mosaico di reati esistenti: diffamazione, sostituzione di persona, revenge porn. Funzionava? Più o meno. Lasciava zone grigie enormi. La nuova norma estende la tutela penale a ogni uso distorto dell’immagine e della voce, non solo ai casi a sfondo sessuale. È un salto concettuale importante: riconoscere che il danno va oltre la sfera sessuale, che tocca l’identità digitale in quanto tale.
E c’è di più. Il reato è perseguibile a querela della persona offesa, ma si procede d’ufficio quando la vittima è incapace per età o infermità, o quando l’offesa riguarda una pubblica autorità nell’esercizio delle sue funzioni. Questa distinzione mostra che il legislatore ha capito: il deepfake non è solo un crimine contro l’individuo, è un attacco alla tenuta democratica del sistema. Quando falsifichi le parole di un ministro, di un giudice, di un funzionario pubblico, stai inquinando il dibattito collettivo. E lo Stato ha il diritto-dovere di intervenire anche senza che la vittima sporga denuncia.
L’uomo al centro, finalmente
Alla base dell’approccio italiano c’è una visione dichiaratamente antropocentrica: l’uomo al centro nel rapporto con la macchina. Suona retorico? Forse. Ma è una scelta di campo precisa in un momento in cui Silicon Valley ci racconta che l’intelligenza artificiale “ci supererà”, che dobbiamo “adattarci”, che la disruption è inevitabile. L’Italia dice: no, aspetta. La macchina è uno strumento. L’essere umano è il titolare della decisione.
Questa posizione attraversa tutta la legge, dalla sanità alla giustizia. I sistemi di IA possono assistere il medico nella diagnosi, mai sostituirlo. Possono aiutare il giudice nella ricerca giurisprudenziale, mai decidere al suo posto. È un principio di responsabilità che in epoca di automazione diffusa rischia di sembrare vintage, ma che invece rappresenta un argine necessario.
E c’è un dettaglio che vale la pena sottolineare: dal 10 ottobre le opere tutelate dal diritto d’autore sono solo quelle frutto dell'”ingegno umano”. Prima si parlava solo di “ingegno”. L’aggiunta dell’aggettivo “umano” sembrava ridondante, fino a quando ChatGPT non ha iniziato a scrivere romanzi e Midjourney a dipingere quadri. Ora quella specificazione diventa una trincea: la creatività protetta è quella umana. Tutto il resto è output algoritmico, utilizzabile ma non tutelabile allo stesso modo.
La cybersecurity come priorità nazionale
I video falsi di Meloni e Salvini che promuovono truffe finanziarie non sono stati solo un caso di cronaca rosa tecnologica. Sono stati un campanello d’allarme su quanto sia vulnerabile l’ecosistema informativo italiano. Video falsi creati con l’obiettivo di indirizzare cittadini verso piattaforme fraudolente per ottenere dati personali e bancari. Ingegneria sociale su scala industriale.
La legge risponde introducendo aggravanti specifiche per i reati economico-finanziari commessi con deepfake: aggiotaggio, manipolazione del mercato. Non è un dettaglio tecnico. È il riconoscimento che la cybersecurity non riguarda solo i server delle banche o le infrastrutture critiche. Riguarda la capacità di ogni cittadino di fidarsi di ciò che vede e sente. E quando quella fiducia viene minata sistematicamente, crolla l’intero edificio sociale.
L’Italia sta dicendo: la cybersecurity inizia dalla difesa dell’identità digitale. Non puoi proteggere le reti se non proteggi le persone. E non puoi proteggere le persone se permetti che chiunque possa mettere in circolazione una loro versione falsificata.
Trasparenza come strategia
La legge impone che ogni contenuto generato o manipolato con IA sia “dichiarato in modo esplicito e visibile”. Filigrane, marcature, disclaimer. È una scommessa sull’educazione digitale della popolazione. Funzionerà? Non lo sappiamo. Ma è l’unica strada percorribile senza cadere nella censura preventiva.
L’alternativa sarebbe un sistema di validazione centralizzato, dove ogni contenuto deve essere certificato prima della pubblicazione. Ma chi vorrebbe vivere in quel mondo? La trasparenza è la via di mezzo tra il caos informativo e il controllo autoritario. Obbliga chi produce contenuti sintetici a dichiararli, e affida al cittadino la responsabilità di prestare attenzione.
Certo, c’è il rischio che quelle marcature diventino invisibili, ignorate nella frenesia dello scroll. Ma almeno saranno lì. E nel momento in cui un contenuto falso farà danni, non si potrà dire “non lo sapevo”. La responsabilità sarà chiara.
Un laboratorio europeo
L’Italia sta facendo da apripista, testando sul campo soluzioni che l’Europa ha teorizzato nel suo AI Act. Quando il regolamento entrerà pienamente a regime con tutti i suoi meccanismi attuativi, l’Unione avrà a disposizione mesi o anni di giurisprudenza italiana da studiare. Sapremo cosa funziona e cosa no. Quali sanzioni hanno effetto deterrente e quali restano lettera morta. È un’esperienza che può arricchire l’intero quadro normativo continentale.
Questo approccio ricorda il modello delle “regulatory sandboxes” tanto caro alle autorità di vigilanza: crei uno spazio dove sperimentare, raccogli dati, aggiusti il tiro. Solo che qui la sandbox è un intero paese di 60 milioni di persone. Un caso di studio che gli altri stati membri potranno osservare, imparando dai successi e dagli errori.E c’è un aspetto strategico importante. In un momento in cui l’Unione Europea cerca di affermare una terza via tra il laissez-faire americano e il controllo autoritario cinese sull’intelligenza artificiale, l’Italia sta dimostrando che si può regolamentaresenzasoffocare, si può innovare restando umani. È un contributo concreto a quella sovranità digitale europea di cui tanto si parla nelle sedi istituzionali.
L’inizio di una nuova consapevolezza
Nessuno pensa che questa legge risolva tutto. I deepfake continueranno a circolare, gli anonimi delle reti oscure troveranno modi per aggirare le sanzioni, la tecnologia evolverà più velocemente della capacità del diritto di inseguirla. Ma questo non rende inutile lo sforzo. Anzi.
La capacità delle macchine di replicare la realtà va spesso oltre la percezione umana. Questa consapevolezza, finalmente codificata in una legge, è già un passo avanti. Perché ammettere il problema è sempre il primo stadio per affrontarlo. E l’Italia questa volta ha corso. Ha deciso. Ha fatto.
La Legge 132/2025 non è la soluzione definitiva. È la presa di coscienza che una soluzione è necessaria. È il riconoscimento che la battaglia per l’autenticità digitale è una battaglia per la democrazia stessa. È un segnale al mercato, ai cittadini, agli altri stati: noi ci siamo, non stiamo a guardare.
Tra vent’anni, quando questa legge sarà stata riscritta dieci volte per stare al passo con tecnologie che oggi non esistono nemmeno, qualcuno ricorderà che tutto è iniziato nell’ottobre 2025. Quando l’Italia è stata la prima. E ha avuto ragione a esserlo.





