Cosa sono, quali rischi comportano, perché le AI li limitano — e perché il problema non è ancora risolto
Negli ultimi anni il termine “deepfake” è entrato nel linguaggio comune, spesso associato a scandali, truffe o manipolazioni politiche. Eppure molte persone non sanno esattamente di cosa si tratta, quali conseguenze legali può avere chi li crea o li diffonde, e perché — nonostante le piattaforme di intelligenza artificiale abbiano introdotto severi filtri — questi contenuti continuano a proliferare in rete.
In questo articolo cerchiamo di fare chiarezza, con un linguaggio accessibile ma preciso.
Che cos’è un deepfake?
Il termine nasce dalla fusione di “deep learning” (apprendimento automatico profondo) e “fake” (falso). Si tratta di contenuti — video, audio, immagini o persino testi — generati o manipolati dall’intelligenza artificiale in modo così realistico da risultare indistinguibili dall’originale.
La tecnica più utilizzata si basa sulle reti neurali generative avversarie (GAN): due algoritmi “gareggiano” tra loro, uno che produce contenuti falsi e uno che cerca di smascherarli. Il risultato, dopo migliaia di cicli di addestramento, è un falso sempre più convincente.
Esempi concreti: un video in cui un politico dice cose mai pronunciate; una telefonata con la voce di un dirigente aziendale che ordina un bonifico urgente; una foto di una persona privata inserita in contesti compromettenti.
| ⚠️ Non serve più essere esperti di informatica: oggi esistono applicazioni consumer che producono deepfake convincenti in pochi minuti, partendo da una sola fotografia. |
I rischi legali: cosa rischia chi crea o diffonde un deepfake?
In Italia e in Europa il quadro normativo si sta evolvendo rapidamente. Creare o condividere un deepfake senza consenso può configurare reati gravi e sanzioni civili significative.
Diffamazione e lesione della reputazione
L’articolo 595 del Codice Penale punisce la diffamazione, aggravata quando avviene tramite strumenti di comunicazione. Un deepfake che attribuisce comportamenti falsi e lesivi a una persona reale rientra pienamente in questa fattispecie, con pene fino a tre anni di reclusione.
Revenge porn e violenza di genere digitale
La legge 69/2019 (Codice Rosso) ha introdotto il reato di “diffusione illecita di immagini o video sessualmente espliciti” (art. 612-ter c.p.). La giurisprudenza ha chiarito che si applica anche ai deepfake à carattere sessuale, anche quando il soggetto non è mai stato ripreso in situazioni intime. Le pene arrivano fino a sei anni se la vittima è un minore.
Frode e truffa informatica
I deepfake audio/video vengono sempre più spesso utilizzati per impersonare dirigenti aziendali o figure istituzionali allo scopo di ottenere denaro o dati riservati. In questi casi si applicano gli articoli 640 e 640-ter del Codice Penale (truffa e frode informatica), con pene fino a cinque anni.
Violazione del GDPR e del diritto all’immagine
Utilizzare il volto o la voce di una persona senza consenso costituisce trattamento illecito di dati personali ai sensi del Regolamento UE 2016/679. Il Garante Privacy può irrogare sanzioni fino al 4% del fatturato globale per le aziende, e l’articolo 10 del Codice Civile tutela il diritto all’immagine anche sul piano risarcitorio.
Il nuovo AI Act europeo
Il Regolamento UE sull’Intelligenza Artificiale (AI Act), entrato in vigore nel 2024, classifica i sistemi di manipolazione biometrica come ad “alto rischio” e impone obblighi di trasparenza: i contenuti sintetici devono essere etichettati come tali. La violazione è punita con sanzioni fino a 30 milioni di euro o il 6% del fatturato mondiale.
| ⚖️ In sintesi: produrre, condividere o usare un deepfake senza consenso non è una zona grigia. È un reato perseguibile penalmente, con aggravanti specifiche per contenuti sessuali e per i casi che coinvolgono minori. |
Le piattaforme AI e i sistemi di moderazione
I principali fornitori di strumenti di intelligenza artificiale — da OpenAI a Google, da Stability AI a Midjourney — hanno implementato filtri e policy d’uso specifici per impedire la generazione di deepfake dannosi.
Questi sistemi operano su più livelli:
- Filtri nei modelli addestrati: durante la fase di training, i modelli vengono ottimizzati per rifiutare richieste che implicano la riproduzione di volti di persone reali senza consenso.
- Moderazione in tempo reale: i prompt degli utenti vengono analizzati prima dell’elaborazione; quelli che contengono nomi di persone reali o richieste esplicite vengono bloccati.
- Watermarking e metadati: alcuni strumenti incorporano marcatori invisibili nelle immagini generate per consentirne il riconoscimento come contenuto sintetico.
- Termini di servizio e ban degli account: chi viola le policy rischia la sospensione permanente e, nei casi più gravi, la segnalazione alle autorità competenti.
Questi meccanismi sono efficaci per le piattaforme commerciali principali. Ma il panorama tecnologico è molto più ampio.
Perché i deepfake continuano a circolare?
Nonostante i filtri delle grandi piattaforme, i deepfake lesivi continuano a diffondersi. Le ragioni sono strutturali, non accidentali.
Modelli open source senza restrizioni
Decine di modelli di generazione immagini e video sono rilasciati come software open source, scaricabili e utilizzabili localmente senza alcun filtro. Chi li esegue sul proprio computer non passa attraverso nessun sistema di moderazione esterno.
Canali non moderati e reti anonime
Forum anonimi, canali Telegram privati e siti nel dark web fungono da hub di distribuzione per questi contenuti. L’assenza di controllo editoriale e la difficoltà di attribuire responsabilità in ambienti anonimi rendono l’intervento delle autorità complesso e spesso tardivo.
La velocità supera i controlli
Un deepfake può essere creato, condiviso e diventare virale in poche ore, mentre i sistemi di rilevamento e i processi di segnalazione richiedono tempi ben più lunghi. Il danno reputazionale, una volta inflitto, è difficilmente reversibile anche quando il contenuto viene rimosso.
L’elusione dei filtri tramite tecniche di prompt engineering
I filtri delle AI commerciali vengono continuamente testati da utenti malintenzionati che cercano formulazioni di richiesta in grado di aggirare i blocchi. È una corsa agli armamenti: i fornitori aggiornano i filtri, gli utenti trovano nuove vie. I modelli più datati o meno curati sono particolarmente vulnerabili.
| 🔍 La presenza di filtri sulle piattaforme commerciali è necessaria ma non sufficiente. Il problema della diffusione dei deepfake non è tecnologico in senso stretto: è culturale, legale e sistemico. |
Come difendersi e cosa fare se si è vittima
Se sospetti di essere vittima di un deepfake, queste sono le azioni prioritarie:
- Documenta il contenuto: salva screenshot, URL e tutti i metadati disponibili prima che il materiale venga rimosso.
- Segnala alla piattaforma: utilizza i meccanismi di report previsti da ogni servizio; i contenuti che violano le policy vengono rimossi generalmente in tempi rapidi.
- Contatta il Garante per la Protezione dei Dati Personali: in Italia è possibile presentare un reclamo formale al Garante Privacy per violazione del GDPR.
- Sporgere denuncia: rivolgiti alla Polizia Postale, che dispone di unità specializzate nei reati informatici e può avviare le indagini per l’identificazione dell’autore.
- Consulta un avvocato specializzato in diritto digitale: può valutare azioni risarcitorie civili in parallelo all’azione penale.
Conclusioni
I deepfake rappresentano una delle sfide più concrete poste dall’intelligenza artificiale alla società. Non si tratta di fantascienza: sono strumenti accessibili, già utilizzati per danneggiare persone comuni, aziende e istituzioni.
Le piattaforme AI fanno la loro parte con sistemi di moderazione sempre più sofisticati, ma la tecnologia progredisce velocemente e gli strumenti non filtrati esistono e circolano. La risposta efficace richiede consapevolezza da parte degli utenti, norme adeguate da parte del legislatore e collaborazione internazionale tra piattaforme e autorità.
La prima linea di difesa, per ognuno di noi, resta la capacità di riconoscere questi contenuti e di non contribuirne alla diffusione — anche quando sembrano innocui o divertenti.