Uno dei temi che più ha fatto discutere in ordine all’applicazione dell’Intelligenza artificiale riguarda l’uso improprio delle tecnologie per la creazione di deepfake, contenuti falsificati digitalmente che possono minare la reputazione e la sicurezza delle persone. Abbiamo avuto diversi casi anche in Italia e in Calabria che hanno provocato profondo turbamento nell’opinione pubblica.
Per affrontare questa minaccia, il governo italiano ha introdotto una nuova fattispecie di reato all’interno del disegno di legge sull’Intelligenza Artificiale, approvato il 23 aprile 2024, che negli scorsi giorni ha avuto via libera al Senato.
Indice
- Il Ddl AI e l’introduzione del reato di deepfake
- Deepfake e cyberbullismo: un fenomeno in crescita
- Le dichiarazioni di Barachini: tutela della reputazione e dell’informazione
- Accanto all’evoluzione normativa servono formazione e competenze
Il Ddl AI e l’introduzione del reato di deepfake
L’Italia, in linea con l’AI Act europeo, ha deciso di regolamentare l’uso dell’intelligenza artificiale con un disegno di legge che affronta diversi ambiti, tra cui sanità, lavoro, pubblica amministrazione, diritto d’autore e, soprattutto, il settore penale. In questo contesto, spicca l’introduzione dell’articolo 612-quater nel Codice Penale, rubricato “Illecita diffusione di contenuti generati o manipolati artificialmente”.
Secondo la norma, chiunque diffonda immagini, video, voci o suoni falsificati attraverso sistemi di AI, arrecando un danno ingiusto, rischia la reclusione da uno a cinque anni. Il reato è perseguibile su querela della vittima, ma diventa d’ufficio nei casi più gravi, come quando coinvolge minori, persone incapaci o pubbliche autorità.
Deepfake e cyberbullismo: un fenomeno in crescita
L’evoluzione delle tecnologie di deepfake sta avendo un impatto significativo anche sul fenomeno del cyberbullismo. L’accessibilità di software avanzati, capaci di generare contenuti falsi con pochi click, ha ampliato le possibilità di aggressione online, portando a nuove forme di molestie, ricatti e diffamazione digitale. Minori e adolescenti sono particolarmente esposti a queste dinamiche, con ripercussioni devastanti sulla loro vita sociale e psicologica.
Nonostante l’intelligenza artificiale possa essere utilizzata anche per rilevare e prevenire episodi di bullismo digitale, come attraverso il riconoscimento di pattern linguistici tipici dei bulli, resta cruciale regolamentare gli abusi di queste tecnologie. L’introduzione del nuovo reato si pone, dunque, come un passo essenziale per arginare il fenomeno e garantire una maggiore tutela per le vittime.
Le dichiarazioni di Barachini: tutela della reputazione e dell’informazione

Sulla questione si è espresso anche il sottosegretario alla Presidenza del Consiglio con delega all’Informazione e all’Editoria, Alberto Barachini, il quale ha sottolineato l’importanza di questa nuova misura legislativa.
“Il deepfake rappresenta un rischio enorme per la reputazione dei cittadini. Può compromettere la fiducia nel rapporto tra informazione e realtà, rendendo difficile distinguere ciò che è vero da ciò che è una manipolazione algoritmica”, ha dichiarato Barachini che ha aggiunto: “Un articolo del nostro disegno di legge appena votato in Senato identifica la nuova fattispecie di reato di deepfake. Perché lo fa? Perché il deepfake, da tutti i punti di vista, che sia un materiale audio o un materiale video, è un grande rischio anche nel rapporto reputazionale con i cittadini perché potrebbero non sapere più cosa è reale, cosa è umano, cosa non lo è o cosa è algoritmo, solo frutto di tecnologia”
Il sottosegretario ha inoltre evidenziato il legame tra IA e tutela del diritto d’autore: “Difendere il nostro patrimonio culturale e informativo è fondamentale. Il disegno di legge si prefigge di proteggere la creatività e il pluralismo dell’informazione, elementi essenziali per la democrazia.”
Accanto all’evoluzione normativa servono formazione e competenze
L’introduzione del reato di deepfake rappresenta un passo decisivo nella lotta agli abusi legati all’intelligenza artificiale. Questa nuova misura legislativa non solo tutela la reputazione e la sicurezza delle persone, ma rafforza anche la protezione del diritto d’autore e dell’informazione nel panorama digitale. Con l’avanzare della tecnologia, resta fondamentale un costante aggiornamento normativo per prevenire usi distorti dell’Ai e garantire un ambiente digitale più sicuro e trasparente.
Altrettanto fondamentale lavorare sulla prevenzione, e questa passa attraverso la formazione e la consapevolezza. L’alfabetizzazione digitale deve diventare una priorità: cittadini, aziende, scuole e istituzioni devono essere coinvolti in un percorso di educazione alle nuove tecnologie, affinché possano riconoscere e contrastare l’uso distorto dell’intelligenza artificiale. Un percorso che TGWEBAI ha cominciato con il tour Generazione AI. Solo così sarà possibile creare una società più consapevole e in grado di affrontare le sfide del futuro digitale con strumenti adeguati. La regolamentazione, dunque, deve andare di pari passo con l’educazione e la responsabilizzazione degli utenti, affinché la tecnologia rimanga un’opportunità e non un pericolo.