A meno di due settimane dalle elezioni presidenziali negli Stati Uniti che vedranno misurarsi Donald Trump e Kamala Harris, un nuovo allarme emerge riguardo al potenziale impatto delle intelligenze artificiali (IA) generative sulla manipolazione del consenso elettorale. E non se ne setiva di certo la mancanza, considerando l’attuale congiuntura internazionale, i tanti fronti di tensione e guerra e la delicatezza che assume il prossimo confronto elettorale americano.
Un rapporto della divisione sicurezza di Microsoft sottolinea come tre nazioni — Russia, Iran e Cina — stiano intensificando le proprie operazioni per influenzare il voto del 5 novembre, puntando a indebolire il processo democratico americano attraverso un uso avanzato della disinformazione e dei deepfake, in particolare per quanto riguarda la candidata democratica Kamala Harris.
Contenuti falsi e persuasivi
Il fenomeno dei deepfake sta assumendo un ruolo chiave nella campagna di disinformazione orchestrata da alcuni attori stranieri, i quali, grazie all’IA generativa, sono ora in grado di produrre contenuti falsi e persuasivi in modo più rapido e accessibile. Video fasulli che mostrano Harris fare dichiarazioni controverse su Donald Trump o essere coinvolta in attività illegali in Zambia sono solo alcuni esempi delle strategie adottate. Il rapporto di Microsoft avverte che tali contenuti, diffusi sulle principali piattaforme social come X (ex Twitter), potrebbero aumentare ulteriormente man mano che ci si avvicina al giorno del voto.
Anche altri attori sono al centro dell’attenzione dell’intelligence americana: gruppi iraniani stanno intensificando le loro operazioni di disinformazione, mentre attori cinesi mirano a screditare candidati repubblicani critici nei confronti di Pechino. Oltre all’uso di contenuti generati dall’IA, si rileva anche un cambio di piattaforma: i gruppi russi, per esempio, stanno spostando la loro attività da Telegram a X, con l’obiettivo di raggiungere un pubblico più ampio negli Stati Uniti.
Parallelamente, il Washington Post ha segnalato il coinvolgimento di un ex vice-sceriffo americano, ora residente a Mosca, che starebbe lavorando direttamente con l’intelligence militare russa per produrre deepfake e disinformazione mirata. Documenti ottenuti da un’intelligence europea e visionati dal quotidiano mostrerebbero una rete organizzata per diffondere fake news contro i candidati democratici, con l’obiettivo di minare ulteriormente la fiducia degli americani nel sistema democratico.
L’Ai come arma di disinformazione di massa
L’utilizzo dell’Ai per creare contenuti falsi rappresenta un salto di qualità rispetto alle campagne di disinformazione passate, in quanto rende più difficile per gli utenti riconoscere contenuti manipolati e aumenta la portata delle fake news. A differenza delle campagne del 2016 e del 2020, nelle quali la disinformazione si basava prevalentemente su contenuti testuali e immagini statiche, ora l’intelligenza artificiale generativa può produrre video realistici che mostrano figure pubbliche in situazioni che mai si sono verificate, come nel caso di Harris. Questo crea un pericolo unico: con una manipolazione così verosimile, è sempre più complesso per l’utente medio distinguere il reale dal falso.
Soluzioni e strategie per contrastare la disinformazione
Alla luce dell’impatto di queste nuove tecnologie, esperti e istituzioni stanno riflettendo sulle soluzioni più efficaci. Innanzitutto, è cruciale investire in strumenti di rilevazione di contenuti falsi, basati su algoritmi avanzati in grado di identificare i deepfake. Inoltre, aumentare la consapevolezza del pubblico su questi rischi attraverso campagne educative risulta fondamentale per ridurre l’impatto della disinformazione. Anche le piattaforme social come X, Meta e YouTube devono assumersi un ruolo proattivo, sviluppando strumenti per il rilevamento di fake news e promuovendo una maggiore trasparenza sugli account che diffondono informazioni manipolate.
Il delicato ruolo dei giornalisti nella lotta alla disinformazione
In questo contesto, i giornalisti ricoprono un ruolo fondamentale nella lotta alla disinformazione e nella protezione dell’integrità del processo democratico. Attraverso il fact-checking rigoroso e l’analisi critica delle informazioni, i giornalisti possono smascherare i contenuti falsi, compresi i deepfake, e fare luce sulle campagne di disinformazione in atto. Con un’attenzione sempre più alta all’accuratezza e alla verifica delle fonti, i media possono aiutare il pubblico a discernere tra notizie reali e manipolate. Inoltre, l’informazione responsabile svolta dai giornalisti contribuisce a mantenere alta la consapevolezza sui rischi dell’IA generativa, incoraggiando un dibattito pubblico informato su queste nuove minacce. Oltre alla loro funzione tradizionale di reporting, i giornalisti possono, quindi, agire come un primo baluardo contro le manipolazioni digitali, lavorando a stretto contatto con esperti di sicurezza e tecnologia per individuare e smontare in tempo reale le falsità diffuse.
Serve l’intervento legislativo
Di fronte alla crescente minaccia dei deepfake e della disinformazione alimentata dall’intelligenza artificiale, diventa essenziale anche un intervento normativo che stabilisca regole chiare per arginare l’abuso di queste tecnologie. La legislazione può imporre standard per le piattaforme digitali, obbligandole a monitorare, segnalare e rimuovere tempestivamente i contenuti falsi. Inoltre, nuove norme potrebbero prevedere sanzioni per chi produce e diffonde deepfake dannosi, tutelando così la reputazione e i diritti delle persone bersaglio. È necessario inoltre che il diritto contempli strumenti per proteggere la democrazia in un’era in cui la manipolazione del consenso è resa più subdola e capillare dall’IA. Attraverso leggi mirate, si può promuovere un uso responsabile dell’IA, stabilendo una chiara linea di demarcazione tra innovazione tecnologica e rispetto delle regole democratiche, proteggendo il processo elettorale da interferenze che minano la fiducia nel sistema.