- Stretta sui deepfake
- Gli obblighi per i gestori delle piattaforme social
- E la libertà di espressione?
- Il futuro della politica
- La stato dell’arte in Europa e in Italia
- Il ruolo dei partiti politici
Intelligenza artificiale e politica. Un binomio da maneggiare con estrema cura, considerando anche la delicatissima congiuntura internazionale che stiamo attraversando. Negli Usa il dibattito è aperto da tempo e dopo una serie di fake news che hanno riguardato anche la recente campagne per le presidenziali, la California ha deciso di operare una decisa stretta per fronteggiare uno dei problemi più urgenti dell’era digitale: l’utilizzo dell’intelligenza artificiale (AI) per creare contenuti ingannevoli, come i deepfake, in ambito elettorale. Con le elezioni del 5 novembre alle porte, il governatore Gavin Newsom ha firmato una serie di leggi che mirano a contrastare l’uso di tecnologie avanzate per distorcere la realtà, garantendo una maggiore trasparenza e sicurezza nel processo democratico.
Stretta sui deepfake
La decisione della California nasce da un caso emblematico avvenuto a luglio 2024, quando Elon Musk ha ritwittato un video deepfake della vicepresidente Kamala Harris, alterato digitalmente per farle dire cose mai pronunciate. Sebbene il video fosse stato pubblicato come parodia, la sua diffusione ha acceso il dibattito su quanto queste manipolazioni possano compromettere la fiducia del pubblico durante una campagna elettorale. Gavin Newsom ha subito commentato l’episodio, affermando che “manipolare una voce in una pubblicità elettorale come questa dovrebbe essere illegale”. In risposta, ha firmato tre nuove leggi che vietano la creazione e pubblicazione di deepfake elettorali nei 120 giorni prima del voto e nei 60 giorni successivi.
Gli obblighi per i gestori delle piattaforme social
Le leggi approvate dalla California non si limitano a vietare i deepfake elettorali, ma impongono ai gestori delle piattaforme social di moderare e rimuovere i contenuti ingannevoli entro 72 ore dalla segnalazione. A partire dal 2025, inoltre, sarà obbligatorio inserire etichette sugli spot elettorali creati con l’uso dell’AI, per assicurare agli elettori che ciò che vedono e ascoltano sia trasparente e autentico. “Salvaguardare l’integrità delle elezioni è essenziale per la democrazia”, ha dichiarato Newsom, sottolineando l’importanza di impedire che l’AI venga usata per minare la fiducia del pubblico attraverso la disinformazione.
E la libertà di espressione?
Neanche il tempo di approvare le nuove norme che si è arrivati subito in tribunale. L’utente che ha diffuso il deepfake di Kamala Harris ha presentato una causa contro le leggi, sostenendo che queste rappresentano una violazione del diritto costituzionale alla libertà di espressione. Secondo il querelante, le nuove regole imporrebbero una censura ingiusta, eliminando contenuti generati dall’intelligenza artificiale che potrebbero essere considerati parodia o satira. Anche Elon Musk è intervenuto nuovamente, rilanciando il video in questione e criticando apertamente le nuove leggi, definendole una violazione della Costituzione americana.
Il futuro della politica
La questione dei deepfake solleva preoccupazioni più ampie sull’impatto dell’intelligenza artificiale nella politica. L’uso crescente di AI per creare contenuti manipolati rappresenta una minaccia reale per la fiducia del pubblico nel processo elettorale, un elemento fondamentale per la tenuta delle democrazie moderne. Le elezioni potrebbero essere influenzate da campagne mirate di disinformazione che sfruttano l’AI per alterare i messaggi dei candidati, fuorviare gli elettori e diffondere falsità.
Questa tecnologia, se impiegata in modo scorretto, rischia di minare le basi della democrazia e della creazione del consenso, soprattutto in un contesto politico già caratterizzato da divisioni e tensioni e con un’agibilità democratica sempre più risicata. Come ha evidenziato Brian Brokaw, consulente del governatore Newsom, l’intelligenza artificiale può essere usata “in modo negativo da persone con cattive intenzioni”, con conseguenze potenzialmente devastanti, come la manipolazione dell’opinione pubblica o persino l’innesco di conflitti basati su falsi presupposti.
La stato dell’arte in Europa e in Italia
Anche in Europa, l’utilizzo dell’intelligenza artificiale in occasione delle elezioni politiche è un tema sempre più dibattuto. L’Unione Europea sta lavorando a una normativa sul controllo e l’uso dell’AI, con il Regolamento sull’Intelligenza Artificiale che mira a garantire trasparenza, sicurezza e protezione dei diritti fondamentali. Tuttavia, l’applicazione di queste regole alle campagne elettorali non è ancora pienamente definita. In Italia, il dibattito sull’impatto dell’AI sulla politica è ancora in fase iniziale, ma c’è una crescente consapevolezza del problema, soprattutto in relazione alla disinformazione. Nel 2023, il Garante per la protezione dei dati personali ha espresso preoccupazione per l’uso non regolamentato di queste tecnologie in contesti elettorali, sottolineando la necessità di normative che proteggano il processo democratico. Tuttavia, manca ancora una legislazione specifica che affronti direttamente il problema dei deepfake e della disinformazione generata dall’AI, lasciando un vuoto normativo che potrebbe avere conseguenze serie in vista delle future elezioni.
Il ruolo dei partiti politici
In questo scenario, i partiti politici sono chiamati a svolgere un ruolo fondamentale per garantire che l’AI diventi uno strumento a servizio della democrazia, e non una minaccia. Sarà cruciale che le forze politiche si impegnino a utilizzare le tecnologie in modo trasparente ed etico, adottando misure che prevengano la diffusione di contenuti ingannevoli. I partiti dovranno inoltre collaborare con piattaforme digitali e autorità di regolamentazione per creare un quadro normativo efficace che tuteli gli elettori e salvaguardi l’integrità delle elezioni.
Un esempio di buone pratiche potrebbe essere l’adozione di etichette chiare per identificare i contenuti generati dall’AI e l’implementazione di sistemi di verifica più rigorosi, che rendano immediatamente riconoscibili i deepfake e altre manipolazioni. Inoltre, l’educazione degli elettori su questi temi sarà cruciale per sviluppare una cittadinanza più consapevole e capace di riconoscere le potenziali trappole della disinformazione.
L’intelligenza artificiale offre enormi opportunità per innovare la politica e migliorare il rapporto tra cittadini e istituzioni. Tuttavia, il suo utilizzo improprio, soprattutto in ambito elettorale, rappresenta una seria minaccia per la democrazia. La stretta della California sui deepfake elettorali rappresenta un primo passo per contrastare questo fenomeno, ma il dibattito è destinato a proseguire. Anche perché la strada della repressione non è sufficiente da sola a dare soluzioni adeguate a garantire sia la tutela dagli usi distorti dell’Ai che la libertà di espressione. .