Intelligenza artificiale, razzismo e comunicazione politica: la segnalazione di Pd e Alleanza Verdi e Sinistra all’Agcom contro la Lega riapre il dibattito sull’uso delle nuove tecnologie nelle campagne elettorali.
Si accende lo scontro politico attorno all’uso dell’intelligenza artificiale. Il Partito Democratico e Alleanza Verdi e Sinistra hanno presentato una segnalazione formale all’Agcom contro la Lega, accusando il partito di aver diffuso sui propri canali social immagini generate artificialmente con contenuti definiti «razzisti, xenofobi e islamofobi».
Le immagini contestate ritraggono presunti criminali, quasi esclusivamente uomini stranieri, spesso di pelle nera, nell’atto di compiere rapine, furti o aggressioni, prevalentemente ai danni di donne. Secondo i firmatari della segnalazione, si tratta di un uso strumentale e mirato dell’intelligenza artificiale per alimentare stereotipi e paure.
«Stanno usando l’intelligenza artificiale per prendere di mira categorie specifiche di persone – immigrati, arabi – rappresentandoli sistematicamente come ladri, stupratori o aggressori», ha dichiarato il senatore Pd Antonio Nicita al Guardian. «È un uso pericoloso delle nuove tecnologie che contribuisce a creare un clima di paura e odio».
La replica della Lega: «I post si basano su fatti reali»
La Lega ha confermato l’utilizzo di immagini create con l’IA, ma respinge ogni accusa di manipolazione. «Il punto non è l’immagine, ma il fatto. Ogni post si basa su notizie vere, con nomi, date e luoghi. Se la realtà fa paura, la colpa non è di chi la racconta», ha dichiarato un portavoce del partito.
Non della stessa opinione Francesco Emilio Borrelli, deputato di Avs, secondo cui le immagini create non sono casuali: «L’intelligenza artificiale è stata istruita per generare uomini neri mentre aggrediscono donne. È una strategia per instillare paura nei cittadini, manipolando la percezione della realtà».
Al momento, Matteo Salvini non ha rilasciato dichiarazioni, mentre l’ultima parola sulla vicenda spetterà all’Agcom.
AI e politica: un terreno scivoloso
Questo episodio solleva interrogativi cruciali sul ruolo dell’intelligenza artificiale nella comunicazione politica. Se da un lato le tecnologie generative offrono strumenti innovativi per raccontare e semplificare notizie complesse, dall’altro aprono scenari inquietanti: la possibilità di costruire narrazioni polarizzanti, rafforzare stereotipi e influenzare il consenso attraverso immagini false ma verosimili.
Nel contesto di una campagna elettorale permanente, l’intelligenza artificiale rischia di diventare un’arma retorica potente e poco regolamentata. La sfida, oggi più che mai, è trovare un equilibrio tra libertà di espressione, veridicità dell’informazione e tutela dei diritti civili. Perché non tutto ciò che è tecnicamente possibile è anche eticamente legittimo.
Deepfake e disinformazione: il caso delle elezioni USA 2024
Il dibattito sull’uso dell’intelligenza artificiale in politica ha avuto risvolti significativi anche durante le elezioni presidenziali statunitensi del 2024. In quell’occasione, l’uso dei deepfake ha sollevato preoccupazioni riguardo alla disinformazione e alla manipolazione dell’opinione pubblica.
Ad esempio, un consulente politico è stato incriminato per aver commissionato chiamate automatiche che utilizzavano una voce sintetica di Joe Biden per scoraggiare gli elettori dal partecipare alle primarie democratiche in New Hampshire . Inoltre, sono circolati video generati artificialmente che ritraevano figure politiche in contesti falsi, contribuendo a diffondere informazioni fuorvianti .
Questi episodi evidenziano come l’intelligenza artificiale possa essere impiegata per creare contenuti ingannevoli, influenzando il processo democratico e minando la fiducia del pubblico nelle istituzioni. La necessità di regolamentazioni efficaci e di una maggiore consapevolezza sull’uso etico dell’IA in ambito politico diventa quindi sempre più urgente.