Democrazia deepfake (prima parte)
Audio e video falsi, generati con l’intelligenza artificiale, che diventano virali. Misoginia usata come arma. La sfida per i paesi europei all’indomani dell’approvazione dell’Ai Act
Filtra per rubrica
Filtra per autore/trice
Audio e video falsi, generati con l’intelligenza artificiale, che diventano virali. Misoginia usata come arma. La sfida per i paesi europei all’indomani dell’approvazione dell’Ai Act
• – Redazione
La Protezione civile e un gruppo di esperti dell’Onu spiegano le conseguenze dell’offensiva israeliana. Ieri 50 palestinesi uccisi in 24 ore. A Gaza City case e infrastrutture distrutte al 90%. Tre bambini sono morti per fame negli ultimi giorni
• – Redazione
La delusione dell’Occidente: il possibile alleato contro Russia e Cina sceglie i Brics
• – Redazione
Il piano dei leader europei presenti al vertice Nato di Washington: boicottare i meeting in Ungheria o cancellare il semestre magiaro. Oggi la riunione degli ambasciatori
• – Redazione
La Corte suprema israeliana ha intimato all’esercito israeliano di coscrivere anche gli uomini ebrei ultra-ortodossi
• – Boas Erez
Sigilli ex Macello, governo e polizia sono stati richiamati a rispettare i ruoli che ogni potere ricopre (dovrebbe ricoprire) in uno Stato di diritto
• – Redazione
Come mai Joe Biden e Donald Trump sono diventati favorevoli alla moneta digitale?
• – Redazione
L’economista: «Ora serve un governo tecnico. La sinistra non ha i numeri. Macron ha sbagliato, si ispiri a Mitterrand»
• – Redazione
Il missile russo era puntato direttamente sull’ospedale pediatrico di Kyiv. Tutte le prove nei video e nelle foto
• – Redazione
Un missile di Putin colpisce l’ospedale pediatrico di Kiev
• – Franco Cavani
Audio e video falsi, generati con l’intelligenza artificiale, che diventano virali. Misoginia usata come arma. La sfida per i paesi europei all’indomani dell’approvazione dell’Ai Act
Sebastian Burduja, ministro dell’Energia rumeno che esorta a investire in una piattaforma di investimenti inesistente. Immagini esplicite della Premier Giorgia Meloni che circolano su siti pornografici statunitensi. L’attivista ed europarlamentare Ilaria Salis in un video che simula la sua detenzione in una gabbia per cani randagi. Si tratta di video deep fake generati tramite intelligenza artificiale, che hanno il potenziale di mettere a rischio l’intero processo democratico manipolando la realtà e diffondendo disinformazione. E i governi europei corrono ai ripari, con l’approvazione dell’Ai Act e iniziative nazionali, come nel caso del Belgio che ha convocato un tavolo civico di discussione per offrire consigli al Governo.
LE RECENTI elezioni europee hanno appena visto l’entrata in campo dell’intelligenza artificiale con conseguenze da valutare. Il Centro per il contrasto dell’odio digitale ha provato che gli strumenti di clonazione vocale tramite Ia potrebbero produrre dichiarazioni convincenti di personaggi politici, come l’audio falso con la voce di Macron che avverte di minacce di bombe ai seggi.
Mentre i giganti tecnologici, come Microsoft, sminuiscono il rischio, l’Unione europea ha appena approvato l’Ai Act, in vigore da marzo 2025, che attribuisce ai deep fake un potenziale di «rischio limitato» per le libertà fondamentali. «Per quanto riguarda i deepfake, ciò che ritenevamo essenziale è che ci sia un’etichetta che contrassegni contenuti di Ia», ha spiegato Dragos Tudorache, relatore per l’Ia al Parlamento europeo. In tal senso, il professor Cristian Vaccari dell’Università di Edimburgo aggiunge: «Una ragione per la classificazione limitata del rischio è che nelle democrazie occidentali ci si preoccupa di non limitare il discorso politico e la libertà di parola».
TUTTAVIA, diversi studi suggeriscono che anche quando i video o i clip audio vengono etichettati come generati dall’intelligenza artificiale, molte persone continuano a condividerli e a crederci, potenzialmente a causa dei messaggi emotivi che trasmettono.
«L’ambiente psicologico e sociale viene totalmente sottovalutato», spiega Ferdinand Gehringer, esperto della Fondazione Konrad Adenauer, «anche quando le persone sanno che le informazioni sono manipolate, le condividono perché sono divertenti o attirano l’attenzione. Ciò crea effetti psicologici e sociali cumulativi, poiché i deep fake non intendono indirizzare gli elettori verso un particolare candidato o partito, ma piuttosto distrarre, distorcere, diffamare e disturbare, convincendo a non votare affatto o a non farlo per un candidato o un partito specifici».
IL GARANTE italiano per la privacy ha sottolineato la necessità di un organo di controllo indipendente e imparziale a livello nazionale per vigilare sull’attuazione della legge sull’Ai Act che, spiega Guido Scorza, avvocato e membro dell’Autorità, «non può essere responsabilità del governo stesso o di un ente governativo. È importante lavorare immediatamente affinché le grandi aziende tecnologiche adottino spontaneamente i principi più importanti contenuti nell’AiAct, senza attendere la sua entrata in vigore».
La disinformazione generata attraverso l’intelligenza artificiale può assumere varie forme, amplificando stereotipi preesistenti nella società. «In Italia i video deepfake sono l’ultima frontiera della violenza di genere», spiega Lilia Giugni, ricercatrice alla University City College di Londra. «Sono diventati parte di un problema sistemico nel nostro paese e in Europa, dove osserviamo come questo tipo di episodi siano diretti contro donne con visioni politiche molto differenti».
Nel marzo 2024, la premier Meloni è stata vittima di un video deep fake sessuale con milioni di visualizzazioni nei siti pornografici americani ed ha intentato una causa che potrebbe costituire un precedente legale, chiedendo 100.000 dollari di risarcimento contro i presunti creatori, un padre e un figlio sardi. La premier è apparsa anche in altri video Ia, come quello che la ritrae nei panni della cantante Shakira, con quasi un milione e mezzo di visualizzazioni su Tik Tok.
PRIMA delle elezioni europee, Meloni e la segretaria Pd Elly Schlein sono state protagoniste di video deep fake che promuovevano truffe finanziarie. A seguito della candidatura dell’attivista antifascista Ilaria Salis con Alleanza Verdi Sinistra, la violenza online che la riguarda è sfociata in un video su X, probabilmente generato con Ia, che mostra la donna al guinzaglio condotta in un furgone da un accalappiacani.
«IL DEEP FAKE riguardante Ilaria Salis è emblematico per l’intersezionalità della sua candidatura tra attivismo, politica e lotta di genere», spiega Silvia Brena, fondatrice di Vox Diritti, associazione che mappa l’odio online da quasi un decennio. «Nella nostra ricerca le donne sono vittime di un messaggio d’odio su due: la misoginia è trasversale anche se gran parte del discorso d’odio globale proviene dall’estrema destra».
Sull’uso politico dei deep fake, la ricercatrice Giugni aggiunge: «Osserviamo leader di destra come Salvini che hanno costruito la loro avventura politica su un certo tipo di retorica macho antifemminista e non hanno avuto scrupoli nell’usare attacchi digitali contro nemici politici e qualsiasi donna visibile. Giorgia Meloni e altre leader di destra si trovano in una situazione complessa perché sono cresciute in partiti in cui la violenza digitale contro le donne viene utilizzata anche ad alti livelli».
GLI STEREOTIPI emergono già dalla programmazione dell’Ia, come evidenzia un report dell’Unesco: le donne vengono descritte come impiegate in ruoli domestici molto più spesso degli uomini, associati invece alla carriera. «La misoginia è usata come arma nei deep fake e nei contenuti generati dall’intelligenza artificiale. Le donne e le giovani sono incredibilmente scoraggiate in Italia e in altri paesi quando si tratta di prendere in considerazione la carriera politica a causa della preoccupazione legata alla loro immagine sui social», spiega Lucina Di Meco, co-fondatrice di ShePersisted, un’iniziativa dedicata ad affrontare la disinformazione di genere contro le donne in politica.
CIONONOSTANTE, i deep fake non hanno ancora rivelato il loro potenziale nel dibattito politico italiano come spiega Lorenzo De Sio, direttore del Centro Italiano Studi Elettorali: «Abbiamo osservato una campagna elettorale europea senza episodi particolari sui social. Alcuni commentatori hanno segnalato un effetto importante delle politiche restrittive attuate dal gruppo Meta che ha messo a tacere i contenuti politici per coloro che non avevano espresso esplicitamente il consenso a vederli».
Raquel Serrano, ricercatrice di DisinfoEu, aggiunge: «Non siamo ancora arrivati al punto di rottura in termini quantitativi per quanto riguarda l’uso delle tecnologie di intelligenza artificiale nella creazione di bufale, compresi i deep fake». Non al punto di rottura, ma il problema in Europa sta prendendo sempre più piede.
(segue)
Questo articolo ha ricevuto il sostegno del Display Europe Grant promosso dalla European Cultural Foundation
Nell’immagine: questo però NON ERA un deepfake. C’è anche la misoginia in proprio ad uso elettorale
Quando si comincia a discutere dell’impiego della forza, i fautori della forza sono sempre i meglio organizzati
Di Pasquale Annicchino e Knox Thames (Domani) Le democrazie occidentali sono chiamate a prendere posizione sulla sconcertante repressione in atto nello Xinjiang contro la...