È bufera negli Stati Uniti per un video di endorsement online a sorpresa, in cui Hillary Clinton sostiene il neo candidato repubblicano Ron DeSantis, affermando:
“Ron DeSantis mi piace molto. È proprio il tipo di persona di cui questo Paese ha bisogno, e lo penso davvero“.
Subito dopo, Joe Biden ha lasciato cadere la maschera, accanendosi contro una persona transgender, ringhiando: “Non sarai mai una vera donna“.
Ambedue le dichiarazioni avrebbero sicuramente scatenato un putiferio se fossero state reali. Sì, perché in realtà si tratta di due deepfake della Clinton e di Biden, ovvero video creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce.
Questi due video fake sono tra i migliaia che stanno emergendo sui social media, confondendo realtà e finzione nel mondo polarizzato della politica statunitense.
Sebbene questi “media sintetici” esistano già da diverso tempo, nell’ultimo anno hanno registrato una forte impennata grazie a una serie di nuovi strumenti di “IA generativa“, come Midjourney, che rendono facile e a basso costo la creazione di falsi convincenti.
“Sarà molto difficile per gli elettori distinguere il vero dal falso. E si può solo immaginare come i sostenitori di Trump o di Biden potrebbero usare questa tecnologia per mettere in cattiva luce l’avversario“, ha affermato Darrell West, senior fellow del Brookings Institution’s Center for Technology Innovation. “Potrebbero esserci cose che cadranno proprio prima delle elezioni e che nessuno avrà la possibilità di smontare“.
Secondo Aza Raskin, cofondatrice del Center for Human Technology (un’organizzazione no-profit che studia l’impatto della tecnologia sulla società), gli strumenti in grado di generare deepfake vengono rilasciati con poche o imperfette protezioni per prevenire la disinformazione dannosa, mentre il settore tecnologico si sta impegnando in una corsa agli armamenti per capitalizzare l’ascesa dell’intelligenza artificiale.
All’inizio del mese, l’ex presidente Donald Trump – che si contenderà con DeSantis e altri la nomination repubblicana per affrontare Biden alle elezioni presidenziali USA 2024 – ha condiviso sulla sua piattaforma di social media Truth un video falsificato del conduttore della CNN Anderson Cooper.
“Questo era il presidente Donald J. Trump che ci faceva il culo qui, durante il townhall presidenziale in diretta della CNN“, dice Cooper nel filmato, anche se le parole non corrispondono al movimento delle sue labbra.
Nonostante la CNN abbia dichiarato che il video era un deepfake, questa settimana era ancora presente sulla pagina Twitter del figlio dell’ex presidente, Donald Jr.
Sebbene le principali piattaforme di social media come Facebook, Twitter e YouTube si siano impegnate per proibire e rimuovere prontamente i deepfake, la loro efficacia nel controllare tali contenuti non è sempre delle migliori.
Deepfake: una nuova minaccia tecnologica al confine tra reale e immaginario
Secondo DeepMedia, un’azienda che sviluppa strumenti per individuare i media sintetici, quest’anno è stato pubblicato online un numero tre volte superiore di video deepfake e otto volte superiore di deepfake vocali rispetto allo stesso periodo del 2022.
Secondo le stime della società, nel 2023 saranno condivisi sui siti di social media circa 500.000 deepfake video e vocali. Fino alla fine dello scorso anno la clonazione di una voce costava 10.000 dollari in termini di server e di addestramento dell’IA, ma ora le startup offrono questi strumenti per pochi dollari.
Anche l’attuale leader del settore OpenAI, che negli ultimi mesi ha cambiato le carte in tavola con il rilascio di ChatGPT e del modello aggiornato GPT-4, è a sua volta alle prese con la questione.
All’inizio del mese, il Ceo Sam Altman ha dichiarato al Congresso che l’integrità delle elezioni è una “significativa area di preoccupazione” e ha sollecitato una rapida regolamentazione del settore.
A differenza di alcune startup più piccole, OpenAI ha preso provvedimenti per limitare l’uso dei suoi prodotti in politica, ma le protezioni adottate finora presentano comunque delle lacune.
Per esempio, OpenAI ha vietato al suo generatore di immagini DALL-E di creare personaggi pubblici e, in effetti, quando abbiamo cercato di generare immagini di Trump e Biden, la richiesta è stata bloccata ed è apparso un messaggio che diceva: “la richiesta potrebbe non essere conforme alla nostra politica sui contenuti“.
Tuttavia, siamo comunque riusciti a ricreare le immagini di almeno una dozzina di altri politici statunitensi, tra cui l’ex vicepresidente Mike Pence, che sta valutando la possibilità di candidarsi alla Casa Bianca per il 2024.
OpenAI limita inoltre qualsiasi uso “scalare” dei suoi prodotti per scopi politici. Ciò vieta, ad esempio, l’uso della sua intelligenza artificiale per inviare in massa e-mail personalizzate agli elettori.
Altre startup di piccole dimensioni, invece, non hanno alcuna restrizione esplicita sui contenuti politici.
Midjourney, lanciata lo scorso anno, è il principale operatore nel settore delle immagini generate dall’IA, con 16 milioni di utenti sul suo server ufficiale Discord. L’applicazione, che va da un costo gratuito a 60 dollari al mese a seconda di fattori quali la quantità di immagini e la velocità, è una delle preferite dai designer e dagli artisti dell’IA per la sua capacità di generare immagini iperrealistiche di celebrità e politici.
Tuttavia, durante una chat online su Discord la scorsa settimana, il Ceo David Holz ha dichiarato che l’azienda avrebbe apportato delle modifiche prima delle elezioni per contrastare la disinformazione.
Holz ha anche aggiunto che l’azienda sta cercando di sviluppare una soluzione per consentire la tracciabilità delle immagini generate dall’intelligenza artificiale con un equivalente digitale del watermarking, e prendendo in considerazione la possibilità di bloccare le immagini dei candidati politici.
Un annuncio repubblicano generato dall’intelligenza artificiale
Anche se il settore sta lottando su come prevenire gli abusi, alcuni esponenti politici stanno cercando di sfruttare le capacità dell’intelligenza artificiale generativa per rafforzare le proprie campagne elettorali.
Finora, l’unico spot politico di alto profilo generato dall’IA negli Stati Uniti è stato quello pubblicato dal Comitato nazionale repubblicano a fine aprile.
Lo slogan di 30 secondi, che l’RNC ha rivelato essere stato interamente creato dall’IA, utilizzava immagini false per suggerire uno scenario catastrofico in caso di rielezione di Biden, con la Cina che invadeva Taiwan e San Francisco che veniva chiusa dalla criminalità.
Insomma, il potenziale dell’IA generativa per la produzione di e-mail, post e pubblicità per le campagne elettorali è praticamente illimitato, con molti attivisti che ritengono che la tecnologia a basso costo possa livellare il campo di gioco nelle elezioni.
Persino nella rurale Hillsdale, nel Michigan, l’intelligenza artificiale sta marciando a passo spedito.
Jon Smith, presidente repubblicano del quinto distretto congressuale del Michigan, sta organizzando diversi incontri formativi per consentire ai suoi alleati di imparare a utilizzare l’IA per i social media e la generazione di annunci.
“L’IA ci aiuta a giocare contro i big cats“, ha detto. “Vedo il maggiore incremento nelle gare locali. Una persona di 65 anni, agricoltore e commissario di contea, potrebbe essere facilmente eliminata da un candidato più giovane grazie a questa tecnologia“.
Anche le società di consulenza politica stanno cercando di sfruttare l’IA, confondendo ulteriormente il confine tra reale e irreale.
Numinar Analytics, un’azienda che fornisce dati politici ai repubblicani, ha iniziato a sperimentare la generazione di contenuti IA per l’audio e le immagini, nonché la produzione vocale per creare messaggi personalizzati con la voce di un candidato, come ha dichiarato il fondatore Will Long in un’intervista.
Nel frattempo, il gruppo di sondaggi e strategie democratiche Honan Strategy Group sta cercando di sviluppare un bot Ai dedicato proprio ai sondaggi, con la speranza di lanciarne uno tutto al femminile in tempo per le elezioni comunali del 2023, ha dichiarato il Ceo Bradley Honan, citando una ricerca secondo cui sia gli uomini che le donne sono più propensi a parlare con un’intervistatrice donna.
Wall Street Memes (WSM) - La nuovissima meme coin
- Comunità di 1 oltre milione di follower
- Fondata da esperti in progetti NFT
- Prevendita live - wallstmemes.com
- Raccolti $ 300.000 il giorno del lancio