Report n. 2 - Deepfake e voci AI
Deepfake, voci AI e guerra dell’informazione contro Israele
La campagna contro Israele non si svolge solo sul terreno militare. Dal 7 ottobre in poi si è aperto un fronte parallelo fatto di video manipolati, immagini generate con l’intelligenza artificiale e voci sintetiche costruite per sembrare reali. Il conflitto con Hamas e le tensioni con l’Iran hanno trasformato Israele in uno dei principali bersagli globali della disinformazione “a bassa soglia tecnologica”, ma ad altissimo impatto emotivo.
Questi contenuti non servono solo a confondere lo spettatore: mirano a delegittimare Israele, ridurre la credibilità delle sue istituzioni e normalizzare narrazioni ostili all’interno dell’opinione pubblica occidentale.
Cosa intendiamo per deepfake e voci sintetiche
Voci AI: audio creati con sistemi di voice-cloning, in grado di imitare tono, accento e timbro di leader politici, militari o “testimoni” sul campo.
Nel caso israelo-palestinese possiamo distinguere quattro grandi famiglie di contenuti.
1. Immagini emotive di bambini e civili “da Gaza”
Una delle immagini più condivise mostra un neonato intrappolato tra le macerie, presentato come scatto “dall’ultima notte di bombardamenti su Gaza”. Analisi di diversi hub di fact-checking hanno evidenziato anomalie grafiche e tracce tipiche della generazione AI: l’immagine è apparsa online mesi prima della guerra ed è stata riproposta come prova della distruzione a Gaza.
In parallelo, agenzie internazionali hanno documentato una serie di cosiddetti “fake babies”: bambini feriti o in lacrime creati interamente con l’AI, utili a generare indignazione ma privi di qualunque ancoraggio alla realtà.
2. Manipolazioni di leader e figure pubbliche
La guerra dell’informazione passa anche attraverso la manipolazione di volti noti. Alcuni esempi:
- un video in cui la Regina Rania di Giordania sembrava condannare Hamas e “schierarsi con Israele”: il deepfake rimontava un suo discorso autentico, sostituendo testo e audio per rovesciare il significato originario;
- un video virale di Bella Hadid in cui la modella “si scusava” per le posizioni pro-Palestina e dichiarava di “stare con Israele”: l’analisi ha mostrato che si trattava di un montaggio basato su un vecchio discorso, con audio sintetico e labiale ricostruito;
- clip in cui Benjamin Netanyahu appare in scenari improbabili (come i tunnel di Hamas), con frasi mai pronunciate, diffuse per ridicolizzare la leadership israeliana.
3. Telegiornali e voci sintetiche in operazioni statali
A fine 2023 un gruppo di hacker collegato ai Pasdaran iraniani ha interrotto servizi di streaming negli Emirati Arabi Uniti trasmettendo un finto telegiornale sulla guerra di Gaza: conduttrice virtuale, volto generato in AI e voice-over sintetico. È uno dei primi esempi documentati di deepfake usato in un’operazione di influenza statale direttamente legata al conflitto.
Secondo diversi centri di cyber-sicurezza, gli stessi network stanno sperimentando voci clonate per campagne di phishing e social engineering, sfruttando il riferimento alla guerra per aumentare la credibilità dei messaggi.
4. Grafica “attivista” generata con l’AI
L’immagine “All Eyes on Rafah”, diventata virale a maggio 2024 e condivisa da celebrità di mezzo mondo, è stata identificata come composizione artificiale: file generato con AI, tende perfettamente allineate, paesaggio irreale. L’immagine non ritrae un luogo esistente, ma è stata presentata come fotografia simbolica dei bombardamenti.
Un report di analisi open source stima che, nel campione di contenuti monitorati sulla guerra, circa il 4% dei claim fosse basato su immagini completamente generate da AI, il 2% su veri e propri deepfake video e l’8% su clip tratte da videogiochi spacciate per scontri reali.
Timeline di alcuni deepfake e contenuti sintetici
Immagine AI-generated di un bambino parzialmente sepolto, rilanciata come scatto da Gaza.
Video manipolati della Regina Rania, Bella Hadid e altri volti noti per ribaltare dichiarazioni e posizioni sul conflitto.
Gruppo vicino ai Pasdaran interrompe streaming negli Emirati con un finto TG su Gaza, conduttrice e voce sintetiche.
Immagine generata da AI diventa simbolo virale mondiale, pur non rappresentando alcun luogo reale.
Mappa delle origini e dei bersagli
Seleziona un’area per vedere da dove provengono molte campagne basate su deepfake e contenuti sintetici, quali paesi sono presi di mira e quali piattaforme vengono usate più spesso.
Iran e area MENA
Origine principale delle campagne
Bersagli prioritari
Piattaforme e strumenti utilizzati
Perché Israele è un bersaglio privilegiato
Nel caso israeliano l’effetto dei deepfake è duplice. All’esterno, consolidano narrazioni che descrivono Israele come aggressore assoluto e rimuovono deliberatamente il ruolo terroristico di Hamas e dei suoi sponsor regionali. All’interno, alimentano sfiducia: ogni immagine o video può essere liquidato come “fake”, anche quando è stato verificato, rendendo più difficile documentare i crimini di guerra subiti e difendere la legittimità delle operazioni militari.
La trasparenza sull’origine dei contenuti digitali – chi li produce, dove, con quali strumenti – non è un dettaglio tecnico, ma una delle principali linee di difesa contro la guerra dell’informazione che ha Israele, e l’intero spazio democratico occidentale, come bersaglio privilegiato.
Fonti principali e approfondimenti
- Analisi su immagini AI di bambini e civili nei conflitti recenti: Euronews, Associated Press.
- Fact-checking su deepfake di Queen Rania e Bella Hadid pubblicati sui social: AFP Fact Check.
- Report su operazioni iraniane con news anchor generate in AI: Microsoft Threat Intelligence, The Guardian.
- Analisi del caso “All Eyes on Rafah” e uso di immagini sintetiche nella comunicazione: BBC News.
- Studi quantitativi su AI e deepfake nel conflitto Israele–Hamas: BOOM Live – Arab-Israeli war disinfo report, dataset di ricerca “FakeClaim” su YouTube (Università e centri accademici).