Report n. 2 - Deepfake e voci AI

Report n. 2 - Deepfake e voci AI

Deepfake, voci AI e guerra dell’informazione contro Israele

La campagna contro Israele non si svolge solo sul terreno militare. Dal 7 ottobre in poi si è aperto un fronte parallelo fatto di video manipolati, immagini generate con l’intelligenza artificiale e voci sintetiche costruite per sembrare reali. Il conflitto con Hamas e le tensioni con l’Iran hanno trasformato Israele in uno dei principali bersagli globali della disinformazione “a bassa soglia tecnologica”, ma ad altissimo impatto emotivo.

Questi contenuti non servono solo a confondere lo spettatore: mirano a delegittimare Israele, ridurre la credibilità delle sue istituzioni e normalizzare narrazioni ostili all’interno dell’opinione pubblica occidentale.

Cosa intendiamo per deepfake e voci sintetiche

Deepfake: video o immagini generate o pesantemente manipolate con tecniche di intelligenza artificiale (modelli di diffusione, face-swap, GAN), che simulano persone, eventi o luoghi reali.
Voci AI: audio creati con sistemi di voice-cloning, in grado di imitare tono, accento e timbro di leader politici, militari o “testimoni” sul campo.

Nel caso israelo-palestinese possiamo distinguere quattro grandi famiglie di contenuti.

1. Immagini emotive di bambini e civili “da Gaza”

Una delle immagini più condivise mostra un neonato intrappolato tra le macerie, presentato come scatto “dall’ultima notte di bombardamenti su Gaza”. Analisi di diversi hub di fact-checking hanno evidenziato anomalie grafiche e tracce tipiche della generazione AI: l’immagine è apparsa online mesi prima della guerra ed è stata riproposta come prova della distruzione a Gaza.

In parallelo, agenzie internazionali hanno documentato una serie di cosiddetti “fake babies”: bambini feriti o in lacrime creati interamente con l’AI, utili a generare indignazione ma privi di qualunque ancoraggio alla realtà.

2. Manipolazioni di leader e figure pubbliche

La guerra dell’informazione passa anche attraverso la manipolazione di volti noti. Alcuni esempi:

  • un video in cui la Regina Rania di Giordania sembrava condannare Hamas e “schierarsi con Israele”: il deepfake rimontava un suo discorso autentico, sostituendo testo e audio per rovesciare il significato originario;
  • un video virale di Bella Hadid in cui la modella “si scusava” per le posizioni pro-Palestina e dichiarava di “stare con Israele”: l’analisi ha mostrato che si trattava di un montaggio basato su un vecchio discorso, con audio sintetico e labiale ricostruito;
  • clip in cui Benjamin Netanyahu appare in scenari improbabili (come i tunnel di Hamas), con frasi mai pronunciate, diffuse per ridicolizzare la leadership israeliana.

3. Telegiornali e voci sintetiche in operazioni statali

A fine 2023 un gruppo di hacker collegato ai Pasdaran iraniani ha interrotto servizi di streaming negli Emirati Arabi Uniti trasmettendo un finto telegiornale sulla guerra di Gaza: conduttrice virtuale, volto generato in AI e voice-over sintetico. È uno dei primi esempi documentati di deepfake usato in un’operazione di influenza statale direttamente legata al conflitto.

Secondo diversi centri di cyber-sicurezza, gli stessi network stanno sperimentando voci clonate per campagne di phishing e social engineering, sfruttando il riferimento alla guerra per aumentare la credibilità dei messaggi.

4. Grafica “attivista” generata con l’AI

L’immagine “All Eyes on Rafah”, diventata virale a maggio 2024 e condivisa da celebrità di mezzo mondo, è stata identificata come composizione artificiale: file generato con AI, tende perfettamente allineate, paesaggio irreale. L’immagine non ritrae un luogo esistente, ma è stata presentata come fotografia simbolica dei bombardamenti.

Un report di analisi open source stima che, nel campione di contenuti monitorati sulla guerra, circa il 4% dei claim fosse basato su immagini completamente generate da AI, il 2% su veri e propri deepfake video e l’8% su clip tratte da videogiochi spacciate per scontri reali.

Tipologie di contenuti manipolati nel campione analizzato
Immagini generate con AI
4%
Deepfake video (volto + voce)
2%
Clip da videogiochi
8%
Video reali ma fuori contesto
>80%
Percentuali indicative su un campione di contenuti analizzati da centri di fact-checking e monitoraggio digitale dedicati alla guerra Israele–Hamas.

Timeline di alcuni deepfake e contenuti sintetici

Fine 2023
Neonato tra le macerie

Immagine AI-generated di un bambino parzialmente sepolto, rilanciata come scatto da Gaza.

Fine 2023 – inizio 2024
Deepfake di leader e celebrità

Video manipolati della Regina Rania, Bella Hadid e altri volti noti per ribaltare dichiarazioni e posizioni sul conflitto.

Dicembre 2023
Telegiornale AI iraniano

Gruppo vicino ai Pasdaran interrompe streaming negli Emirati con un finto TG su Gaza, conduttrice e voce sintetiche.

Maggio 2024
“All Eyes on Rafah”

Immagine generata da AI diventa simbolo virale mondiale, pur non rappresentando alcun luogo reale.

Mappa delle origini e dei bersagli

Mappa interattiva: chi produce deepfake sul conflitto e chi ne è bersaglio

Seleziona un’area per vedere da dove provengono molte campagne basate su deepfake e contenuti sintetici, quali paesi sono presi di mira e quali piattaforme vengono usate più spesso.

Iran e area MENA

Origine principale delle campagne

    Bersagli prioritari

      Piattaforme e strumenti utilizzati

        Perché Israele è un bersaglio privilegiato

        Nel caso israeliano l’effetto dei deepfake è duplice. All’esterno, consolidano narrazioni che descrivono Israele come aggressore assoluto e rimuovono deliberatamente il ruolo terroristico di Hamas e dei suoi sponsor regionali. All’interno, alimentano sfiducia: ogni immagine o video può essere liquidato come “fake”, anche quando è stato verificato, rendendo più difficile documentare i crimini di guerra subiti e difendere la legittimità delle operazioni militari.

        La trasparenza sull’origine dei contenuti digitali – chi li produce, dove, con quali strumenti – non è un dettaglio tecnico, ma una delle principali linee di difesa contro la guerra dell’informazione che ha Israele, e l’intero spazio democratico occidentale, come bersaglio privilegiato.

        Fonti principali e approfondimenti

        Leggi di più