Deepfake, Policy e Regolamentazione

IA Generativa e Media — Settimana 2

Fabio Giglietto

DISCUI · Università degli Studi di Urbino Carlo Bo

4 marzo 2026

This Week in AI

Deepfake nelle elezioni: casi recenti

Nel 2024, deepfake audio e video hanno colpito elezioni in Taiwan, India, Indonesia e Stati Uniti. Siti di notizie fabbricate e reti di bot coordinati hanno diffuso contenuti sintetici su scala industriale (Schroeder et al., 2026).

Da discutere

La disinformazione sintetica nelle elezioni è un problema di singoli contenuti falsi o di ecosistemi informativi corrotti?

Roadmap della lezione

  1. Deepfake e incertezza — il vero impatto sulla fiducia
  2. Disinformazione visiva — IA-generata vs. video decontestualizzato
  3. Sciami IA malevoli — la nuova frontiera della manipolazione
  4. IA e persuasione — il trade-off accuratezza-persuasione
  5. Regolamentazione — EU AI Act e Code of Practice
  6. Prossimi passi — verso il progetto di ricerca

Deepfake e Incertezza Epistemica

I deepfake non ingannano, creano incertezza

Risultato chiave: Le persone esposte ai deepfake sono più propense a sentirsi incerte che ad essere ingannate. Questa incertezza, a sua volta, riduce la fiducia nelle notizie sui social media (Vaccari & Chadwick, 2020).

  • Studio sperimentale con N = 2.005 partecipanti nel Regno Unito
  • Esposti a variazioni del deepfake Obama/Peele di BuzzFeed
  • Solo ~50% identifica correttamente i deepfake come falsi
  • L’accuratezza di rilevamento peggiora con la compressione video (tipica dei social)

Dall’inganno alla “vertigine epistemica”

“Sowing uncertainty about what is true and what is not has become a key strategic goal of state-sponsored propaganda.”

Vaccari & Chadwick (2020)

Effetto diretto (limitato)

  • Alcuni credono al deepfake
  • Effetto di breve durata
  • Correggibile con fact-checking

Effetto indiretto (profondo)

  • Tutti diventano più incerti
  • Effetto duraturo e cumulativo
  • Erode la fiducia nell’intero ecosistema

Disinformazione Visiva

Immagini IA vs. video decontestualizzati

Risultato sorprendente

La disinformazione visiva non supera uniformemente quella testuale in credibilità. Gli effetti dipendono dal contesto e dalla salienza dell’argomento (Hameleers & Meer, 2026).

Studio sperimentale, N = 982 partecipanti statunitensi, due temi testati:

Tema Salienza Effetto video vs. testo
Guerra in Ucraina Alta (polarizzante) Video significativamente più credibile
Volo MH370 Bassa Nessuna differenza significativa

La minaccia low-tech

“Visual disinformation that requires less manipulative sophistication while being high in modal richness (i.e. decontextualized video fragments) are more prevalent online.”

Hameleers & Meer (2026)

Deepfake sofisticati

  • Competenze tecniche elevate
  • Costi di produzione alti
  • Relativamente rari

Video decontestualizzati

  • Nessuna competenza richiesta
  • Costo zero, diffusione massiva
  • Difficili da verificare

L’efficacia del fact-checking

Buone notizie: Le correzioni (fact-check) risultano efficaci nel ridurre la credibilità della disinformazione, indipendentemente dalla modalità (testo, immagine IA, video) (Hameleers & Meer, 2026).

Ma ci sono limiti:

  • Il fact-check raggiunge meno persone della disinformazione originale
  • L’effetto è temporaneo se non rinforzato
  • I soggetti con bassa fiducia nei media e mentalità complottista sono meno sensibili
  • La velocità di diffusione supera quella di verifica

Sciami IA Malevoli

Dagli account fake agli sciami IA

Sciami IA malevoli: reti coordinate di agenti IA autonomi che utilizzano LLM e architetture multi-agente per manipolare il discorso pubblico su scala industriale, con adattamento in tempo reale al comportamento degli utenti (Schroeder et al., 2026).

Cinque capacità senza precedenti:

  1. Coordinamento fluido — migliaia di persona IA senza comando centrale
  2. Mappatura sociale — infiltrazione di comunità vulnerabili
  3. Mimetismo umano — avatar fotorealistici, linguaggio contestuale
  4. Auto-ottimizzazione — A/B testing delle narrative a “velocità macchina”
  5. Presenza continua — operatività 24/7, spostamento graduale del discorso

Il consenso sintetico

“AI swarms are distinctly equipped to exploit this by engineering a synthetic consensus that appears to bridge these divides. […] This chorus erodes the independence essential to collective intelligence and democracy.”

Schroeder et al. (2026)

La “saggezza delle folle”

Richiede indipendenza tra i giudizi individuali.

Se le opinioni sono influenzate da bot, il meccanismo si rompe.

L’avvelenamento dei dati

Le reti “Pravda” creano siti con articoli fabbricati → i crawler li indicizzano → i LLM li ingeriscono → le narrative false si cristallizzano nei pesi del modello.

IA e Persuasione

Il trade-off persuasione-accuratezza

Risultato chiave: I sistemi IA più persuasivi producono più affermazioni inaccurate. Il modello più persuasivo conteneva il 30% di claim inaccurati (Hackenburg et al., 2025).

  • Studio su 76.977 risposte, 42.357 persone, 19 LLM, 707 questioni politiche
  • L’IA conversazionale è fino al 52% più persuasiva di un messaggio statico
  • Effetti misurabili ancora dopo un mese
  • Le strategie basate su densità informativa sono le più efficaci

L’IA persuasiva per il bene comune?

Conversazioni personalizzate con LLM sulla crisi climatica (Czarnek et al., 2025):

Condizione Riduzione dello scetticismo Persistenza
LLM personalizzato -9 punti (d=0.55) ~40% dopo 4 settimane
Messaggio consenso scientifico -1 punto (non significativo)
  • L’IA personalizzata è 1,7 volte più efficace del messaggio standard
  • Funziona anche con i Repubblicani (-5,73 punti, d=0.38)
  • La strategia: fatti, emozioni positive, riduzione distanza psicologica

Il Quadro Regolamentare

Il quadro europeo

Normativa Ambito Stato
EU AI Act Classificazione sistemi IA per rischio In vigore (graduale)
Code of Practice Autoregolamentazione piattaforme Versione 2022
Digital Services Act Trasparenza algoritmi piattaforme In vigore

Nota: L’AI Act esenta il giornalismo se c’è un redattore umano a fine catena — ma l’esenzione potrebbe essere insufficiente (Mattis & Vreese, 2025).

L’EU AI Act: livelli di rischio

Livello Descrizione Esempi
Inaccettabile Vietato Scoring sociale, manipolazione subliminale
Alto Regolamentazione stringente Riconoscimento biometrico, infrastrutture critiche
Limitato Obblighi di trasparenza Chatbot, deepfake (obbligo di etichettatura)
Minimo Nessun obbligo specifico Filtri spam, videogiochi

Per i deepfake: obbligo di etichettatura chiara come contenuto generato artificialmente.

Le policy delle piattaforme

Meta (Facebook/Instagram)

  • Etichettatura IA per immagini generate
  • Rimozione contenuti manipolati se rischiano di ingannare
  • Partnership con fact-checker indipendenti
  • Standard AI di Oversight Board

TikTok

  • Obbligo di etichettatura contenuti IA
  • Strumenti di rilevamento automatico
  • Linee guida su media sintetici
  • Rimozione deepfake che possono fuorviare

Attenzione

Le policy delle piattaforme si concentrano sul deepfake intenzionalmente ingannevole, ma non affrontano adeguatamente l’AI slop (contenuto IA non ingannevole ma degradante per l’ecosistema informativo).

Sintesi e Prossimi Passi

Concetti chiave di oggi

Per le prossime sessioni

Settimana 3 (9-11 Marzo): Seminario di Bruna Paroni

  • IA generativa e comunicazione politica: un caso brasiliano
  • Metodologia LLMs-in-the-loop

Settimana 4 (16-18 Marzo): Lancio del progetto di ricerca

Suggerimento

Il seminario di Paroni è collegato alla metodologia del progetto di gruppo. Approfittatene per fare domande sulla pipeline LLMs-in-the-loop.

Grazie!

Prossima lezione: Seminario Bruna Paroni — Parte 1 (9 Marzo 2026)

📧 fabio.giglietto@uniurb.it

🌐 blended.uniurb.it

Riferimenti

Czarnek, G., Orchinik, R., Lin, H., Xu, H. G., Costello, T., Pennycook, G., & Rand, D. G. (2025). Addressing Climate Change Skepticism and Inaction Using Human-AI Dialogues [Manoscritto].
Hackenburg, K., Tappin, B. M., Hewitt, L., Saunders, E., Black, S., Lin, H., Fist, C., Margetts, H., Rand, D. G., & Summerfield, C. (2025). The Levers of Political Persuasion with Conversational Artificial Intelligence. Science, 390, eaea3884. https://doi.org/10.1126/science.aea3884
Hameleers, M., & Meer, T. van der. (2026). Beyond Textual Disinformation: Comparing the Effects of Textual Disinformation to AI-Generated and Video-Based Visual Disinformation Across Different Issues. New Media & Society. https://doi.org/10.1177/14614448251409208
Mattis, N., & Vreese, C. H. de. (2025). Breaking the News? Generative AI’s Impact on Journalism and Its Implications for Disinformation. International Journal of Communication, 19, 3602–3625.
Schroeder, D. T., Cha, M., Baronchelli, A., Bostrom, N., Christakis, N. A., Garcia, D., Goldenberg, A., Kyrychenko, Y., Leyton-Brown, K., Lutz, N., Marcus, G., Menczer, F., Pennycook, G., Rand, D. G., Ressa, M., Schweitzer, F., Song, D., Summerfield, C., Tang, A., … Kunst, J. R. (2026). How Malicious AI Swarms Can Threaten Democracy. Science, 387(6732), 354–357.
Vaccari, C., & Chadwick, A. (2020). Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media + Society, 6(1), 1–13. https://doi.org/10.1177/2056305120903408