IA Generativa e Media — Settimana 2
DISCUI · Università degli Studi di Urbino Carlo Bo
4 marzo 2026
Nel 2024, deepfake audio e video hanno colpito elezioni in Taiwan, India, Indonesia e Stati Uniti. Siti di notizie fabbricate e reti di bot coordinati hanno diffuso contenuti sintetici su scala industriale (Schroeder et al., 2026).
Da discutere
La disinformazione sintetica nelle elezioni è un problema di singoli contenuti falsi o di ecosistemi informativi corrotti?
Risultato chiave: Le persone esposte ai deepfake sono più propense a sentirsi incerte che ad essere ingannate. Questa incertezza, a sua volta, riduce la fiducia nelle notizie sui social media (Vaccari & Chadwick, 2020).
“Sowing uncertainty about what is true and what is not has become a key strategic goal of state-sponsored propaganda.”
— Vaccari & Chadwick (2020)
Risultato sorprendente
La disinformazione visiva non supera uniformemente quella testuale in credibilità. Gli effetti dipendono dal contesto e dalla salienza dell’argomento (Hameleers & Meer, 2026).
Studio sperimentale, N = 982 partecipanti statunitensi, due temi testati:
| Tema | Salienza | Effetto video vs. testo |
|---|---|---|
| Guerra in Ucraina | Alta (polarizzante) | Video significativamente più credibile |
| Volo MH370 | Bassa | Nessuna differenza significativa |
“Visual disinformation that requires less manipulative sophistication while being high in modal richness (i.e. decontextualized video fragments) are more prevalent online.”
— Hameleers & Meer (2026)
Buone notizie: Le correzioni (fact-check) risultano efficaci nel ridurre la credibilità della disinformazione, indipendentemente dalla modalità (testo, immagine IA, video) (Hameleers & Meer, 2026).
Ma ci sono limiti:
Sciami IA malevoli: reti coordinate di agenti IA autonomi che utilizzano LLM e architetture multi-agente per manipolare il discorso pubblico su scala industriale, con adattamento in tempo reale al comportamento degli utenti (Schroeder et al., 2026).
Cinque capacità senza precedenti:
“AI swarms are distinctly equipped to exploit this by engineering a synthetic consensus that appears to bridge these divides. […] This chorus erodes the independence essential to collective intelligence and democracy.”
— Schroeder et al. (2026)
Richiede indipendenza tra i giudizi individuali.
Se le opinioni sono influenzate da bot, il meccanismo si rompe.
Le reti “Pravda” creano siti con articoli fabbricati → i crawler li indicizzano → i LLM li ingeriscono → le narrative false si cristallizzano nei pesi del modello.
Risultato chiave: I sistemi IA più persuasivi producono più affermazioni inaccurate. Il modello più persuasivo conteneva il 30% di claim inaccurati (Hackenburg et al., 2025).
Conversazioni personalizzate con LLM sulla crisi climatica (Czarnek et al., 2025):
| Condizione | Riduzione dello scetticismo | Persistenza |
|---|---|---|
| LLM personalizzato | -9 punti (d=0.55) | ~40% dopo 4 settimane |
| Messaggio consenso scientifico | -1 punto (non significativo) | — |
| Normativa | Ambito | Stato |
|---|---|---|
| EU AI Act | Classificazione sistemi IA per rischio | In vigore (graduale) |
| Code of Practice | Autoregolamentazione piattaforme | Versione 2022 |
| Digital Services Act | Trasparenza algoritmi piattaforme | In vigore |
Nota: L’AI Act esenta il giornalismo se c’è un redattore umano a fine catena — ma l’esenzione potrebbe essere insufficiente (Mattis & Vreese, 2025).
| Livello | Descrizione | Esempi |
|---|---|---|
| Inaccettabile | Vietato | Scoring sociale, manipolazione subliminale |
| Alto | Regolamentazione stringente | Riconoscimento biometrico, infrastrutture critiche |
| Limitato | Obblighi di trasparenza | Chatbot, deepfake (obbligo di etichettatura) |
| Minimo | Nessun obbligo specifico | Filtri spam, videogiochi |
Per i deepfake: obbligo di etichettatura chiara come contenuto generato artificialmente.
Attenzione
Le policy delle piattaforme si concentrano sul deepfake intenzionalmente ingannevole, ma non affrontano adeguatamente l’AI slop (contenuto IA non ingannevole ma degradante per l’ecosistema informativo).
Settimana 3 (9-11 Marzo): Seminario di Bruna Paroni
Settimana 4 (16-18 Marzo): Lancio del progetto di ricerca
Suggerimento
Il seminario di Paroni è collegato alla metodologia del progetto di gruppo. Approfittatene per fare domande sulla pipeline LLMs-in-the-loop.
Prossima lezione: Seminario Bruna Paroni — Parte 1 (9 Marzo 2026)
📧 fabio.giglietto@uniurb.it
🌐 blended.uniurb.it
IA Generativa e Media · A.A. 2025/2026