Sintesi del Corso e Consultazioni Finali

IA Generativa e Media — Settimana 6

Fabio Giglietto

DISCUI · Università degli Studi di Urbino Carlo Bo

1 aprile 2026

This Week in AI — Edizione Finale

Il futuro della persuasione automatizzata

L’IA conversazionale può essere fino al 52% più persuasiva di un messaggio statico, con effetti misurabili anche dopo un mese. Ma i modelli più persuasivi producono il 30% di affermazioni inaccurate (Hackenburg et al., 2025).

Da discutere

In un mondo dove l’IA e sempre più persuasiva e sempre meno accurata, quale ruolo spetta alla ricerca come quella che avete condotto?

This Week in AI — Edizione Finale

Sciami IA e minacce alla democrazia

“AI swarms are distinctly equipped to exploit this by engineering a synthetic consensus that appears to bridge these divides.”

Schroeder et al. (2026)

Le reti “Pravda” creano siti con articoli fabbricati, progettati per essere ingeriti dai LLM durante il riaddestramento. Le narrative false si cristallizzano nei pesi del modello (Schroeder et al., 2026).

This Week in AI — Edizione Finale

La sicurezza dell’IA come problema sociotecnico

Lezione chiave: Il red-teaming dell’IA non e solo un problema tecnico ma un problema sociotecnico che coinvolge valori, lavoro e danni psicologici (Gillespie et al., 2026).

Come per la moderazione dei contenuti, rischiamo di scoprire troppo tardi i costi umani delle pratiche di sicurezza dell’IA.

Roadmap della sessione

  1. This Week in AI — edizione finale
  2. Il filo del corso — dai fondamenti al progetto
  3. Il Paradosso dell’IA Generativa — revisitato
  4. Riflessioni metodologiche — cosa abbiamo imparato
  5. Prospettive future — verso dove andiamo
  6. Consultazioni finali — ultime domande sul paper
  7. Chiusura del corso

Il Filo del Corso

Dalle definizioni al progetto: il percorso

Settimana Tema Concetto chiave
1 Fondamenti IA generativa, sistema mediale ibrido, paradosso GenAI
2 Produzione e rischi Deepfake, disinformazione, persuasione, regolamentazione
3 Seminario Comunicazione politica, LLMs-in-the-loop, detection
4 Progetto AI slop, raccolta dati, Meta Content Library
5 Analisi Classificazione IA, validazione umana, intercoder reliability
6 Scrittura Struttura IMRaD, revisione tra pari, sintesi

Il sistema mediale ibrido nell’era dell’IA

Il framework di Chadwick

Il sistema mediale ibrido e costruito sulle interazioni tra vecchi e nuovi media (Chadwick, 2011).

L’IA generativa aggiunge un nuovo attore: un agente che produce contenuti, simula identita e interagisce con gli utenti.

Cosa avete osservato

Nel vostro progetto avete analizzato un fenomeno che esiste grazie a questa ibridita:

  • Immagini IA generate da account automatizzati
  • Distribuite su piattaforme con algoritmi
  • Commentate da utenti reali

Dall’IA generativa alla disinformazione

Il corso ha tracciato un percorso che collega produzione, circolazione e ricezione:

Il vostro progetto si inserisce nella terza fase: avete analizzato empiricamente come gli utenti reagiscono ai contenuti generati dall’IA sulle piattaforme.

Il Paradosso Rivisitato

Il Paradosso dell’IA Generativa, 6 settimane dopo

Il Paradosso

Man mano che i contenuti sintetici diventano onnipresenti e indistinguibili, le societa potrebbero razionalmente scontare tutte le prove digitali. La verifica diventa un privilegio, è la responsabilita si erode (Ferrara, 2026).

Dopo 6 settimane, avete gli strumenti per valutare questo paradosso:

La realtà sintetica: un bilancio

Livello Minaccia Cosa abbiamo studiato
Contenuto Testo, immagini, audio, video generati AI slop su Facebook, deepfake, Gemini
Identita Persona fittizie, cloni vocali Account automatizzati, bot
Interazione Persuasione adattiva, chatbot Persuasione IA (Hackenburg et al., 2025), chatbot (Dubey et al., 2026)
Istituzioni Corruzione dei processi di verifica EU AI Act, Code of Practice, red-teaming

Adattato da Ferrara (2026)

Riflessioni Metodologiche

L’IA come strumento di ricerca: lezioni apprese

Punti di forza

  • Scala — analisi di centinaia di contenuti
  • Coerenza — applicazione sistematica del codebook
  • Velocita — classificazione rapida
  • Multimodalita — analisi di testo e immagini

Limiti

  • Variabilita — risultati non perfettamente replicabili
  • Opacita — il “ragionamento” del modello resta oscuro
  • Bias — i modelli riflettono i dati di addestramento
  • Validazione necessaria — l’IA non sostituisce l’umano

La validazione come principio

Lezione fondamentale del corso: In un mondo di contenuti sintetici, la validazione non è un optional metodologico ma un principio epistemico. Cio che non e verificato non e conoscenza.

Questo vale per:

  • La ricerca — validazione umana delle classificazioni IA
  • Il giornalismo — verifica delle fonti e dei contenuti (Mattis & Vreese, 2025)
  • La democrazia — contrasto al consenso sintetico (Schroeder et al., 2026)
  • La vita quotidiana — scetticismo calibrato verso i contenuti digitali (Ferrara, 2026)

Prospettive Future

Verso dove andiamo

Sfide emergenti

  • Agenti IA autonomi che agiscono nel mondo
  • Multimodalita crescente (testo + immagini + video + azione)
  • Sciami IA sempre più sofisticati (Schroeder et al., 2026)
  • Erosione della fiducia istituzionale (Ferrara, 2026)

Risposte possibili

  • Infrastruttura di provenienza dei contenuti
  • Governance delle piattaforme (frizione per la viralita)
  • Riprogettazione dei processi istituzionali
  • Resilienza pubblica e igiene epistemica

La pila di mitigazione

Un approccio sistemico

Il rischio della realtà sintetica non può essere “risolto” da un singolo strumento o policy. La mitigazione deve essere trattata come una pila di interventi complementari (Ferrara, 2026).

Livello Intervento
Infrastruttura Provenienza crittografica, credenziali dei contenuti
Piattaforme Frizione alla viralita, trasparenza algoritmica
Istituzioni Processi basati su verifica, non su artefatti
Societa Igiene epistemica, scetticismo calibrato

Il ruolo della ricerca

La ricerca che avete condotto in questo corso contribuisce a una missione più ampia:

  • Comprendere come gli utenti interagiscono con contenuti sintetici
  • Misurare la capacita di riconoscimento dell’IA generativa
  • Documentare i pattern di ricezione nelle comunita online
  • Informare le policy delle piattaforme è la regolamentazione

Da discutere

Dopo 6 settimane di studio e ricerca, come e cambiata la vostra percezione dell’IA generativa e del suo impatto sul sistema mediale?

Consultazioni Finali

Ultime domande sul paper

Promemoria consegna:

  • Formato PDF caricato su Moodle (blended.uniurb.it)
  • Scadenza: 2 settimane prima dell’appello di giugno
  • Un file per gruppo con i nomi di tutti i membri
  • Dichiarazione d’uso degli strumenti IA inclusa

Domande frequenti:

  • Lunghezza consigliata: 5.000-6.000 parole (esclusa bibliografia)
  • Il prompt va incluso integralmente (anche in appendice)
  • Le tabelle di dati contano come contenuto, non come appendice

Competenze Acquisite

Cosa portate via da questo corso

Conoscenze

  • Framework teorici sull’IA e i media
  • Comprendere la realtà sintetica
  • Conoscere i rischi e le opportunita
  • Orientarsi nella regolamentazione

Competenze

  • Analizzare contenuti IA con spirito critico
  • Usare LLM come strumenti di ricerca
  • Validare le classificazioni automatiche
  • Scrivere un paper di ricerca

La competenza più importante: Saper valutare criticamente cio che vedete, leggete e ascoltate in un mondo di contenuti sintetici.

Continuare ad imparare

L’IA generativa evolve più rapidamente di qualsiasi corso possa coprire.

Per restare aggiornati:

  • Leggere le riviste di riferimento (Digital Journalism, Political Communication, New Media & Society)
  • Sperimentare con gli strumenti (Gemini, NotebookLM, nuovi modelli)
  • Valutare criticamente le notizie sull’IA (distinguere hype da sostanza)
  • Applicare i framework teorici a nuovi fenomeni

Grazie!

Grazie per la partecipazione e l’impegno in queste 6 settimane.

Consegna paper: 2 settimane prima dell’appello di giugno

Colloquio orale: durante l’appello di giugno

📧 fabio.giglietto@uniurb.it

🌐 blended.uniurb.it

Riferimenti

Chadwick, A. (2011). The Hybrid Media System [Manoscritto].
Dubey, S., Ketelaar, P. E., Dingler, T., Peetz, H. K., & Schie, H. T. van. (2026). Investigating Perceived Trust and Utility of Balanced News Chatbots Among Individuals with Varying Conspiracy Beliefs. Computers in Human Behavior. https://doi.org/10.1016/j.chb.2026.108920
Ferrara, E. (2026). The Generative AI Paradox: GenAI and the Erosion of Trust, the Corrosion of Information Verification, and the Demise of Truth [Manoscritto].
Gilardi, F., Di Lorenzo, S., Streiff, B., Ezzaini, J., Zurfluh, E., Santa, B., & Hoes, E. (2025). Willingness to Read AI-Generated News Is Not Driven by Their Perceived Quality [Manoscritto].
Gillespie, T., Shaw, R., Gray, M. L., & Suh, J. (2026). AI Red-Teaming Is a Sociotechnical Problem: On Values, Labor, and Harms [Manoscritto].
Hackenburg, K., Tappin, B. M., Hewitt, L., Saunders, E., Black, S., Lin, H., Fist, C., Margetts, H., Rand, D. G., & Summerfield, C. (2025). The Levers of Political Persuasion with Conversational Artificial Intelligence. Science, 390, eaea3884. https://doi.org/10.1126/science.aea3884
Hameleers, M., & Meer, T. van der. (2026). Beyond Textual Disinformation: Comparing the Effects of Textual Disinformation to AI-Generated and Video-Based Visual Disinformation Across Different Issues. New Media & Society. https://doi.org/10.1177/14614448251409208
Mattis, N., & Vreese, C. H. de. (2025). Breaking the News? Generative AI’s Impact on Journalism and Its Implications for Disinformation. International Journal of Communication, 19, 3602–3625.
Pew Research Center. (2025). How Americans View AI and Its Impact on People and Society. Pew Research Center.
Schroeder, D. T., Cha, M., Baronchelli, A., Bostrom, N., Christakis, N. A., Garcia, D., Goldenberg, A., Kyrychenko, Y., Leyton-Brown, K., Lutz, N., Marcus, G., Menczer, F., Pennycook, G., Rand, D. G., Ressa, M., Schweitzer, F., Song, D., Summerfield, C., Tang, A., … Kunst, J. R. (2026). How Malicious AI Swarms Can Threaten Democracy. Science, 387(6732), 354–357.
Vaccari, C., & Chadwick, A. (2020). Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media + Society, 6(1), 1–13. https://doi.org/10.1177/2056305120903408