IA Generativa e Media — Settimana 5
DISCUI · Università degli Studi di Urbino Carlo Bo
25 marzo 2026
La ricerca recente evidenzia come l’IA generativa stia trasformando non solo i singoli contenuti, ma l’intero substrato epistemico su cui si basano le istituzioni democratiche (Ferrara, 2026).
Da discutere
Nel vostro progetto, le categorie di immagini che avete classificato mostrano strategie diverse di manipolazione emotiva? Quali categorie sembrano progettate per massimizzare l’engagement?
Gli sciami IA malevoli possono fabbricare un consenso sintetico che appare colmare le divisioni sociali, minacciando l’indipendenza essenziale per l’intelligenza collettiva (Schroeder et al., 2026).
Implicazione per il progetto: Le immagini AI-generated che analizzate — prodotte in serie per massimizzare l’engagement — potrebbero essere il livello base di operazioni di manipolazione molto più ampie.
Ieri avete completato l’intero ciclo dello Step 1 — Classificazione binaria:
| Fase | Tab nel foglio | Stato |
|---|---|---|
| Codifica umana (50 post) | STEP 1 — Codifica Umana (50) | Fatto |
| Consenso + definizione raffinata | CODEBOOK | Fatto |
| Prompt con one-shot examples | PROMPT | Fatto |
| Gemini: 420 post classificati | STEP 1 — Gemini + Decisione | Fatto |
Oggi: confrontiamo le codifiche umane con quelle di Gemini e misuriamo l’accordo con metriche statistiche.
Principio fondamentale: come ci ricorda Cosenza (2025), l’IA ragiona per probabilità, non per verità. Ogni classificazione automatizzata è una bozza che richiede verifica.
Perché la classificazione dell’IA può essere inaffidabile:
Ferrara (2026) descrive un paradosso: più l’IA sembra affidabile, più rischiamo di fidarci ciecamente dei suoi output (Ferrara, 2026).
La validazione sistematica protegge da questo rischio:
Due codificatori possono concordare per caso.
Se ci sono 2 categorie equiprobabili, il 50% di accordo è atteso anche con classificazioni casuali.
La percentuale di accordo grezzo non tiene conto del caso.
Le metriche corrette sottraggono l’accordo atteso per caso:
\[\kappa = \frac{P_o - P_e}{1 - P_e}\]
Dove:
| Metrica | Uso | Caratteristiche |
|---|---|---|
| Cohen’s kappa (\(\kappa\)) | 2 codificatori | Semplice, ampiamente usato |
| Krippendorff’s alpha (\(\alpha\)) | 2+ codificatori | Flessibile, gestisce dati mancanti |
Scale interpretative standard:
| Valore | Interpretazione |
|---|---|
| < 0.20 | Accordo scarso |
| 0.21 - 0.40 | Accordo discreto |
| 0.41 - 0.60 | Accordo moderato |
| 0.61 - 0.80 | Accordo buono |
| 0.81 - 1.00 | Accordo eccellente |
I dati per la validazione esistono già nel vostro foglio:
Per lo Step 1 binario, la matrice di confusione è 2×2: AI slop vs. Non AI slop. Calcolate \(P_o\) e \(P_e\) manualmente o con Gemini (Cosenza, 2025).
| Umano: AI slop | Umano: Non AI slop | Tot. IA | |
|---|---|---|---|
| IA: AI slop | 32 | 3 | 35 |
| IA: Non AI slop | 2 | 13 | 15 |
| Tot. umano | 34 | 16 | 50 |
\(P_o = (32+13)/50 = 0.90\) — \(P_e = (35 \times 34 + 15 \times 16) / 50^2 = 0.572\)
\(\kappa = (0.90 - 0.572) / (1 - 0.572) = 0.77\) → Accordo buono
Con lo Step 1 validato, filtrate il dataset:
Quanti post AI slop avete? Questa proporzione è già un primo risultato: indica quanto del dataset è effettivamente AI slop secondo i vostri criteri.
Lo Step 2 segue lo stesso pattern dello Step 1 — applicato solo ai post AI slop:
| Fase | Azione | Tab |
|---|---|---|
| 1. Codifica umana | Ogni membro classifica 50 post AI slop con le vostre categorie | STEP 2 — Codifica Umana (50) |
| 2. Consenso | Discutete i disaccordi → raffinate le categorie | CODEBOOK |
| 3. Prompt Gemini | Definizioni + one-shot → classificate tutti gli AI slop | STEP 2 — Gemini + Decisione |
Ricordate
Le categorie tematiche vengono dal pilot di mercoledì scorso. Usate il codebook che avete già — raffinerete dopo il consenso.
Ogni membro classifica 50 post AI slop in modo indipendente nel tab STEP 2 — Codifica Umana (50), usando le categorie del vostro codebook.
Dopo la codifica individuale:
La matrice di confusione per lo Step 2 è più grande (tante righe/colonne quante le vostre categorie):
| Umano: Cat. A | Umano: Cat. B | Umano: Cat. C | … | |
|---|---|---|---|---|
| IA: Cat. A | n | … | … | |
| IA: Cat. B | … | n | … | |
| IA: Cat. C | … | … | n |
Con più categorie, il kappa tende ad essere più basso. Un kappa di 0.60 per 5-6 categorie è un risultato solido.
Attenzione
Se dopo 2 iterazioni il kappa resta sotto 0.60, accorpate le categorie problematiche. Meglio meno categorie affidabili che molte inaffidabili.
Tutti i gruppi hanno classificato le stesse immagini. Il progetto consente un confronto inter-gruppo impossibile in un design tradizionale.
Cosa confrontare:
La trasparenza metodologica è un valore fondamentale: documentate non solo i successi ma anche gli errori e le iterazioni (Marino & Giglietto, 2024).
| Fase | Tempo | Attività |
|---|---|---|
| Step 1: kappa | 20 min | Calcolare kappa su codifiche esistenti, matrice 2×2 |
| Filtraggio | 5 min | Identificare sottoinsieme AI slop |
| Step 2: codifica umana | 20 min | Ogni membro classifica 50 post AI slop (tematico) |
| Step 2: consenso | 15 min | Discussione disaccordi, raffinare categorie |
| Step 2: Gemini | 20 min | Prompt + classificazione di tutti gli AI slop |
| Step 2: kappa | 10 min | Matrice N×N, calcolo kappa tematico |
| Data | Attività |
|---|---|
| Lun 30 Marzo | Consultazione gruppi + analisi engagement |
| Mar 31 Marzo | Workshop di scrittura — struttura del paper |
| Mer 1 Aprile | Lavoro di gruppo — stesura collaborativa |
| Lun 13 Aprile | Sintesi del corso — confronto inter-gruppo |
Per lunedì: preparate una presentazione (5 min) con: kappa Step 1 e Step 2, proporzione AI slop, distribuzione categorie, e una prima esplorazione dell’engagement per categoria.
Prossima lezione: Consultazione Gruppi e Analisi Engagement (30 Marzo 2026)
📧 fabio.giglietto@uniurb.it
🌐 blended.uniurb.it
IA Generativa e Media · A.A. 2025/2026