Classifica Complessiva — Laboratorio A

3 Sessioni · circa 75 Partecipanti · 13 Gruppi · 3 Sedi Toscane

Arezzo · 20 gen 2026 Livorno · 11 feb 2026 Firenze · 26 feb 2026

Introduzione

Questo documento raccoglie i risultati complessivi del Laboratorio A — Design Thinking e Problem Solving per l'IA, condotto nell'ambito dell'Azione Territoriale AI-PACT promossa da IFEL – Fondazione ANCI e ANCI Toscana.

Tra gennaio e febbraio 2026, 13 gruppi di lavoro composti da funzionari e dirigenti comunali hanno affrontato una sfida concreta: partire da un problema reale del proprio ente e, in circa 60 minuti di lavoro collaborativo con strumenti di IA generativa, produrre un'analisi strutturata con proposta di soluzione.

Il percorso si è articolato in tre sessioni laboratoriali — Arezzo, Livorno e Firenze — precedute ciascuna da un webinar introduttivo. Ogni sessione ha seguito lo stesso format: brainstorming collettivo, selezione delle idee progettuali, lavoro in gruppo con l'IA, e restituzione finale con valutazione.

I progetti sono stati valutati su 5 criteri equipesati: completezza dell'analisi, qualità della soluzione, innovatività nell'uso dell'IA, presentabilità del report e impatto potenziale sulla PA.

Valutazione Complessiva dell'Esperienza

Tutti i 13 gruppi hanno prodotto output significativi, con una media complessiva di 8.08/10 e nessun progetto sotto il 7.0. Un risultato che parla chiaro: la competenza di dominio che ciascuno di voi porta dal proprio lavoro quotidiano è il vero ingrediente che fa funzionare l'IA come strumento operativo.

Cosa emerge dai vostri lavori

  • L'IA funziona meglio quando la guidate voi: I migliori risultati sono emersi quando i gruppi hanno usato l'IA per strutturare e approfondire le proprie idee, non per delegare il pensiero. L'interazione critica e multi-turno è stata il fattore discriminante tra i progetti buoni e quelli eccellenti.
  • Il system prompt fa la differenza: I progetti sopra l'8.0 avevano tutti un prompt strutturato con ruolo, contesto e formato output ben definiti. È la competenza più trasferibile che potete portarvi a casa: definire con chiarezza cosa volete dall'IA prima di iniziare a dialogarci.
  • La revisione critica è un'arma potente: Solo 1 team su 13 (Mary Oliver, Firenze) ha chiesto all'IA di criticare il proprio lavoro — e il risultato si è visto. Chiedere “cosa c'è di sbagliato in quello che ho scritto?” è un passaggio semplice che può migliorare significativamente qualsiasi output.
  • Il confronto tra colleghi moltiplica il valore: Lavorare insieme con competenze diverse ha arricchito l'analisi ben oltre ciò che un singolo utente avrebbe ottenuto dialogando con l'IA da solo. Questo vale anche tornando in ufficio: condividere prompt e approcci tra colleghi accelera l'apprendimento di tutti.
  • Sostanza prima della forma: I deliverable migliori non sono necessariamente i più belli graficamente, ma quelli con il contenuto più strutturato e operativo. L'IA può sempre “vestire” un contenuto solido — il contrario è molto più difficile.

Ciascuno dei 13 progetti rappresenta un punto di partenza concreto: un template, un'analisi, un flusso operativo che potete riprendere e adattare al vostro contesto. Il passo successivo è vostro — portare queste competenze nel lavoro di tutti i giorni.

Le Tre Sessioni a Confronto

AREZZO

7.97
Media sessione

3 gruppi · Vincitore: 8.5

Range: 1.4

LIVORNO

8.42
Media sessione

5 gruppi · Vincitore: 9.0

Range: 0.9

FIRENZE

7.70
Media sessione

5 gruppi · Vincitore: 8.0

Range: 0.6

Podio Complessivo

LIVORNO
Gruppo 4
Comunicazione Social
8.6
LIVORNO
Gruppo 1
Atti Amministrativi
9.0
AREZZO
Gruppo 2
Gestione Segnalazioni
8.5

Classifica Completa — 13 Gruppi

#SedeGruppoProgettoValutazioneDeliverableVotoBarra
1 LI Gruppo 1 Atti Amministrativi scheda deliverable 9.0
9.0
2 LI Gruppo 4 Comunicazione Social scheda dashboard 8.6
8.6
3 AR Gruppo 2 Gestione Segnalazioni scheda gruppo2.html 8.5
8.5
4 AR Gruppo 3 Revisione Regolamenti scheda index.html 8.3
8.3
4 LI Gruppo 5 Protocollo Segnalazioni scheda output.html 8.3
8.3
6 LI Gruppo 3 Tributi e Allegati scheda report 8.1
8.1
6 LI Gruppo 7 Rifiuti e Territorio scheda report 8.1
8.1
8 FI Team Mary Oliver I Cantieri Trasparenti scheda deliverable 8.0
8.0
9 FI Team Leonardo Il Postino Intelligente scheda deliverable * 7.9
7.9
10 FI Team Dante L'Oracolo dell'Ufficio scheda deliverable 7.8
7.8
11 FI Team Machiavelli Gli Acchiappabug scheda deliverable 7.4
7.4
11 FI Team Michelangelo Lo Smistatore Civico scheda deliverable 7.4
7.4
13 AR Gruppo 1 VAS Sintesi Normativa scheda gruppo1.html 7.1
7.1

* Restituzione grafica HTML realizzata in fase di valutazione/estrazione (deliverable originale in formato testuale).

Statistiche Complessive

8.08
Media complessiva
9.0
Voto massimo
7.1
Voto minimo
1.9
Range
8.1
Mediana
10/13
Sopra il 7.5

Riconoscimenti Trasversali

Miglior Progetto Assoluto
LI Gruppo 1 — Atti Amministrativi (9.0)
Uso iterativo e critico di Gemini 2.5 Flash con correzione degli errori del modello. 4 template di atti reali pronti all'uso e piano di adozione RAG su 12 mesi.
Miglior Analisi di Contesto
FI Team Mary Oliver — Cantieri Trasparenti (8.0)
12 categorie di stakeholder, registri comunicativi per canale, conformità GDPR con DPIA. Il team che ha colto meglio lo spirito del laboratorio, mettendo al centro la sostanza.
Miglior Prototipo Funzionante
AR Gruppo 2 — Gestione Segnalazioni (8.5)
Dashboard operativa split-screen con simulazione di scenari, meccanismo anti-contraddizione tra uffici e architettura con requisiti funzionali codificati.
Miglior Deliverable Tecnico
LI Gruppo 4 — Comunicazione Social (8.6)
Dashboard di moderazione con Voice Chart multi-canale, template differenziati per tono, dark mode e persistenza dati localStorage.
Miglior Metariflessione
FI Team Mary Oliver — Cantieri Trasparenti
Unico team su 13 ad aver chiesto all'IA di criticare il proprio lavoro — revisione critica autonoma che dimostra maturità metodologica.
Miglior Lavoro di Squadra
FI Team Machiavelli — Acchiappabug (7.4)
Discussione tecnica costruttiva tra 5 professionisti CED. Il confronto tra pari come valore aggiunto nell'analisi del problema.

Mappa Tematica

I 13 progetti si distribuiscono su 5 macro-aree della PA locale, con alcune sovrapposizioni significative:

Macro-areaProgettiSediMedia voti
Gestione documentale e protocolloAtti Amministrativi (LI), Postino Intelligente (FI), Protocollo Segnalazioni (LI)LI, FI8.4
Segnalazioni e ticketingGestione Segnalazioni (AR), Smistatore Civico (FI), Acchiappabug (FI)AR, FI7.8
Comunicazione istituzionaleComunicazione Social (LI), Cantieri Trasparenti (FI)LI, FI8.3
Normativa e regolamentiRevisione Regolamenti (AR), Oracolo dell'Ufficio (FI), VAS (AR)AR, FI7.7
Servizi territorialiTributi e Allegati (LI), Rifiuti e Territorio (LI)LI8.1

Le Tre Sessioni

  • Arezzo (20 gennaio): Tre gruppi con approcci molto diversi tra loro, dalla sintesi normativa alla gestione segnalazioni. Il Gruppo 2 ha prodotto il prototipo più avanzato dell'intero percorso: una dashboard operativa split-screen con simulazione di scenari reali.
  • Livorno (11 febbraio): Cinque gruppi tutti sopra l'8.0, con il miglior punteggio assoluto (9.0) assegnato al Gruppo 1 per un uso iterativo e critico dell'IA nella redazione di atti amministrativi. La sessione con la qualità media più alta.
  • Firenze (26 febbraio): Cinque gruppi con la massima omogeneità (tutti tra 7.4 e 8.0). Particolare attenzione alla sostanza e all'analisi di processo. Il Team Mary Oliver ha colto lo spirito del laboratorio mettendo al centro la mappatura operativa e la revisione critica.

Classifiche delle Singole Sessioni

Arezzo

20 gennaio 2026

Vai alla classifica →

Livorno

11 febbraio 2026

Vai alla classifica →

Firenze

26 febbraio 2026

Vai alla classifica →