Il laboratorio: come è stato strutturato
Una sperimentazione inedita nel panorama della formazione sulla PA digitale: funzionari pubblici alle prese con uno strumento agentico progettato per guidarli nella pianificazione di progetti AI.
Nove gruppi di operatori della pubblica amministrazione del territorio genovese — Comune, Città Metropolitana e comuni dell'area — hanno partecipato a un laboratorio pratico costruendo un piano di adozione dell'IA per il proprio servizio, guidati da un simulatore multi-agente progettato ad hoc per il percorso AI-PACT.
Il simulatore mette a disposizione agenti specializzati — uno per ogni schema del piano — che i partecipanti attivano uno alla volta in modalità LEAD: l'agente guida la discussione, raccoglie le risposte del gruppo e produce un checkpoint strutturato prima di passare al successivo. Ogni gruppo ha potuto scegliere tra tre tracce: agente conversazionale per il welfare, dashboard per la pianificazione territoriale, o server per l'anonimizzazione dei dati.
L'analisi che segue legge l'esperienza da due prospettive complementari: l'interazione uomo-macchina (HMI) — come i partecipanti hanno dialogato con il sistema — e il merito tematico PA — la qualità e la pertinenza dei contenuti prodotti.
I 5 schemi progressivi del simulatore
Ogni sessione seguiva una sequenza strutturata, pensata per costruire gradualmente l'analisi del progetto AI:
Le tre tracce e la scelta dei gruppi
Ai gruppi sono state proposte tre tracce. La distribuzione delle scelte riflette le priorità percepite nella digitalizzazione dei servizi pubblici genovesi.
Distribuzione per tema
Le tre tracce
Caso A — Agente conversazionale welfare (4 gruppi: G2, G3, G6, G7). L'interazione automatica con il cittadino è percepita come il punto di ingresso più naturale per la digitalizzazione PA. Il Gruppo 7 si è distinto scegliendo un taglio molto specifico: il contributo trasporto per cittadini disabili.
Caso B — Dashboard pianificazione territoriale (3 gruppi: G4, G8, G9). Dalle autorizzazioni ambientali alla raccolta differenziata, questi gruppi hanno prodotto analisi particolarmente radicate nel contesto operativo reale, con KPI specifici del dominio.
Caso C — Server anonimizzazione dati (2 gruppi: G1, G5). Il tema della tensione tra interoperabilità e protezione dei dati personali ha portato i due gruppi a confrontarsi con scelte tecniche concrete (open source, residui PNRR) e a produrre le interazioni più critiche dell'intero laboratorio.
Come i partecipanti hanno interagito con il chatbot agentico
L'analisi dell'interazione uomo-macchina rivela pattern ricorrenti che trascendono i singoli gruppi e delineano un profilo d'uso comune tra i funzionari PA.
Un pattern ricorrente emerge dall'analisi delle sessioni: quasi tutti i gruppi mostrano contributi più ricchi nelle prime fasi (Stakeholder, Rischi) e una tendenza alla validazione rapida nelle fasi successive (Monitoraggio, Costi). Le cause sono probabilmente multiple: la pressione del tempo — con 60-90 minuti per completare 5 schemi, accelerare nelle ultime fasi è una scelta razionale — ma anche la crescente fiducia verso un sistema che ha dimostrato di produrre output ragionevoli.
La struttura a schemi progressivi ha fatto il suo lavoro, guidando anche i gruppi meno esperti verso output completi e ben organizzati. Nei casi in cui i partecipanti hanno mantenuto il pensiero critico anche nelle fasi finali — come il Gruppo 1, che ha sfidato le valutazioni dell'AI sui rischi, o il Gruppo 5, che ha dichiarato onestamente i propri limiti di budget — la qualità dell'output è stata ancora più alta.
Il dato più utile per le prossime edizioni: dare più tempo ai gruppi consentirebbe di mantenere la qualità dell'interazione costante su tutti gli schemi. In alternativa, i gruppi potrebbero negoziare con il Facilitatore quali schemi approfondire e quali trattare in modo più rapido.
I prompt iniziali sono spesso sintetici — "servizi sociali", "dashboard territoriale" — ma questo riflette un comportamento atteso: i gruppi non avevano esperienza pregressa con strumenti di questo tipo. La dinamica interessante è che il sistema ha funzionato come catalizzatore: ponendo domande mirate, ha gradualmente estratto contesto reale e specifico dai partecipanti.
I gruppi con maggiore competenza di dominio hanno risposto con input ricchi e dettagliati — nomi reali dell'organigramma (G6), budget concreti da residui PNRR (G5), elenchi precisi di rischi operativi (G4, G7) — dimostrando che il valore aggiunto dei partecipanti emerge quando lo strumento sa fare le domande giuste. Una breve fase di onboarding iniziale sul prompting efficace potrebbe accelerare ulteriormente questo processo.
Dall'analisi delle sessioni emergono due modelli di interazione distinti. Alcuni gruppi hanno adottato un approccio "proponi tu": l'AI genera, il gruppo valida. Altri hanno lavorato in modalità "costruiamo insieme": il gruppo porta contesto, contesta, riformula. Entrambi hanno prodotto output completi, ma il secondo modello ha generato piani più specifici e difendibili.
Gli esempi migliori di co-costruzione: il Gruppo 1 che ha forzato l'AI a rivedere la classificazione dei rischi ("Non mi hai convinto — abbassa a medio"), il Gruppo 5 che ha dichiarato onestamente "non sappiamo se abbiamo le risorse" aprendo una discussione concreta, il Gruppo 7 che ha chiesto spontaneamente una matrice stakeholder da compilare insieme.
La lezione per le prossime edizioni: il pensiero critico produce risultati migliori e può essere incentivato con piccoli vincoli strutturali, come richiedere almeno una contestazione motivata per schema.
Tre gruppi su nove hanno incontrato piccole difficoltà nell'uso del simulatore: un prompt di sistema incollato per errore nel campo messaggio (G7), confusione nello switch tra agenti (G6), una domanda sul salvataggio della sessione. Si tratta di episodi circoscritti, risolti rapidamente, che non hanno compromesso il completamento del percorso.
Per le prossime edizioni, un breve onboarding pratico di 10-15 minuti — una demo live dello switch tra agenti e dell'uso del contesto condiviso — potrebbe ridurre ulteriormente questi attriti iniziali. Nel complesso, la semplicità della modalità LEAD (un agente alla volta, interazione diretta) si è dimostrata una scelta progettuale efficace per un pubblico alla prima esperienza con strumenti di questo tipo.
La struttura a schemi progressivi
La sequenza Stakeholder → Rischi → Competenze → Monitoraggio → Costi ha fornito un'impalcatura cognitiva che ha guidato anche i gruppi meno esperti. La progressione logica ha ridotto l'ansia da pagina bianca e ha reso il processo di pianificazione accessibile a chi non aveva mai affrontato la progettazione AI.
La tecnica del "titolo di giornale"
L'esercizio di brainstorming sui rischi basato sulla formulazione di titoli giornalistici catastrofici ha prodotto i contributi più autentici, vivaci e coinvolgenti dell'intero laboratorio. Abbassando la soglia della "correttezza formale", ha liberato la capacità dei partecipanti di immaginare scenari negativi realistici.
La competenza di dominio come differenziatore
I gruppi con maggiore conoscenza del proprio ambito di lavoro hanno interagito con il chatbot in modo più critico, più specifico e più produttivo. La familiarità con l'AI conta meno di quanto si pensi: il vero valore aggiunto è sapere cosa si vuole costruire e perché.
Percorsi completati
Tutti i gruppi hanno portato a termine il piano di adozione IA
Messaggi medi per sessione
Da 34 (G9) a 72 (G5) — sessioni ricche e articolate
Gruppi con pensiero critico attivo
G1, G4, G5 e G7 hanno contestato le proposte dell'AI
Piccole difficoltà tecniche
Risolte rapidamente, senza impatto sul completamento
Profilo complessivo della sessione tipo
Qualità e pertinenza dei contenuti prodotti
Al di là delle dinamiche di interazione, cosa hanno effettivamente elaborato i gruppi? Una lettura tematica rivela maturità su alcuni fronti e lacune significative su altri.
Sorpresa positiva: la consapevolezza normativa è alta. Tutti i gruppi hanno citato spontaneamente il GDPR e l'AI Act europeo; quasi tutti hanno previsto una DPIA nel piano di progetto. Il principio human-in-the-loop — la supervisione umana obbligatoria nelle decisioni ad alto impatto — è stato adottato in modo pressoché universale. La compliance normativa è percepita non come un ostacolo burocratico, ma come un vincolo progettuale da integrare fin dall'inizio.
Sensibilità al digital divide
Il rischio di escludere le fasce di popolazione meno digitalizzate è quello più frequentemente citato e più concretamente affrontato. I gruppi hanno proposto contromisure specifiche: sportelli fisici di assistenza, interfacce multilingue, supporto telefonico dedicato. Una maturità che riflette il contatto diretto con le fragilità sociali del territorio.
Tensione trasparenza / protezione dati
L'anonimizzazione dei dati come secondo tema più scelto (2 gruppi) segnala una consapevolezza crescente della tensione strutturale tra la necessità di condividere dati per migliorare i servizi e l'obbligo di proteggere la privacy dei cittadini. Un tema che la PA dovrà affrontare sistematicamente nei prossimi anni.
Il rischio di bias algoritmico è citato dalla maggior parte dei gruppi — un segnale positivo di consapevolezza. Tuttavia, nella maggior parte dei casi resta a livello di menzione nella lista dei rischi, senza un'analisi delle contromisure concrete: come costruire dataset rappresentativi, come auditare i modelli, quali popolazioni potrebbero essere sovra- o sotto-rappresentate.
Si tratta di un tema complesso, che richiede competenze specifiche difficili da sviluppare nel tempo di un laboratorio. Il fatto che sia stato riconosciuto è un buon punto di partenza; le prossime edizioni potranno dedicare uno spazio mirato a trasformare la consapevolezza del rischio in capacità di gestione.
La maggior parte dei gruppi ha indicato il PNRR come fonte di finanziamento per l'avvio del progetto. Alcuni hanno fatto un passo in più: il Gruppo 5 ha identificato con precisione i residui PNRR disponibili (30.000 euro) e la ripartizione 80/20 tra infrastruttura e formazione; il Gruppo 6 ha costruito un piano con fonti diversificate (PON Metro, FASE, fondi AGID) e ha distinto costi di avvio da costi ricorrenti (500.000 + 180.000/anno).
Questi esempi virtuosi restano però l'eccezione. Per la maggior parte dei gruppi, la sostenibilità oltre la fase pilota non è stata affrontata in profondità. Per le prossime edizioni, il modulo Costi potrebbe includere un esercizio esplicito sulla sostenibilità a 5 anni: fondi strutturali, partnership, consorzi inter-ente.
La governance dell'AI — chi nell'organigramma dell'ente avrà la responsabilità del sistema una volta in produzione — è stata affrontata solo parzialmente. Il Gruppo 6 ha individuato figure specifiche con nome e cognome (Sindaca, Assessori, Direttore di area); il Gruppo 2 ha assegnato responsabilità di monitoraggio all'IT con cadenza trimestrale e pubblicazione su Amministrazione Trasparente. Ma nella maggior parte dei casi la governance resta implicita.
Il principio human-in-the-loop, citato da tutti, presuppone che ci sia un "umano" identificato, formato e responsabilizzato. Per le prossime edizioni, uno schema dedicato alla governance — chi decide, chi supervisiona, chi risponde — potrebbe trasformare questo principio da slogan a struttura operativa.
L'integrazione con i sistemi esistenti — ANPR, SUAP, piattaforme regionali — non è mai stata affrontata in profondità. I progetti sembrano pensati come sistemi isolati, mentre nella realtà operativa della PA l'interoperabilità è una condizione abilitante, non un'opzione.
Sul fronte del monitoraggio, i gruppi hanno prodotto KPI ben strutturati e pertinenti, ma quasi sempre privi di dati baseline: non è possibile misurare un miglioramento se non si sa da dove si parte. Definire i target senza misurare lo stato attuale rende i KPI decorativi piuttosto che operativi.
Cosa ci dice questo laboratorio
Una sintesi delle evidenze emerse e un insieme di raccomandazioni concrete per le prossime edizioni e per gli enti partecipanti.
Lo strumento ha funzionato
Funzionari PA alla prima esperienza con un sistema multi-agente hanno completato piani di adozione IA strutturati in meno di 90 minuti. La modalità LEAD — un agente alla volta, interazione diretta — e la sequenza a schemi progressivi hanno abbattuto la barriera di accesso alla pianificazione AI, rendendo il processo accessibile a tutti.
Il dominio conta più della tecnica
I gruppi più efficaci non erano i più "tech-savvy": erano quelli che conoscevano a fondo il proprio contesto lavorativo. Chi ha portato nomi reali, budget concreti e rischi vissuti ha prodotto piani più specifici e difendibili. La competenza di dominio è il vero acceleratore dell'interazione con l'AI.
Il pensiero critico fa la differenza
I gruppi che hanno contestato le proposte dell'AI — "Non mi hai convinto", "Abbassa a medio", "Non riscontriamo criticità" — hanno prodotto i piani migliori. Il pensiero critico non è un ostacolo all'uso dell'AI: è ciò che lo rende produttivo. Incentivarlo è la sfida delle prossime edizioni.
Più tempo per i gruppi
Con 60-90 minuti per 5 schemi, i gruppi tendono ad accelerare nelle fasi finali. Prevedere almeno 2 ore operative, oppure permettere ai gruppi di negoziare con il Facilitatore quali schemi approfondire e quali trattare in modo più rapido.
Onboarding pratico allo strumento
Una demo live di 10-15 minuti prima del laboratorio: come funziona lo switch tra agenti, a cosa serve il contesto condiviso, come copiare i checkpoint. Riduce gli attriti iniziali e permette di partire subito con il merito.
Incentivare il pensiero critico
Introdurre la regola di almeno una contestazione motivata per schema. I gruppi che hanno sfidato l'AI hanno prodotto piani migliori: rendere questa pratica strutturale amplifica la qualità dell'output.
Schema dedicato alla governance
Aggiungere uno schema sulla governance: chi decide, chi supervisiona, chi risponde, con quale mandato formale. Trasforma il principio human-in-the-loop da dichiarazione a struttura operativa.
Baseline e sostenibilità nel modulo Costi
Richiedere dati baseline prima di definire i KPI (nessun target senza stato attuale misurato) e un esercizio esplicito sulla sostenibilità oltre il PNRR: fondi strutturali, partnership, consorzi inter-ente.
Diversificare le tracce proposte
La convergenza di 4 gruppi su 9 sullo stesso caso (agente conversazionale welfare) ha prodotto output simili. Bilanciare meglio la distribuzione tra le tracce per massimizzare la varietà delle analisi e il confronto tra approcci diversi.
- Nominare un referente IA in ogni ente. Una persona identificata, con mandato formale, responsabile della supervisione dei sistemi AI e dell'aggiornamento delle competenze interne.
- Pianificare la sostenibilità a 5 anni. Ogni progetto AI deve prevedere un piano finanziario che va oltre la fase pilota, con fonti diversificate e costi ricorrenti esplicitati.
- Privilegiare i casi d'uso a basso rischio. Iniziare da processi interni, non da servizi diretti al cittadino, per costruire competenze e fiducia prima di passare a sistemi ad alto impatto.
- Non sottovalutare la resistenza organizzativa. L'introduzione di sistemi AI modifica i processi di lavoro. La gestione del cambiamento organizzativo è almeno altrettanto importante della scelta tecnologica.
Radar di valutazione — Dimensioni HMI e PA a confronto
Il grafico confronta la performance media osservata (su scala 1–5) lungo le dimensioni chiave, lette attraverso le due lenti valutative.