Due formati, un obiettivo
Formare operatori della pubblica amministrazione a progettare e valutare criticamente soluzioni basate sull'intelligenza artificiale, attraverso un'esperienza pratica e guidata.
Formato Toscana β Design Thinking
Arezzo (20 gen) · Livorno (11 feb) · Firenze (26 feb) · 13 gruppi
Ogni gruppo sceglie un problema reale del proprio ente, lo analizza con l'AI e produce un deliverable operativo (report, dashboard, template). Lezione frontale su GDPR e IA al mattino, laboratorio pratico al pomeriggio. Valutazione su 5 criteri.
Classifica complessiva Toscana →Formato Genova β Piano di Adozione IA
Genova (16 mar) · 9 gruppi · 3 tracce tematiche
Il simulatore multi-agente guida i gruppi attraverso 5 schemi progressivi (Stakeholder, Rischi, Competenze, Monitoraggio, Costi) con agenti specializzati in modalità LEAD. Lezione e laboratorio in giornata unica. Valutazione qualitativa.
Report valutazione Genova →Lezione + Laboratorio: un modello integrato
In tutte le sedi il percorso ha combinato una fase di formazione frontale con un'esperienza pratica guidata dall'AI.
La lezione
Formazione su GDPR, AI Act europeo, principi di governance dell'IA nella PA. Questa fase ha costruito il vocabolario comune e la consapevolezza normativa che i partecipanti hanno poi applicato nel laboratorio.
Il laboratorio
Lavoro in gruppi su problemi reali con il supporto di un simulatore AI. Nessun prerequisito tecnico: lo strumento guida i partecipanti con domande mirate, propone bozze da revisionare e raccoglie gli output in un deliverable strutturato.
La valutazione
In Toscana, valutazione su 5 criteri (completezza, qualità, innovazione, presentabilità, impatto PA) con punteggi da 1 a 10. A Genova, analisi qualitativa dell'interazione e dei contenuti prodotti.
Funziona? Cosa dicono i dati
Operatori PA senza esperienza pregressa con l'AI hanno prodotto output strutturati e operativi in meno di 90 minuti. I risultati sono il frutto di tre fattori distinti: il progetto formativo, il metodo laboratoriale e le competenze dei partecipanti.
Gruppi che hanno completato
Nessun gruppo ha abbandonato. Nessun progetto sotto la sufficienza.
Tempo medio di laboratorio
Sufficienti per produrre un deliverable operativo o un piano di adozione completo.
Media qualitativa Toscana
Su 5 criteri: completezza, qualità, innovazione, presentabilità, impatto PA.
Prerequisiti tecnici richiesti
Nessuna competenza AI pregressa. Il metodo funziona per tutti.
Consapevolezza normativa diffusa. Tutti i 22 gruppi hanno citato GDPR e AI Act nei propri elaborati, adottando il principio human-in-the-loop come vincolo progettuale. Questo risultato è l'effetto diretto delle lezioni su GDPR e IA che hanno preceduto ogni laboratorio: la formazione frontale ha costruito il vocabolario e la sensibilità normativa che i partecipanti hanno poi applicato nella pratica.
Dalla teoria alla pratica in una giornata. Il modello integrato lezione + laboratorio ha permesso di trasformare concetti astratti (AI Act, DPIA, bias algoritmico) in vincoli progettuali concreti applicati a problemi reali. I partecipanti non hanno solo "imparato" cosa sia il GDPR nell'AI: lo hanno usato per progettare.
Struttura che elimina le barriere
La struttura a fasi β sia nel Design Thinking toscano sia nei 5 schemi genovesi β elimina l'ansia da pagina bianca. I partecipanti non devono sapere "cosa chiedere all'AI": lo strumento li accompagna con domande mirate, concentrandoli sul merito del problema.
L'AI come interlocutore
Il simulatore pone domande, propone bozze, chiede conferme. Non genera risposte definitive. Questo modello β bozza dell'AI, revisione del gruppo, iterazione β insegna implicitamente che l'AI è uno strumento da guidare con il proprio giudizio, non una delega.
Output operativi in 90 minuti
Il metodo trasforma "vorrei usare l'AI" in un deliverable concreto: template di atti amministrativi, piani di adozione con budget, dashboard di monitoraggio. Risultati che gli enti possono portare in ufficio il lunedì mattina.
L'AI come facilitatore del gruppo
L'AI non ha solo prodotto contenuti: ha facilitato il lavoro di gruppo. Ponendo domande strutturate, sintetizzando le risposte e proponendo bozze su cui discutere, ha accelerato lo scambio di opinioni tra i partecipanti e reso produttiva la discussione. Il gruppo non parla dell'AI: parla con l'AI del proprio problema, e questo velocizza e migliora il confronto tra colleghi.
Competenza di dominio
I risultati migliori sono arrivati dai partecipanti che hanno portato la propria conoscenza del contesto lavorativo nella conversazione con l'AI: budget reali, nomi dell'organigramma, rischi vissuti, procedure conosciute. Il metodo attiva questa competenza, ma è il partecipante che la possiede.
Pensiero critico
Diversi gruppi hanno sfidato le proposte dell'AI con argomentazioni specifiche: "Non mi hai convinto", "abbassa la gravità", "critica il nostro lavoro". Chi conosce il proprio dominio sa quando l'AI sbaglia β e non ha paura di dirlo. Il metodo può incentivare questo comportamento, ma la competenza critica viene dai partecipanti.
Sensibilità all'inclusione
Il rischio di escludere le fasce meno digitalizzate è il più citato in assoluto, in tutte le sedi, con contromisure concrete e radicate nell'esperienza quotidiana dei partecipanti. Una sensibilità che nasce dal contatto diretto con le fragilità sociali del territorio.
Arezzo
20 gennaio · 3 gruppi · Media 7.97
Dalla VAS alle segnalazioni cittadini. Approcci diversi, deliverable operativi.
Dettagli →Livorno
11 febbraio · 5 gruppi · Media 8.42
La sessione con la qualità media più alta. Template operativi, dashboard di moderazione.
Dettagli →Firenze
26 febbraio · 5 gruppi · Media 7.70
La più omogenea. Nasce la pratica della meta-riflessione critica.
Dettagli →Genova
16 marzo · 9 gruppi · 3 tracce
Simulatore multi-agente, piano strutturato in 5 schemi. 9 su 9 completano il percorso.
Report →Qualità media per sessione (Toscana)
Distribuzione gruppi per sede
Cosa ha prodotto la pubblica amministrazione
Al di là dei singoli deliverable, il laboratorio ha fatto emergere competenze e sensibilità che i partecipanti hanno dimostrato di possedere β e che il metodo ha saputo attivare.
Consapevolezza normativa
Tutti i 22 gruppi hanno citato spontaneamente GDPR e AI Act europeo nei propri elaborati, senza che fosse richiesto. Il principio human-in-the-loop è stato adottato universalmente. La PA dimostra di percepire la compliance come vincolo progettuale da integrare fin dall'inizio, non come ostacolo.
Attenzione all'inclusione
Il rischio di escludere le fasce meno digitalizzate è il più citato in assoluto, in tutte le sedi. I partecipanti hanno proposto contromisure concrete e radicate nella loro esperienza quotidiana: sportelli fisici di accompagnamento, interfacce multilingue, supporto telefonico, feedback tramite operatori sociali.
Capacità di progettazione
Dalla mappatura stakeholder ai piani di finanziamento, dai KPI alla gestione dei rischi: i partecipanti hanno dimostrato di saper strutturare un progetto AI quando lo strumento li guida con le domande giuste. Alcuni gruppi hanno prodotto template e piani immediatamente adottabili nel proprio ente.
Pensiero critico verso l'AI
Nonostante fosse la prima esperienza per la maggior parte dei partecipanti, diversi gruppi hanno sfidato le proposte dell'AI con argomentazioni specifiche e competenti. Il pattern è chiaro: chi conosce il proprio dominio sa quando l'AI sbaglia β e non ha paura di dirlo.
Sostenibilità oltre la fase pilota
La maggior parte dei gruppi si concentra sull'avvio del progetto, meno sulla sostenibilità a 5 anni. Alcuni hanno fatto eccezione con piani finanziari diversificati (PON Metro, FASE, fondi AGID, residui PNRR). Nelle prossime edizioni, la sostenibilità può diventare uno schema esplicito del percorso.
Dalla dichiarazione alla governance operativa
Il principio human-in-the-loop è citato da tutti, ma servono nomi, ruoli e mandati formali perché diventi operativo. Chi supervisiona il sistema AI in produzione? Chi risponde in caso di errore? Uno schema dedicato alla governance può trasformare il principio in struttura.
Misurare per migliorare
I gruppi producono KPI pertinenti ma quasi sempre senza dati baseline. Richiedere una misurazione dello stato attuale prima di definire i target renderebbe gli indicatori realmente operativi e verificabili.
Macro-aree tematiche scelte dai 22 gruppi
Le lezioni del progetto AI-PACT
Tre mesi di sperimentazione, quattro sedi, ventidue gruppi. Ecco cosa portiamo a casa per la formazione della PA sull'intelligenza artificiale.
La PA è pronta
Nessun gruppo ha rifiutato lo strumento. Nessun progetto sotto la sufficienza. Operatori alla prima esperienza con l'AI hanno prodotto elaborati strutturati e pertinenti in meno di 90 minuti. La barriera all'adozione dell'AI nella PA non è la tecnologia, né la resistenza al cambiamento: è la mancanza di accompagnamento strutturato.
Il formato giusto fa la differenza
La struttura progressiva (fasi guidate, domande mirate, bozze da revisionare) elimina l'ansia da pagina bianca e permette ai partecipanti di concentrarsi su ciò che sanno fare: portare la propria competenza di dominio. Non serve insegnare "come si usa l'AI": serve dare uno strumento che faccia le domande giuste.
Il pensiero critico si può progettare
I risultati migliori, in tutte le sedi, sono arrivati dai partecipanti che hanno contestato le proposte dell'AI. Questo comportamento non va lasciato all'iniziativa spontanea: può essere incentivato con piccoli vincoli strutturali (una contestazione motivata per fase, una revisione critica finale). Il metodo può insegnare non solo a usare l'AI, ma a ragionare con l'AI.
Contestazione strutturale
Inserire nel processo almeno un momento obbligatorio di revisione critica per fase. I dati di tutte le sedi confermano: il pensiero critico verso l'AI produce risultati migliori. Va progettato come parte del metodo, non lasciato all'iniziativa spontanea.
Più tempo operativo
La qualità dell'interazione cala nelle fasi finali, spesso per pressione del tempo. Prevedere almeno 2 ore operative, o permettere ai gruppi di negoziare quali fasi approfondire e quali trattare in modo più rapido.
Governance e sostenibilità nel percorso
Aggiungere moduli dedicati a chi gestisce il sistema AI in produzione e alla sostenibilità finanziaria oltre la fase pilota. Sono le due aree meno sviluppate in tutte le sedi.
Meta-riflessione finale
Dedicare gli ultimi 10 minuti a riflettere su come il gruppo ha usato l'AI: dove ha delegato troppo, cosa avrebbe potuto chiedere meglio, cosa ha imparato. Trasforma l'esperienza in competenza trasferibile.
Dimensioni di valutazione β Media complessiva
Performance media osservata (scala 1-5) sulle dimensioni chiave emerse dalle quattro sessioni.
Il progetto AI-PACT dimostra che la pubblica amministrazione italiana ha le competenze e la volontà per integrare l'intelligenza artificiale nei propri processi. Il fattore critico non è la tecnologia: è il metodo. Uno strumento strutturato, problemi reali su cui lavorare, e il tempo per ragionare criticamente con l'AI sono le condizioni che trasformano una giornata di formazione in una competenza duratura. Ventidue gruppi, quattro sedi, zero prerequisiti tecnici β e risultati che gli enti possono portare in ufficio il lunedì mattina.