4
Sedi
22
Gruppi di lavoro
~100
Partecipanti PA
8.1/10
Media Toscana
9.0/10
Punteggio massimo
3
Mesi di attività

Due formati, un obiettivo

Formare operatori della pubblica amministrazione a progettare e valutare criticamente soluzioni basate sull'intelligenza artificiale, attraverso un'esperienza pratica e guidata.

🎯

Formato Toscana β€” Design Thinking

Arezzo (20 gen) · Livorno (11 feb) · Firenze (26 feb) · 13 gruppi

Ogni gruppo sceglie un problema reale del proprio ente, lo analizza con l'AI e produce un deliverable operativo (report, dashboard, template). Lezione frontale su GDPR e IA al mattino, laboratorio pratico al pomeriggio. Valutazione su 5 criteri.

Classifica complessiva Toscana →
πŸ“‹

Formato Genova β€” Piano di Adozione IA

Genova (16 mar) · 9 gruppi · 3 tracce tematiche

Il simulatore multi-agente guida i gruppi attraverso 5 schemi progressivi (Stakeholder, Rischi, Competenze, Monitoraggio, Costi) con agenti specializzati in modalità LEAD. Lezione e laboratorio in giornata unica. Valutazione qualitativa.

Report valutazione Genova →

Lezione + Laboratorio: un modello integrato

In tutte le sedi il percorso ha combinato una fase di formazione frontale con un'esperienza pratica guidata dall'AI.

πŸ“š

La lezione

Formazione su GDPR, AI Act europeo, principi di governance dell'IA nella PA. Questa fase ha costruito il vocabolario comune e la consapevolezza normativa che i partecipanti hanno poi applicato nel laboratorio.

πŸ”§

Il laboratorio

Lavoro in gruppi su problemi reali con il supporto di un simulatore AI. Nessun prerequisito tecnico: lo strumento guida i partecipanti con domande mirate, propone bozze da revisionare e raccoglie gli output in un deliverable strutturato.

πŸ“Š

La valutazione

In Toscana, valutazione su 5 criteri (completezza, qualità, innovazione, presentabilità, impatto PA) con punteggi da 1 a 10. A Genova, analisi qualitativa dell'interazione e dei contenuti prodotti.

Funziona? Cosa dicono i dati

Operatori PA senza esperienza pregressa con l'AI hanno prodotto output strutturati e operativi in meno di 90 minuti. I risultati sono il frutto di tre fattori distinti: il progetto formativo, il metodo laboratoriale e le competenze dei partecipanti.

22/22

Gruppi che hanno completato

Nessun gruppo ha abbandonato. Nessun progetto sotto la sufficienza.

90 min

Tempo medio di laboratorio

Sufficienti per produrre un deliverable operativo o un piano di adozione completo.

8.1/10

Media qualitativa Toscana

Su 5 criteri: completezza, qualità, innovazione, presentabilità, impatto PA.

0

Prerequisiti tecnici richiesti

Nessuna competenza AI pregressa. Il metodo funziona per tutti.

Consapevolezza normativa diffusa. Tutti i 22 gruppi hanno citato GDPR e AI Act nei propri elaborati, adottando il principio human-in-the-loop come vincolo progettuale. Questo risultato è l'effetto diretto delle lezioni su GDPR e IA che hanno preceduto ogni laboratorio: la formazione frontale ha costruito il vocabolario e la sensibilità normativa che i partecipanti hanno poi applicato nella pratica.

Dalla teoria alla pratica in una giornata. Il modello integrato lezione + laboratorio ha permesso di trasformare concetti astratti (AI Act, DPIA, bias algoritmico) in vincoli progettuali concreti applicati a problemi reali. I partecipanti non hanno solo "imparato" cosa sia il GDPR nell'AI: lo hanno usato per progettare.

🧩

Struttura che elimina le barriere

La struttura a fasi β€” sia nel Design Thinking toscano sia nei 5 schemi genovesi β€” elimina l'ansia da pagina bianca. I partecipanti non devono sapere "cosa chiedere all'AI": lo strumento li accompagna con domande mirate, concentrandoli sul merito del problema.

πŸ€–

L'AI come interlocutore

Il simulatore pone domande, propone bozze, chiede conferme. Non genera risposte definitive. Questo modello β€” bozza dell'AI, revisione del gruppo, iterazione β€” insegna implicitamente che l'AI è uno strumento da guidare con il proprio giudizio, non una delega.

⚑

Output operativi in 90 minuti

Il metodo trasforma "vorrei usare l'AI" in un deliverable concreto: template di atti amministrativi, piani di adozione con budget, dashboard di monitoraggio. Risultati che gli enti possono portare in ufficio il lunedì mattina.

πŸ‘₯

L'AI come facilitatore del gruppo

L'AI non ha solo prodotto contenuti: ha facilitato il lavoro di gruppo. Ponendo domande strutturate, sintetizzando le risposte e proponendo bozze su cui discutere, ha accelerato lo scambio di opinioni tra i partecipanti e reso produttiva la discussione. Il gruppo non parla dell'AI: parla con l'AI del proprio problema, e questo velocizza e migliora il confronto tra colleghi.

🎯

Competenza di dominio

I risultati migliori sono arrivati dai partecipanti che hanno portato la propria conoscenza del contesto lavorativo nella conversazione con l'AI: budget reali, nomi dell'organigramma, rischi vissuti, procedure conosciute. Il metodo attiva questa competenza, ma è il partecipante che la possiede.

πŸ’‘

Pensiero critico

Diversi gruppi hanno sfidato le proposte dell'AI con argomentazioni specifiche: "Non mi hai convinto", "abbassa la gravità", "critica il nostro lavoro". Chi conosce il proprio dominio sa quando l'AI sbaglia β€” e non ha paura di dirlo. Il metodo può incentivare questo comportamento, ma la competenza critica viene dai partecipanti.

πŸ‘₯

Sensibilità all'inclusione

Il rischio di escludere le fasce meno digitalizzate è il più citato in assoluto, in tutte le sedi, con contromisure concrete e radicate nell'esperienza quotidiana dei partecipanti. Una sensibilità che nasce dal contatto diretto con le fragilità sociali del territorio.

Arezzo

20 gennaio · 3 gruppi · Media 7.97

Dalla VAS alle segnalazioni cittadini. Approcci diversi, deliverable operativi.

Dettagli →

Livorno

11 febbraio · 5 gruppi · Media 8.42

La sessione con la qualità media più alta. Template operativi, dashboard di moderazione.

Dettagli →

Firenze

26 febbraio · 5 gruppi · Media 7.70

La più omogenea. Nasce la pratica della meta-riflessione critica.

Dettagli →

Genova

16 marzo · 9 gruppi · 3 tracce

Simulatore multi-agente, piano strutturato in 5 schemi. 9 su 9 completano il percorso.

Report →

Qualità media per sessione (Toscana)

Distribuzione gruppi per sede

Cosa ha prodotto la pubblica amministrazione

Al di là dei singoli deliverable, il laboratorio ha fatto emergere competenze e sensibilità che i partecipanti hanno dimostrato di possedere β€” e che il metodo ha saputo attivare.

βš–οΈ

Consapevolezza normativa

Tutti i 22 gruppi hanno citato spontaneamente GDPR e AI Act europeo nei propri elaborati, senza che fosse richiesto. Il principio human-in-the-loop è stato adottato universalmente. La PA dimostra di percepire la compliance come vincolo progettuale da integrare fin dall'inizio, non come ostacolo.

πŸ‘₯

Attenzione all'inclusione

Il rischio di escludere le fasce meno digitalizzate è il più citato in assoluto, in tutte le sedi. I partecipanti hanno proposto contromisure concrete e radicate nella loro esperienza quotidiana: sportelli fisici di accompagnamento, interfacce multilingue, supporto telefonico, feedback tramite operatori sociali.

🎯

Capacità di progettazione

Dalla mappatura stakeholder ai piani di finanziamento, dai KPI alla gestione dei rischi: i partecipanti hanno dimostrato di saper strutturare un progetto AI quando lo strumento li guida con le domande giuste. Alcuni gruppi hanno prodotto template e piani immediatamente adottabili nel proprio ente.

πŸ’‘

Pensiero critico verso l'AI

Nonostante fosse la prima esperienza per la maggior parte dei partecipanti, diversi gruppi hanno sfidato le proposte dell'AI con argomentazioni specifiche e competenti. Il pattern è chiaro: chi conosce il proprio dominio sa quando l'AI sbaglia β€” e non ha paura di dirlo.

πŸ’°

Sostenibilità oltre la fase pilota

La maggior parte dei gruppi si concentra sull'avvio del progetto, meno sulla sostenibilità a 5 anni. Alcuni hanno fatto eccezione con piani finanziari diversificati (PON Metro, FASE, fondi AGID, residui PNRR). Nelle prossime edizioni, la sostenibilità può diventare uno schema esplicito del percorso.

πŸ—

Dalla dichiarazione alla governance operativa

Il principio human-in-the-loop è citato da tutti, ma servono nomi, ruoli e mandati formali perché diventi operativo. Chi supervisiona il sistema AI in produzione? Chi risponde in caso di errore? Uno schema dedicato alla governance può trasformare il principio in struttura.

πŸ“Š

Misurare per migliorare

I gruppi producono KPI pertinenti ma quasi sempre senza dati baseline. Richiedere una misurazione dello stato attuale prima di definire i target renderebbe gli indicatori realmente operativi e verificabili.

Macro-aree tematiche scelte dai 22 gruppi

Le lezioni del progetto AI-PACT

Tre mesi di sperimentazione, quattro sedi, ventidue gruppi. Ecco cosa portiamo a casa per la formazione della PA sull'intelligenza artificiale.

βœ…

La PA è pronta

Nessun gruppo ha rifiutato lo strumento. Nessun progetto sotto la sufficienza. Operatori alla prima esperienza con l'AI hanno prodotto elaborati strutturati e pertinenti in meno di 90 minuti. La barriera all'adozione dell'AI nella PA non è la tecnologia, né la resistenza al cambiamento: è la mancanza di accompagnamento strutturato.

⚑

Il formato giusto fa la differenza

La struttura progressiva (fasi guidate, domande mirate, bozze da revisionare) elimina l'ansia da pagina bianca e permette ai partecipanti di concentrarsi su ciò che sanno fare: portare la propria competenza di dominio. Non serve insegnare "come si usa l'AI": serve dare uno strumento che faccia le domande giuste.

πŸ’‘

Il pensiero critico si può progettare

I risultati migliori, in tutte le sedi, sono arrivati dai partecipanti che hanno contestato le proposte dell'AI. Questo comportamento non va lasciato all'iniziativa spontanea: può essere incentivato con piccoli vincoli strutturali (una contestazione motivata per fase, una revisione critica finale). Il metodo può insegnare non solo a usare l'AI, ma a ragionare con l'AI.

1

Contestazione strutturale

Inserire nel processo almeno un momento obbligatorio di revisione critica per fase. I dati di tutte le sedi confermano: il pensiero critico verso l'AI produce risultati migliori. Va progettato come parte del metodo, non lasciato all'iniziativa spontanea.

2

Più tempo operativo

La qualità dell'interazione cala nelle fasi finali, spesso per pressione del tempo. Prevedere almeno 2 ore operative, o permettere ai gruppi di negoziare quali fasi approfondire e quali trattare in modo più rapido.

3

Governance e sostenibilità nel percorso

Aggiungere moduli dedicati a chi gestisce il sistema AI in produzione e alla sostenibilità finanziaria oltre la fase pilota. Sono le due aree meno sviluppate in tutte le sedi.

4

Meta-riflessione finale

Dedicare gli ultimi 10 minuti a riflettere su come il gruppo ha usato l'AI: dove ha delegato troppo, cosa avrebbe potuto chiedere meglio, cosa ha imparato. Trasforma l'esperienza in competenza trasferibile.

Dimensioni di valutazione β€” Media complessiva

Performance media osservata (scala 1-5) sulle dimensioni chiave emerse dalle quattro sessioni.

Il progetto AI-PACT dimostra che la pubblica amministrazione italiana ha le competenze e la volontà per integrare l'intelligenza artificiale nei propri processi. Il fattore critico non è la tecnologia: è il metodo. Uno strumento strutturato, problemi reali su cui lavorare, e il tempo per ragionare criticamente con l'AI sono le condizioni che trasformano una giornata di formazione in una competenza duratura. Ventidue gruppi, quattro sedi, zero prerequisiti tecnici β€” e risultati che gli enti possono portare in ufficio il lunedì mattina.