L’intelligenza artificiale nella PA italiana: tra potenzialità operative e sfide normative

L’intelligenza artificiale nella PA italiana: tra potenzialità operative e sfide normative

Sommario: 1. Modelli di AI per finalità generali: nuove frontiere per l’amministrazione pubblica – 2. Concetto di rischio per l’AI con finalità generali: il nodo della regolazione – 3. Applicazioni nella PA: opportunità e incognite – 4. Il caso NHS: chatbot per la salute mentale – 5. IA nella PA: verso una strategia condivisa – 6. Modelli open source e la via italiana: il caso Minerva – 7. Riflessioni conclusive: verso una PA “ai-augmented”

 

Nel presente lavoro si andrà ad affrontare in maniera schematica e strutturata la normativa e le possibili evoluzioni dell’avvento della AI nella P.A. L’adozione dell’intelligenza artificiale (IA) nella Pubblica Amministrazione (PA) rappresenta una delle più rilevanti sfide e opportunità per la trasformazione digitale del settore pubblico. Con la Determinazione n. 17/2025 dell’Agenzia per l’Italia Digitale (AgID), attualmente in consultazione pubblica fino al 20 marzo 2025, il nostro Paese compie un passo importante verso la definizione di linee guida comuni e condivise per l’introduzione sicura, etica e trasparente dell’IA. Questo articolo analizza il contenuto delle Linee Guida, ne esamina gli impatti giuridici, organizzativi e sociali, e propone una riflessione critica sul futuro della governance pubblica nell’era dell’IA.

1. Modelli di AI per finalità generali: nuove frontiere per l’amministrazione pubblica

I modelli di intelligenza artificiale per finalità generali (General Purpose AI models) rappresentano una delle più importanti evoluzioni nel campo dell’IA. Questi sistemi si distinguono per la loro versatilità, la scala di applicazione e la capacità di apprendere da dati eterogenei per poi trasferire tali competenze a una pluralità di compiti: dalla generazione di testo, immagini o codice, fino al supporto decisionale avanzato.

A differenza delle IA tradizionali, pensate per una sola funzione, questi modelli sono dinamici e adattabili, addestrabili ulteriormente con set di dati mirati. È il caso di GPT-4, Gemini, o di strumenti come ChatGPT, Copilot, MidJourney e i modelli integrati in sistemi come Microsoft Office o nei motori di ricerca potenziati.

La loro applicazione nella PA non è più un’ipotesi: si tratta di un passaggio ormai in atto, sebbene ancora frammentato e con importanti sfide normative e operative.

2. Concetto di rischio per l’AI con finalità generali: il nodo della regolazione

Con l’approvazione nel 2024 dell’AI Act, l’Unione Europea ha introdotto una classificazione dei modelli di IA per finalità generali in generici e sistemici. I secondi, noti anche come Foundation models ad alto impatto, pongono problematiche di rischio sistemico, poiché un loro malfunzionamento potrebbe riflettersi su un’intera catena di valore, specialmente in ambiti critici come salute, giustizia, finanza pubblica.

Il concetto di rischio sistemico, tuttavia, resta ancora parzialmente indeterminato e lascia margini di discrezionalità alla Commissione europea. Centrale è la definizione di “capacità di impatto elevato”, che può includere tutto ciò che supera il livello delle capacità medie registrate nei modelli avanzati già diffusi.

Questo crea difficoltà nell’enforcement, soprattutto rispetto a:

  • Attribuzione della responsabilità tra sviluppatori e utilizzatori.

  • Valutazione dinamica del rischio, che evolve con l’uso stesso del modello.

  • Individuazione dei confini tra modelli generici e quelli sistemici.

Norme di riferimento e compliance operativa

Il Capo V dell’AI Act, in particolare gli articoli 52–55, stabilisce obblighi stringenti per i fornitori di modelli di IA per finalità generali:

  • Progettazione sicura e auditabilità del modello.

  • Documentazione completa sui dati di addestramento.

  • Obbligo di valutazione continua del rischio, soprattutto per i modelli sistemici.

Per la Pubblica Amministrazione, questo implica che l’utilizzo anche indiretto di tali modelli (es. tramite piattaforme SaaS) comporti obblighi di due diligence, oltre che di trasparenza verso i cittadini.

3. Applicazioni nella PA: opportunità e incognite

Come previsto dalla Strategia nazionale per l’IA 2024–2026, la PA italiana ha riconosciuto il valore dei modelli generativi per:

  • Automazione documentale (PEC, atti, fascicoli).

  • Interfacce conversazionali intelligenti (assistenti virtuali).

  • Decisioni assistite in ambito previdenziale, sanitario, fiscale.

  • Produzione normativa semplificata, come nei progetti pilota di INPS, Regione Emilia-Romagna, INAIL e ISTAT.

Ma le questioni aperte sono molte:

  • Che grado di trasparenza algoritmica è garantito in servizi fondamentali?

  • È stato effettuato un risk assessment ex ante in linea con il principio di proporzionalità del GDPR?

  • Chi ha la titolarità dei dati quando l’IA è offerta da un provider commerciale?

4. Il caso NHS: chatbot per la salute mentale

L’esperienza del Servizio Sanitario britannico (NHS) è paradigmatica. Il progetto Limbic, sviluppato con tecnologia simile a quella di ChatGPT, è stato implementato per facilitare il triage dei pazienti con disturbi psicologici. L’uso di un LLM consente di offrire un primo screening, riducendo tempi di attesa, ma anche sollevando interrogativi su:

  • Affidabilità del triage automatizzato;

  • Protezione dei dati sanitari;

  • Conformità con le linee guida cliniche.

Questo esempio evidenzia come la scalabilità dell’IA debba essere accompagnata da una vigilanza etica, legale e tecnica costante, soprattutto quando si toccano ambiti sensibili.

5. IA nella PA: verso una strategia condivisa

L’adozione disomogenea dei modelli IA da parte delle amministrazioni pubbliche impone una razionalizzazione strategica nazionale. Occorrono:

  1. Protocolli comuni per la classificazione del rischio, con strumenti adattivi secondo la dimensione dell’ente.

  2. Linee guida interministeriali su:

    • trattamenti dati ammissibili;

    • strumenti preferenziali (open source, modelli locali);

    • standard minimi per trasparenza e auditabilità.

  3. Infrastrutture pubbliche (o in partenariato) per l’addestramento di modelli IA generativi su dati pubblici e linguaggi locali.

6. Modelli open source e la via italiana: il caso Minerva

Una delle iniziative più promettenti è il progetto Minerva, sviluppato dal gruppo Sapienza NLP all’interno di FAIR (Future Artificial Intelligence Research). Si tratta di una famiglia di LLM allenati in lingua italiana su dataset pubblici e aperti, grazie alla collaborazione con CINECA e l’uso del supercomputer Leonardo.

Minerva si propone come:

  • Modello nativamente multilingua per l’Italia;

  • Strumento di interoperabilità semantica tra pubbliche amministrazioni;

  • Esempio concreto di IA pubblica, trasparente, sovrana.

Questa direzione va rafforzata: non solo per motivi di sovranità tecnologica, ma anche per garantire accountability, auditing e privacy by design.

7. Riflessioni conclusive: verso una PA “ai-augmented”

La Pubblica Amministrazione italiana si trova davanti a una sfida duplice: innovare per migliorare i servizi e regolare per tutelare diritti fondamentali. I modelli di AI per finalità generali amplificano le possibilità ma anche i rischi. Una governance efficace richiede:

  • Visione strategica;

  • Competenze interne;

  • Regole comuni e flessibili;

  • Investimenti pubblici in modelli aperti e sostenibili.

Come sottolinea il Laboratorio AIIS del CINI, occorre un approccio progressivo fondato su tre pilastri: analisi del rischio, formazione, infrastruttura tecnologica.

L’obiettivo? Una PA aumentata dall’IA, ma ancora guidata dalla responsabilità umana, in linea con i valori costituzionali.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News
The following two tabs change content below.

Riccardo Renzi

Funzionario della Pubblica Amministrazione a Comune di Fermo
Istruttore direttivo presso Biblioteca civica “Romolo Spezioli” di Fermo, membro dei comitati scientifici e di redazione delle riviste Menabò, Notizie Geopolitiche, Scholia e Il Polo – Istituto Geografico Polare “Silvio Zavatti”, e Socio Corrispondente della Deputazione di Storia Patria per le Marche. Ha all'attivo più di 500 pubblicazioni tra scientifiche e di divulgazione, per quanto concerne il diritto collabora con Italia Appalti, Altalex, Jus101, Opinio Juris, Terzultima Fermata e Salvis Juribus.

Articoli inerenti

Decreto PA 2025 è legge: votata la fiducia sul decreto pubbliche amministrazioni anche al Senato

Decreto PA 2025 è legge: votata la fiducia sul decreto pubbliche amministrazioni anche al Senato

Sommario: 1. Sospensione della norma “taglia-idonei” per le graduatorie approvate negli anni 2024 e 2025, nonché per le graduatorie di...

Concorso 4617 Allievi Agenti PS: “vecchi” a 26 anni. Via al ricorso collettivo!

Concorso 4617 Allievi Agenti PS: “vecchi” a 26 anni. Via al ricorso collettivo!

È stato appena pubblicato il bando per l’assunzione di 4.617 Allievi Agenti della Polizia di Stato, aperto sia ai cittadini italiani provenienti...

I caratteri degli interessi legittimi nell’elaborazione dottrinale e giurisprudenziale

I caratteri degli interessi legittimi nell’elaborazione dottrinale e giurisprudenziale

Sommario: 1. Premessa: la distinzione tra diritto soggettivo e interesse legittimo – 2. Il carattere relazionale e qualificato dell’interesse...

Tetto del salario per lavoro flessibile negli EE.LL.: ricostruzione possibile

Tetto del salario per lavoro flessibile negli EE.LL.: ricostruzione possibile

Sommario: 1. Lavoro flessibile per la PA: eccezione alla regola – 2. Il limite (“tetto”) del salario per lavoro flessibile – 3. Ricostruzione del...