AI nella PA: i modelli piccoli (SLM) vincono i vincoli
I modelli linguistici piccoli (SLM) stanno emergendo come il percorso più promettente per operazionalizzare l'intelligenza artificiale nei contesti vincolati della Pubblica Amministrazione. Un'analisi approfondita del MIT Technology Review evidenzia come, mentre i grandi modelli linguistici (LLM) catturano i titoli dei giornali, siano invece i loro cugini più compatti a offrire la soluzione pratica per settori pubblici strettamente regolamentati, dove sicurezza, governance e risorse operative limitate sono priorità assolute. Per un paese come l'Italia, con una macchina amministrativa vasta e complessa, questa distinzione non è accademica, ma operativa: rappresenta la differenza tra un'AI irrealizzabile e una che può effettivamente migliorare i servizi ai cittadini.
Perché i grandi modelli falliscono nel settore pubblico
L'entusiasmo per modelli come GPT-4 o Gemini si scontra con la dura realtà degli uffici pubblici. Questi colossi dell'AI presentano sfide spesso insormontabili:
- Sicurezza e Sovranità dei Dati: Elaborare informazioni sensibili dei cittadini su cloud di terze parti, spesso fuori dai confini nazionali, è un rischio inaccettabile per la privacy e la compliance normativa (si pensi al GDPR).
- Costi Proibitivi: L'addestramento e l'esecuzione di LLM richiedono potenza di calcolo enorme, con costi di infrastruttura e consumo energetico fuori dalla portata dei bilanci della maggior parte degli enti pubblici.
- Opacità e "Scatola Nera": La complessità intrinseca degli LLM rende difficile, se non impossibile, spiegare come giungano a una determinata decisione o raccomandazione, un requisito fondamentale per la trasparenza amministrativa e la responsabilità.
- Flessibilità Limitata: Sono strumenti generalisti, non facilmente adattabili a compiti iper-specifici del settore pubblico, come l'interpretazione di una determinata legge regionale o la gestione di un procedimento amministrativo standardizzato.
La risposta pratica: i Small Language Models (SLM)
Gli SLM, modelli con parametri che vanno da pochi miliardi a qualche decina di miliardi (contro le centinaia o migliaia di miliardi degli LLM), offrono un profilo tecnico radicalmente diverso e più adatto. Possono essere addestrati o perfezionati (fine-tuned) su dataset più piccoli, mirati e pertinenti, come la giurisprudenza di un tribunale amministrativo o la documentazione tecnica di un comune. Questo si traduce in vantaggi decisivi:
- Eseguibili in Locale: Possono essere ospitati su server interni o su infrastrutture cloud nazionali certificate, garantendo la piena sovranità e sicurezza dei dati.
- Costi Contenuti: Richiedono risorse computazionali di gran lunga inferiori, sia per l'addestramento che per l'inferenza, aprendo la strada a sperimentazioni e deploy anche per enti con budget ridotti.
- Trasparenza e Controllo: La minore complessità facilita il debugging, la verifica degli output e l'implementazione di meccanismi di governance chiari, allineandosi al principio di "AI affidabile".
- Adattabilità: Possono essere ottimizzati per compiti precisi (ad esempio, classificazione di pratiche, risposta a FAQ normative, estrazione di dati da moduli strutturati) raggiungendo alti livelli di accuratezza in domini ristretti.
Scenario italiano: un potenziale enorme da cogliere con pragmatismo
Per l'Italia, il tema è di straordinaria attualità. La Pubblica Amministrazione è un bacino potenziale immenso per l'AI, con applicazioni che vanno dalla digitalizzazione degli archivi alla semplificazione del front-office per i cittadini, dall'analisi predittiva per la pianificazione urbana al supporto ai giudici amministrativi. Tuttavia, i vincoli sono gli stessi evidenziati a livello globale: privacy stringente, necessità di trasparenza, budget limitati e una frammentazione organizzativa che rende difficile adottare soluzioni "one-size-fits-all".
L'approccio degli SLM suggerisce una via italiana pragmatica. Invece di inseguire progetti faraonici e centralizzati basati su mega-modelli, la strategia vincente potrebbe essere quella di promuovere un ecosistema di AI "leggera" e specifica per dominio. Singoli ministeri, regioni o grandi comuni potrebbero sviluppare o adottare SLM specializzati per le loro esigenze, partendo da casi d'uso concreti e a valore immediato. Questo ridurrebbe i rischi, i costi e i tempi di implementazione, creando nel contempo competenze interne diffuse.
In sintesi
L'operazionalizzazione dell'AI nel settore pubblico non passerà attraverso la potenza bruta dei modelli più grandi, ma attraverso l'efficienza mirata e governabile dei modelli piccoli. Gli SLM rappresentano la risposta tecnologica più adatta per superare i vincoli di sicurezza, trasparenza e budget che caratterizzano le amministrazioni pubbliche. Per un paese come l'Italia, cogliere questa opportunità significa abbandonare la retorica dell'AI generica e abbracciare un percorso di innovazione incrementale, pragmatico e sostenibile, che parta dai bisogni reali dei cittadini e delle istituzioni. Il futuro dell'AI nella PA non è nel cloud globale, ma in server locali che eseguono modelli specializzati, efficienti e, soprattutto, sotto controllo.