1. Intelligenza artificiale e Pubblica Amministrazione: opportunità e rischi
Il processo di integrazione dell’IA nei procedimenti amministrativi della P.A., oltre a rappresentare un punto di svolta importante, coinvolge necessariamente l’analisi di dimensioni etiche, giuridiche e sociali di particolare importanza.
Questo breve contributo, si propone di esplorare le architetture concettuali e operative necessarie sia per superare l’opacità algoritmica, che potrebbe compromettere la legittimità dell’azione amministrativa, sia per garantire che l’utilizzo di questo strumento tecnologico possa essere di aiuto all’amministrazione nel realizzare il buon andamento e l’imparzialità. Ciò detto, non si possono, però, ignorare alcune perplessità che sorgono in relazione alla potenziale idoneità dell’artefatto tecnologico a ledere il principio di trasparenza.
2. Il problema dell’opacità algoritmica
Con il Machine Learning, infatti, l’algoritmo è in grado di effettuare previsioni basate su regole create dalla macchina stessa in base alle caratteristiche dei dati forniti. Si pensi ad esempio alla probabilità di avere una certa malattia, di essere la persona giusta per una determinata posizione lavorativa, ecc… Questi modelli sono chiamati black box perché operano in modo così complesso da rendere impossibile la piena comprensione di come vengano elaborate le informazioni, che spesso sfugge anche a coloro che hanno programmato gli algoritmi stessi.
3. Una nuova idea di trasparenza: dati, algoritmi, spiegabilità
La mancanza di trasparenza assume dunque una particolare importanza, poiché riguarda sia il tipo di dati selezionati per alimentare l’algoritmo sia le scelte relative al suo funzionamento. Secondo un’accezione evoluta di tale principio, tutti i soggetti coinvolti dall’azione amministrativa caratterizzata da uso di IA devono avere pieno accesso a tutti i dati elaborati per poterne ripercorrere e avere piena conoscenza del percorso effettuato dallo strumento tecnologico. In altre parole, la trasparenza riguarda la spiegabilità, ovvero il modo in cui le informazioni vengono elaborate dal modello e di come l’input viene calcolato per ottenere l’output.
La spiegabilità può essere compromessa da vari fattori:
- la logica utilizzata dal modello è protetta da segreto industriale;
- la complessità del modello rende possibile la sua comprensione solo a chi ha competenze tecniche elevate;
- in alcuni casi vengono utilizzati così tanti parametri che si rende impossibile comprendere cosa abbia prodotto quel determinato risultato.
La trasparenza acquista così una diversa trifasica dimensione: trasparenza algoritmica, trasparenza dei dati e trasparenza esplicativa.

4. Le sfide costituzionali dell’IA nella P.A.
Si aggiunga inoltre che l’uso di IA da parte dell’amministrazione rimane comunque soggetto all’applicazione dei principi, parametri e norme costituzionali. Tra le norme costituzionali in potenziale attrito dall’implementazione dell’IA nell’azione amministrativa vengono in rilievo l’art. 97, essenziale per garantire che l’utilizzo dell’IA non comprometta la qualità e l’equità dell’azione amministrativa; l’art. 3, che disciplinando il principio di eguaglianza formale e sostanziale, vieta le discriminazioni nei confronti dei cittadini; l’art. 24, il quale prevedendo il diritto alla difesa, richiederebbe la contestabilità delle decisioni algoritmiche, implicando la loro conoscibilità e la trasparenza; l’art. 113, ove è prevista la tutela giurisdizionale contro gli atti della P.A. e che dovrebbe dunque estendersi anche agli atti adottati dalla P.A. mediante l’utilizzo dell’IA e l’art. 21 il quale, interpretato estensivamente, potrebbe ricomprendere anche il diritto alla conoscibilità dei meccanismi decisionali algoritmici.
5. Il velo algoritmico: giustizia e imparzialità nelle decisioni automatizzate
Il “velo algoritmico”, viene utilizzato come metafora dell’opacità che caratterizza i sistemi di decisione automatizzata, proponendo alcune riflessioni che includono l’adozione di standard procedurali che possano garantire la conoscibilità degli algoritmi utilizzati dalla P.A., operando una distinzione tra attività vincolata e discrezionale.
Il concetto di velo algoritmico,si ispira al velo d’ignoranza formulato da JohnRawls nella sua teoria della giustizia. Rawls, infatti, immaginava che i principi di giustizia dovessero essere scelti in una condizione ipotetica in cui i soggetti ignorano la propria posizione sociale, economica, o culturale. In modo analogo, il velo algoritmico invita chi progetta sistemi decisionali automatizzati a operare in una condizione di “ignoranza morale”: ignorare chi beneficerà o chi sarà penalizzato dalle decisioni dell’algoritmo, per garantire imparzialità e giustizia. In altre parole: applicando il velo d’ignoranza rawlsiano, dovremmo chiederci: svilupperemmo comunque questa tecnologia se non sapessimo se saremo tra coloro che ne beneficiano o tra coloro che potrebbero subirne conseguenze negative?
Ma qui entra nuovamente in gioco la trasparenza, che in questo contesto non è solo un principio tecnico, ma anche etico e politico. Progettare un algoritmo “dietro il velo” non significa giustificare l’opacità, ma al contrario richiede che le logiche decisionali siano accessibili, spiegabili e verificabili da chi le subisce o le utilizza.
Anche Ronald Dworkin offre una chiave di lettura importante, poiché se Rawls parla di equità nei criteri, Dworkin ricorda che ogni individuo ha diritto a essere trattato come un soggetto morale dotato di valore intrinseco. Da qui deriva un ulteriore obbligo: rendere giustificabile ogni scelta algoritmica, rendendone chiari i presupposti e i criteri, anche quando questi sono complessi o tecnicamente sofisticati.
Il veloalgoritmico, quindi, diventerebbe una guida etica per costruire sistemi automatizzati che siano non solo efficienti, ma anche giusti, spiegabili e responsabili: un modo per proteggere l’equità ex ante, e per esigere trasparenza ex post.
6. Trasparenza funzionale: definizione e ambiguità
Per quanto riguarda il problema della trasparenza e della conoscibilità, si potrebbe optare, in ottica filosofico-giuridica, per l’adozione di una “trasparenza funzionale” che permetta al cittadino di contestare e rivedere qualsiasi decisione assunta dalla P.A. attraverso l’IA, comprenderne i presupposti fondamentali ed accedere a rimedi che possano effettivamente tutelare la sua situazione giuridica soggettiva. Non si può non rilevare, però, che l’adozione di una nozione ‘funzionale’ rischia di ruotare l’intera concezione del diritto secondo la categoria della fictio iuris, che da strumento del diritto, ne diverrebbe il modo di essere, se non la natura.
7. Il rischio della fictio iuris: diritto e finzione nell’era algoritmica
In altre parole, si potrebbe argomentare che, per rendere “trasparenti” decisioni algoritmiche complesse, si potrebbero creare spiegazioni funzionali semplificate che non corrispondono realmente al funzionamento interno dell’algoritmo (che può essere una “scatola nera” anche per i suoi creatori). Queste spiegazioni diventano finzioni necessarie, diciamo che l’algoritmo “considera questi fattori” o “applica questi criteri”, quando in realtà opera attraverso correlazioni e pattern che non sappiamo decifrare completamente.
Il rischio è che questa trasparenza funzionale-fittizia diventi il nuovo paradigma del diritto: non più norme chiare applicate da interpreti umani, ma sistemi che producono risultati apparentemente razionali attraverso processi che comprendiamo solo superficialmente.

8. Conclusione: tra garanzie apparenti e sfide democratiche
La finzione della trasparenza algoritmica rischia di diventare la modalità normale di produzione del diritto, dove ciò che conta non è la verità del processo, ma la sua accettabilità funzionale.
Così la fictio iuris da strumento diventa davvero “modo di essere” del diritto algoritmico.
Bibliografia
AI Act regolamento (UE) 2024/1689
COSTITUZIONE DELLA REPUBBLICA ITALIANA
Ddl n. 1146/2024
K. Chayka, Filterworld. Come gli algoritmi hanno appiattito la cultura, Roi Edizioni, 2024.
P. Dunn e O. Pollicino, Intelligenza artificiale e democrazia, Bocconi University Press, 2024.
R. Dworkin, Giustizia per i ricci, Feltrinelli, 2013.
R. Dworkin, I diritti presi sul serio, il Mulino, 2010.
R. Dworkin, Virtù sovrana. Teoria dell’uguaglianza, Feltrinelli, 2002.
L. Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Raffaello Cortina Editore, 2022.
L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, 2017.
I. Kant, Critica della ragion pura, UTET, 2013.
M. Immordino, A. Police, A. Zito, D. D’Orsogna, F. Figorilli; L. Giani; F.G. Scoca; M.R. Spasiano.; F. Vetrò; M. D’Orsogna; E. Follieri; N. Paolantonio; C. Cacciavillani; S.S. Scoca. A cura di F.G. Scoca, Diritto Amministrativo, Giappichelli, 2021.
J. Rawls, Giustizia come equità. Una riformulazione, Feltrinelli, 2002.
J. Rawls, Liberalismo politico. Nuova edizione ampliata, Einaudi, 2021.
J. Rawls, Una teoria della giustizia. Nuova edizione, Feltrinelli, 2017.
S. Rodotà, Tecnologie e diritti, il Mulino, 2021.
S. Stein, Il diritto nell’era digitale. Sfide e opportunità in un mondo connesso, S. Stein, 2025.
A. Stornelli, Equilibri Digitali. Le tecnologie per la trasparenza, gli spazi pubblici e le battaglie libertarie degli attivisti digitali, goWare, 2014.
G. Vico, La scienza nuova, Bompiani, 2012.
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

