AI Act e pubblica amministrazione
La decisione amministrativa automatizzata secondo il Regolamento UE 2024/1689
di Simone Francario
Sommario: 1. Introduzione; 2. L’evoluzione della legislazione europea in materia di utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione; 3. Il Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 (“AI Act”); 4. Le soluzioni proposte dall’AI Act alle principali problematiche della materia.
1. Introduzione.
In Europa la principale fonte sovranazionale che disciplina la materia dell’intelligenza artificiale è contenuta nel Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio, adottato il 13 giugno 2024, meglio noto come AI Act[1].
L’AI Act, in particolare, disciplina i presupposti e le modalità di utilizzo dei sistemi di intelligenza artificiale tanto per i soggetti privati, quanto per la pubblica amministrazione, al fine di garantire che tali software siano utilizzati in maniera etica e nel rispetto dei principi e dei diritti fondamentali dell’Unione europea.
La questione si presenta particolarmente delicata in ambito pubblicistico. Da un lato, l’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione porta ovviamente notevoli vantaggi: si pensi, ad esempio, alla riduzione dei tempi e all’aumento dell’efficienza dell’azione amministrativa tramite l’automazione dei procedimenti amministrativi ordinari o di routine, oppure tramite l’elaborazione di grandi quantità di dati; o ancora, al fatto che l’intelligenza artificiale può essere usata dalla p.a. per analizzare grandi quantità di dati anche a scopo predittivo riducendo di gran lunga la percentuale dell’errore umano; o ancora, l’utilizzo ben noto a tutti di chatbot e assistenti virtuali per fornire risposte alle domande dei cittadini[2].
D’altro lato, come sottolineato in maniera unanime dalla dottrina[3], l’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione evidenzia anche notevoli criticità[4]. Tra queste meritano di essere segnalate, innanzitutto quelle connesse al fatto che le decisioni amministrative, finalizzate alla cura dell’interesse pubblico, siano prese soltanto da software o complessi algoritmi esautorando totalmente il coinvolgimento dell’uomo-decisore pubblico[5]; al fatto che la concentrazione dell’attività amministrativa esclusivamente in capo all’intelligenza artificiale pone problemi di “accountability” (in altre parole, chi è responsabile per le decisioni prese dall’intelligenza artificiale?); o ancora, al fatto che spesso gli algoritmi di intelligenza artificiale operano come “scatole nere” e rendono difficile o impossibile comprendere come vengono prese le decisioni, con pregiudizio del principio di trasparenza dell’azione amministrativa[6].
Intento del presente scritto è esaminare, in particolare, le norme dell’AI Act che disciplinano l’utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione[7] e valutare, se e in che modo, la normativa europea offra delle prime soluzioni alle problematiche cui si è fatto cenno.
Dopo aver riassunto, preliminarmente, nei tratti essenziali il quadro giuridico di riferimento prima dell’adozione dell’AI Act, esaminando in particolare le normative adottate in Germania e Francia nonché i principi elaborati dalla giurisprudenza italiana, si esamineranno le principali norme dell’AI Act che disciplinano l’uso dell’intelligenza artificiale da parte della pubblica amministrazione e, dopo aver sinteticamente richiamato le principali problematiche collegate all’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione, si esamineranno infine le soluzioni proposte dal legislatore comunitario con l’adozione dell’AI Act.
2. L’evoluzione della legislazione europea in materia di utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione.
Prima dell’adozione dell’AI Act, i singoli Paesi europei già avevano iniziato a regolamentare i presupposti e le modalità di utilizzo dei sistemi di intelligenza artificiale da parte della pubblica amministrazione.
In Germania, ad esempio, il legislatore tedesco ha previsto che è ammissibile l’adozione di una decisione amministrativa completamente automatizzata al ricorrere di due requisiti: i) ciò deve essere espressamente previsto da una norma di legge, e ii) solo laddove ci si trovi in presenza di una attività vincolata, ovverosia quando l’amministrazione ha già esaurito il proprio margine discrezionale[8].
Un approccio diverso, invece, è stato utilizzato in Francia dove il legislatore ha introdotto un divieto generale per la pubblica amministrazione di adottare un provvedimento che produca effetti giuridici nei confronti di una persona qualora tale provvedimento si basi unicamente sul trattamento automatizzato di dati personali[9]. Tale divieto, tuttavia, può essere derogato al ricorrere di determinati presupposti e tra i più significativi si rinvengono: i) il fatto che l’amministrazione deve comunicare all’interessato l’intenzione di adottare una decisione basata sul trattamento algoritmico di dati; ii) su richiesta dell’interessato, l’amministrazione deve fornire le regole tecniche e le caratteristiche dell’algoritmo; iii) è necessario, comunque, che l’adozione del provvedimento sia supervisionata da un operatore umano che controlli l’operato della macchina e che ne possa spiegare, in maniera chiara e precisa, l’operato[10].
In Italia l’approccio è stato ancora diverso poiché, mentre in Germania e Francia è intervenuto direttamente il legislatore, in Italia ciò non è avvenuto e il vuoto normativo è stata colmato dalla giurisprudenza amministrativa. Ci si riferisce, in particolare, alle note sentenze del Consiglio di Stato, Sez. VI, 8 aprile 2019, sent. n. 2270/2019, e Consiglio di Stato, Sez. VI, 4 aprile 2020, sent. n. 881/2020[11].
Con la sentenza n. 2270/2019[12], il Consiglio di Stato, dopo aver ricordato che l’utilizzo di algoritmi e sistemi di intelligenza artificiale porta “indiscutibili vantaggi” al processo decisionale dell’amministrazione[13], ha affermato che, per potersi considerare legittima, la decisione amministrativa automatizzata deve -ad ogni modo- rispettare le regole e i principi che governano lo svolgimento dell’attività amministrativa presenti nel nostro ordinamento.
Come si legge in sentenza, infatti, “l’utilizzo di procedure robotizzate non può, tuttavia, essere motivo di elusione dei principi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa.”[14]
Più nello specifico, la decisione amministrativa automatizzata, ovverosia adottata mediante algoritmi o sistemi di intelligenza artificiale: deve essere adottata nel rispetto dei principi di pubblicità, trasparenza, ragionevolezza e proporzionalità[15]; l’iter seguito dalla macchina deve essere conoscibile, non solo per garantire una maggiore tutela del destinatario del provvedimento, ma anche per consentire il sindacato dal giudice amministrativo[16]; infine, con questa prima pronuncia, il Consiglio di Stato ha affermato che la decisione amministrativa automatizzata può essere adottata solamente nei casi di attività amministrativa vincolata, ovverosia quando non rimangono margini di scelta in capo all’amministrazione[17].
Con la successiva sent. n. 881/2020, il Consiglio di Stato è tornato sui requisiti e sulle garanzie che devono essere rispettati qualora la p.a. intenda adottare sistemi di intelligenza artificiale nell’ambito del procedimento amministrativo[18].
Con tale sentenza, il Consiglio di Stato, da un lato, ha ribadito che la decisione amministrativa automatizzata debba pur sempre essere adottata nel rispetto dei principi generali dell’attività amministrativa presenti nell’ordinamento italiano, insistendo -in particolar modo- sul rispetto del principio di trasparenza e sulla piena e necessaria conoscibilità dell’iter seguito dall’algoritmo[19]; dall’altro ha affermato tre principi ulteriori: i) che l’intelligenza artificiale può essere utilizzata anche al di fuori dei casi di attività vincolata[20]; ii) che non si può interamente prescindere dall’intervento umano (c.d. principio di “non esclusività della decisione algoritmica”)[21]; iii) che è necessario un sistema di controlli che consenta al funzionario pubblico di adottare misure opportune per prevenire ed eliminare eventuali errori commessi dall’intelligenza artificiale[22].
3. I lineamenti fondamentali dell’AI Act
L’ultimo tassello dell’evoluzione della evoluzione della disciplina europea in materia di utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione è rappresentato, come anticipato in apertura, dal Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio, ovverosia dall’AI Act.
A livello di inquadramento sistematico, l’AI Act costituisce un regolamento. Rispetto alle fonti e alla giurisprudenza precedentemente richiamate, tale regolamento si pone come fonte sovraordinata, è obbligatorio in tutte le sue parti ed è direttamente applicabile nei confronti degli Stati membri senza che sia necessaria l’adozione di alcuna legge di recepimento[23].
La scelta del regolamento non è stata casuale: come si è visto alcuni Stati membri dell’UE avevano già cominciato ad adottare varie normative in materia di intelligenza artificiale e pubblica amministrazione mentre altri Stati, come l’Italia, erano ricorsi ad un approccio più pragmatico lasciando alla giurisprudenza l’arduo compito di stabilire i principi e le coordinate di riferimento della materia. I diversi interventi del legislatore e della giurisprudenza dei singoli Stati membri, tuttavia, non erano coordinati e/o armonizzati tra di loro e ciò avrebbe potuto creare un quadro giuridico di riferimento altamente frammentato[24].
Con l’utilizzo di una fonte di tipo regolamentare, il legislatore comunitario ha evitato tale frammentazione garantendo invece un quadro normativo europeo uniforme e armonizzato[25].
Un’altra scelta fondamentale effettuata dal legislatore comunitario nella predisposizione dell’impianto generale dell’AI Act riguarda il suo ambito di applicazione, definito dall’art. 2 del medesimo, che risulta particolarmente esteso.
L’AI Act, infatti, ha valenza generale e si applica a qualunque settore[26] in cui vengano in rilievo sistemi di intelligenza artificiale (ad eccezione di un elenco tassativo di alcuni settori esclusi[27] ai sensi dell’art. 2) ed è obbligatorio tanto per i soggetti privati quanto per la pubblica amministrazione[28].
Per quanto riguarda la disciplina sostanziale ivi contenuta, l’AI Act si presenta come un regolamento particolarmente tecnico e articolato. Si compone di 113 articoli, divisi in 13 Capi, e contiene 13 allegati.
Lo scopo del regolamento, ai sensi dell’art. 1, è quello di “migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea […].”
In altre parole, il fine ultimo è quello di garantire lo sviluppo, l’utilizzo e la commercializzazione di una intelligenza artificiale etica, sicura e affidabile e soprattutto conforme ai diritti fondamentali e ai valori dell’Unione europea.
La struttura portante dell’AI Act si basa su una classificazione dei sistemi di intelligenza artificiale sul livello di rischio.
In particolare, il regolamento individua quattro categorie di rischio:
- Rischio inaccettabile: vi rientrano i sistemi di intelligenza artificiale che rappresentano una minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone, tali sistemi sono, ai sensi dell’art. 5 dell’AI Act, vietati dall’uso;
- Rischio alto: vi rientrano i sistemi di intelligenza artificiale che richiedono conformità a requisiti rigorosi in termini di trasparenza, affidabilità e supervisione/controllo umano;
- Rischio limitato: vi rientrano i sistemi di intelligenza artificiale che necessitano, principalmente, di obblighi di trasparenza specifici, come l’informazione agli utenti;
- Rischio minimo: vi rientrano i sistemi di intelligenza artificiale con rischi minimi o nulli, per i quali sono previsti obblighi di conformità ridotti.
Secondo quanto previsto dall’AI Act gran parte delle attività svolte dalla pubblica amministrazione, ad eccezione di quelle rientranti nei settori esclusi, rientrano all’interno della categoria di “rischio alto.”[29]
Tanto si ricava dall’analisi dell’allegato III del regolamento il quale contiene l’elenco, appunto, delle attività classificate a “rischio alto” e tra queste vi rientrano, ad esempio: la gestione e il funzionamento delle infrastrutture critiche; gestione della migrazione e controllo delle frontiere; gestione dei servizi pubblici essenziali; o infine, l’attività relativa all’amministrazione della giustizia.
In questi casi, per quel che più interessa, la pubblica amministrazione si deve assicurare che i sistemi di intelligenza artificiale utilizzati rispettino i requisiti contenuti nella sezione II, Capo III del regolamento[30].
Particolarmente significativo è l’art. 13 che impone vari obblighi di trasparenza[31]. In particolare, è previsto che i sistemi di i.a. ad alto rischio che la p.a. intenda utilizzare, devono essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente in modo da consentire all’utilizzatore di interpretare l’output del sistema ed utilizzarlo adeguatamente[32].
Ancora, l’art. 13 prevede che tali sistemi di i.a. debbano essere accompagnati anche da istruzioni per l’uso che riportino informazioni complete, corrette e chiare (ad esempio, devono indicare espressamente le caratteristiche del software, le capacità, i limiti delle prestazioni, le finalità previste e i livelli di accuratezza che ci si può ragionevolmente attendere) in maniera tale da fornire all’amministrazione tutte le informazioni e le nozioni necessarie per utilizzare al meglio e in maniera legittima il relativo software.
Altra norma fondamentale contenuta nell’AI Act è l’art. 14 che impone un obbligo specifico di sorveglianza umana: i sistemi di i.a. ad alto rischio utilizzati dall’amministrazione debbono essere supervisionati, per tutto il periodo in cui sono in uso, da uno o più operatori umani adeguatamente qualificati.
In particolare, nel disciplinare il rapporto uomo-macchina, anche in applicazione degli obblighi di trasparenza appena esaminati, l’AI Act prevede che l’operatore umano (in questo caso il funzionario pubblico) deve essere pienamente in grado di conoscere il funzionamento e l’iter seguito dall’i.a.
Non solo, il controllo che l’operatore umano deve esercitare sul sistema di intelligenza artificiale deve essere sostanziale, ovverosia, deve essere in grado di decidere, in qualsiasi situazione, di non usare il sistema di intelligenza artificiale, di ignorare o ribaltare la decisione del software e di intervenire sul funzionamento del sistema di intelligenza artificiale in qualsiasi momento e di interromperlo in condizioni di sicurezza.
Come ulteriore requisito, i sistemi di intelligenza artificiale ad alto rischio utilizzati dall’amministrazione devono essere dotati di un adeguato livello di accuratezza, robustezza e cybersicurezza durante tutto il loro ciclo di vita. (art. 15)
4. Le soluzioni proposte dall’AI Act alle principali problematiche della materia
Il quadro normativo tracciato rende evidente che il regolamento UE cerca di offrire delle prime importanti risposte ai principali problemi dell’utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione.
Sotto questo profilo si può osservare una sostanziale consonanza con i principi già affermati dalla giurisprudenza amministrativa nazionale.
È evidente infatti che il regolamento UE si preoccupa di garantire che l’utilizzo dell’intelligenza artificiale da parte della p.a. non metta in crisi i principi fondamentali dell’azione amministrativa, in particolar modo il principio di trasparenza che, come è noto, impone alla p.a. di rendere ben conoscibile all’esterno l’iter logico e motivazionale alla base del provvedimento amministrativo (ciò tanto al fine di tutelare l’interesse legittimo del destinatario, quanto al fine di consentire un effettivo controllo giurisdizionale sull’atto.) Come è stato evidenziato anche in maniera unanime dalla dottrina, spesso gli algoritmi di intelligenza artificiale operano come “scatole nere” e rendono difficile o impossibile comprendere come vengono prese le decisioni, ciò a chiaro discapito dei diritti fondamentali degli individui-destinatari del provvedimento finale. Sotto questo profilo, l’AI Act, come si è visto, all’art. 13 impone vari obblighi di trasparenza in capo alla pubblica amministrazione, in particolare il funzionario pubblico che utilizza la macchina deve essere in grado di comprendere appieno l’iter seguito dall’intelligenza artificiale; in questo modo, di riflesso, sarà più agevole rendere noto all’esterno (si pensi al destinatario del provvedimento amministrativo o al giudice) quali sono le motivazioni di fatto e di diritto alla base del provvedimento adottato. Il Consiglio di Stato arriva a conclusioni pressoché identiche facendo riferimento ai principi fondamentali che regolano l’azione amministrativa nell’ordinamento italiano: la legge e la costituzione prevedono che l’attività amministrativa debba rispettare il principio di trasparenza e tale principio deve essere necessariamente rispettato anche quando vengono utilizzati sistemi di intelligenza artificiale.
In secondo luogo il Regolamento UE si preoccupa di garantire che le decisioni amministrative, finalizzate per natura alla cura dell’interesse pubblico, non siano prese soltanto da software o complessi algoritmi esautorando totalmente il coinvolgimento dell’uomo-decisore pubblico. Anche sotto questo profilo, l’AI Act e la giurisprudenza amministrativa sembrano condividere la medesima impostazione.
L’art. 14 dell’AI Act sul punto è molto chiaro: l’essere umano-pubblico funzionario deve controllare le attività svolte dalla macchina per tutta la sua durata e laddove rinvenga degli errori deve essere in grado di poter intervenire e correggerli.
Anche il Consiglio di Stato condivide tale impostazione: non pare seriamente ammissibile un procedimento amministrativo completamente automatizzato che prescinda dall’essere umano; l’essere umano-pubblico decisore deve essere presente, a garanzia dell’interesse legittimo dei cittadini e del buon andamento della p.a., per controllare l’operato dell’intelligenza artificiale, nonché per correggerne gli eventuali errori.
È evidente quindi che sotto molteplici profili le soluzioni anticipate dal Consiglio di Stato convergano con quelle da ultimo prospettate dall’AI Act per garantire un utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione che sia rispettoso dei principi fondamentali dell’azione amministrativa e che tuteli i diritti e le libertà dei cittadini garantiti dal diritto europeo.
In conclusione, l’AI Act si pone come un punto di riferimento certo per regolamentare il fenomeno dell’intelligenza artificiale nell’ambito del procedimento amministrativo in quanto tiene in considerazione le principali problematiche sottese alla materia e tenta di offrire una prima importante risposta.
Inoltre, il Regolamento europeo è di recentissima adozione e le sue varie parti entreranno in vigore in maniera scaglionata nel corso del tempo (per intenderci, al termine dei prossimi due anni l’AI Act dovrebbe essere pienamente in vigore in tutte le sue parti), il che rende sicuramente prematuro un giudizio sulla concreta efficacia delle misure proposte dal legislatore comunitario.
[1] Tra i primi commentatori dell’AI Act o della proposta di regolamento alla base dell’AI Act, si rinvia ex multis a: G. FINOCCHIARO, La regolazione dell’intelligenza artificiale, in Rivista trimestrale di diritto pubblico, IV, dicembre 2022, pp. 1085 e ss.; C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, in Rivista italiana di diritto pubblico comunitario, II-III, Aprile 2022, pp. 265 e ss.; S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, in Diritto Amministrativo, III, settembre 2023, pp. 515 e ss.; S. CAL, Il quadro normativo vigente in materia di ia nella pubblica amministrazione (CAD, GDPR, IA ACT), in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione, principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 31 e ss.; M. IASELLI (a cura di), AI ACT. Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024, Rimini, Maggioli, 2024; B. MARCHETTI, Intelligenza artificiale, poteri pubblici e rule of law, in Riv. It. Dir. Publ. Com., I, 2024, pp. 49 e ss.
[2] Per questi profili v. in ptcl. R. CAVALLO PERIN, D.U. GALETTA (a cura di), Il diritto dell'amministrazione pubblica digitale, Giappichelli, Torino, 2020.
Per una visione più generale sull’utilizzo dei sistemi di intelligenza artificiale nell’ambito del procedimento amministrativo si rinvia a G. PESCE, Intelligenza artificiale e blockchain, Napoli, Editoriale Scientifica, 2021; A. LALLI (a cura di), La regolazione pubblica delle tecnologie digitali e dell’intelligenza artificiale, Torino, Giappichelli, 2024.
[3] Per tutti v. L. TORCHIA, Lo Stato digitale. Una introduzione, Bologna, Il Mulino, 2023; L. CASINI, Lo stato (im)mortale. I pubblici poteri tra globalizzazione ed era digitale, Milano, Mondadori, 2022, p. 63 e ss., con riferimento in particolare ai principi stabiliti dalla giurisprudenza amministrativa nazionale per regolamentare l’uso dell’intelligenza artificiale all’interno del procedimento amministrativo (per i quali v. infra par. 2).
[4] Per una interessante esemplificazione v. L. G. e E. M. BARTOLAZZI MENCHETTI, Sillogismi, inferenze e illogicità̀ argomentative, nella prospettiva di sviluppo della discrezionalità̀ tecnica nell’epoca dell’intelligenza artificiale. Nota a T.A.R. Lazio, sez. Quarta Ter, Ordinanza 27 luglio 2023, n. 4567 in GiustiziaInsieme.it, 2024.
[5] Come evidenziato da autorevole dottrina, la necessità di assicurare la conservazione di un ruolo decisivo della figura umana nell’ambito di procedimenti amministrativi automatizzati assume rilevanza fondamentale. Secondo la teoria della “riserva di umanità” la conservazione della centralità del ruolo umano nell’ambito del procedimento amministrativo automatizzato è necessaria poiché garantisce un tipo di ponderazione tra gli interessi che solo l’attività umana è in grado di offrire, garantisce una decisione etica, salvaguarda i principi fondamentali dell’uomo tra cui la dignità umana, garantisce il rispetto dei principi fondamentali dell’attività amministrativa ed elimina il rischio di una eccessiva “opacità” del procedimento decisionale qualora sia affidato interamente ad un software o ad un algoritmo. Per questi profili si rinvia per tutti a G. GALLONE, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo, Cedam, Padova, 2023.
[6] Per questi profili v. in ptcl. G. AVANZINI, Decisioni amministrative e algoritmi informatici. Predeterminazione analisi predittiva e nuove forme di intelligibilità, Editoriale scientifica, Napoli, 2019.
[7] Per i profili problematici dell’impiego dell’i.a. con specifico riferimento all’esercizio della funzione giurisdizionale per tutti v. M. LUCIANI, La decisione giudiziaria robotica, in Rivista AIC, III, 2018, pp. 872 e ss.; A. SIMONCINI, La dimensione costituzionale della giustizia predittiva: riflessioni sull’intelligenza artificiale e processo, in Riv. Dir. Proc., II, 2024.
[8] Attraverso l’introduzione del §35 nella legge generale sul procedimento amministrativo Verwaltungsverfahrensgesetz, o VwVfG. Sul punto si rinvia a C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit. Come sottolineato dall’A. “Il §35a VwVfG consente l’adozione di una decisione amministrativa completamente automatizzata nel momento in cui ciò sia previsto da una norma di legge (sofern dies durch Rechtsvorschrift zugelassen). La disposizione ha un’evidente funzione di garanzia, in quanto impedisce che la decisione di adottare provvedimenti completamente automatizzati sia presa discrezionalmente dall’amministrazione. […] La norma prevede un altro limite all’automazione completa del procedimento amministrativo: essa è ammessa solo in presenza di attività vincolata o meglio, parafrasando il dato normativo, ‘in assenza di discrezionalità o di un margine di valutazione’ in capo all’amministrazione (‘und weder ein Ermessen noch ein Beurteilungsspielraum besteht’).”
[9] C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit., la quale fa riferimento, in particolare, alla Loi n. 78-17 du 6 janvier 1978, e ss. modifiche, meglio nota come “Information e Libertés”.
[10] C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit.
[11] Cfr. S. CIVITARESE MATTEUCCI, “umano troppo umano”. Decisioni amministrative automatizzate e principio di legalità, in Dir. Pubbl., I, 2019, pp. 5 e ss.; D.U. GALETTA e J.C. CORVALAN, Intelligenza artificiale per una pubblica amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in Federalismi, III, 2019; R. FERRARA, Il giudice amministrativo e gli algoritmi. Note estemporanee a margine di un recente dibattito giurisprudenziale, in Dir. Amm., IV, 2019, pp. 773 e ss.; M. FERRARI, L’uso degli algoritmi nella attività amministrativa discrezionale, in Il diritto degli affari, I, 2020; E. CARLONI, I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudicato amministrativo, in Dir. Amm., II, 2020, pp. 281 e ss.; P. OTRANTO, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, in Federalismi, VII, 2021; M. CORRADINO, Intelligenza artificiale e pubblica amministrazione: sfide concrete e prospettive future, in giustiziamministrativa.it, 2021; G. CARULLO, Decisione amministrativa e intelligenza artificiale, in Dir. Inf. Inform., III, 2021; G. LO SAPIO, La trasparenza sul banco di prova dei modelli algoritmici, in federalismi, 11/2021; L. PARONA, Poteri tecnico-discrezionali e machine learning: verso nuovi paradigmi dell’azione amministrativa, in A. PAJNO, F. DONATI, A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, Bologna, Il Mulino, 2022, pp. 131 e ss.; E. LONGO, I processi decisionali automatizzati e il diritto alla spiegazione, in A. PAJNO, F. DONATI, A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?,Bologna, Il Mulino, 2022, pp. 348 e ss; A. FERRARA e M. RAMAJOLI, La giustizia amministrativa nell’era della digitalizzazione dialogo tra informatica e diritto, in M. RAMAJOLI (a cura di), Una giustizia amministrativa digitale?, 2022, pp. 178 e ss; A. POLICE, Scelta discrezionale e decisione algoritmica, in R. GIORDANO, A. PANZAROLA, A. POLICE, S. PREZIOSI, M. PROTO (a cura di), Il diritto nell’era digitale, Milano, 2022, pp. 496 e ss.; L. CARBONE, L’algoritmo e il suo giudice, in giustiziamministrativa.it, 10 gennaio 2023; T. COCCHI, La partecipazione procedimentale, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 133 e ss.; A. CORRADO, Discrezionalità algoritmica e sindacato del giudice amministrativo, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 173 e ss.; A.M. LABOCCETTA, La decisione amministrativa algoritmica tra efficienza e garanzie, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 99 e ss.; E. BELISARIO e F. RICCIULLI, Legalità algoritmica e vizi procedimentali, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 149 e ss.; E. CARLONI, La trasparenza amministrativa e gli algoritmi, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 219 e ss.
[12] La nota vicenda riguarda la valutazione delle domande di trasferimento dei docenti nell’ambito del sistema scolastico nazionale. Al fine di semplificare il processo di valutazione e gestire l’elevato numero di domande, il Ministero dell’Istruzione ha deciso di utilizzare un algoritmo per elaborare le richieste di trasferimento attribuendo automaticamente le sedi agli insegnanti in base a determinati criteri. Al termine della procedura, tuttavia, numerosi insegnati sono stati nominati in classi di concorso in cui non avevano mai lavorato e sono stati trasferiti in sedi molto più lontane rispetto a quelle di provenienza senza tenere in considerazione le preferenze espresse in sede di concorso. Successivamente, un gruppo di insegnanti ha impugnato le decisioni di trasferimento lamentando, in particolare, la totale assenza del controllo umano nell’adozione della decisione amministrativa algoritmica, la mancanza di trasparenza nel processo decisionale nonché l’applicazione erronea ed arbitraria dei criteri di selezione. Il giudizio, istaurato presso il TAR Lazio, si è concluso con sentenza n. 12026 del 2016 di rigetto del ricorso. In appello, invece, con la pronuncia ora in esame, il Consiglio di Stato ha ritenuto meritevoli di accoglimento le doglianze degli insegnanti riformulando la sentenza di primo grado.
[13] Soprattutto se ciò avviene per gestire procedimenti seriali o standardizzati che coinvolgono un numero elevato di dati. Come si legge in sentenza “devono sottolinearsi gli indiscutibili vantaggi derivanti dalla automazione del processo decisionale dell’amministrazione mediante ’utilizzo di una procedura digitale ed attraverso un “algoritmo” – ovvero di una sequenza ordinata di operazioni di calcolo–che in via informatica sia in grado di valutare e graduare una moltitudine di domande. L’utilità di tale modalità̀ operativa di gestione dell’interesse pubblico è particolarmente evidente con riferimento a procedure seriali o standardizzate, implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale. Ciò̀ è, invero, conforme ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 l. 241/90), i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il conseguimento dei propri fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale.”
[14] Consiglio di Stato, Sez. VI, 8 aprile 2019, sent. n. 2270/2019, par. 8.2.
[15] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.2, ove si legge che la regola algoritmica “deve soggiacere ai principi generali dell’attività amministrativa, quali quelli di pubblicità e trasparenza (art. 1 l. 241/90), di ragionevolezza, di proporzionalità, etc.”
[16] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.3 ove si legge che “in primo luogo, come già messo in luce dalla dottrina più autorevole, il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.”
[17] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.2, ove si legge che la regola algoritmica “non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale.”
[18] Anche nel caso in esame il Ministero dell’Istruzione aveva indetto una procedura straordinaria di mobilità del personale docente affidando in via esclusiva ad un algoritmo l’attività di valutazione ed esame dei titoli dei partecipanti per la formazione della graduatoria finale. All’esito della procedura alcuni docenti venivano trasferiti in ambiti territoriali non richiesti o richiesti solo in via residuale senza tuttavia essere in grado di conoscere l’iter logico e motivazionale seguito dalla macchina. Questi ultimi allora impugnavano gli esiti della procedura dinanzi al TAR Lazio lamentando, in particolare, il fatto che l’intera attività di valutazione fosse stata demandata ad un algoritmo senza il coinvolgimento dell’essere umano, la violazione del principio di trasparenza e la violazione del diritto alla comprensibilità delle decisioni amministrative. Accolto il ricorso in primo grado, l’amministrazione ha impugnato la sentenza di prime cure (TAR Lazio, sent. breve n. 6607/2019) dinanzi al Consiglio di Stato che con la pronuncia in oggetto ha respinto l’appello.
[19] Consiglio di Stato, Sez. VI, 4 aprile 2020, sent. n. 881/2020, par. 11.1.
[20] Consiglio di Stato, sent. n. 881/2020, cit., par. 8, ove si legge che “Né vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale, entrambe espressione di attività autoritativa svolta nel perseguimento del pubblico interesse. In disparte la stessa sostenibilità a monte dell’attualità di una tale distinzione, atteso che ogni attività autoritativa comporta una fase quantomeno di accertamento e di verifica della scelta ai fini attribuiti dalla legge, se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla c.d. attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità.
Piuttosto, se nel caso dell’attività vincolata ben più rilevante, sia in termini quantitativi che qualitativi, potrà essere il ricorso a strumenti di automazione della raccolta e valutazione dei dati, anche l’esercizio di attività discrezionale, in specie tecnica, può in astratto beneficiare delle efficienze e, più in generale, dei vantaggi offerti dagli strumenti stessi.”
[21] Consiglio di Stato, sent. n. 881/2020, cit., par. 11.2, ove si legge che “’altro principio del diritto europeo rilevante in materia (ma di rilievo anche globale in quanto ad esempio utilizzato nella nota decisione Loomis vs. Wisconsin), è definibile come il principio di non esclusività della decisione algoritmica. Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.”
[22] Consiglio di Stato, sent. n. 881/2020, cit., par. 11.2 e 11.3.
[23] Sulle caratteristiche essenziali dei regolamenti si rinvia per tutti a P. MENGOZZI e C. MORVIDUCCI, Istituzioni di diritto dell’Unione europea, Wolters Kluwer, Milano, 2019, pp. 120 e ss.
Nell’ampia giurisprudenza della Corte di Giustizia dell’Unione Europea, sul tema, si rinvia a Corte di Giustizia 17 settembre 2002, C-253/00, Antonio Munoz et al., Racc. I-7289, EU:C:2002:497.
[24] Regolamento UE 2024/1689, considerando n. 3 ove si legge che “Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'IA sia affidabile e sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano, importano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione al fine di conseguire un'IA affidabile, mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione, l'innovazione, la diffusione e l'adozione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE).”
[25] Regolamento UE 2024/1689, considerando n. 3.
[26] Cfr. G. FINOCCHIARO, La regolazione dell’intelligenza artificiale, op. cit.
In particolare, l’A. -riferendosi al testo contenuto nella proposta iniziale di regolamento e poi confluito nel testo definitivo dell’AI Act- ha osservato che tale approccio se da un lato ha il pregio di fornire un quadro normativo unitario e armonizzato, può presentare alcune limitazioni: “L'approccio adottato dal legislatore europeo alla regolazione dell'intelligenza artificiale è, come si è accennato, un approccio orizzontale. Il limite intrinsecamente connesso a questo approccio è che, dal momento che le norme non sono indirizzate a risolvere specifici problemi o a colmare determinate lacune dell'ordinamento, esse devono necessariamente essere applicabili a qualunque settore, così in ambito sanitario, come in ambito finanziario. Dunque, non norme ad hoc per risolvere un problema particolare o rimuovere degli ostacoli giuridici, ma disposizioni generali per delineare un quadro complessivo, un contesto di riferimento nel quale opereranno i sistemi di intelligenza artificiale, anche quelli ancora da venire.”
[27] Ferma restando la valenza generale dell’AI Act, lo stesso art. 2 prevede che una serie di settori siano esplicitamente esclusi dal suo ambito di applicazione. Più nello specifico, è previsto che l’AI Act non si applichi: ai settori che non rientrano nell’ambito di applicazione del diritto dell’Unione europea (art. 2, co. 3); ai sistemi di i.a. che abbiano esclusivamente scopi militari, di difesa, di sicurezza nazionale (art. 2, co. 3), di ricerca e sviluppo scientifico (art. 2, co. 6); alle autorità pubbliche di un Paese terzo o organizzazioni internazionali (art. 2, co. 4); alle persone fisiche che utilizzano sistemi di i.a. nel corso di un’attività non professionale puramente personale (art. 2, co. 10); ai sistemi di i.a. rilasciati con licenza libera e open source, a meno che non siano immessi sul mercato o messi in servizio come sistemi di i.a. ad alto rischio (art. 2, co. 12).
[28] Anche l’ambito di applicazione soggettivo dell’AI Act risulta particolarmente esteso. Più nel dettaglio l’art. 2, co. 1, prevede che l’AI Act si applichi, senza distinzione tra soggetti pubblici e privati, a: a) fornitori che immettono sul mercato o mettono in servizio sistemi di IA o immettono sul mercato modelli di IA per finalità generali nell'Unione, indipendentemente dal fatto che siano stabiliti o ubicati nell'Unione o in un paese terzo; b) deployer dei sistemi di IA che hanno il loro luogo di stabilimento o sono situati all'interno dell'Unione; c) fornitori e ai deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l'output prodotto dal sistema di IA sia utilizzato nell'Unione; d) importatori e distributori di sistemi di IA; e) fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio; f) rappresentanti autorizzati di fornitori, non stabiliti nell'Unione; g) persone interessate che si trovano nell'Unione.
L’analisi completa della disposizione evidenzia un’altra particolarità dell’AI Act. Diversamente dai regolamenti di stampo classico adottati da parte dell’Unione Europea che si rivolgono e trovano applicazione esclusivamente nei confronti di soggetti appartenenti ai Paesi membri, l’AI Act trova applicazione anche nei confronti di soggetti extra-UE e/o di sistemi di intelligenza artificiale utilizzati al di fuori dell’Unione Europea. Al fine di tutelare efficacemente i diritti e i valori garantiti dal diritto dell’UE, il legislatore comunitario ha ritenuto necessario applicare il predetto regolamento anche ai soggetti che producono, importano o utilizzano sistemi di intelligenza artificiale nel territorio dell’Unione europea pur essendo situati in Paesi terzi, e dunque al di fuori dell’UE, evitando in tal modo che l’AI Act venga disapplicato tramite l’interposizione di soggetti extra-UE nella commercializzazione e/o circolazione dei sistemi di intelligenza artificiale. In aggiunta, come ribadito esplicitamente nel considerando n. 22, l’AI Act dovrebbe essere applicato anche nei confronti di quei sistemi di intelligenza artificiale -rientranti nella categoria di “rischio alto”- che sebbene non formalmente utilizzati nel territorio dell’UE possano comunque raccogliere dati presenti nell’Unione europea.
[29] Cfr. S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit.; C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit.
[30] Cfr. M. FRANCAVIGLIA, L’intelligenza artificiale nell’attività amministrativa: principi e garanzie costituzionali nel passaggio dalla regula agendi alla regola algoritmica, in Federalismi, luglio 2024.
[31] In generale, sul rapporto tra sistemi di intelligenza artificiale e trasparenza nel procedimento amministrativo si rinvia, ex multis, a S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit.; E. LONGO, I processi decisionali automatizzati e il diritto alla spiegazione, op. cit.
[32] La formulazione dell’art. 13 dell’AI Act, che impone l’obbligo di trasparenza per i sistemi di intelligenza artificiale ad alto rischio, è stata tuttavia criticata dalla dottrina che ne ha riscontrato alcune problematiche interpretative. In particolare, S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit., ha evidenziato che “La trasparenza deve essere sufficiente a “interpretare” l'output generato dal sistema: la necessità di un'attività interpretativa esclude dunque la chiarezza e il carattere univoco e inequivoco dello stesso risultato, posto che in claris non fit interpretatio. A meno di intendere l'interpretazione come attività «dianoetica» che, in quanto tale, è connotata da immanenti profili di soggettività e quindi implica necessariamente l'intervento umano, come ricordano alcune pronunce del giudice amministrativo. Verosimilmente la disposizione dev'essere intesa nel senso che la sufficienza di cui si è detto deve essere correlata all'adeguatezza di utilizzo: il principio di adeguatezza del risultato (output) dell'IA implica che lo stesso sia chiaro ai destinatari e, soprattutto, compatibile e adattato al contesto nel quale è applicato, a pena di viziare l'atto giuridico che scaturisce, come si vedrà.”