Sommario: 1. AI Act e settore amministrativo: molti interrogativi, poche risposte – 2. Frammenti di disciplina, vuoti di regolazione ed il pericolo di un tracollo delle garanzie: il caso della riserva di umanità e della trasparenza algoritmica – 3. Il problema dell’ammissibilità di un intervento regolatorio nazionale in tema di automazione decisionale amministrativa a mezzo di intelligenza artificiale – 4. Un (possibile) tracciato per aprire la via “italiana” per l’intelligenza artificiale nel procedimento amministrativo.
1. AI Act e settore amministrativo: molti interrogativi, poche risposte
Nel giugno scorso si è finalmente giunti all’approvazione del Regolamento Europeo sull’intelligenza artificiale[1].
La comunità dei giuristi ha atteso con trepidazione un momento che è stato vissuto come un traguardo storico che ha posto l’Unione europea all’avanguardia mondiale[2].
Ciò è valso anche per gli amministrativisti[3] travolti, ormai da più di un lustro[4], da una nouvelle vague di studi sul tema.
Le speranze di trovare nel legislatore europeo le risposte ai tanti interrogativi che si agitano attorno al tema sono state, tuttavia, largamente disattese. Tanto che forse, oggi, ci troviamo dinanzi ad un framework regolatorio complessivamente più incerto rispetto a quello sinora offerto dalla giurisprudenza e dalla normativa speciale[5].
Non si può, infatti, mettere seriamente in dubbio che l’AI Act si rivolga (anche) alle pubbliche amministrazioni. In questo senso è schierata la quasi totalità dei primi commentatori[6]. Questi fanno condivisibilmente leva, in particolare, sulle nozioni di “fornitore” e “deployer” ex art. 3, par. nr. 3) e 4) che menzionano espressamente anche l’“autorità pubblica”[7].
Ma, se la platea soggettiva del Regolamento ricomprende certamente, seppur in una veste specifica, gli operatori pubblici, appare chiaro che la sua disciplina non è stata concepita né elaborata tenendo a mente le peculiarità del settore amministrativo[8].
Ciò discende, a ben vedere, dalla criticità che affligge, al fondo, la scelta regolatoria unionale: coltivare l’ambizione di disciplinare in maniera “orizzontale” il fenomeno e farlo, tuttavia, con lo strumento del regolamento.
E, infatti, è quasi superfluo osservare che l’intelligenza artificiale, come tecnologia di base dal potenzialmente sterminato campo di applicazione costituisce un oggetto sfuggevole che può essere imbrigliato solo a mezzo di una normazione minima per principi che deve necessariamente trascendere i tratti distintivi dei diversi settori ordinamentali[9].
Ne è, così, uscita fuori, almeno nella specifica prospettiva dell’amministrativista, una disciplina che soffre di evidenti vuoti di regolazione.
Il che emerge con chiarezza se ci si sofferma sulle concrete ricadute della stessa meditando su cosa accadrebbe ove, all’indomani dell’entrata in vigore del Regolamento[10], ci si trovasse ad applicare quest’ultimo, in ragione dell’efficacia diretta di molte delle sue disposizioni, alla vita dell’amministrazione.
2. Frammenti di disciplina, vuoti di regolazione ed il pericolo di un tracollo delle garanzie: il caso della riserva di umanità e della trasparenza algoritmica
Per saggiare l’impatto che la nuda disciplina del Regolamento avrebbe nel settore amministrativo, prima di approfondire due aspetti puntuali, giova rammentare succintamente quali sono i suoi capisaldi.
Lo scheletro dell’AI Act poggia, in particolare, sulla categorizzazione dei sistemi di intelligenza artificiale che segue un risk based approach[11] e che ha lo scopo di tracciarne il diverso regime giuridico.
Questi, fatte salve alcune categorie peculiari[12], sono suddivisi in quattro tipologie: i sistemi “vietati” ex art. 5 del Regolamento; i sistemi “ad alto rischio” ex art. 6 del Regolamento; i sistemi ex art. 50 “a rischio limitato” rispetto alle esigenze di trasparenza; tutti gli altri sistemi considerati “a rischio minimo”[13].
Le prime due sono costruite secondo una logica di stretta tassatività e trovano una disciplina specifica. la terza opera de residuo rispetto alla precedenza e non trova, ad opera del Regolamento, un regime giuridico ad hoc.
Nella prospettiva che qui interessa, l’art. 6 del Regolamento rappresenta il vero perno di questa categorizzazione perché individua, in un certo senso, il suo cuore precettivo[14].
La disposizione in parola individua i sistemi di intelligenza artificiale “ad alto rischio” a mezzo del rinvio esterno all’Allegato III[15]. Quest’ultimo, a sua volta, reca un’elencazione, dal tenore certamente tassativo, di sistemi di IA che “sono considerati ad alto rischio”[16].
Ebbene, non può sfuggire, come pure notato da taluno in dottrina, che in detta elencazione un po’ farraginosa rientrano certamente alcuni campi propri dell’azione amministrativa[17]. Ne è un esempio, tra gli altri, l’all. III par. 5 lett. a) il quale contempla “sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica essenziali, compresi i servizi di assistenza sanitaria, nonché per concedere, ridurre, revocare o recuperare tali prestazioni e servizi”[18].
Manca, per contro, una previsione di portata generale che consideri “ad alto rischio” ogni sistema di intelligenza artificiale impiegato a supporto dello svolgimento di funzioni pubblici e nell’esercizio di poteri autoritativi. Ciò emerge con nettezza se si opera un raffronto con il settore “giustizia” in relazione al quale è rintracciabile, invece, una disposizione di tale tenore[19]. Inoltre, non può obliterarsi, nel corso del travagliato iter che ha condotto all’adozione dell’AI Act, è stato pure proposto (ma non approvato) un emendamento con il quale inserire, su modello di quanto previsto per l’attività giudiziaria, anche i sistemi di IA serventi l’attività amministrativa tra quelli ad alto rischio[20].
L’intenzione del legislatore europeo recepita nella versione finale del Regolamento pare, dunque, sia stata quella di non qualificare, in generale, l’impiego dell’IA a sostegno dell’azione amministrativa come “ad alto rischio” salvo che per quei specifici casi tassativamente indicati all’allegato III (tra cui, ad esempio, il sopra citato all. III par. 5 lett. a)[21].
Facilmente intuibili sono le non trascurabili conseguenze di questa scelta.
Il primo e più evidente riflesso è dato dalla frammentazione del regime giuridico[22]. Infatti, solo per i sistemi di IA impiegati nello svolgimento delle funzioni amministrative che siano espressamente inquadrabili tra quelli “ad alto rischio” troverà applicazione la disciplina prevista all’uopo dal Regolamento.
Ciò si traduce, all’evidenza, in mancanza di una qualificazione in termini generali, in un’elevata incertezza applicativa che potrebbe, specie in un primo momento, frenare il ricorso allo strumento dell’intelligenza artificiale. E, infatti, occorrerà di volta in volta chiedersi se un dato impiego dell’IA nel settore pubblico ricada in una delle fattispecie, talvolta, sfumate, dell’allegato III[23].
E, se si pone mente alla circostanza che buona parte delle disposizioni che compongono lo statuto dei sistemi “ad alto rischio” risulta dotato di efficacia diretta, è facile immaginare che queste incognite applicative possano alimentare anche il contenzioso attorno all’attività amministrativa automatizzata.
Ma la ripercussione più delicata della scelta regolatoria del legislatore europeo attiene al livello di guarentigie che l’AI Act finirebbe con l’accordare. Seguendo la logica al fondo della quadripartizione su cui si fonda il Regolamento, i sistemi di IA impiegati nello svolgimento delle funzioni amministrative che non siano qualificabili come “vietati” ex art. 5 né “ad alto rischio” ex art. 6 sono destinati a rientrare nella categoria di quelli “a rischio limitato” ovvero, de residuo, in quella dei sistemi “a rischio minimo” per cui non è opera una disciplina ad hoc, salva la possibilità di un’estensione su base volontaria del regime legale dei sistemi “ad alto rischio” attraverso lo strumento dei codici di condotta di cui all’art. 95, par. 1, del Regolamento[24]. Il che importa l’inoperatività della safeguards previste dal Regolamento.
Eppure, non v’è dubbio che vi siano moltissime possibili applicazioni dell’IA nel settore pubblico non rientranti nell’elencazione di cui all’allegato III ma destinate ad incidere ugualmente in maniera significativa su diritti e libertà fondamentali dell’individuo[25].
Queste, nonostante la loro delicatezza, soffrirebbero così il depotenziamento (o forse più propriamente l’azzeramento) delle garanzie già costruite a livello nazionale dapprima da dottrina e giurisprudenza e poi recepite nella normativa speciale dal legislatore[26].
Sono due i profili più eclatanti.
La garanzia della “supervisione umana” ex art. 14 del Regolamento[27] opererebbe solo per gli impieghi da parte della pubblica amministrazione – che costituiscono invero una netta minoranza - inquadrabili tra quelli dell’allegato III. Fuori di tale limitato campo non opererebbe, pertanto, il principio di non esclusività algoritmica[28] e sarebbe tradita la “riserva di umanità”[29].
Non opererebbero neppure, e questo è l’altro aspetto critico, le garanzie in materia di trasparenza algoritmica poste dall’art. 13[30] ma, al più, solo quelle (assai più lasche ed eventuali, per i soli sistemi “a rischio limitato”) di cui all’art. 50 in tema di “Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA”.
È chiaro che una simile ricostruzione, specie ove non si dovesse lasciare spazio di correzione al legislatore nazionale, innescherebbe profonde tensioni anche con principi supremi di rango costituzionale. Ciò vale sia con riguardo alla “riserva di umanità”, che gode di copertura costituzionale agli artt. 2, 54, 97 e 98 Cost. e sovranazionale all’art. 1 della Carta di Nizza[31], che alla trasparenza algoritmica[32].
Uno scenario, questo, che potrebbe addirittura condurre all’attivazione dei contro-limiti[33] ovvero spingere la giurisprudenza interna a battere, rispetto al Regolamento, la strada del rinvio pregiudiziale di validità dinanzi alla Corte di giustizia facendo leva, come parametro di diritto unionale primario, sulla Carta dei diritti fondamentali dell’Unione europea e sulla[34].
3. Il problema dell’ammissibilità di un intervento regolatorio nazionale in tema di automazione decisionale amministrativa a mezzo di intelligenza artificiale
Il rischio di un generalizzato abbattimento delle garanzie rende massimamente opportuno (e forse addirittura impone) un intervento regolatorio nazionale a corredo dell’AI Act.
Queste considerazioni non esonerano certo il giurista dall’interrogarsi se siffatto intervento regolatorio sia, però, anche ammissibile nel quadro dei rapporti tra diritto nazionale e diritto unionale. Trattasi, invero, di questione che involge anzitutto la struttura del sistema delle fonti di un ordinamento che, anche nel campo amministrativo, è oramai multilivello.
L’esistenza o meno di un margine regolatorio in favore del nostro legislatore interno è, peraltro, tema, come segnalato dalla dottrina più attenta[35], di stringente attualità.
E ciò non solo per la prossima entrata in vigore della parte del Regolamento che si occupa dei sistemi di IA “ad alto rischio” ma perché, nel maggio 2024, in concomitanza con l’organizzazione del G7 a presidenza italiana, è stato presentato un disegno di legge di iniziativa governativa avente ad oggetto “Disposizioni e delega al Governo in materia di intelligenza artificiale”[36]. In esso campeggia, peraltro, all’art.13, una disciplina relativa all’“Uso dell'intelligenza artificiale nella pubblica amministrazione” che recepisce l’idea dell’esistenza di una riserva di umanità a portata generale nell’ambito delle funzioni amministrative automatizzate e che ribadisce la centralità delle garanzie in tema di trasparenza algoritmica[37].
Il pericolo di una sovrapposizione con l’AI Act (nel frattempo adottato) è stato, invero, avvertito sin da subito dal legislatore nazionale il quale, non solo ha escluso espressamente tela evenienza in sede di analisi tecnico normativa ma ha anche inserito un riserva espressa di prevalenza del diritto unionale[38].
A ciò ha fatto seguito, nell’ottica della leale cooperazione, l’apertura di un carteggio con la Commissione su alcuni profili del disegno di legge.
Gli esiti del confronto sono ancora provvisori e riservati ma non condurranno, con ogni probabilità, a risposte nette specie con riguardo, per quanto qui più interessa, l’aspetto dell’uso dell’intelligenza artificiale da parte della pubblica amministrazione in quanto quest’ultimo non sembra aver formato direttamente oggetto dell’interlocuzione.
In un quadro in evidente evoluzione non sembra, tuttavia, possa tacersi l’esistenza di una serie di dati che potrebbero spingere ad escludere l’ammissibilità di un intervento regolatorio nazionale in tema di automazione decisionale amministrativa a mezzo di intelligenza artificiale.
In primo luogo, è quasi superfluo rammentare che il legislatore europeo ha optato per l’utilizzo di un regolamento adottato attraverso una procedura di tipo legislativo.
Ci si confronta, pertanto, con una fonte di diritto derivato del diritto dell’Unione Europea che presenta le note caratteristiche di cui all’art. 288 T.F.U.E..
Il Regolamento è, in particolare, atto a portata generale, vincolante in tutti i suoi elementi e, soprattutto “direttamente applicabile” negli Stati membri.
La sua diretta applicabilità importa che esso non necessita, almeno di regola, di attuazione a livello nazionale[39].
Deve, tuttavia, aggiungersi che la base giuridica specifica per l’adozione dell’AI Act è stata rappresentata dall’art. 114 T.F.U.E. inserito nel Capo 3 del Titolo VII della Parte Terza del Trattato, il quale disciplina gli strumenti di “Ravvicinamento delle legislazioni” volti alla realizzazione degli obiettivi di cui all’art. 26 (cioè “l'instaurazione” e il “funzionamento del mercato interno”)[40].
Pur se in questa specifica ottica sembra, come detto, che il Regolamento sia nato con l’ambizione di offrire una regolazione di portata generale ed orizzontale del fenomeno dell’intelligenza artificiale[41]. Ciò è desumibile, in particolare, oltre che dai Considerando[42], dalle disposizioni relative al suo campo oggettivo di applicazione e, segnatamente, dall’art. 2, par. 3, secondo periodo, del regolamento che esclude dallo stesso il solo settore militare[43].
È lo stesso Regolamento, peraltro, a disciplinare, in taluni casi, i rapporti con il legislatore nazionale. Vi sono, infatti, sparse per l’AI Act disposizioni puntuali che consentono ovvero autorizzano l’intervento nazionale anche in deroga alla disciplina regolamentare. Ne è un esempio l’art. 5, par. 5 in tema di l’uso di sistemi di identificazione biometrica remota “in tempo reale”[44]. Valorizzando siffatte disposizioni si potrebbe, quindi, sostenere, seppur in maniera formalistica, che ubi lex voluit dixit ubi non voluit tacuit con la conseguenza di escludere ogni margine di regolazione nazionale fuori dei casi espressamente individuati dalla fonte unionale.
Infine, nell’ammettere la possibilità di intervento del legislatore dello Stato membro ci si deve confrontare con il concreto rischio di sovra-regolamentazione della materia anche nelle forme del cd. “gold plating”. Un fenomeno, questo, da scongiurare perché reca con sé incertezze applicative e mette in pericolo la stessa primazia del diritto dell’Unione[45].
4. Un (possibile) tracciato per aprire la via “italiana” per l’intelligenza artificiale nel procedimento amministrativo
Nonostante i possibili indizi di segno contrario indicati al paragrafo precedente, sembrano nettamente prevalere gli elementi che depongono nel senso dell’ammissibilità di un intervento del legislatore nazionale in subiecta materia.
Anzitutto, non può trascurarsi che, come già evidenziato, la base giuridica di adozione dell’AI Act è rappresentata dall’art. 114 T.F.U.E. e che, quindi, in disparte dal tipo di strumento normativo prescelto, la prospettiva resta pur sempre quella di “ravvicinamento” (e non di una radicale uniformazione) delle discipline nazionali[46].
Peraltro, come pure accennato, lo scopo del Regolamento, reso esplicito anche dal suo art. 1, par. 1, è “migliorare il funzionamento del mercato interno e promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, contro gli effetti nocivi dei sistemi di IA nell'Unione, e promuovendo l'innovazione”[47].
Se ne può trarre che l’IA è vista dal legislatore europeo essenzialmente come res[48] e, specificatamente, come prodotto del mercato in particolare nell’ottica di assicurare la libera circolazione[49]. In tale ottica, statica e non dinamica, è posta la disciplina unionale che guarda quale oggetto della sua regolazione lo strumento[50] e non anche, salvo alcuni specifiche applicazioni più delicate[51], l’uso dello stesso. È chiaro come il confine tra questi due piani non sia sempre netto e che, talvolta, disciplinare lo strumento in sé equivale anche a regolarne in qualche misura anche l’uso[52]. Ne è riprova la circostanza che l’art. 1, par. 2 del Regolamento si propone di stabilire, tra l’altro, con un approccio che sembrerebbe onnicomprensivo, “regole armonizzate per l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di IA nell'Unione”.
Ma per quanto qui più interessa, sembra si debba necessariamente prendere atto che, come pure osservato in dottrina, la disciplina posta dall’AI Act, specie con riguardo al piano dei possibili usi dello strumento, non è esaustiva[53] ma necessita di attuazione dando vita ad una armonizzazione non massima[54].
Di ciò sembra in qualche misura consapevole lo stesso legislatore dell’AI Act tanto da prevedere al Considerando 153 che “Gli Stati membri svolgono un ruolo chiave nell'applicare ed eseguire il presente regolamento. A tale riguardo, è opportuno che ciascuno Stato membro designi almeno una autorità di notifica e almeno una autorità di vigilanza del mercato come autorità nazionali competenti al fine di controllare l'applicazione e l'attuazione del presente regolamento”[55].
Su altro versante va, altresì, preso atto che la disciplina dettata dal Regolamento esplica la sua forza, in ragione dell’assetto complessivo dei rapporti tra livello nazionale e unionale, in un campo naturalmente limitato.
In primo luogo, non è superfluo rammentare che il criterio fondamentale di riparto delle competenze normative tra Unione e Stati membri previsto dall’art. 5 T.U.E. è rappresentato dal principio di attribuzione e che, a fronte di quest’ultimo, non è rinvenibile una base giuridica generale in materia di disciplina dell’attività amministrativa[56].
Se è vero che il legislatore europeo spesso pone frammenti di disciplina procedimentale lo fa, tuttavia, nell’esercizio di specifici titoli competenziali e con un approccio che deve essere di self restraint ispirato al rispetto del principio di autonomia procedurale[57]. Nel caso di specie, sembra, peraltro, difficile sostenere che una base giuridica, come quella prima rammentata, di mera armonizzazione e che guarda al funzionamento comune possa essere “stirata” fino a tal punto da consentire di occupare trasversalmente l’ambito materiale del procedimento amministrativo ogni qual volta venga in rilievo in esso l’impiego dello strumento dell’intelligenza artificiale.
In secondo luogo, occorre fare i conti con l’art. 2, par. 3, dello stesso AI Act. Secondo tale disposizione “Il presente regolamento non si applica a settori che non rientrano nell'ambito di applicazione del diritto dell'Unione e, in ogni caso, non pregiudica le competenze degli Stati membri in materia di sicurezza nazionale, indipendentemente dal tipo di entità incaricata dagli Stati membri di svolgere compiti in relazione a tali competenze”. Ne consegue che la forza vincolante del regolamento risulta in ogni caso limitata ai casi in cui la P.A. agisce in settori disciplinati dal diritto dell’Unione e, quindi, solo nei casi di “amministrazione indiretta” ovvero “congiunta”[58] in cui le autorità amministrative nazionali fanno diretta applicazione del diritto unionale. Fuori tale campo non v’è alcun problema, neppure astratto, di compatibilità tra un’eventuale disciplina nazionale e l’AI Act.
Infine, non deve dimenticarsi che, come emerge anche dai primi Considerando al Regolamento, la tutela dei diritti umani, pur non costituendo la base giuridica dell’intervento normativo europeo, rappresenta uno dei suoi principali orizzonti. Sicché l’ammissibilità di un intervento regolatorio nazionale a corredo dell’AI Act deve essere necessariamente valutata anche in ragione della capacità di implementare ed innalzare, in un’ottica multilivello, la soglia di tutela offerta dall’ordinamento rispetto a tali posizioni subiettive fondamentali[59].
In altri termini, pare che vadano apprezzate favorevolmente iniziative legislative in grado di correggere quello che è stato definito, in maniera severa ma efficace, con una metafora che strizza l’occhio al mondo dell’architettura, il “brutalismo” della nascente disciplina europea in materia di tecnologie digitali[60].
In un quadro così frastagliato e complesso, sembra peraltro che l’individuazione di un margine di regolazione dell’impiego dell’IA nel settore amministrativo in favore degli Stati membri possa passare per il crinale che corre tra i fenomeni, vicini ma differenti, della c.d. “armonizzazione spontanea” e del c.d. “gold plating”.
Come ha avuto occasione di osservare la dottrina più attenta[61], il c.d. gold plating concerne tipicamente il momento attuativo del diritto dell’Unione europea ed è caratterizzato dall’imposizione, da parte del legislatore nazionale, di oneri normativi, amministrativi e burocratici ulteriori rispetto a quelli espressamente richiesti dall’atto unionale[62]; sicché esso è un concetto che può essere inquadrato entro un più generale discorso di better regulation.
Il fenomeno dell’armonizzazione spontanea, invece, non concerne il momento attuativo del diritto dell’Unione, consistendo piuttosto in un allineamento della disciplina interna a quella di derivazione “eurounitaria” anche nei casi in cui quest’ultima non opera. La differenza con il gold-plating è, pertanto, evidente atteso che nel caso dell’armonizzazione spontanea il legislatore non ha alcun dovere di recepimento o di attuazione ma sceglie di “ispirarsi” alla normativa europea nel disciplinare una fattispecie interna a cui non si applicherebbe il diritto dell’Unione, con ciò ponendo in essere un vero e proprio processo di “spontaneous europeanisation” o uno “spill-over effect” del diritto europeo[63].
Nell’ottica propria dell’“armonizzazione spontanea” può, in particolare, essere letto un intervento del legislatore dello Stato membro che si sostanzi nell’estensione delle safeguards previste per i sistemi ad alto rischio anche fuori del campo di naturale applicazione dell’AI Act e, quindi, più segnatamente, non solo oltre lo steccato del già ricordato art. 2, par. 3 (id est anche ove la pubblica amministrazione nazionale non faccia applicazione in sede di amministrazione indiretta del diritto unionale), ma anche al di là delle ipotesi di attività amministrative tipizzate come ad “alto rischio” dall’Allegato III al Regolamento medesimo[64]. Una logica, quella del volontario innalzamento delle guarentigie, che fa capolino anche nel testo del Regolamento col meccanismo dei codici di condotta ex art. 95, par. 1[65].
Si potrebbe, tuttavia, obiettare che, attraverso una simile estensione, si finisca in qualche modo con il superare la scelta politica compiuta dal legislatore europeo[66]. Una scelta che potrebbe essere stata espressa anche “in negativo” e cioè nel senso che, qualificando come ad “alto rischio” solo taluni sistemi tassativamente individuati, questi ha voluto, al contempo, escludere che lo siano (e che lo possano essere) quelli non inseriti in tale elencazione. Il che equivarrebbe a dire che al fondo del Regolamento vi è l’intenzione che i sistemi di IA non qualificati espressamente come ad alto rischio debbano restare, sempre e comunque, assoggettati ad una disciplina più lasca (o meglio di sostanziale libertà).
Posta in questi termini la questione, il vero punto su cui riflettere diviene quello della individuazione dello scopo finale del Regolamento.
In particolare, v’è da chiedersi se il suo fine ultimo sia la promozione del ricorso allo strumento dell’IA (anche per evitare che la sua regolazione sia da freno allo sviluppo del settore) oppure, anzitutto, quello di costruire una disciplina minima comune a garanzia di diritti fondamentali e libertà anche esportabile fuori dei confini del continente europeo[67].
La risposta, ancora una volta, non è scontata perché si ammanta di valutazioni politiche tanto più che, come detto, sia nei considerando che nel corpo della disciplina del Regolamento fanno capolino entrambi i suddetti scopi.
E, allora, l’aspetto su cui meditare attiene più precipuamente è la ricerca di un punto di equilibrio tra questi due opposti poli.
Con ogni probabilità questo difficile compito sarà affidato, come accaduto per altri delicati snodi del tortuoso processo di integrazione unionale, al dialogo tra Corti nazionali (costituzionale e di ultima istanza) e Corte di giustizia[68].
In attesa di tali risposte è, però, tempo di cominciare ad immaginare concretamente una “via italiana” all’impiego dell’intelligenza artificiale nel settore pubblico[69]. E farlo velocemente, prima della completa entrata in vigore dell’AI Act, sotto la irrinunciabile guida dei principi costituzionali ed europei mettendo saldamente al centro riserva di umanità e trasparenza algoritmica.
Quanto al modo, la delicatezza, nell’attuale frangente storico, dei rapporti tra Unione e Stati membri suggeriscono un approccio forse più dimesso rispetto a quello finora seguito in cui ci si concentri, non tanto (e non solo) sulla costruzione di una disciplina di portata generale ed orizzontale che rischia di “doppiare” quella europea[70], ma su interventi più puntuali e circoscritti, quasi chirurgici, sul testo della l. n. 241 del 1990[71].
Il cantiere può dirsi aperto.
Lo scritto è stato redatto nell’ambito del progetto di ricerca «Algorithmic tools for citizens and public administrations», finanziato dallo spagnolo Ministerio de Ciencia e Innovación (PID2021-126881OB-I00).
[1] Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'intelligenza artificiale), pubblicato sulla Gazzetta Ufficiale dell’Unione Europea Serie L del 12 luglio 2024.
[2] Facendo dell’Unione un “gigante” della regolazione che però resta un “nano” sul piano della tecnologia a cospetto di Stati Uniti e Cina, le quali seguono approcci profondamente differenti (come ricordato da ultimo da L. Torchia, Pubblica amministrazione e transizione digitale, in Giorn. dir. amm., 6, 2024, 729). Il quadro è, peraltro, in continua evoluzione e si lega al complessivo scenario geopolitico (su questa dimensione di confronto tra “potenze” si veda il volume di Limes, L’intelligenza non è artificiale, 12, 2022). Si pensi, ad esempio, al brusco cambio di rotta impresso dalla presidenza Trump che, all’indomani dell’elezione ha ritirato l’executive order “on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” emanato di dal suo predecessore il 30 ottobre 2023. Quanto all’impatto che la regolazione della tecnologia può avere sulla distribuzione della ricchezza e sulla necessità di una visione inclusiva del digitale che non alimenti ulteriormente le diseguaglianze si veda il fondamentale lavoro di D. Acemoglu e S. Johnson, Potere e progresso. La lotta millenaria per la tecnologia e la prosperità, Milano, 2023.
[3] Tra i numerosi studi in tema si segnalano, senza pretesa di esaustività, B. Marchetti, Intelligenza artificiale, poteri pubblici e rule of law, in Riv. it. dir. pub. com., 1, 2024, 49 e ss.; G. Lo Sapio, L’Artificial Intelligence Act e la prova di resistenza per la legalità algoritmica, in Federalismi, 16, 2024; S. Francario, La decisione amministrativa automatizzata secondo il Regolamento UE 2024/1689, in questa Rivista, 31 ottobre 2024; A. Cerrillo i Martínez, El impacto del Reglamento de Inteligencia Artificial en las Administraciones públicas, in Revista Jurídica de les Illes Balears, 26, 2024; I. Hasquenoph, Commande publique : quels enjeux au lendemain du règlement européen sur l'intelligence artificielle?, in AJ Collectivités Territoriales, 2025, 147; A. G. Orofino, Tra obiettivi perseguiti e problemi irrisolti: l’impatto dell’IA Act sull’assetto regolatorio dell’informatica pubblica, in corso di pubblicazione su Contratto e impresa.
[4] Invero, in Italia le prime riflessioni risalgono a oltre trenta anni fa (A. Predieri, Gli elaboratori elettronici nell’amministrazione dello Stato, Bologna, 1971, p. 52; G. Duni, L’utilizzabilità delle tecniche elettroniche nell’emanazione degli atti e nei procedimenti amministrativi. Spunto per una teoria dell’atto emanato nella forma elettronica, in Riv.amm.,1978, 407 ss.; B. Selleri, Gli atti amministrativi «in forma elettronica», in Dir. Soc., 1982, 133; G. Caridi, Informatica giuridica e procedimenti amministrativi, Milano, 1983, p. 145; V. Frosini, L’informatica e la p.a., in Riv.trim.dir.pubbl., 1983, p. 48; A. Usai, Le prospettive di automazione delle decisioni amministrative in un sistema di teleamministrazione, in Dir.inf., 1993, 17 ss.; tra gli studi monografici A. Masucci, L’atto amministrativo informatico. Primi lineamenti di una ricostruzione, Napoli, 1993 e U. Fantigrossi, Automazione e pubblica amministrazione, Bologna, 1993) e quella attuale è solo l’ultima stagione di un dibattito molto più articolato. Di “stagioni” di studio ve ne sono state, invero, almeno due dopo i lavori dei pionieri della materia. La prima ha avuto luogo agli inizi degli anni 2000 su stimolo della giurisprudenza amministrativa (A.G. Orofino, La patologia dell’atto amministrativo elettronico: sindacato giurisdizionale e strumenti di tutela, in Foro amm. C.d.S., 2002, 2276; F. Saitta, Le patologie dell’atto amministrativo elettronico e il sindacato del giudice amministrativo, in Dir.ec., 2003, 615; D. Marongiu, L’attività amministrativa automatizzata, Santarcangelo di Romagna, 2005; A.G. Orofino, R.G. Orofino, L’automazione amministrativa: imputazione e responsabilità, in Giorn. dir. amm., 12, 2005, p. 1300 ss.). La seconda, più recente ed ancora in corso, figlia dell’impetuoso sviluppo tecnologico degli ultimi anni, ha preso abbrivio a partire dalla seconda metà degli anni ’10 di questo secolo, è certamente più ricca dal punto di vista quantitativo ma si muove, in massima parte, ancora nel solco tracciato dai lavori precedenti. Tra questi, sempre senza pretesa di esaustività, il riferimento è, per rimanere a livello monografico a G. Avanzini, Decisioni amministrative e algoritmi informatici. Predeterminazione, analisi predittiva e nuove forme di intellegibilità, Napoli, 2019; V. Brigante, Evolving pathways of administrative decisions. Cognitive activity and data, measures and algorithms in the changing administration, Napoli, 2019; A. Di Martino, Tecnica e potere nell’amministrazione per algoritmi, Napoli, 2023; E. M. Menéndez Sebastián, From Bureaucracy to Artificial Intelligence: The Tension between Effectiveness and Guarantees, Padova, 2023.
[5] Il riferimento è, rispettivamente, alla giurisprudenza amministrativa e, segnatamente, del Consiglio di Stato (Cons. St., sez. VI, 8 aprile 2019, n. 2270; Cons. St., sez. VI, 13 dicembre 2019, n. 8474; Cons. St., Sez. VI, 4 febbraio 2020, n. 881, con commento di A.G. Orofino, G. Gallone, L’intelligenza artificiale al servizio delle funzioni amministrative: profili problematici e spunti di riflessione, in Giur. it., 2020, 1738; per una descrizione del contesto in cui nascono queste pronunce si veda L. Carbone, L’algoritmo e il suo giudice, in www.giustizia-amministrativa.it, 2023) e all’art. 30 del d.lgs. n. 36 del 2023 (per la cui analisi si rinvia alle osservazioni svolte in G. Gallone, Digitalizzazione, amministrazione e persona: per una “riserva di umanità” tra spunti codicistici di teoria giuridica dell’automazione, in P.A. Persona e Amministrazione, 1, 2023, 329 e ss.; D. U. Galetta, Digitalizzazione, Intelligenza artificiale e Pubbliche amministrazioni: il nuovo Codice dei contratti pubblici e le sfide che ci attendono, in Federalismi, 12, 2023, 4 e ss.; M. Barberio, L’uso dell’intelligenza artificiale nell’art. 30 del d.lgs. 36/2023 alla prova dell’AI Act dell’Unione europea, in Riv. it. inf. dir., 2, 2023).
[6] In termini B. Marchetti, Intelligenza artificiale, poteri pubblici e rule of law, cit., 49; G. Lo Sapio, L’Artificial Intelligence Act e la prova di resistenza algoritmica, cit., 269 S. Francario, La decisione amministrativa automatizzata secondo il Regolamento UE 2024/1689, cit.; V. Neri, AI Act e diritto amministrativo, in Lavoro, diritti, Europa, n. 1, 2025; I. Hasquenoph, Commande publique : quels enjeux au lendemain du règlement européen sur l'intelligence artificielle?, cit.; A. G. Orofino, Tra obiettivi perseguiti e problemi irrisolti: l’impatto dell’IA Act sull’assetto regolatorio dell’informatica pubblica, cit..
[7] Non mancano altre disposizioni del Regolamento come, in particolare, gli artt. 27 e 86 i quali pongono a carico dei soli deployer pubblici (nonché agli incaricati di un pubblico servizio), l’obbligo, rispettivamente, di effettuare una valutazione di impatto sui diritti fondamentali e di garantire la spiegazione dei singoli processi decisionali. Osserva, peraltro, I. Hasquenoph, Commande publique : quels enjeux au lendemain du règlement européen sur l'intelligence artificielle?, cit., che “Notons qu'il ne paraît pas impossible que cette qualification de fournisseur s'applique à l'administration lorsqu'elle développe une solution d'IA en interne : le règlement y inclut en effet les « autorités publiques ». Dans ce cas, le droit de la commande publique est neutralisé”.
[8] Così G. Lo Sapio, L’Artificial Intelligence Act e la prova di resistenza algoritmica, cit., 270. In termini ancor più netti A. Cerrillo i Martínez, El impacto del Reglamento de Inteligencia Artificial en las Administraciones públicas, cit., 104, secondo cui “No obstante, a pesar del protagonismo de las Administraciones públicas en la aplicación del RIA y el impacto que la norma europea puede tener en su funcionamiento o en la toma de decisiones públicas y la prestación de servicios públicos, no podemos desconocer que el RIA no es una norma pensada para las Administraciones públicas”.
[9] A. G. Orofino, Tra obiettivi perseguiti e problemi irrisolti: l’impatto dell’IA Act sull’assetto regolatorio dell’informatica pubblica, cit., secondo cui “La poca incisività dell’IA Act è […] anche conseguenza fisiologica della difficoltà di regolazione delle materie caratterizzate da elevato tasso di tecnicismo”.
[10] Entrata in vigore che, come noto, è stata scaglionata. Al momento della pubblicazione del presente saggio risulta già (a partire dal 2 febbraio 2025) entrata in vigore la disciplina di cui all’art. 5 del Regolamento. Per la disciplina relativa ai sistemi di IA ad alto rischio l’entrata in vigore è stata invece posticipata, pur operando ulteriori differenziazioni, al 2 agosto 2026.
[11] È la più recente frontiera del “diritto del rischio” per il quale il riferimento è, tra tutti, ad A. Barone, Il diritto del rischio, Milano, 2006. Per un’analisi critica analisi dei rischi che sottende l’AI Act, in particolare rispetto alla predeterminazione dei vari livelli su base eminentemente assiologica, alla sua staticità (con conseguente aumento della probabilità che le categorie siano o “sovra” o “sotto-inclusive”, si veda C. Novelli, L’Artificial Intelligence Act Europeo: alcune questioni di implementazione, in Federalismi, 2, 2024, 95 e ss..
[12] Il riferimento è, essenzialmente, ai modelli di IA “per finalità generali” di cui agli artt. 51 e ss. del Regolamento. La nozione di “modello di IA per finalità generali” è offerta al n. 63) dell’art. 3 del Regolamento medesimo.
[13] Su questa quadripartizione si veda G. Lo Sapio, L’Artificial Intelligence Act e la prova di resistenza algoritmica, cit., 282.
[14] Per una dettagliata disamina della disposizione e, più in generale, delle tecniche di classificazione dei sistemi ad alto rischio A. Huergo Lora, Classification of ai systems as high-risk, in The EU regulation on artificial intelligence: a commentary a cura di A. Huergo Lora, Milano, 2025, 79 e ss..
[15] Invero l’art. 6 del Regolamento contempla, al par. 1 una specifica ipotesi di sistemi di IA “ad altro rischio”, dai confini alquanto sfumati e problematici. È tale, in particolare, ogni sistema che soddisfa congiuntamente le seguenti condizioni: a) deve essere “destinato a essere utilizzato come componente di sicurezza di un prodotto” ovvero essere “esso stesso un prodotto” che sia “disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'allegato I”; b) deve esser, come tale, “soggetto a una valutazione della conformità da parte di terzi ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell'Unione elencata nell'allegato I”. Il richiamato Allegato I contiene un’elencazione tassativa della “normativa di armonizzazione dell'Unione” di riferimento la quale, pur spaziando tra campi diversi (dalla “sicurezza dei giocattoli”, agli “ascensori e ai componenti di sicurezza per ascensori” fino ai “dispositivi medico-diagnostici in vitro” che non sembra in alcun modo intercettare, almeno direttamente, il campo dia zione dei poteri pubblici.
[16] Il carattere tassativo dell’elencazione discende dalla formulazione dell’Allegato III il quale pur facendo riferimento ad interi “settori” non contiene formule di riserva o di salvezza che valgano ad attribuire allo stesso valenza meramente esemplificativa (cfr. A. Huergo Lora, Classification of ai systems as high-risk, cit., 84). Giova rammentare che lo stesso Regolamento, all’art. 7, prevede la possibilità per la Commissione di apportare modifiche all’Allegato III attraverso atto delegati (e, quindi, attraverso la procedura disegnata dal successivo art. 97) “aggiungendo o modificando i casi d'uso dei sistemi di IA ad alto rischio” al ricorrere di due condizioni cumulative e, segnatamente, che “i sistemi di IA sono destinati a essere usati in uno dei settori elencati nell'allegato III” (lett. a) e che “i sistemi di IA presentano un rischio di danno per la salute e la sicurezza, o di impatto negativo sui diritti fondamentali, e tale rischio è equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio di cui all'allegato III” (lett. b). Per un’analisi di questo meccanismo normativo di riferimento che non è da escludere possa essere impiegato dalla Commissione per inserire altri impieghi in campo amministrativo dei sistemi di intelligenza artificiale nel novero di quelle ad “altro rischio”, si veda, anche nei suoi rapporti con la diversa fattispecie dell’art. 6, par. 3 del Regolamento, A. Huergo Lora, Classification of ai systems as high-risk, cit., 125 e ss..
[17] G. Lo Sapio, L’Artificial Intelligence Act e la prova di resistenza algoritmica, cit., 282.
[18] Ma anche, come osserva B. Marchetti, Intelligenza artificiale, poteri pubblici e rule of law, cit., la “gestione e il funzionamento di infrastrutture critiche” ovvero per determinare l’accesso o l’ammissione agli istituti di istruzione di tutti i livelli.
[19] All. III, par. 5, lett. a) secondo cui sono considerati ad alto rischio i “sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica essenziali, compresi i servizi di assistenza sanitaria, nonché per concedere, ridurre, revocare o recuperare tali prestazioni e servizi”. Sulle implicazioni di questa qualificazione sia consentito rinviare a G. Gallone, Riserva di umanità, intelligenza artificiale e funzione giurisdizionale alla luce dell’IA Act. Considerazioni (e qualche proposta) attorno al processo amministrativo che verrà, in Judicium, 2024.
[20] Il riferimento è all’ Emendamento 738 alla Proposta di regolamento il quale era volto a modificare il testo dell’allegato III, par. 8, lett. a) qualificando come ad alto rischio tutti “i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o da un organo amministrativo, o per loro conto, per assistere un'autorità giudiziaria o un organo amministrativo nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti o utilizzati in modo analogo nella risoluzione alternativa delle controversie”.
[21] Per una riflessione sull’impatto dell’elencazione di cui all’allegato III nel campo della pubblica amministrazione si veda G. Barrachina Navarro, Andrés Boix Palop, The applicability of the Artificial Intelligence Act to the field of public administration and public services and special features regarding compliance: special attention to Annex III and administrative action and particularities of compliance, in The European Union Artificial Intelligence Act. A Systematic Commentary, a cura di L. Cotino Hueo, D.U. Galetta, Napoli, 2025, 383 e ss..
[22] In termini A. G. Orofino, Tra obiettivi perseguiti e problemi irrisolti: l’impatto dell’IA Act sull’assetto regolatorio dell’informatica pubblica, cit..
[23] Il Regolamento tenta di operare una qualificazione per rischiosità ex ante che però mal si concilia con la natura dinamica dei sistemi di IA (specie di machine learning) che evolvono e mutano nel tempo (così G. Lo Sapio, L’Artificial Intelligence Act e la prova di resistenza algoritmica, cit., 283). Per questa ragione lo stesso legislatore europeo ha pensato di introdurre un apposito correttivo che, però, a ben vedere, finisce con il costituire un ulteriore fattore di incertezza. In particolare, l’art. 6, par. 2 del Regolamento prevede che, a talune condizioni, anche un sistema di IA di cui all’allegato III possa non essere considerato come ad alto rischio “se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale”. Un esempio, significativo per importanza, di incerta qualificazione è quello delle procedure di aggiudicazione dei contatti pubblici in relazione alla quale si vedano le considerazioni di M. Barberio, L’uso dell’intelligenza artificiale nell’art. 30 del d.lgs. 36/2023 alla prova dell’AI Act dell’Unione europea, cit., 6.
[24] L’art. 95, par. 1, del Regolamento stabilisce, in particolare, che “L'ufficio per l'IA e gli Stati membri incoraggiano e agevolano l'elaborazione di codici di condotta, compresi i relativi meccanismi di governance, intesi a promuovere l'applicazione volontaria ai sistemi di IA, diversi dai sistemi di IA ad alto rischio, di alcuni o di tutti i requisiti di cui al capo III, sezione 2, tenendo conto delle soluzioni tecniche disponibili e delle migliori pratiche del settore che consentono l'applicazione di tali requisiti”. Come notato da A. Nicolás Lucas, Codes of conduct and guidelines, in in The EU regulation on artificial intelligence: a commentary a cura di A. Huergo Lora, Milano, 2025, 540, i codici di condotta sono espressione della self regulation che accompagna la globalizzazione. Essi sono “set of principles, guidelines, and ethical standards designed to guide the development, deployment, and responsible use of Artificial Intelligence systems”.Una parte della dottrina (G. Barrachina Navarro, Andrés Boix Palop, The applicability of the Artificial Intelligence Act to the field of public administration and public services, cit., 385) ha sostenuto la possibilità di praticare una simile soluzione anche nel campo amministrativo, di estendere volontariamente, in tutto o in parte, ai sistemi di intelligenza artificiale qualificati come a basso rischio le guarentigie previste per quelli ad alto rischio “through codes of conduct”. Tuttavia, pare che il ricorso a strumenti regolatori atipici e dall’incerta natura giuridica, oltre ad accentuare la frammentazione dello statuto dell’azione amministrativa (rimentendo l’adozione delle guarentigie di cui al capo III, sezione 2, alla scelta dei singoli deployer- amministrazioni) possa entrare in tensione con il principio di legalità in senso “sostanziale” (abbracciata anche dalla giurisprudenza costituzionale nel noto arresto Corte cost., 4 aprile 2011, n. 115) che deve presiedere allo svolgimento dell’azione amministrativa. Il travagliato rapporto tra principio di legalità e digitalizzazione delle funzioni amministrative è stato indagato, con particolare riferimento al rapporto con le regole tecniche da F. Cardarelli, Amministrazione digitale, trasparenza e principio di legalità, in Dir. inf. e inf., 2015, 238 ss.. Il rapporto tra legalità ed automazione amministrative rappresenta, invece, il nucleo delle riflessioni di S. Civitarese Matteucci, «Umano troppo umano». Decisioni amministrative automatizzate e principio di legalità, in Dir. pubbl., 1, 2019, 5 ss..
[25] Impatto di cui è consapevole lo stesso legislatore europeo atteso che all’art. 27 del Regolamento stabilisce, solo per taluni sistemi di IA ad alto rischio, l’obbligo del deployer pubblico (e del privato incaricato di un servizio pubblico) di effettuare una valutazione di impatto sui diritti fondamentali.
[26] Preoccupazioni condivise da I. Hasquenoph, Commande publique: quels enjeux au lendemain du règlement européen sur l'intelligence artificielle?, cit., che prospetta il pericolo di una “under regulation” osservando che “Surtout, le règlement édicte des obligations spécifiques à l'égard des SIA à haut risque, mais les exigences qu'il pose à l'égard des autres SIA sont finalement assez limitées. Par ailleurs, il prévoit des dérogations: un SIA figurant sur la liste de l'annexe III ne sera pas considéré comme étant à haut risque «lorsqu'il ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n'ayant pas d'incidence significative sur le résultat de la prise de décision»”.
[27] Sul punto si rinvia a G. Lazcoz Moratinos, Human oversight (article 14), in The EU regulation on artificial intelligence: a commentary a cura di A. Huergo Lora, Milano, 2025, 243 e ss..
[28] Concetto impiegato per la prima volta da A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal – Rivista di BioDiritto, 1, 2019, 69 e successivamente richiamato dalla fondamentale pronuncia del Cons. St., sez. IV, 8 aprile 2019, n. 2270, cit..
[29] Il conio dell’espressione “riserva di umanità” (in spagnolo “reserva de humanidad”) la si deve a J. Ponce Solè, Inteligencia artificial, Derecho administrativo y reserva de humanidad algoritmos y procedimiento administrativo debido tecnológico, in Revista General de Derecho Administrativo, 50, 2019. Essa, nel suo significato minimo, coincide con il divieto di esercizio delle potestà amministrative in forma totalmente automatizzata senza alcun apporto da parte della persona fisica ed esprime, di riflesso, l’idea dell’esistenza a livello costituzionale e sovranazionale di una sfera minima ed incomprimibile di appannaggio dell’individuo (sul punto sia consentito rinviare a G. Gallone, Riserva di umanità e funzioni amministrative. Indagini sui limiti dell’automazione decisionale tra procedimento e processo, Milano, Cedam, 2023). Su cosa intenda il diritto europeo per decisione completamente automatizzata si veda, seppur con riguardo al disposto dell’art. 22 G.D.P.R. e all’applicazione fattane dalla giurisprudenza unionale C. Silvano, La nozione di “decisione completamente automatizzata” sotto la lente della Corte di Giustizia: il caso Schufa, in CERIDAP 4, 2024, 270 e ss.
[30] Nonché l’ancor più pregnante “Diritto alla spiegazione dei singoli processi decisionali” e, segnatamente, ad ottenere “spiegazioni chiare e significative sul ruolo del sistema di IA nella procedura decisionale e sui principali elementi della decisione adottata”, sancito dall’art. 86 del Regolamento solo in favore della persona che sia interessata da “una decisione adottata dal deployer sulla base dell'output di un sistema di IA ad alto rischio elencato nell'allegato III, ad eccezione dei sistemi elencati al punto 2 dello stesso, e che produca effetti giuridici o in modo analogo incida significativamente su tale persona in un modo che essa ritenga avere un impatto negativo sulla sua salute, sulla sua sicurezza o sui suoi diritti fondamentali”. Sulle garanzie di trasparenza previste dall’AI Act si rinvia a A. Palma Ortigosa, Transparency and proivisions of informatiuon to deployers (article 13), in The EU regulation on artificial intelligence: a commentary a cura di A. Huergo Lora, Milano, 2025, 79 e ss..
[31] Il fondamento costituzionale e sovranazionale della “riserva di umanità” è stato approfondito in G. Gallone, Riserva di umanità e funzioni amministrative, cit., 41 e ss..
[32] Per un’ampia analisi della dimensione costituzionale ed europea del principio di trasparenza tra Trattati, Carta di Nizza e C.E.D.U. si veda A. G. Orofino, La trasparenza oltre la crisi. Accesso, informatizzazione e controllo civico, II ed., Bari, 2020, 47 e ss. e 193 e ss.. In giurisprudenza queste radici sono state analiticamente in Cons. St., Ad. plen. 4 aprile 2020, n. 10, par. 22.3 e ss.. Sul ruolo della trasparenza come bilanciamento dell’automazione cfr. anche A. Corrado, La trasparenza necessaria per infondere fiducia in una amministrazione algoritmica e antropocentrica, in Federalismi, 22 febbraio 2023.
[33] Un istituto, quello dei “contro-limiti”, nato nella riflessione dottrinaria (P. Barile, Rapporti tra norme primarie comunitarie e norme costituzionali e primarie italiane, in Comunità int., 1966, 14) e che ha vissuto nella giurisprudenza, soprattutto in epoca recente, specie dopo le novità introdotte dal Trattato di Lisbona, una vita alquanto travagliata, divenendo terreno di confronto tra Corte costituzionale e Corte di giustizia (cfr. per un quadro di insieme A. Lo Calzo, Dagli approdi giurisprudenziali della Corte costituzionale in tema di controlimiti alle recenti tendenze nel dialogo con le Corti nel contesto europeo, in Federalismi, 13 gennaio 2021).
[34] La dignità è assunta a pietra angolare anche dei cataloghi sovranazionali di diritti umani essendo posta in apertura tanto della Dichiarazione universale dei Diritti Umani del 1948 quanto della Carta di Nizza. Stabilisce, infatti, l’art. 1 di quest’ultima (intitolato “Dignità umana”) che “La dignità umana è inviolabile. Essa deve essere rispettata e tutelata”. Sul ruolo e valore della Carta alla luce del nuovo art. 6 del Trattato sull’Unione Europea si veda C. Salazar, A Lisbon story: la Carta dei diritti fondamentali dell’Unione europea da un tormentato passato... a un incerto presente?, in Gruppo di Pisa, 3, 2011; P. Gianniti (a cura di), I diritti fondamentali nell’Unione Europea. La Carta di Nizza dopo il Trattato di Lisbona, Bologna, 2013; L.S. Rossi, Stesso valore giuridico dei Trattati? Rango, primato ed effetti diretti della Carta dei diritti fondamentali dell’Unione europea, in Dir. Un. eu., 2016, 329 ss.. Per un’articolata disamina del ruolo del principio della dignità umana nella giurisprudenza della Corte di Giustizia si veda P. Mengozzi, Il principio del rispetto della dignità umana, la Carta dei diritti fondamentali dell’UE e la giurisprudenza della Corte di giustizia, in Annali A.I.S.D.U.E., II, Napoli, 2021, 536 ss..
[35] B. Marchetti, Intelligenza artificiale, poteri pubblici e rule of law, cit.. In senso favorevole all’ammissibilità di un intervento normativo degli Stati membri sono, nella dottrina interna, C. Burelli, Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, in Rivista Quaderni AISDUE - L’Unione europea e la nuova disciplina sull’intelligenza artificiale: questioni e prospettive, a cura di F. Ferri, Napoli, 2024; a livello europeo O. Mir Puigpelat, The impact of the AI Act o public authorities and on administrative procedures, in CERIDAP, 4, 2023, 247 e ss.; A. Cerrillo i Martínez, El impacto del Reglamento de Inteligencia Artificial en las Administraciones públicas, cit., 104, secondo cui “será necesario que las Administraciones públicas dispongan de unas normas ajustadas a los principios que guían su funcionamiento y que garanticen de manera adecuada los derechos de las personas cuando se relacionan con ellas”.
[36] È il disegno di legge Atto Senato n. 1146 presentato in data 20 maggio 2024 e annunciato nella seduta n. 191 del 21 maggio 2024 reperibile su ww.senato.it. Il 20 marzo 2025 il d.d.l. è stato approvato dal Senato della Repubblica ed è passato all’esame della Camera dei deputati.
[37] In particolare, il citato art. 13 del disegno di legge stabilisce, al suo comma 1, che “Le pubbliche amministrazioni utilizzano l'intelligenza artificiale allo scopo di incrementare l'efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo”. Il comma 2, invece, afferma, sempre, in via generale, che “L'utilizzo dell'intelligenza artificiale avviene in funzione strumentale e di supporto all'attività provvedimentale, nel rispetto dell'autonomia e del potere decisionale della persona che resta l'unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l'intelligenza artificiale”.
[38] Così a pag. 35 degli atti relativi al disegno di legge in parola laddove si afferma che “L’intervento è compatibile con l’ordinamento europeo” e che esso “Non si sovrappone all’emanando regolamento europeo sull’intelligenza artificiale («AI Act»), approvato lo scorso 13 marzo dal Parlamento europeo), ma ne accompagna il quadro regolatorio in quegli spazi propri del diritto interno”. Il d.d.l. prevede, poi, all’art. 1, comma 2, che “Le disposizioni della presente legge si interpretano e si applicano conformemente al diritto dell’Unione europea”.
[39] Sui caratteri dei regolamenti come fonte di diritto derivato dell’Unione Europea cfr. R. Adam – A. Tizzano, Manuale di diritto dell’Unione Europea, Torino, 2017, 170 e ss.. Come osserva C. Burelli Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, cit., 240, ricordando che le disposizioni del regolamento producono effetti immediati negli ordinamenti giuridici degli Stati membri senza che le autorità nazionali siano tenute ad adottare alcuna misura di attuazione. Il che non esclude, tuttavia, che talune disposizioni possano richiedere, per la loro piena e corretta attuazione, l’adozione di misure di esecuzione a livello nazionale; ma sempre se dette misure “non ostacolano la sua applicabilità diretta, se non dissimulano la sua natura di atto di diritto dell’Unione e se precisano l’esercizio del margine discrezionale ad essi conferito dal regolamento rimanendo nei limiti delle sue disposizioni” (Corte giust. UE, 12 aprile 2018, C-541/16, Commissione c. Danimarca, punti 27 e 28).
[40] Oltre che, per la parte che concerne il trattamento e la tutela dei dati personali l’art. 16 T.F.U.E. (così B. Marchetti, Intelligenza artificiale, poteri pubblici e rule of law, cit.). Più approfonditamente sul tema M. Inglese, Il regolamento sull’intelligenza artificiale come atto per il completamento e il buon funzionamento del mercato interno?, in Rivista Quaderni AISDUE - L’Unione europea e la nuova disciplina sull’intelligenza artificiale: questioni e prospettive, a cura di F. Ferri, Napoli, 2024, 71 e ss..
[41] Lo definisce “trasversale” G. Lo Sapio, L’Artificial Intelligence Act e la prova di resistenza algoritmica, cit., 269.
[42] Consapevolezza che emerge, ad esempio, nel Considerando 3, laddove si afferma che “I sistemi di IA possono essere facilmente impiegati in un'ampia gamma di settori dell'economia e in molte parti della società, anche a livello transfrontaliero”. Analogamente il Considerando 8 esprime l’aspirazione di creare “un quadro giuridico dell'Unione che istituisca regole armonizzate in materia di IA per promuovere lo sviluppo, l'uso e l'adozione dell'IA nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, come riconosciuti e tutelati dal diritto dell'Unione”.
[43] La menzionata disposizione stabilisce, infatti, che “Il presente regolamento non si applica ai sistemi di IA se e nella misura in cui sono immessi sul mercato, messi in servizio o utilizzati con o senza modifiche esclusivamente per scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività”.
[44] Vi si prevede, in particolare, che “Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, primo comma, lettera h), e ai paragrafi 2 e 3. Gli Stati membri interessati stabiliscono nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l'esercizio delle autorizzazioni di cui al paragrafo 3, nonché per le attività di controllo e comunicazione ad esse relative”.
[45] È il pericolo prospettato da C. Burelli Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, cit., 260, secondo cui “qualora venga imposta un’armonizzazione massima, non potendo gli Stati membri discostarsi da quanto previsto dall’atto UE, ogni eventuale sovraregolamentazione è verosimilmente fonte di una violazione del diritto dell’Unione, in quanto tale suscettibile di essere contestata con una procedura di infrazione”.
[46] In questo senso si vedano le osservazioni svolte da B. Cappiello, The EU and the AI ACT. Was it worthwhile to be the first?, in CERIDAP, 4, 2024, 235 e ss., che riflette sull’appropriatezza della scelta del legislatore unionale di impiegare la base giuridica più ampia tra quelle disponibili nei Trattati, su una materia di competenza concorrente (quale il mercato interno ai sensi dell’art. 4, par. 2, lett a) T.F.U.E.) e nella prospettiva della protezione dei diritti fondamentali (che non costituirebbe da sé una base giuridica autonoma) attraverso lo strumento del regolamento (nel mentre, di solito, si predilige, in relazione all’art. 114 T.F.U.E., l’impiego della direttiva, se del caso dettagliata).
[47] Sul ruolo dei diritti fondamentali nell’AI Act si veda E. Cirone, L’AI Act e l’obiettivo (mancato?) di promuovere uno standard globale per la tutela dei diritti fondamentali, in Quaderni AISDUE, 1, 2025, 12 e ss.. L’Autore evidenzia che nell’AI Act, i diritti fondamentali sono indicati come “interessi pubblici” (così al Considerando n. 7), “da proteggere assieme alla salute e alla sicurezza, all’interno del più ampio e generale contesto della tutela della sicurezza dei prodotti”. Ciò discende invero dalla circostanza che, in generale, il legislatore europeo è tenuto al rispetto dei diritti fondamentali nell’esercizio delle competenze che gli sono conferite dai Trattati. La caratteristica che contraddistingue il Regolamento in questione rispetto ad altri interventi normativi eurounitari è data dal fatto che “la tutela dei diritti fondamentali costituisce, assieme alla previsione di standard tecnici, lo scheletro dell’intero impianto normativo e non, invece, uno dei vari requisiti da rispettare. Il rischio per i diritti fondamentali diventa, infatti, il principale criterio per la previsione di obblighi più stringenti” (così sempre E. Cirone, L’AI Act e l’obiettivo (mancato?) di promuovere uno standard globale per la tutela dei diritti fondamentali, cit., 12). Tanto che, come accennato, l’impatto negativo di un sistema di intelligenza artificiale sui diritti fondamentali garantiti dalla Carta costituisce un co-criterio per la classificazione di una applicazione come di rischio elevato (vd. art. 6, par. 3). L’impatto sui diritti fondamentali è, peraltro, criterio da seguire nella valutazione preventiva all’impiego dei sistemi di IA ad alto rischio di cui all'articolo 6, par. 2 cui sono chiamati proprio i “deployer che sono organismi di diritto pubblico” (così l’art. 27 del Regolamento).
[48] È la prospettiva indicata anche da C. Iurilli, Il diritto naturale come limite e contenuto dell’intelligenza artificiale. Prime riflessioni sul nuovo Regolamento Europeo “AI Act”, in Judicium, 24 giugno 2024, della intelligenza artificiale come “res tecnologica” e “prodotto o bene di consumo”. In termini anche M. Inglese, Il regolamento sull’intelligenza artificiale come atto per il completamento e il buon funzionamento del mercato interno?, cit., 86. Così anche G. Barrachina Navarro, Andrés Boix Palop, The applicability of the Artificial Intelligence Act to the field of public administration and public services, cit., 365, secondo cui l’AI Act “is a regulation that, applying the lessons learned from decades of public control over safety and control requirements with regard to the placing on the market of products (or, although less frequently, the provision of services that may also entail environmental or safety problems), establishes a series of protocols and requirements typical of this field”.
[49] Così, segnatamente, la seconda parte del Considerando 1 ad avviso del quale “Il presente regolamento garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento”. Come è stato, tuttavia, condivisibilmente osservato da O. Mir Puigpelat, The impact of the AI Act o public authorities and on administrative procedures, cit., 248, “this does not seem to be aimed at preventing Member States from conditioning the use of AI systems by national public authorities, but rather at preventing them from imposing additional restrictions on the development and use of such systems in the private sector. The free movement of goods and services is conceived for citizens and businesses, not for public authorities, which cannot oppose to their national legislator that a European Regulation entitles them to develop and use a certain software system without additional limitations”.
[50] Osserva G. Lo Sapio, L’Artificial Intelligence Act e la prova di resistenza algoritmica, cit., 281, che “se il focus è il mercato dell’era digitale, si spiega perché il Regolamento abbia preso in considerazione i sistemi di IA secondo un approccio risk-based, analogo a quello seguito per la sicurezza dei prodotti pericolosi”.
[51] Non si può, infatti, negare che in taluni casi, da ritenersi eccezionali, la disciplina del Regolamento si estenda anche a particolari usi dell’intelligenza artificiale. L’ipotesi emblematica è quella dell’identificazione biometrica rispetto alla quale le intenzioni del legislatore europeo sono rese esplicite nel Considerando 39 (“È opportuno subordinare ogni uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a un'autorizzazione esplicita e specifica da parte di un'autorità giudiziaria o di un'autorità amministrativa indipendente di uno Stato membro la cui decisione sia vincolante”).
[52] Di questa opinione è B. Marchetti, Intelligenza artificiale, poteri pubblici e rule of law, cit., la quale osserva che l’effetto del Regolamento “non è solo quello di regolare il mercato comune stabilendo le condizioni in presenza delle quali i sistemi di IA, come prodotti, possono circolare ma anche l’uso che ne fanno le amministrazioni, individuando scopi proibiti e consentiti, settori di impiego e garanzie degli interessati. Così facendo l’Unione disciplina, dunque, il modo in cui il potere pubblico usa l’IA definendo diritti e garanzie dei privati di fronte ad esso”.
[53]A. G. Orofino, Tra obiettivi perseguiti e problemi irrisolti: l’impatto dell’IA Act sull’assetto regolatorio dell’informatica pubblica, cit.; La sua non esaustività emerge, peraltro, dalla circostanza che, come nota C. Burelli Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, cit., 245, l’AI Act “affida ampiamente alle future misure di attuazione della Commissione europea, che è incaricata, da un lato, di dettagliare e specificare alcuni aspetti della disciplina e, dall’altro lato e soprattutto, di aggiornarla e rinnovarla sulla base della fisiologica evoluzione tecnologica” attraverso sia “l’adozione di atti delegati (ad esempio, per aggiungere criteri di classificazione dei modelli di IA per finalità generali come modelli che presentano rischi sistemici, come disposto dall’art. 51)” che “di atti esecutivi (ad esempio, secondo l’art. 50, per approvare o specificare eventuali codici di buone pratiche a livello UE per facilitare l’efficace attuazione degli obblighi relativi alla rilevazione e all’etichettatura dei contenuti generati o manipolati artificialmente) da adottarsi ex artt. 290 e 291 TFUE”.
[54] Così C. Burelli Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, cit., 260, laddove si osserva che “l’uso del regolamento da parte del legislatore UE indurrebbe a ritenere che il grado di armonizzazione richiesto dall’AIA sia, a ben vedere, massimo […] Eppure, come si è visto, il tenore del regolamento non è eccessivamente prescrittivo e svariati spazi d’azione sono lasciati agli Stati membri, con ciò potendosi affermare che il grado di armonizzazione, se non propriamente minimo, non sia in senso stretto nemmeno massimo”. La stessa Autrice (C. Burelli, Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, cit., 250), soggiunge come l’AI Act, “lasci, su più di un fronte, un indiscusso potere discrezionale a favore degli Stati membri, che, da questo punto di vista, hanno dinnanzi a sé un atto che, per certi versi, somiglia più a una direttiva che non a un regolamento in senso stesso, per sua natura idoneo a regolare direttamente
e immediatamente (tutti) i rapporti giudici ad esso sottoposti” sicché “La sensazione è che, lungi dall’essere autosufficienti, alcune di queste norme si avvicinino, talvolta, più che altro a dei «programmi di legislazione» e, in fondo, il largo affidamento agli atti delegati e di esecuzione della Commissione, così come all’ulteriore intervento legislativo o amministrativo da parte degli Stati membri, sembra dimostrarlo”. Perviene ad analoghe conclusioni M. Inglese, Il regolamento sull’intelligenza artificiale come atto per il completamento e il buon funzionamento del mercato interno?, cit., 85, rilevando che “complessivamente inteso, l’approccio del legislatore [...] pare voler superare la rigida distinzione tra armonizzazione minima e massima in favore di un approccio maggiormente pragmatico, probabilmente dettato dall’ambito specifico oggetto di intervento normativo”.
[55] In termini C. Burelli, Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, cit., 246, che aggiunge, in proposito, che “Anche nella relazione di accompagnamento della proposta di regolamento presentata dalla Commissione, era scritto che «le disposizioni del regolamento non sono eccessivamente prescrittive e lasciano spazio a diversi livelli di azione da parte degli Stati membri in relazione ad aspetti che non pregiudicano il conseguimento degli obiettivi dell’iniziativa»” (relazione di accompagnamento alla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale e modifica alcuni atti legislativi dell’Unione, Bruxelles, 21 aprile 2021, COM (2021) 206final, spec. punto 2.4).
[56] A. G. Orofino, Tra obiettivi perseguiti e problemi irrisolti: l’impatto dell’IA Act sull’assetto regolatorio dell’informatica pubblica, cit..
[57] Come osservato da O. Mir Puigpelat, The impact of the AI Act o public authorities and on administrative procedures, cit., 249, When the debate on the suitability of adopting a European codification of administrative procedure to be observed by all national administrations when implementing Union law has arisen, significant doubts have been raised about EU competence, arguing that this would infringe the so-called institutional and procedural autonomy of the Member States, and it has been considered more prudent to limit such a codification to the procedures of the Union administration, which has the solid legal basis provided by Art. 298 TFEU. In the same vein, Art. 41 of the Charter only applies directly to the EU administration, even though the CJEU has extended the principle of good administration that emerges from it to national administrations as well. It would not make much sense that, against this background, the EU legislator would and could deprive the Member States of their competence to shape the administrative procedure to be observed by their public authorities by means of a piece of legislation such as the AI Act, which is limited to regulating a certain type of
Software”. Del resto, come notato da D.U. Galetta, L’autonomia procedurale degli Stati membri dell’Unione europea: Paradise Lost? Studio sulla cd. autonomia procedurale ovvero sulla competenza procedurale funzionalizzata, Torino, 2009, 2, e passim, “la nozione comunitaria di diritto procedurale è assai più ampia di quello che noi siamo tradizionalmente abituato a considerare come tale. Poiché essa include anche previsioni che, nel nostro schema mentale «di diritto nazionale», noi identificheremmo come di diritto sostanziale: ma che in una prospettiva comunitaria, rientrano, invece, nella nozione ampia di «diritto procedurale», nella misura in cui si riferiscono a strumenti giuridici idonei a sanzionare il rispetto del diritto comunitario”.
[58] Sul fenomeno, in generale, della “integrazione amministrativa” a livello unionale si vedano, a livello manualistico, anche per ulteriori riferimenti bibliografici, M. P. Chiti, La pubblica amministrazione, in Diritto amministrativo europeo, 2018, 197, a cura di M. P. Chiti; H. Caroli Casavola, L’amministrazione nazionale in funzione dell’Unione Europea, in Manuale di diritto amministrativo europeo, Torino, 2024, 117 e ss., a cura di S. Del Gatto – G. Vesperini,
[59] Così espressamente il Considerando n. 2 al Regolamento secondo cui “Il presente regolamento dovrebbe essere applicato conformemente ai valori dell'Unione sanciti dalla Carta agevolando la protezione delle persone fisiche, delle imprese, della democrazia e dello Stato di diritto e la protezione dell'ambiente, promuovendo nel contempo l'innovazione e l'occupazione e rendendo l'Unione un leader nell'adozione di un'IA affidabile”. In questo senso O. Mir Puigpelat, The impact of the AI Act o public authorities and on administrative procedures, cit., 247, secondo cui “AI Act establishes minimum guarantees concerning the use of AI systems by public authorities that cannot be reduced, but which can be increased by national legislators”.
[60] La “brutalità” (“brutality”) di cui parlano V. Papakonstantinou e P. de Hert, The Regulation of Digital Technologies in the EU Actification, GDPR Mimesis and EU Law Brutality at Play, in Technology and Regulation Journal , 2022.
[61] Cfr. C. Burelli, Il gold plating e l’armonizzazione “spontanea”, due tecniche a confronto, in Riv. It. dir.pubbl. com., 5-6, 2022, 621 e ss..
[62] C. Burelli, Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, cit., 248, osserva che il Regolamento “fa financo salve due ipotesi di gold-plating «autorizzato» (autorizza espressamente, cioè, l’adottabilità di misure più stringenti rispetto a quelle di derivazione “comunitaria” e, quindi, per tale ragione, non è gold-plating in senso stretto): l’art. 5, par. 5, infatti, prevede che gli Stati membri possano introdurre, in conformità con il diritto UE, disposizioni più restrittive sull’uso dei sistemi di identificazione biometrica remota a posteriori; e anche l’art. 2, par. 11, non osta «a che gli Stati mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all’uso dei sistemi di IA da parte dei datori di lavoro, o incoraggino o consentano l’applicazione di contratti collettivi più favorevoli ai lavoratori»”.
[63] Così sempre C. Burelli, Il gold plating e l’armonizzazione “spontanea”, due tecniche a confronto, cit., 623, che vede il legislatore nazionale che procede sulla strada della armonizzazione spontanea un legislatore “più realista del re” che mostra a una fedeltà maggiore di quella che gli è richiesta al diritto unionale. Ne è un esempio il settore del diritto della concorrenza
[64] Così O. Mir Puigpelat, The impact of the AI Act o public authorities and on administrative procedures, cit., 247, ad aviso del quale “The free movement of AI systems that meet the requirements of the AI Act does not prevent a national (or even regional) legislator […] To extend the requirements imposed by the AI Act on high-risk systems to other types of systems used by public authorities that do not merit such a classification according to Annex III” o anche “To add further requirements to the use of AI systems by public authorities”.
[65] Meccanismo che, tuttavia, come osservato supra sub nota 24, non si attaglia alle caratteristiche proprie del settore amministrativo e che, pertanto, non può costituire la soluzione alle lacune disciplinatorie poc’anzi segnalate.
[66] Si profila, inoltre, come segnalato da A. G. Orofino, Tra obiettivi perseguiti e problemi irrisolti: l’impatto dell’IA Act sull’assetto regolatorio dell’informatica pubblica, cit., il pericolo di un “recepimento frammentario” in grado di compromettere “l’efficacia del regolamento europeo”.
[67] Scettico sulla capacità che l’Ai Act sia in grado di innescare un nuovo “Brussels effect” nel campo della tutela dei diritti fondamentali è E. Cirone, L’AI Act e l’obiettivo (mancato?) di promuovere uno standard globale per la tutela dei diritti fondamentali, cit., 18, secondo cui “l’AI Act non sembra che rifletta le caratteristiche essenziali per essere considerato uno standard globale, proprio in virtù del (solo formalmente centrale) ruolo della protezione dei diritti fondamentali nell’intera struttura del regolamento”.
[68] In questa prospettiva assume primaria importanza il dibattito attorno alla cd. “doppia pregiudizialità” rinvigorito da ultimo con la presa di posizione espressa dalla Corte costituzionale con la nota sentenza n. 181 del 2024 sul cui impatto si veda R. Mastroianni, La sentenza della Corte costituzionale n. 181 del 2024 in tema di rapporti tra ordinamenti, ovvero la scomparsa dell’articolo 11 della Costituzione, in Quaderni AISDUE, 1, 2025) e sul circuito della nomofilachia unionale, specie nel riflesso che lo stesso ha sulle funzioni interne (la co-giurisdizione che accompagna e guida la co-amministrazione secondo la riflessione di A. Barone, Giustizia comunitaria e funzioni interne, Bari, 2008, 19 e ss.).
[69] La potenza dell’immaginazione (anche per il giurista) è stata decantata da G. B. Vico, uno dei più grandi pensatori italiani, lungo tutta la sua opera per giungere a La scienza nuova, costituendo punto di contatto tra razionalismo e radici classiche.
[70] Specie se si tratta, come nel caso dell’art. 13 de d.d.l. di iniziativa governativa del 20 maggio 2024, di una disciplina di principio che, come tale necessita di una specificazione.
[71] In particolare mettendo, anzitutto, mano al suo art. 1 in materia di principi (inserendo tra questi anche quello di “non esclusività algoritmica” ovvero di “riserva di umanità”) nonché al successivo art. 3-bis (prevedendo un espresso riferimento all’intelligenza artificiale quale “strumento” dell’azione amministrativa della P.A.). Un altro intervento potrebbe riguardare gli artt. 6 e 10-bis prevedendo la necessità di un intervento umano (e, segnatamente, da parte del responsabile del procedimento, nella fase predecisoria di valutazione del materiale istruttorio - e, quindi, anche del risultato computazionale offerto dall’algoritmo - ovvero, nei procedimenti ad istanza di parte, di esame delle eventuali osservazioni presentate a seguito di preavviso di diniego). In ultimo sarebbe opportuno l’aggiornamento della disciplina in tema di accesso di cui agli artt. 22 e ss. allineandola, per quanto possibile ai principi già posti dall’art. 30 del nuovo Codice dei Contratti. Suggerisce un intervento normativo a novella della legislazione interna in tema di procedimento amministrativo anche A. Cerrillo i Martínez, El impacto del Reglamento de Inteligencia Artificial en las Administraciones públicas, cit., 104, ad avviso del quale “será necesario incorporar en la legislación de régimen jurídico y de procedimiento administrativo las normas en que se concreten los requisitos, las obligaciones y los procedimientos de las Administraciones públicas en tanto que proveedoras y responsables del despliegue de sistemas de IA”.
Immagine viaWikimedia Commons.