Sommario: 1. Opportunità e rischi dell’intelligenza artificiale - 2. Differente approccio nella governance delle innovazioni tra Europa e Stati Uniti - 3. Quali spazi di governance dopo l’emanazione dell’A.I. Act tra normazione tradizionale, soft law e self regulation - 4. Il ruolo di AGID tra piani triennali e strategie - 5. Critiche sul percorso intrapreso e rischi concreti di una sostanziale assenza di governance per la pubblica amministrazione.
1. Opportunità e rischi dell’intelligenza artificiale
L’intelligenza artificiale, come noto, involge, al di là dei molteplici vantaggi e possibilità, tutta una serie di criticità e possibili (sebbene, al momento, ancora indefiniti) pericoli.
Allo stato, però, il pericolo e il rischio collegati all’uso e allo sviluppo dell’I.A. è divenuto storytelling e, in linea tendenziale, gli aspetti positivi di questa straordinaria tecnologia vengono costantemente negletti a favore di una narrazione cupa che, a tratti, rasenta il luddismo, e che comporta e, verosimilmente, determinerà una serie di prevedibili conseguenze negative sulle realtà che decideranno di chiudersi a questa nuova tecnologia[1].
Ciò che sorprende sta nel fatto che la modalità di intercettare e limitare questi rischi non può essere risolta (sarebbe meglio dire esorcizzata) attraverso, sterili, richiami al necessario contributo umano, al divieto di discriminazione o alla necessità del rispetto della trasparenza. Men che meno alla pretesa che l’approccio sia antropocentrico e affidabile[2]. L’aspirazione di contenere l’I.A. per decretum appare, oltre che puerile, illusoria.
C’è, in verità, sull’intelligenza artificiale – non solo in Italia ma in ambito continentale – una tensione di carattere deduttivo che viene sviluppata sulla pretesa di un rischio che incombe, ça va sans dire, a prescindere. La tendenza è, pertanto, quella di limitare o, meglio, di cercare di imbrigliare un monstrum che, ancora, neppure si conosce attraverso palizzate, steccati e predefinizione del potere umano chiamato, salvificamente, a controllare, decidere e, quindi, anche, smentire l’esito del procedimento automatizzato[3]. Come correttamente fatto rilevare, però, l’intelligenza artificiale non concerne la possibilità di riprodurre l’intelligenza umana ma, in realtà, la capacità di farne a meno, dal momento che si sviluppa attraverso il c.d. machine learning che, partendo da una serie di dati finiti, si sviluppa in una serie indefinita (e, sovente, imprevedibile) di soluzioni[4]. In questi sensi impostare il “contributo umano” come limite all’intelligenza artificiale rischia di apparire tanto paradossale quanto dissonante[5]. L’A.I. Act, su questo tema, sembra intraprendere una linea meno invasiva in merito alla “sorveglianza umana”, limitandola ai soli settori giudicati “ad alto rischio”, ergo qualora vi siano potenziali pregiudizi per salute, sicurezza e diritti fondamentali e con conseguente e opportuna modulazione della stessa in rapporto ai rischi attesi [6].
Non si intende affermare, va chiarito immediatamente, che l’intelligenza artificiale debba essere libera e svincolata da verifiche e binari, ma è indubbio che un eccesso di controlli e limitazioni[7], tanto dal lato definitorio che effettuale, ne snaturerebbe potenzialità e future positive applicazioni. Il fatto che l’I.A. sia, indubbiamente, un motore di innovazione non può, né dovrebbe, portare i regolatori a sviluppare normative e discipline eccessivamente rigide od ostruzionistiche le quali determinerebbero una concreta ed effettiva minaccia per l’incedere dell’innovazione[8].
2. Differente approccio nella governance delle innovazioni tra Europa e Stati Uniti
In questi sensi vige una marcatissima differenza di approcci tra quanto accade oltre Atlantico e le tendenze interpretative e regolatrici eurounitarie.
La letteratura statunitense in merito all’incapacità europea (elevata a livello paradigmatico) di intercettare i benefici delle innovazioni tecnologiche, non a caso, parla di Europe lag[9]. Viene, a tal proposito, fatto rilevare come l’approccio europeo sia radicato nel principio di precauzione[10], laddove si invita, al contrario, il regolatore statunitense - qualora intenda replicare i successi di innovazione che hanno accompagnato gli ultimi 20 dalla nascita di Internet in poi - ad adottare il medesimo approccio scarsamente invasivo (“light-touch approach”) per la governance dei sistemi e delle tecnologie riferite all’intelligenza artificiale, al fine di consentire degli spazi liberi di sperimentazione onde ottenere tutti i benefici delle innovazioni, evitando così di incamminarsi nel percorso che segue l’Europa e, quindi, infilandosi in una strada tesa a “soffocare un'industria prima che abbia la possibilità di svilupparsi”[11].
In effetti l’Europa non si è fatta attendere nelle sue pulsioni (iper) regolatrici e ha emanato il 13 giugno 2024 (dopo un cammino, effettivamente, iniziato nel 2021) l’A.I. Act, teso a istituire “un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso di sistemi di intelligenza artificiale (sistemi di IA) nell'Unione, in conformità dei valori dell'Unione, promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea (“Carta”), compresi la democrazia, lo Stato di diritto e la protezione dell'ambiente, proteggere contro gli effetti nocivi dei sistemi di IA nell'Unione, nonché promuovere l'innovazione”.
A ben guardare il richiamato regolamento, piuttosto che promuovere lo sviluppo e la diffusione dell’intelligenza artificiale, è per la gran parte teso alla protezione e alla prescrittività[12].
Questi limiti e criticità, tipiche della dinamica normativa europea, sono stati messi in evidenza, di recente, da Mario Draghi nel suo rapporto “Il futuro della competitività europea” ove, con lucidità cristallina, ha evidenziato quanto segue: “In secondo luogo, l’atteggiamento normativo dell’UE nei confronti delle aziende tecnologiche ostacola l’innovazione: l’UE ha attualmente circa 100 leggi incentrate sul settore tecnologico e oltre 270 autorità di regolamentazione attive nelle reti digitali in tutti gli Stati membri. Molte leggi dell’UE adottano un approccio precauzionale, dettando pratiche commerciali specifiche ex ante per scongiurare potenziali rischi ex post. Ad esempio, l’AI Act impone ulteriori requisiti normativi ai modelli di IA per scopi generici che superano una soglia predefinita di potenza computazionale (una soglia che alcuni modelli all’avanguardia già superano). In terzo luogo, le aziende digitali sono scoraggiate dall’operare in tutta l’UE tramite filiali, in quanto si trovano di fronte a requisiti eterogenei, a una proliferazione di agenzie di regolamentazione e al cosiddetto “gold plating” della legislazione UE da parte delle autorità nazionali”.
3. Quali spazi di governance dopo l’emanazione dell’A.I. Act tra normazione tradizionale, soft law e self regulation
Dopo l’emanazione dell’A.I. Act, risulta necessario domandarsi se vi siano ancora spazi per una normazione nazionale e quali possano essere gli spazi di regolazione eventualmente da riempire. Se, quindi, residuino possibilità di intervento da parte dei legislatori nazionali e si possa (ancora) avviare una fase normativa e amministrativa nei singoli Stati che sviluppi l’innovatività e, almeno in parte, consenta degli spazi di autonomia rispetto all’A.I. Act.
Quando si fa riferimento alla possibilità di una “regolamentazione nazionale”, si intende, sia ben inteso, anche la facoltà che determinati spazi vengano deliberatamente esclusi dall’influenza di un regolatore esterno. Il fatto, consapevole, di non procedere con una specifica normazione, liberando determinate energie e dinamiche innovative per l’I.A. attraverso una forma di deregolamentazione – deve essere chiaro – è anch’essa una forma di governance.
Più o meno inconsapevolmente, però, di tutto si ragiona, con riferimento all’intelligenza artificiale, ma la governance sta, costantemente, ai margini del dibattito tecnico e dottrinale. Proprio per questa ragione, sebbene sia evidentemente uno degli elementi di maggior rilievo (quello relativo all’an e al quomodo di regolazione dell’I.A.), si fa sovente riferimento a una sorta di governance gap[13].
Gli spazi di intervento per gli Stati membri dell’UE, nella regolazione dell’intelligenza artificiale, nonostante l’emanazione dell’A.I. Act, sembrano, però, non mancare. Tutto ciò alla luce di alcune considerazioni che appaiono difficilmente superabili.
La governance, poi – è bene chiarirlo a scanso di equivoci – come tale, come entità liquida onnicomprensiva, non esiste. Esistono, infatti, le governances.
L’intelligenza artificiale ha diversi livelli di possibile intervento che sono distinti e radicalmente differenti l’uno dall’altro (tecnologico e dati, informazione e comunicazione, economico, sociale, etico, legale e normativo) e, come tale, ognuno di questi ambiti, necessita di specifici e autonomi livelli e modalità di governance[14].
Lo sviluppo della governance (come sopra accennato) attiene, in concreto, a due piani metodologici differenti: l’an (se procedere o meno attraverso un intervento normativo o regolatorio) e, soprattutto, il quomodo (con quale modalità intervenire, se rigida o, diversamente, attraverso quelli che vengono definiti sistemi di soft law).
C’è chi, a tal proposito ha richiamato la possibilità di applicazione estensiva della normativa vigente[15] e chi, invece – prospettiva che sta riscuotendo in questa fase maggiore successo – reputa che la migliore modalità di procedere, attraverso una effettiva quanto dinamica modalità di governance, sia quella offerta da sistemi di soft law[16].
In tali ambiti, caratterizzati da un livello elevatissimo di innovazione, si ritiene – non a torto – che il legislatore sia impreparato a regolamentare in maniera puntuale e dinamica un settore tanto mutevole quanto tecnologicamente avanzato[17].
Richiamata la diversa e molteplice serie di ambiti correlativi all’intelligenza artificiale (le “sei dimensioni di rischio dell’I.A.”[18]), ci si domanda se tutti questi ambiti siano stati, o meno, coperti dalla regolamentazione dell’I.A. Act. Dalla risposta positiva, o meno, a detto quesito si riuscirà a definire quali possibilità residuino in capo ai regolatori nazionali.
La preoccupazione del legislatore europeo è stata quella – certamente rilevante – di regolamentare, in maniera vigorosa, principalmente, i dati[19] e, nelle ipotesi di sistemi di I.A. “ad alto rischio” (relativamente, quindi, ai rischi sui diritti fondamentali e ai settori meglio richiamati nell’Allegato III all’A.I. Act), di imporre una previa valutazione di impatto[20]. Imponendo, inoltre, al deployer (art. 3.4 A.I. Act: “persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale”), sempre nei casi di “alto rischio”, ulteriori adempimenti e modalità di governance per quanto, in verità, attualmente, piuttosto generiche e indeterminate[21]. Si è, quindi, stabilito di delegare la (futura e concreta) governance, in senso orizzontale e generale, ad apposito Ente (l’Ufficio per l’I.A.[22]) che sarà supportato da un gruppo di esperti[23].
Per le attività valutate quali “non ad alto rischio”, si è ritenuto, invece, di limitare la governance attraverso sistemi di soft law quali codici di condotta e/o dinamiche di self regulation, quindi anche su base volontaria[24].
Con riferimento alle dinamiche di soft law, è significativo quanto stabilisce l’art. 95 dell’A.I. Act nel valorizzare i c.d. codici di condotta e buone pratiche (self regulation)[25].
Viene, inoltre, valorizzata, per i sistemi ad alto rischio o per i modelli di I.A. per finalità generali, una governance multipartecipativa[26] che la dottrina definisce, più correttamente, collaborativa[27].
Alla luce di queste essenziali considerazioni – in disparte alcune disposizioni esplicite – per gli ambiti riferibili all’intelligenza artificiale (con particolare riferimento a quelli tecnologico, economico, legale e normativo) residua un discreto spazio libero di regolazione da colmare mediante normazione tradizionale, declinazioni specifiche di soft law o di deliberata non regolazione o, ancora (strumento di estremo dinamismo e utilità previsto ad hoc dall’A.I. Act ma ancora, sostanzialmente, negletto), attraverso la sperimentazione normativa[28].
Si può sostenere, in estrema sintesi, come, a livello eurounitario, siano state gettate le basi per governare l’intelligenza artificiale, principalmente, in senso strutturale, attraverso la consegna della “cassetta degli attrezzi”. Manca ancora, però – al di là di alcuni principi assai rigorosi - tutta la fase attuativa e applicativa, mediante la quale verranno in concreto declinate le regole e le disposizioni a tutela dei diritti e, si spera, anche a vantaggio e sviluppo dell’innovazione.
4. Il ruolo di AGID tra piani triennali e strategie
Alla luce di queste evidenze risulta necessario comprendere come si stia ponendo e sviluppando la questione della governance in ambito nazionale, a distanza di oramai due anni dall’entrata in vigore dell’art. 30 del D.L.vo 36/2023 (nuovo Codice dei contratti pubblici) che prefigurava l’inizio di una nuova era nei rapporti tra tecnologia e pubblica amministrazione.
Si era parlato, evidentemente non a torto, di un eccesso di ottimismo[29] da parte del legislatore che consegnava “prometeicamente”, all’interno della necessaria digitalizzazione dei contratti pubblici, una serie di strumenti quali “soluzioni tecnologiche”, “intelligenza artificiale” e “decisioni algoritmiche” nella convinzione che le amministrazioni “in un futuro prossimo”[30] ne avrebbero fatto buon uso.
Ad oggi, nonostante il decorso di un periodo sufficientemente lungo, si rileva l’assenza della necessaria tensione della P.A. verso i descritti strumenti ma, soprattutto, si fa apprezzare la latenza del legislatore che non ha dato i necessari impulso e vigore a un’opzione normativa che, da sola e senza strumenti di attuazione e regolazione, non avrebbe potuto avere alcun effettivo sviluppo.
L’orizzonte, nonostante altisonanti richiami a strategie nazionali[31], si presenta oggettivamente povero[32] quanto, almeno al momento, lo sforzo profuso risulta, di fatto, inconcludente. La “Strategia italiana per l’intelligenza artificiale 2024-2026” – relativamente ai dichiarati obbiettivi per la pubblica amministrazione e per l’e-procurement – si appalesa, infatti, tautologica ed evanescente[33].
La scelta di regolamentare un ambito così nuovo e rilevante, in mancanza di interventi normativi, attraverso linee guida dell’Agenzia per l’Italia digitale (AGID), quindi, mediante provvedimenti di carattere generale privi di valenza normativa, appare una modalità tanto poco meditata quanto inusuale.
A “delegare” l’AGID, a produrre linee guida, in ambito di intelligenza artificiale, con riferimento ai procedimenti amministrativi e, specificamente, all’ambito degli appalti pubblici[34] non è stato, infatti, alcun dato normativo né primario e neppure di carattere regolamentare. La “fonte” relativa alla regolazione dell’“Intelligenza artificiale per la Pubblica Amministrazione” la si è ravvisata nel Piano Triennale per l’informatica nella pubblica amministrazione del dicembre 2023 (sulla base di una singolare interpretazione dell’art. 14 co. 2 del D.L.vo n. 82/2005) che, in verità, sembrerebbe aver trasceso dai propri argini. Il Piano è, infatti, uno strumento di carattere generale che ha, a ben guardare, altri obbiettivi e finalità che non risultano essere quelli aderenti alla regolamentazione dei provvedimenti algoritmici o relativi all’utilizzo e dell’intelligenza artificiale all’interno della P.A.. In quanto, più propriamente, riferibili alla programmazione e al coordinamento delle attività delle amministrazioni per l’uso delle tecnologie dell’informazione e della comunicazione[35] che, come si farà immediatamente rilevare, sono “altro” rispetto alla gestione e regolazione dell’I.A..
Il ruolo di AGID è, infatti, di carattere eminentemente tecnico e di supporto.
Nella misura in cui venisse delegata a intervenire – senza adeguate competenze, qualità e attribuzioni sui procedimenti amministrativi e sugli appalti pubblici – in ambiti che non rappresentano il proprio core business, si potrebbe avere, concretamente, il rischio tanto di un intervento non adeguatamente centrato, sia di un’alterazione e invasione di competenze che necessiterebbe di essere successivamente riequilibrata.
La fonte di riferimento, il D.L.vo n. 82 del 7.03.2005 (c.d. Codice dell’amministrazione digitale), ha evidentemente altre finalità[36] e, neppure con il più audace sforzo analogico, può essere inteso come afferente alla regolamentazione e gestione di un fenomeno tanto recente e specifico, quanto deflagrante, come l’intelligenza artificiale e la sua conseguente applicazione a procedimenti amministrativi e appalti pubblici.
Lo stesso Regolamento UE 2019/881 (relativo alla creazione dell’“Agenzia dell’Unione europea per la cibersicurezza, e alla certificazione della cibersicurezza per le tecnologie dell’informazione e della comunicazione”) si riferisce, anch’esso, specificamente al funzionamento dei sistemi, più propriamente, informatici e alle reti[37], senza mai citare l’intelligenza artificiale o provvedimenti algoritmici come riferimenti e dinamiche oggetto di normazione. Ad avvalorare questa lettura restrittiva è anche la recentissima legge sull’intelligenza artificiale, n. 132 del 23.09.2025. Non a caso, infatti, non viene mai richiamato, in alcun passo, il Codice dell’amministrazione digitale, né vengono stabiliti ex novo quei presupposti che devono essere propri e finalizzati all’applicazione della disciplina attinente all’intelligenza artificiale ai vari ambiti sociale, economico e amministrativo[38]. Senza prevedere o autorizzare AGID a emanare alcuna linea guida o provvedimento di carattere generale, con finalità di indirizzo alle pubbliche amministrazioni.
Il ruolo della predetta Agenzia è, infatti, ivi circoscritto e limitato, art. 20: “l'AgID è responsabile di promuovere l'innovazione e lo sviluppo dell'intelligenza artificiale, fatto salvo quanto previsto dalla lettera b). L'AgID provvede altresì a definire le procedure e a esercitare le funzioni e i compiti in materia di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell'Unione europea”. Un ruolo, quindi (si ribadisce), strettamente tecnico e di monitoraggio e supporto, mai di indirizzo e di regolazione sostanziale sugli atti e i provvedimenti.
Sembra, pertanto, almeno a chi scrive, che sussisterebbe un vulnus nelle competenze e attribuzioni affidate ad AGID qualora il Piano triennale avesse inteso consegnarle dei compiti tanto pregnanti in ambito di I.A. senza una diretta, quanto espressa, delega normativa.
Questa lettura, che individua in AGID un ente di supporto meramente strutturale e tecnico, la si ravvisa anche attraverso un’attenta lettura dell’art. 14 bis del D.L.vo n. 82 del 7.03.2005 che attribuisce all’“AgID … le funzioni di: a) emanazione di Linee guida contenenti regole, standard e guide tecniche, nonché di indirizzo, vigilanza e controllo sull'attuazione e sul rispetto delle norme di cui al presente Codice, anche attraverso l'adozione di atti amministrativi generali, in materia di agenda digitale, digitalizzazione della pubblica amministrazione, sicurezza informatica, interoperabilità e cooperazione applicativa tra sistemi informatici pubblici e quelli dell'Unione europea”. Non risulta esservi, insomma, alcuna disposizione che consenta alla citata Agenzia di avere titolarità e di vedersi delegata con poteri per l’organizzazione e l’indirizzo dell’intelligenza artificiale nella pubblica amministrazione e, men che meno, in ambito di organizzazione e regolazione degli appalti pubblici. Anche in considerazione del fatto che AGID non possiede istituzionalmente competenze specifiche in relazione al settore dei contratti pubblici e, in termini generali, riferibili al governo e alla definizione di percorsi procedimentali della pubblica amministrazione. La sua competenza è, infatti, limitata a “regole, standard e guide tecniche” e, ancora (cfr. lett. b dell’art. 20 della legge istitutiva dell’Agenzia n. 134 del 7.08.2012), risulta circoscritta a dettare “indirizzi, regole tecniche e linee guida in materia di sicurezza informatica e di omogeneità dei linguaggi, delle procedure e degli standard, anche di tipo aperto, in modo da assicurare anche la piena interoperabilità e cooperazione applicativa tra i sistemi informatici della pubblica amministrazione e tra questi e i sistemi dell'Unione europea”.
Non esiste, vieppiù, alcuna disposizione del D.L.vo n. 36/2023 che consegni ad AGID (anche in sede di successivo e futuro superamento degli Allegati al Codice dei contratti pubblici) alcun potere o delega che non attenga, strettamente, alle piattaforme di approvvigionamento digitale, alle banche dati e alla loro interoperabilità (ved. artt. 23, 24 e 26 del D.L.vo 36/2023).
5. Critiche sul percorso intrapreso e rischi concreti di una sostanziale assenza di governance per la pubblica amministrazione
Appare evidente – tanto de jure condito che negli emanandi atti normativi – come non sussista alcuna possibile equiparazione tra “digitalizzazione della pubblica amministrazione, sicurezza informatica, interoperabilità e cooperazione applicativa tra sistemi informatici pubblici e quelli dell'Unione europea” (art. 14 bis D.L.vo n. 82/2005) e attività connessa allo sviluppo di provvedimenti amministrativi algoritmici o di governance dell’intelligenza artificiale, tantomeno in relazione agli appalti pubblici.
Il senso e la ratio dell’art. 14 della richiamata legge italiana sull’intelligenza artificiale[39], evidenziano e colorano di peculiarità la relazione tra P.A. e l’intelligenza artificiale. Ci si trova ben lungi rispetto alla digitalizzazione o alle tecnologie dell’informazione e della comunicazione. L’intelligenza artificiale, si ribadisce, non è logicamente o tecnicamente sussumibile all’interno della predetta categoria.
Non è chiaro, pertanto, donde siano stati ravvisati i poteri e i presupposti normativi del predetto Piano triennale per l’informatica nella pubblica amministrazione nel delegare AGID all’emanazione di “Linee guida per promuovere l’adozione dell’IA nella Pubblica Amministrazione … Linee guida che definiscono i passi metodologici e organizzativi che le pubbliche amministrazioni devono seguire per definire attività progettuali di innovazione mediante l’utilizzo di IA” e, ancora e soprattutto, “Linee guida che hanno l’obiettivo di orientare le pubbliche amministrazioni nella scelta delle procedure di approvvigionamento e nella definizione delle specifiche funzionali e non funzionali delle forniture al fine di garantire: la soddisfazione delle esigenze dell’amministrazione, adeguati livelli di servizio e la conformità con il quadro normativo vigente … Le Linee guida forniranno indicazione sulla gestione dei servizi di IA da parte della PA”[40].
Impostazione che si appalesa, a parere di chi scrive, erronea e sulla quale tralaticiamente si è adagiato anche il recente atto di indirizzo di carattere generale qualificato come “Strategia italiana per l’intelligenza artificiale 2024-2026” (cfr. pagg. 21 e segg.).
Il potere di AGID - con specifico riferimento al settore dei contratti pubblici – nonostante venga richiamato e fatto proprio dal Piano Triennale per l’Intelligenza Artificiale[41] e, quindi, dalla richiamata “Strategia”, non risulta rinvenibile in alcun dato normativo.
L’unica disposizione che permette l’emanazione (delle linee guida) è la lett. a, comma 2, dell’art. 14 bis del D.L.vo n. 82/2005 che le consente laddove, e nella misura in cui, contengano “regole, standard e guide tecniche, nonché di indirizzo, vigilanza e controllo sull’attuazione e sul rispetto delle norme di cui al presente Codice, anche attraverso l’adozione di atti amministrativi generali, in materia di agenda digitale, digitalizzazione della pubblica amministrazione, sicurezza informatica, interoperabilità e cooperazione applicativa tra sistemi informatici pubblici e quelli dell’Unione europea”, unitamente all’art. 20 lett. b della legge 134/2012 istitutiva di AGID con limiti, come visto sopra, sostanzialmente analoghi. Nulla che sia e possa essere ricollegabile alla regolazione e agli indirizzi da dare alle amministrazioni in tema di provvedimenti algoritmici o che abbiano come presupposto l’I.A..
Lo stesso art. 14 bis co. 2, ma alla lett. f, in ambito di contratti pubblici, non cita neppure la possibilità di emanare linee guida, attribuendo ad AGID esclusivamente la titolarità di rendere meri “pareri tecnici, obbligatori e non vincolanti”[42]. Peraltro le linee guida, sebbene stabilite e previste dal predetto articolo, per lo stretto ambito della digitalizzazione, non sono espressamente previste per l’uso e l’implementazione dell’intelligenza artificiale all’interno della PA. In questi sensi si ritiene che le future linee guida di AGID – senza copertura di specifico atto normativo a supporto – qualora venissero emanate, con aspirazione, per così dire, espansiva, nascerebbero inesorabilmente affette da illegittimità.
La citata “Strategia per l’intelligenza artificiale 2024 – 2026” si propone di “Supportare i processi amministrativi attraverso le tecnologie dell’IA, aumentando l’efficienza e ottimizzando la gestione delle risorse pubbliche; finanziare alcuni progetti pilota su scala nazionale; sostenere le iniziative delle singole amministrazioni, inquadrate come soggetto collettivo, capace cioè di realizzare soluzioni e applicazioni di IA, e definite in ossequio a precise linee guida di interoperabilità e che garantiscano adeguati standard funzionali”.
In disparte l’erroneo (quanto, peraltro, significativo) riferimento ai “processi” amministrativi, non può non rilevarsi come l’Italia – nonostante i proclami e le pretese di portarsi all’avanguardia nel settore dell’intelligenza artificiale – quantomeno con riferimento alla pubblica amministrazione e al settore degli appalti pubblici (l’unico sostanzialmente che sia stato destinatario di apposita disposizione normativa), si trovi ancora all’anno zero, senza alcun serio progetto di sperimentazione normativa[43] e in assenza di una reale governance. La cattiva notizia sta nel fatto che di tutto ciò sembra non accorgersi alcuno, tanto in ambito politico che amministrativo.
[1] “Ma perché polarizzarsi sull’IA è pericoloso? Che cosa può succedere? Rimanere esclusi dalla rivoluzione industriale, pensando a quella del passato, non fece accadere nulla di drammatico nell’immediato. Ma nei secoli la differenza nella qualità della vita tra la società occidentale, col suo abbondante uso di energia, e il resto del mondo si è resa sempre più marcata e manifesta. Oggi il rischio è simile con l’unica sostanziale differenza che i tempi di questa rivoluzione sono accelerati all’incirca cento volte e l’unità di misura delle trasformazioni è l’anno, non più il secolo e neppure il decennio. Il pericolo che corre un Paese che si chiude all’IA va dal piombare in breve tempo nel terzo mondo o, alla meglio, diventare colonia di quelli che la sviluppano, producono e vendono. Naturalmente non è pensabile lasciare la nuova tecnologia in libertà anarchica o nelle mani di pochi criptici attori. Le conseguenze potrebbero essere peggiori di quelle ecologiche prodotte dell’uso non sostenibile dell’energia”, Pierluigi Contucci in “Quella dell’intelligenza artificiale non è una missione impossibile” in www.rivistailmulino.it 2023.
[2] Considerando n. 1 dell’A.I. ACT dell’U.E. del 13.06.2024 e art. 1 Legge italiana sull’intelligenza artificiale n. 132/2025.
[3] “L’utilizzo dell’intelligenza artificiale avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale”, art. 13 delle” Disposizioni e delega al Governo in materia di intelligenza artificiale”.
“Tra gli obiettivi specifici, vi è quello di è di porre al centro di ogni attività che riguardi lo sviluppo e l’utilizzo dei sistemi e dei modelli di intelligenza artificiale l’autodeterminazione umana. Porre al centro dello sviluppo e della concreta applicazione dei sistemi e dei modelli di IA il rispetto della autonomia e del potere decisionale dell’uomo consente di adottare scelte consapevoli su come delegare le decisioni ai sistemi di IA. In tutto il ciclo di vita dei sistemi e dei modelli di IA occorre che sia l’essere umano a stabilire quali decisioni prendere e come realizzare un risultato vantaggioso per la società. Consapevolezza, responsabilità e affidabilità quali espressione del diritto fondamentale della persona di autodeterminarsi, con coscienza e pensiero critico, in ogni ambito in cui è coinvolta dalle tecnologie digitali” – Comunicato alla Presidenza del Consiglio dei ministri del 20.05.2024, “Disposizioni e delega al Governo in materia di intelligenza artificiale”.
[4] Luciano Floridi – “Etica dell’intelligenza artificiale” 2022, Raffaello Cortina editore.
[5] Mauro Barberio “L’utilizzo degli algoritmi e l’intelligenza artificiale tra futuro prossimo e incertezza applicativa” in www.giustizia-amministrativa.it, giugno 2023.
[6] A.I. Act UE art. 14 “La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare qualora tali rischi persistano nonostante l'applicazione di altri requisiti di cui alla presente sezione. Le misure di sorveglianza sono commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio”.
[7] C. Reed “How should we regulate artificial intelligence?” Published in Philosophical Transactions 6 August 2018, libera traduzione dal testo originale in lingua inglese: “Alcuni commentatori sono così allarmati dalla prospettiva di rischi sconosciuti che hanno proposto l’istituzione di un ente di controllo generale per l’IA. Ma in questo momento ci sono forti argomenti contro l’introduzione di nuovi obblighi legali e regolamentari di applicazione generale”, pag. 2.
[8] Ibidem C. Reed, “Fino a quando i rischi dell’IA non saranno conosciuti, almeno in una certa misura, questo non sarà realizzabile. La regolamentazione non può controllare i rischi sconosciuti, e la definizione di un mandato normativo sulla base di rischi teorici sembra improbabile che produca risultati positivi. In secondo luogo, i legislatori generalmente non hanno successo quando si occupano di regolamentazione nei settori tecnologici. La storia della legislazione per le tecnologie digitali è tendenzialmente una storia di sostanziali fallimenti. Infine, e cosa più importante, un regime normativo volto a disciplinare tutti gli usi della tecnologia dell’intelligenza artificiale avrebbe una portata incredibilmente ampia. La gamma di potenziali applicazioni è troppo diversificata … Un progetto normativo di questo tipo rischierebbe di diventare un progetto di regolamentazione di tutti gli aspetti della vita umana”, pag. 2; ved anche Urs Gasser, Virgilio A.F. Almeida, 2017, “A Layered Model for AI Governance.” IEEE Internet Computing 21 (6) (November): 58–62.
[9] A. Thierer, A. Castillo O’Sullivan and R. Russell, “Artificial Intelligence and Public Policy” in Mercatus Research, 2017.
[10] Ibidem A. Thierer, A. Castillo O’Sullivan and R. Russell, libera traduzione dal testo originale in lingua inglese: “Il ragionamento basato sul principio di precauzione si riferisce alla convinzione che le innovazioni debbano essere limitate o vietate finché i loro sviluppatori non possano dimostrare che non causeranno danni a individui, gruppi, entità specifiche, norme culturali o varie leggi o tradizioni esistenti”, pag. 45.
[11] Ibidem A. Thierer, A. Castillo O’Sullivan and R. Russell. Questa assenza di regolamentazione, definita non a caso “hands off”, ultimamente, sta iniziando ad avere alcuni ripensamenti che stanno conducendo il legislatore a intervenire, concretamente e operativamente, sull’intelligenza artificiale. Si vedano l’Executive order 14110 dell’Amministrazione Biden che, pur non essendo particolarmente penetrante, declina alcuni principi vincolanti e, ancora, alcune incisive proposte di legge quali quella pendente nello Stato della California denominata “Safe and secure innovation for frontier artificial intelligence models act”, Florence G’sell “Regulating under uncertainty: governance options for generative AI”, Stanford cyber policy center 2024.
[12] Considerando 5, 6 e 7 “(5) L'IA può nel contempo, a seconda delle circostanze relative alla sua applicazione, al suo utilizzo e al suo livello di sviluppo tecnologico specifici, comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale, compreso il pregiudizio fisico, psicologico, sociale o economico. (6) In considerazione dell'impatto significativo che l'IA può avere sulla società e della necessità di creare maggiore fiducia, è essenziale che l'IA e il suo quadro normativo siano sviluppati conformemente ai valori dell'Unione sanciti dall'articolo 2 del trattato sull'Unione europea (TUE), ai diritti e alle libertà fondamentali sanciti dai trattati e, conformemente all'articolo 6 TUE, alla Carta. Come prerequisito, l'IA dovrebbe essere una tecnologia antropocentrica. Dovrebbe fungere da strumento per le persone, con il fine ultimo di migliorare il benessere degli esseri umani. (7) Al fine di garantire un livello costante ed elevato di tutela degli interessi pubblici in materia di salute, sicurezza e diritti fondamentali, è opportuno stabilire regole comuni per i sistemi di IA ad alto rischio. Tali regole dovrebbero essere coerenti con la Carta, non discriminatorie e in linea con gli impegni commerciali internazionali dell'Unione. Dovrebbero inoltre tenere conto della dichiarazione europea sui diritti e i principi digitali per il decennio digitale e degli orientamenti etici per un'IA affidabile del gruppo di esperti ad alto livello sull'intelligenza artificiale (AI HLEG)”
[13] Jakob Mökander, Jonas Schuett, Hannah Rose Kirk & Luciano Floridi, libera traduzione dal testo originale in lingua inglese: “In sintesi, se da un lato i LLM hanno reso prestazioni impressionanti in un’ampia gamma di compiti, dall’altro comportano anche notevoli rischi etici e sociali. Pertanto, la questione di come gli LLM dovrebbero essere governati ha attirato molta attenzione, con proposte che vanno da strutturati protocolli di accesso per prevenirne l'uso dannoso fino a una regolamentazione rigida che vieta l'impiego di LLM per scopi specifici. Tuttavia, l’efficacia e la fattibilità di questi meccanismi di governance devono ancora essere suffragati da ricerche empiriche. Inoltre, data la molteplicità e la complessità dei rischi etici e sociali associati agli LLM, prevediamo che le risposte politiche saranno molteplici e incorporeranno diversi meccanismi di governance complementari. I fornitori di tecnologia e i politici hanno appena iniziato a sperimentare differenti meccanismi di governance e il modo tramite il quale dovrebbero essere governati gli LLM resta una domanda aperta” in “Auditing large language models: a three-layered approach” in AI and Ethics, 2023.
[14] Bernd W. Wirtz, Jan C. Weyerer, Ines Kehl “Governance of artificial intelligence: A risk and guideline-based integrative framework” in Journal: Government Information Quarterly, 2022, n. 4 - Elsevier BV.
[15] Adam Thierer, Andrea Castillo O’Sullivan and Raymond Russell “Artificial Intelligence and Public Policy”, Mercatus Research Paper, 56 Pages Posted: 22 Aug 2017, libera traduzione dal testo originale in lingua inglese: “in effetti, la natura dell’intelligenza artificiale e le tecnologie possono frustrare del tutto i tentativi di regolamentazione quando effettuati ex ante. I politici dovrebbero tenere presente la ricca e distinta varietà di opportunità offerte dalle tecnologie di intelligenza artificiale, per evitare ulteriori regolamentazioni che possono risultare appropriate per un tipo di applicazione ed ostacolare inavvertitamente lo sviluppo di altre, portando a conseguenze indesiderate”, pag. 39,
[16] G. Marchant, “Soft Law” Governance of Artificial Intelligence”, UCLA AI Pulse Papers, 2019, libera traduzione dal testo originale in lingua inglese: “Il ritmo di sviluppo dell’IA supera di gran lunga la capacità di qualsiasi sistema normativo tradizionale di tenere il passo, una sfida nota come “problema del ritmo” che colpisce molte tecnologie emergenti. I rischi, i benefici e le traiettorie dell’IA sono tutti altamente incerti, rendendo ancora una volta difficile il processo decisionale normativo. Infine, i governi nazionali sono riluttanti a impedire l’innovazione in una tecnologia emergente mediante una regolamentazione preventiva in un periodo di intensa concorrenza internazionale. Per questi motivi, si può affermare con certezza che per qualche tempo non ci sarà una regolamentazione tradizionale completa dell’IA, tranne forse nel caso in cui si verificasse qualche disastro che potrebbe determinare una risposta normativa drastica per quanto, senza dubbio, inadeguata … sarà necessario per colmare il divario nella governance dell’intelligenza artificiale intervenire tramite la categoria della “soft law””, pag. 4; G. Marchant e C.I. Gutierrez “Soft law 2.0: an agile and effective governance approach for artificial intelligence” Minnesota Journal of law, science & technology, 2023, 4.
[17] Ibidem G. Marchant, C.I. Gutierrez, libera traduzione dal testo originale in lingua inglese “I tradizionali quadri normativi governativi non sono adatti per gestire le tecnologie emergenti come l’intelligenza artificiale a causa del rapido ritmo del cambiamento … Mentre la tradizionale normazione del governo dovrebbe e svolgerà sicuramente un ruolo importante e crescente nella supervisione dell’intelligenza artificiale … I programmi di soft law prevedono misure che creano aspettative sostanziali che non sono direttamente applicabili da parte dei governi. Possono avere diverse forme e formati, quali codici di condotta, dichiarazioni etiche, linee guida professionali, dichiarazioni di principi, programmi di certificazione, standard privati, partenariati pubblico-privati o programmi volontari”; Elettra Stradella “Le fonti nel diritto comparato: analisi di scenari extraeuropei (Stati Uniti e Cina)” in Diritto e intelligenza artificiale, sezione monografica a cura di Carlo Casonato, Marta Fasan e Simone Penasa, DPCE Online 1/2022: “la consapevolezza circa il fatto che le tecnologie (qui intese in senso molto generale quali applicazioni che attraverso la potenza del calcolo producono trasformazioni nell’ambiente circostante, nell’esistenza di chi le utilizza, nella materia che con esse si interfaccia) non sono mai neutrali, non giustificherebbe di per sé la regolazione ad hoc dell’AI come soluzione necessitata. Il fatto è che l’alternativa, cioè quella di un’assimilazione di questo particolare tipo di tecnologia (o, meglio, di questo paradigma tecnologico che caratterizza in realtà una pluralità di tecnologie) ad altri settori tecnologici già oggetto di disciplina, ovvero l’applicazione di norme generali ratione materiae all’AI (come ad esempio quelle sulla responsabilità civile), appare comunque insoddisfacente, principalmente a causa della rapidità dell’innovazione che attraversa il campo dell’AI, più di ogni altro”.
[18] “1) tecnologico, dati e analitico, 2) informativo e comunicativo, 3) economico, 4) sociale, 5) etico nonché 6) legale e normativo”, Bernd W. Wirtz, Jan C. Weyerer, Ines Kehl “Governance of artificial intelligence: A risk and guideline-based integrative framework” in Journal: Government Information Quarterly, 2022, n. 4 - Elsevier BV.
[19] Considerando nn. 67, 69 e art. 10 dell’A.I. Act.
[20] Mauro Barberio “L’uso dell’intelligenza artificiale nell’art. 30 del d.lgs. 36/2023 alla prova dell’AI Act dell’Unione europea” in Rivista italiana di informatica e diritto, 2023.
[21] Art. 26 A.I. Act (Obblighi dei deployer dei sistemi di IA ad alto rischio) “I deployer di sistemi di IA ad alto rischio adottano idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l'uso che accompagnano i sistemi, a norma dei paragrafi 3 e 6”.
[22] L’Ufficio per l’I.A. è stato istituito, precedentemente alla pubblicazione dell’A.I. Act, dalla Commissione UE con decisione del 24.01.2024; Considerando n. 116 dell’A.I. Act: “L'ufficio per l'IA dovrebbe incoraggiare e agevolare l'elaborazione, il riesame e l'adeguamento dei codici di buone pratiche, tenendo conto degli approcci internazionali. Tutti i fornitori di modelli di IA per finalità generali potrebbero essere invitati a partecipare. Per garantire che i codici di buone pratiche riflettano lo stato dell'arte e tengano debitamente conto di una serie diversificata di prospettive, l'ufficio per l'IA dovrebbe collaborare con le pertinenti autorità nazionali competenti e potrebbe, se del caso, consultare le organizzazioni della società civile e altri portatori di interessi ed esperti pertinenti, compreso il gruppo di esperti scientifici, ai fini dell'elaborazione di tali codici. I codici di buone pratiche dovrebbero disciplinare gli obblighi per i fornitori di modelli di IA per finalità generali e per i fornitori di modelli di IA per finalità generali che presentano rischi sistemici. Inoltre, quanto ai rischi sistemici, i codici di buone pratiche dovrebbero contribuire a stabilire una tassonomia del tipo e della natura dei rischi sistemici a livello dell'Unione, comprese le loro fonti. I codici di buone pratiche dovrebbero inoltre concentrarsi su misure specifiche di valutazione e attenuazione dei rischi”; Considerando n. 148 “… L'attuazione e l'esecuzione efficaci del presente regolamento richiedono un quadro di governance che consenta di coordinare e sviluppare competenze centrali a livello dell'Unione. L'ufficio per l'IA è stato istituito con decisione della Commissione e ha la missione di sviluppare competenze e capacità dell'Unione nel settore dell'IA e di contribuire all'attuazione del diritto dell'Unione in materia di IA.”
[23] Considerando nn. 148, 151, 163 e art. 64 dell’A.I. Act.
[24] Considerando n. 165 dell’A.I. Act “I fornitori di sistemi di IA non ad alto rischio dovrebbero essere incoraggiati a creare codici di condotta, che includano meccanismi di governance connessi, volti a promuovere l'applicazione volontaria di alcuni o tutti i requisiti obbligatori applicabili ai sistemi di IA ad alto rischio, adattati in funzione della finalità prevista dei sistemi e del minor rischio connesso e tenendo conto delle soluzioni tecniche disponibili e delle migliori pratiche del settore, come modelli e schede dati. I fornitori e, se del caso, i deployer di tutti i sistemi di IA, ad alto rischio o meno, e modelli di IA dovrebbero inoltre essere incoraggiati ad applicare su base volontaria requisiti supplementari relativi, ad esempio, agli elementi degli orientamenti etici dell'Unione per un'IA affidabile, alla sostenibilità ambientale, alle misure di alfabetizzazione in materia di IA, alla progettazione e allo sviluppo inclusivi e diversificati dei sistemi di IA, anche prestando attenzione alle persone vulnerabili e all'accessibilità per le persone con disabilità, la partecipazione dei portatori di interessi, con il coinvolgimento, se del caso, dei portatori di interessi pertinenti quali le organizzazioni imprenditoriali e della società civile, il mondo accademico, le organizzazioni di ricerca, i sindacati e le organizzazioni per la tutela dei consumatori nella progettazione e nello sviluppo dei sistemi di IA, e alla diversità dei gruppi di sviluppo, compreso l'equilibrio di genere. Per essere efficaci, i codici di condotta volontari dovrebbero basarsi su obiettivi chiari e indicatori chiave di prestazione che consentano di misurare il conseguimento di tali obiettivi”. Pregevole la distinzione che viene effettuata tra soft law e self regulation da Elettra Stradella “Le fonti nel diritto comparato: analisi di scenari extraeuropei (Stati Uniti e Cina)” in Diritto e intelligenza artificiale, sezione monografica a cura di Carlo Casonato, Marta Fasan e Simone Penasa, DPCE Online 1/2022: “Il collegamento tra soft law e self regulation è certamente stretto, ma lo sono anche le differenze che intercorrono tra l’uno e l’altro strumento, distinguibili per la relazione che li lega alla legge “hard”. Se la self regulation si caratterizza dal punto di vista metodologico in quanto i processi partecipativi attraverso i quali si realizza, e che rispondono, in termini di legittimazione e conseguente accettabilità, all’anomalia soggettiva dell’identità tra attori regolanti e attori regolati, conducono all’adozione di norme autoprodotte, il soft law definisce invece categorie (varie) di atti caratterizzati da un certo effetto giuridico: non hanno efficacia vincolante, non sono direttamente applicabili dalle corti, e possono realizzare solo alcuni tipi di effetti. Ad oggi, gli intrecci tra fonti tradizionali strutturate secondo lo schema command-and-control, il soft law e l’autoregolazione sono segnati da processi di cooperazione che emergono soprattutto in alcuni settori sensibili, come la tutela dell’ambiente, la sicurezza, la disciplina della Rete, e, in parte, le public utilities, nei quali si manifestano criticità almeno in parte comuni a quelle che vengono individuate per l’ambito dell’AI”.
[25] “L'ufficio per l'IA e gli Stati membri incoraggiano e agevolano l'elaborazione di codici di condotta, compresi i relativi meccanismi di governance, intesi a promuovere l'applicazione volontaria ai sistemi di IA, diversi dai sistemi di IA ad alto rischio, di alcuni o di tutti i requisiti di cui al capo III, sezione 2, tenendo conto delle soluzioni tecniche disponibili e delle migliori pratiche del settore che consentono l'applicazione di tali requisiti. 2. L'ufficio per l'IA e gli Stati membri agevolano l'elaborazione di codici di condotta relativi all'applicazione volontaria, anche da parte dei deployer, di requisiti specifici a tutti i sistemi di IA, sulla base di obiettivi chiari e indicatori chiave di prestazione volti a misurare il conseguimento di tali obiettivi, compresi elementi quali, a titolo puramente esemplificativo: a) gli elementi applicabili previsti negli orientamenti etici dell'Unione per un'IA affidabile; b) la valutazione e la riduzione al minimo dell'impatto dei sistemi di IA sulla sostenibilità ambientale, anche per quanto riguarda la programmazione efficiente sotto il profilo energetico e le tecniche per la progettazione, l'addestramento e l'uso efficienti dell'IA; c) la promozione dell'alfabetizzazione in materia di IA, in particolare quella delle persone che si occupano dello sviluppo, del funzionamento e dell'uso dell'IA; d) la facilitazione di una progettazione inclusiva e diversificata dei sistemi di IA, anche attraverso la creazione di gruppi di sviluppo inclusivi e diversificati e la promozione della partecipazione dei portatori di interessi a tale processo; e) la valutazione e la prevenzione dell'impatto negativo dei sistemi di IA sulle persone vulnerabili o sui gruppi di persone vulnerabili, anche per quanto riguarda l'accessibilità per le persone con disabilità, nonché sulla parità di genere. 3. I codici di condotta possono essere elaborati da singoli fornitori o deployer di sistemi di IA o da organizzazioni che li rappresentano o da entrambi, anche con la partecipazione di qualsiasi portatore di interessi e delle sue organizzazioni rappresentative, comprese le organizzazioni della società civile e il mondo accademico. I codici di condotta possono riguardare uno o più sistemi di IA tenendo conto della similarità della finalità prevista dei sistemi pertinenti. 4. Nell'incoraggiare e agevolare l'elaborazione dei codici di condotta, l'ufficio per l'IA e gli Stati membri tengono conto degli interessi e delle esigenze specifici delle PMI, comprese le start-up”.
[26] Art. 40.3 dell’A.I. Act, nel quale viene garantita “una rappresentanza equilibrata degli interessi e la partecipazione di tutti i portatori di interessi pertinenti”.
[27] R. Clarke “Regulatory alternatives for AI” in Computer Law & Security Review, August 2019; Bernd W. Wirtz, Jan C. Weyerer, Ines Kehl “Governance of artificial intelligence: A risk and guideline-based integrative framework”, Journal: Government Information Quarterly, 2022, n. 4 - Elsevier BV.
[28] Considerando 138, 139 e 140 dell’A.I. Act “Al fine di garantire un quadro giuridico che promuova l'innovazione, sia adeguato alle esigenze future e resiliente alle perturbazioni, gli Stati membri dovrebbero garantire che le rispettive autorità nazionali competenti istituiscano almeno uno spazio di sperimentazione normativa in materia di IA a livello nazionale per agevolare lo sviluppo e le prove di sistemi di IA innovativi, sotto una rigorosa sorveglianza regolamentare, prima che tali sistemi siano immessi sul mercato o altrimenti messi in servizio. Gli Stati membri potrebbero inoltre adempiere tale obbligo partecipando a spazi di sperimentazione normativa già esistenti o istituendo congiuntamente uno spazio di sperimentazione con le autorità competenti di uno o più Stati membri, nella misura in cui tale partecipazione fornisca un livello equivalente di copertura nazionale per gli Stati membri partecipanti. Gli spazi di sperimentazione normativa per l’IA potrebbero essere istituiti in forma fisica, digitale o ibrida e potrebbero accogliere prodotti sia fisici che digitali. Le autorità costituenti dovrebbero altresì garantire che gli spazi di sperimentazione normativa per l’IA dispongano delle risorse adeguate per il loro funzionamento, comprese risorse finanziarie e umane” e art. 57 (Spazi di sperimentazione normativa per l'IA) “Gli Stati membri provvedono affinché le loro autorità competenti istituiscano almeno uno spazio di sperimentazione normativa per l'IA a livello nazionale, che sia operativo entro il 2 agosto 2026. Tale spazio di sperimentazione può essere inoltre istituito congiuntamente con le autorità competenti di altri Stati membri. La Commissione può fornire assistenza tecnica, consulenza e strumenti per l'istituzione e il funzionamento degli spazi di sperimentazione normativa per l'IA. L'obbligo di cui al primo comma può essere soddisfatto anche partecipando a uno spazio di sperimentazione esistente nella misura in cui tale partecipazione fornisca un livello equivalente di copertura nazionale per gli Stati membri partecipanti. 2. Possono essere altresì istituiti ulteriori spazi di sperimentazione normativa per l'IA a livello regionale o locale, o congiuntamente con le autorità competenti di altri Stati membri. 3. Il Garante europeo della protezione dei dati può inoltre istituire uno spazio di sperimentazione normativa per l'IA per le istituzioni, gli organi e gli organismi dell'Unione e può esercitare i ruoli e i compiti delle autorità nazionali competenti conformemente al presente capo”.
Appare incomprensibile la ragione per la quale la Legge italiana sull’intelligenza artificiale abbia, di fatto, trascurato questo rilevantissimo strumento di innovazione e governance.
[29] Mauro Barberio “L’utilizzo degli algoritmi e l’intelligenza artificiale tra futuro prossimo e incertezza applicativa” in www.giustizia-amministrativa.it, giugno 2023.
[30] Relazione agli articoli e agli allegati del Codice, art. 30;
[31] “Strategia italiana per l’intelligenza artificiale 2024-2026”;
[32] Giovanni Gallone “L’improcrastinabile esigenza di tracciare una via “italiana” per l’intelligenza artificiale nel procedimento amministrativo. Opportunità e legittimità di un intervento regolatorio nazionale a corredo dell’AI Act”, in www.giustiziainsieme.it, giugno 2025.
[33] Pagg. 21 e segg. “per sfruttare appieno le opportunità offerte dalle nuove tecnologie basate sull’Intelligenza Artificiale e con l’obiettivo di creare un circolo virtuoso tra: (i) la qualità, la privacy, la sicurezza e la corretta gestione dei dati funzionali all’utilizzo di tecniche di IA; (ii) lo sviluppo di tecnologie e strumenti software basati su IA per l’interoperabilità, la tracciabilità delle fonti, la loro credibilità, accuratezza, e pertinenza, al fine di creare fiducia negli strumenti decisionali che mettono a fattore comune ciò che è presente sulle piattaforme digitali; (iii) la formazione di competenze specifiche per il personale della PA sulle tecnologie e sugli strumenti di IA nel rispetto delle leggi, dei regolamenti e delle migliori pratiche ed esperienze; (iv) il monitoraggio e il miglioramento sistematico, con misure statistiche di qualità, delle prestazioni dei servizi in sviluppo e in esercizio; (v) il supporto per i processi decisionali strategici e la valutazione regolare delle prestazioni degli strumenti dell’IA; (vi) l’impegno contro pregiudizi e violazioni della proprietà intellettuale; (vii) lo sviluppo di strumenti a supporto dei cittadini, valutandone attentamente capacità abilitanti, vantaggi, e rischi”.
[34] “Strategia italiana per l’intelligenza artificiale 2024-2026”: “Tali linee guida dovranno, in particolare, saper orientare le Pubbliche Amministrazioni verso attività di procurement di soluzioni – nell’ambito di gare d’appalto o di specifici accordi quadro – che sappiano non solo ben rispondere a specifiche esigenze funzionali, ma garantire adeguati livelli di sicurezza oltre ad essere pienamente aderenti alle previsioni regolamentari in materia e alle generali linee guida sull’adozione dell’Intelligenza Artificiale nella Pubblica Amministrazione”, pag. 22.
[35] Art. 14 bis co. 2 D.L.vo 82/2005: “AgID svolge le funzioni di:… b) programmazione e coordinamento delle attività delle amministrazioni per l’uso delle tecnologie dell’informazione e della comunicazione, mediante la redazione e la successiva verifica dell’attuazione del Piano triennale per l’informatica nella pubblica amministrazione contenente la fissazione degli obiettivi e l’individuazione dei principali interventi di sviluppo e gestione dei sistemi informativi delle amministrazioni pubbliche. Il predetto Piano è elaborato dall’AgID, anche sulla base dei dati e delle informazioni acquisiti dai soggetti di cui all’articolo 2, comma 2, ed è approvato dal Presidente del Consiglio dei ministri o dal Ministro delegato entro il 30 settembre di ogni anno”.
[36] Cfr. Art. 2 “Lo Stato, le Regioni e le autonomie locali assicurano la disponibilità, la gestione, l’accesso, la trasmissione, la conservazione e la fruibilità dell’informazione in modalità digitale e si organizzano ed agiscono a tale fine utilizzando con le modalità più appropriate e nel modo più adeguato al soddisfacimento degli interessi degli utenti le tecnologie dell’informazione e della comunicazione”.
[37] Considerando n. 1 “Le reti e i sistemi informativi e le reti e i servizi di comunicazione elettronica svolgono un ruolo essenziale nella società e sono diventati i pilastri della crescita economica. Le tecnologie dell’informazione e della comunicazione (TIC) sono alla base dei sistemi complessi su cui poggiano le attività quotidiane della società, fanno funzionare le nostre economie in settori essenziali quali la sanità, l’energia, la finanza e i trasporti e, in particolare, contribuiscono al funzionamento del mercato interno”. Con riferimento a cosa si intenda per rete e sistema informativo il Regolamento 2019/881 richiama, dichiarandosi applicativo della medesima (cfr. Considerando n. 24), la Direttiva UE 1148/2016 che, all’art. 4, dà la definizione di rete e sistema informativo: “a) una rete di comunicazione elettronica ai sensi dell'articolo 2, lettera a), della direttiva 2002/21/CE; b) qualsiasi dispositivo o gruppo di dispositivi interconnessi o collegati, uno o più dei quali eseguono, in base ad un programma, un trattamento automatico di dati digitali; o c) i dati digitali conservati, trattati, estratti o trasmessi per mezzo di reti o dispositivi di cui alle lettere a) e b), per il loro funzionamento, uso, protezione e manutenzione”.
[38] L’art. 1 della Legge italiana sull’intelligenza artificiale n. 132/2025 recita, infatti, “La presente legge reca principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale. Promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità. Garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale”.
[39] Art. 14 Legge 132/2025: “1. Le pubbliche amministrazioni utilizzano l’intelligenza artificiale allo scopo di incrementare l’efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo. 2. L’utilizzo dell’intelligenza artificiale avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale. 3. Le pubbliche amministrazioni adottano misure tecniche, organizzative e formative finalizzate a garantire un utilizzo dell’intelligenza artificiale responsabile e a sviluppare le capacità trasversali degli utilizzatori”.
[40] Piano Triennale per l’Informatica nella PA 2024-2026, redatto da AgID e pubblicato il 12 febbraio 2024, pagg. 89 e segg.
[41] Piano Triennale per l’Informatica nella PA 2024-2026, redatto da AgID e pubblicato il 12 febbraio 2024, pagg. 89 e segg: “RA5.4.2 – Linee guida per il procurement di IA nella Pubblica Amministrazione. Linee guida che hanno l’obiettivo di orientare le pubbliche amministrazioni nella scelta delle procedure di approvvigionamento e nella definizione delle specifiche funzionali e non funzionali delle forniture al fine di garantire: la soddisfazione delle esigenze dell’amministrazione, adeguati livelli di servizio e la conformità con il quadro normativo vigente. Le Linee guida forniranno indicazione sulla gestione dei servizi di IA da parte della PA”.
[42] “…sugli schemi di contratti e accordi quadro da parte delle pubbliche amministrazioni centrali concernenti l'acquisizione di beni e servizi relativi a sistemi informativi automatizzati per quanto riguarda la congruità tecnico-economica, qualora il valore lordo di detti contratti sia superiore a euro 1.000.000,00 nel caso di procedura negoziata e a euro 2.000.000,00 nel caso di procedura ristretta o di procedura aperta. Il parere è reso tenendo conto dei principi di efficacia, economicità, ottimizzazione della spesa delle pubbliche amministrazioni e favorendo l'adozione di infrastrutture condivise e standard che riducano i costi sostenuti dalle singole amministrazioni e il miglioramento dei servizi erogati, nonché in coerenza con i principi, i criteri e le indicazioni contenuti nei piani triennali approvati. Il parere è reso entro il termine di quarantacinque giorni dal ricevimento della relativa richiesta. Si applicano gli articoli 16 e 17-bis della legge 7 agosto 1990, n. 241, e successive modificazioni. Copia dei pareri tecnici attinenti a questioni di competenza dell'Autorità nazionale anticorruzione è trasmessa dall'AgID a detta Autorità”.
[43] Art. 57 A.I. Act “Spazi di sperimentazione normativa per l'IA” “1. Gli Stati membri provvedono affinché le loro autorità competenti istituiscano almeno uno spazio di sperimentazione normativa per l'IA a livello nazionale, che sia operativo entro il 2 agosto 2026. Tale spazio di sperimentazione può essere inoltre istituito congiuntamente con le autorità competenti di altri Stati membri. La Commissione può fornire assistenza tecnica, consulenza e strumenti per l'istituzione e il funzionamento degli spazi di sperimentazione normativa per l'IA. L'obbligo di cui al primo comma può essere soddisfatto anche partecipando a uno spazio di sperimentazione esistente nella misura in cui tale partecipazione fornisca un livello equivalente di copertura nazionale per gli Stati membri partecipanti. 2. Possono essere altresì istituiti ulteriori spazi di sperimentazione normativa per l'IA a livello regionale o locale, o congiuntamente con le autorità competenti di altri Stati membri”.