Il nuovo DDL n.1146 approvato dal Senato va oltre la disciplina già adottata a livello europeo con l’AI ACT ed è improntata ad uno spirito conservativo più attento ai pur esistenti rischi e problemi etici che alle enormi potenzialità. Vengono dettate disposizioni specifiche per la giustizia, in particolare relative ai professionisti e quindi anche agli avvocati, alla pubblica amministrazione e all’attività giudiziaria. Principi generali sono la prevalenza del lavoro intellettuale umano, l’utilizzo dei sistemi di IA solo per attività strumentali e di supporto e di efficienza, la trasparenza. L’utilizzo di IA per i professionisti e per la Pubblica Amministrazione incontra forti limiti ed è consentita solo quando finalizzata al solo esercizio delle attività strumentali e di supporto all’attività professionale. Mentre per l’attività giudiziaria deve essere sempre riservata al magistrato la decisione, ivi comprese interpretazione e valutazione delle prove. Vengono affidate al Ministero della Giustizia la disciplina degli impieghi di sistemi di intelligenza artificiale per l'organizzazione dei servizi, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie oltre che l'autorizzazione alla sperimentazione e all'impiego dei sistemi di intelligenza artificiale negli uffici giudiziari, dando un monopolio ed un enorme potere a una struttura che già oggi carente di risorse e con evidenti criticità. Sono poi previste moltissime deleghe, generiche, al Governo tra cui in tema di attività di polizia e di indagini preliminari. Quanto oggi manca è un’iniziativa in positivo per sottolineare e far emergere le grandi potenzialità dell’IA, per personalizzare e valorizzare le possibili applicazioni per le professioni giuridiche, per supportare il lavoro degli operatori e per realizzare una loro formazione a tappeto.
Sommario: 1. Il nuovo DDL e l’AI ACT – 2. Principi generali e disposizioni che riguardano la giustizia – 2.1. L’utilizzo di IA per gli avvocati – 2.2. L’utilizzo di IA per la Pubblica Amministrazione – 2.3. L’utilizzo di IA per l’attività giudiziaria – 2.4. Le altre norme che riguardano la giustizia – 3. Limiti di efficacia della normativa e prospettive in positivo.
1. Il nuovo DDL e l’AI ACT
Dopo quasi un anno dalla sua presentazione, che risale al 23 aprile 2024, il 20 marzo 2025 è stato approvato dal Senato il DDL n.1146 “Disegno di legge delega sull’intelligenza artificiale” che disciplina l’utilizzo dell’Intelligenza Artificiale in tutti i settori della nostra vita, tra cui anche per la giustizia.
Va rammentato che l’AI Act, il Regolamento europeo che stabilisce le regole per l’uso dell’intelligenza artificiale (approvato dal Parlamento Europeo e dal Consiglio il 13 giugno 2024), classifica la materia della giustizia come ad alto rischio. Testualmenteil comma 8 dell’Allegato III indica come ad alto rischio «i sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie». Ma nel contempo il “considerando” 61 precisa che «Non è tuttavia opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie che non incidono sull’effettiva amministrazione della giustizia nei singoli casi» e l’art. 6 §3 introduce limitazioni alla stessa classificazione come uso ad alto rischio: «In deroga al paragrafo 2, un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale».[1]
Un sistema che cerca di tenere un equilibrio tra la tutela dai rischi e dagli abusi dell’IA e le immense potenzialità e possibilità di migliorare la nostra attività quotidiana che potrebbe darci l’IA.
Questo era il riferimento per il legislatore italiano che poteva tener conto della nuova normativa europea, approvata dopo la presentazione del DDL, ma in tempo per confrontarsi con la stessa dato anche l’ampio lasso di tempo (quasi un anno) preso per la discussione parlamentare. Tra l’altro si tratta di argomenti, anche se solo apparentemente, molto tecnici che come tali consentirebbero l’utilizzo di competenze ed idee provenienti da ogni parte politica evitando divisioni partigiane.
Il risultato dal mio punto di vista è deludente in quanto improntato ad uno spirito conservativo, più attento ai rischi e ai problemi etici indotti dall’IA, di sicuro esistenti, che a cercare di governare e di implementare un fenomeno che caratterizzerà i nostri prossimi anni, dando il proprio segno a sistemi che inevitabilmente si affermeranno. Con l’ulteriore risultato di accrescere il divario già oggi esistente tra l’Italia (ma riguarda anche l’Europa) e Stati Uniti e Cina nello sviluppo di sistemi di IA che nel prossimo periodo saranno sempre più dominanti e sempre più pervasivi nelle nostre società.
Abbiamo già visto come atteggiamenti che cercano di tirare il freno e di limitare innovazioni epocali, quali l’IA generativa, si rivelino inevitabilmente perdenti perchè rinunciano a gestire e a cavalcare, pur regolamentando, novità che, nella misura in cui eliminano lavoro umano a basso valore aggiunto e ci danno prodotti ed elaborazioni prima neppure ipotizzabili, diventano ineluttabili ed irrinunciabili.
Si tratta quindi di regolare per governare (come opportunamente ha cercato di fare l’Europa con l’AI Act), ma anche di incoraggiare e promuovere lo sviluppo di sistemi personalizzati ed adatti ai diversi settori.
Questo riguarda tutti i campi, anche la giurisdizione.
2. Principi generali e disposizioni che riguardano la giustizia
I principi generali relativi a tutti i settori enunciati nel DDL n.1146 all’art. 3 sono del tutto condivisibili: - tutela dei diritti, - correttezza, attendibilità, sicurezza, qualità, appropriatezza, trasparenza, - autonomia e potere decisionale dell’uomo e prevenzione del danno, - assenza di pregiudizi e condizionamenti per il metodo democratico e per il funzionamento delle istituzioni, - garanzie delle persone con disabilità.
Le norme che possono interessare la giustizia si limitano a pochi articoli: l’art.13 in materia di professioni intellettuali e quindi rilevante anche per gli avvocati, l’art.14 sull’uso nella pubblica amministrazione, l’art.15 sull’impiego nell’attività giudiziaria, l’art.17 sulla competenza per il contenzioso relativo al funzionamento dell’IA, l’art.26 contenente modifiche al codice penale.
Le norme sull’utilizzo dell’IA da parte dei tutti i soggetti che operano nella giustizia paiono ispirarsi a tre principi generali: - prevalenza del lavoro intellettuale umano, - utilizzo dei sistemi di IA solo per attività strumentali e di supporto e di incremento dell’efficienza della propria attività, - trasparenza sull’utilizzo di IA.
2.1. L’utilizzo di IA per gli avvocati
Per i professionisti l’utilizzo dei sistemi di IA è «finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’ opera» con l’obbligo di comunicare al cliente i sistemi di IA utilizzati. Obbligo che era già previsto in alcune linee guida già adottate da diversi Ordini professionali (vedi ad esempio il punto 3 della Carta dei Principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense dell’Ordine degli Avvocati di Milano[2]). Per il resto i concetti di finalizzazione alle attività strumentali e di supporto all’attività professionale e la prevalenza del lavoro intellettuale umano sono estremamente ambigui e tali da non essere determinanti. Dove si ferma l’attività strumentale e di supporto e dove comincia il nucleo forte dell’attività defensionale? E non è forse attività intellettuale umana la creazione di archivi giurisprudenziali a livello di studio o di settore o territoriale e la capacità di formulare prompting adeguati e efficaci?
Manca invece una regolamentazione dell’ampio campo che può davvero rappresentare un rischio per la professione di avvocato, ma ancor più per l’informazione ed i diritti dei cittadini, delle consulenze legali on line nelle quali occorrerebbe vietare quelle selvagge ed imporre una certificazione ed una trasparenza sulla provenienza e completezza dei dati sulle quali si basano.
La sensazione generale è che stiamo cercando di regolare con logiche vecchie strumenti del tutto nuovi nei cui confronti occorre certo cautela, ma anche flessibilità anche alla luce delle continue e rapidissime trasformazioni cui stiamo assistendo.
2.2. L’utilizzo di IA per la Pubblica Amministrazione
Per la pubblica amministrazione l’uso dell’intelligenza artificiale viene limitato a fini di incrementare l’efficienza sia come tempi che come qualità, assicurando agli interessati la conoscibilità del suo funzionamento. Quanto all’utilizzo nell’adozione di provvedimenti viene limitato a «funzione strumentale e di supporto» «nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti». Infine devono essere adottate «misure tecniche, organizzative e formative finalizzate a garantire un utilizzo dell’intelligenza artificiale responsabile e a sviluppare le capacità trasversali degli utilizzatori». Il tutto con la solita formula dell’invarianza di spesa.
In realtà le possibilità di utilizzo dell’intelligenza artificiale per le pubbliche amministrazioni e più specificamente per i servizi ai cittadini può davvero essere enorme, consentendo un rapporto più immediato e una costante interrelazione con i cittadini. I limiti posti in realtà sono estremamente stringenti e forse non consentirebbero più neppure l'applicazione di algoritmi già correnti. A meno di voler interpretare il concetto di sistemi di intelligenza artificiale, anch'esso estremamente vago data la difficoltà generale di identificare con esattezza cosa sia l'intelligenza artificiale, differenziandolo dagli algoritmi. La previsione sull'invarianza di spesa è una clausola di stile inevitabile perchè altrimenti scatterebbe l'obbligo di prevedere coperture, ma quanto sarebbe invece necessario proprio per la Pubblica Amministrazione è un grande piano di investimenti per adottare sistemi personalizzati di IA in tutti i settori, che porterebbe ad enormi risparmi di spese potendo eliminare almeno tutte le attività a basso valore aggiunto. Piano di investimenti su cui si è sempre in tempo, al di là di questo disegno di legge, ma che dovrebbe comportare stanziamenti più congrui del miliardo di euro che accompagna il presente DDL[3]. Basti pensare che la sola Microsoft ha investito ottanta volte tanto[4].
2.3. L’utilizzo di IA per l’attività giudiziaria
Quanto invece all'attività giudiziaria viene «sempre riservata al magistrato ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti». Principio su cui non si può che essere d'accordo, che comunque lascia aperto l'utilizzo di sistemi di intelligenza artificiale come ricerca giurisprudenziale, supporto, costruzione di documenti. È sicuramente positivo che si siano abbandonate le disposizioni molto più restrittive previste nell'originario disegno di legge secondo cui l’utilizzo dell’IA era consentito «esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale». L'utilizzo alla luce della normativa approvata è quindi ampiamente consentito, ma la decisione spetta sempre al magistrato.
Con altro comma «la disciplina degli impieghi di sistemi di intelligenza artificiale per l'organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie» viene affidata al Ministero della Giustizia. Ciò riguarda un ampio spettro di attività laterali rispetto alla giurisdizione. Sempre al Ministero spetterebbe, almeno fino alla compiuta attuazione del Regolamento UE 2024/1689 l'autorizzazione alla «sperimentazione e l'impiego dei sistemi di intelligenza artificiale negli uffici giudiziari». Ciò comporta che negli uffici giudiziari non si potrebbero utilizzare sistemi di IA, se non autorizzati. Previsione che onestamente preoccupa, perchè se è corretto evitare che vengano immessi sistemi che possono procurare problemi sulla rete protetta degli uffici, sarebbe allarmante se ciò comportasse un limite alla possibilità di utilizzo di Chat GPT, piuttosto che di Perplexity o di altri sistemi, perchè in tal modo si cercherebbe di limitare enormemente le stesse possibilità di utilizzo e di personalizzazione di sistemi utilizzati. Tra l'altro ci troviamo in una fase in cui il monopolio ministeriale dell'informatica è in evidente crisi sia per motivi istituzionali che di efficienza. L'informatica, ancor più dopo l'avvento dell'IA generativa, non è più un servizio della giustizia (art. 110 Costituzione), ma è un vero e proprio formante della giurisdizione e come tale continuare ad affidarlo solo al Ministero, senza alcun coinvolgimento reale del C.S.M. e dell'avvocatura è una violazione della Costituzione e della sua volontà. D'altro canto si è visto anche da recenti esperienze (gli uffici minorili e l’applicazione APP che sarebbe l’inizio del Processo Penale Telematico) come il Ministero non sia in grado per carenza di risorse tecniche di garantire un intervento ed una gestione efficace e come risulti sempre più lontano dalle esigenze e realtà degli uffici giudiziari e dell’avvocatura. Dare nuovi compiti, ovviamente a risorse invariate, significa condannarci all'immobilismo e all'inefficienza. Con l'ultimo comma dell'art. 14 viene poi prevista una competenza ministeriale per la formazione del personale e dei magistrati sull'intelligenza artificiale. La formulazione è in parte ambigua: per i magistrati parla di elaborazione delle linee programmatiche che il Ministero per legge ogni anno rassegna alla Scuola Superiore della Magistratura, per promuovere attività didattiche finalizzate alla formazione digitale di base e avanzata e all'acquisizione e alla condivisione di competenze digitali. La formazione in merito è fondamentale ed è una delle grandi sfide del prossimo periodo. Quanto deve essere chiaro è che ciò non può comportare una modifica di competenze acquisendo nuovi spazi per il Ministero ai danni della SSM, ma unicamente un forte stimolo perchè la Scuola si prenda carico di questi fondamentali compiti. Altra questione sarebbe la necessità di un raccordo costante tra Scuola e Ministero per consentire ed anzi incoraggiare momenti di formazione comune per magistrati, dirigenti amministrativi e personale, da auspicare e realizzare.
2.4. Le altre norme che riguardano la giustizia
Vi sono poi alcune ulteriori norme che interessano la giustizia. In primo luogo l'esplicita previsione che le cause aventi ad oggetto il funzionamento di sistemi di intelligenza artificiale rientrino nella competenza per materia del Tribunale e quindi una serie di previsioni penali tra cui spicca l'introduzione di una nuova aggravante, l'art. 61 n. 11 decies C.P. che punisce per «avere commesso il fatto mediante l'impiego di sistemi di intelligenza artificiale, quando gli stessi per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato».
Lasciano poi perplesse le amplissime deleghe, molto generiche che vengono rilasciate al Governo, che sono di sicuro impatto anche per il mondo della giustizia. In primis l’art.16 che delega il Governo di adottare una disciplina organica relativo all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale. Quindi l’art. 24 che attribuisce deleghe ad intervenire o coordinare con le nuove norme in tema di IA in molti settori tra cui «la previsione di un’apposita disciplina per l’utilizzo di sistemi di intelligenza artificiale per l’attività di polizia» (comma 2 lettera h) e la «regolazione dell’utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari nel rispetto delle garanzie inerenti al diritto di difesa e ai dati personali dei terzi, nonché dei principi di proporzionalità, non discriminazione e trasparenza.» (comma 3 lettera e). Delega ampia e generale che appare carente di principi e criteri direttivi.
3. Limiti di efficacia della normativa e prospettive in positivo
Per quanto concerne in particolare magistrati e avvocati alla luce di queste disposizioni due domande vengono spontanee: come sarà possibile controllare se viene fatto un uso dell’intelligenza artificiale fuori dai canoni previsti ed autorizzati e quali saranno le conseguenze in caso di violazioni.
In realtà sarà ben difficile verificare se un operatore del diritto abbia utilizzato l’intelligenza artificiale generativa, essendo pacifico che la responsabilità dell’atto creato o cui ha collaborato l’IA è sempre di chi l’ha utilizzata e ha sottoscritto lo stesso. Probabilmente emergerà solo in caso di errori e “allucinazioni”, come del resto è già avvenuto sia all’estero che recentemente in Italia[5].
D’altra parte un atto creato in violazione delle previsioni di legge e quindi sostanzialmente automatizzato non avrà alcuna conseguenza giuridica circa la sua validità, stante la sottoscrizione e la responsabilità dell’autore umano. Conseguenze ci saranno, ma potranno essere sul piano etico o su quello disciplinare, non certo su quello processuale.
C’è da auspicare che il passaggio alla Camera serva anche per approfondire i vari temi che sono stati accennati e per aprire un grande dibattito tra gli operatori, che sinora sono stati silenziosi spettatori.
Ma poi c’è da sperare che, parallelamente alle pur indispensabili regolamentazioni, venga presa un’iniziativa in positivo per sottolineare e far emergere le grandi potenzialità delle varie intelligenze artificiali, per valorizzare le possibili applicazioni per le professioni giuridiche e supportare il lavoro degli operatori, per realizzare una loro formazione a tappeto. Occorrerebbe un laboratorio nazionale sull’utilizzo dell’IA generativa nella giustizia chiamando i migliori cervelli dall’università, dalla magistratura, dall’avvocatura, dalla dirigenza e dal personale giudiziario. Senza questo saremo sempre ad arrancare dietro i progressi tecnologici che o vengono governati o, al di là dei divieti formali, prevarranno.
[1] Vedi Amedeo Santosuosso Giudici potenziati dall’IA: le tutele dell’AI Act in Agenza digitale 11.2.2025
[2] https://www.ordineavvocatimilano.it/media/news/DICEMBRE2024/CartadeiPrincipi_OrdinediMilano.pdf
[3] https://www.irpa.eu/intelligenza-artificiale-la-sfida-del-governo/
[4] Microsoft e intelligenza artificiale, piano da 80 miliardi per i data center Redazione Finanza in Il sole 24 ore 04.01.2025 https://www.ilsole24ore.com/art/microsoft-e-intelligenza-artificiale-piano-80-miliardi-i-data-center-AGn0Ua7B
[5] Il Tribunale di Firenze sezione imprese con sentenza 13 marzo 2025 ha ritenuto che l’uso improprio da parte di un difensore dell’utilizzo di Chat GPT non possa configurare responsabilità aggravata per lite temeraria https://i2.res.24o.it/pdf2010/S24/Documenti/2025/03/27/AllegatiPDF/Trib_Firenze_14_03_25.pdf