Sommario: Premessa - 1. Il Regolamento (UE) 2024/1689: i sistemi ad alto rischio e l’amministrazione della Giustizia - 2. Il disegno di legge italiano sull’Intelligenza Artificiale e l’esigenza di rafforzamento delle garanzie costituzionali in materia di giustizia - 3. Intelligenza Artificiale e Giustizia: l’insostituibilità del giudice e l’argomentazione giuridica.
Premessa
Prima ancora dell’entrata in vigore dell’AI ACT e della presentazione alle Camere del disegno di legge di iniziativa governativa sull’intelligenza artificiale, ho avuto l’occasione di scrivere su questa rivista sull’uso dell’intelligenza artificiale nei processi decisionali e della centralità del ruolo dell’interprete nella scelta del metodo e nell’argomentazione giuridica.
L’entrata in vigore del regolamento europeo e l’adozione del disegno di legge italiano di iniziativa governativa hanno sollecitato una nuova riflessione che, tuttavia, anche alla luce del quadro regolatorio attualmente esistente, conduce alle conclusioni dell’epoca che qui riporto quale cornice delle brevissime considerazioni che seguono:
“Credo in conclusione, che la totale inadeguatezza dell’intelligenza artificiale a sostituire l’argomentare giuridico derivi dalla basilare constatazione che il diritto è scienza sociale e umana, è dell’uomo e per l’uomo e che il compito dell’interprete risiede anzitutto di rendere la fredda astrattezza e generalità della legge più vicina e aderente alla concretezza, alla specificità, alla unicità ed alla umanità del fatto”.
1. Il Regolamento (UE) 2024/1689 (AI ACT): i sistemi ad alto rischio e l’amministrazione della Giustizia
Con l’AI Act[1], il legislatore europeo si è preoccupato di dettare alcune regole in materia di amministrazione della giustizia.
Già nelle considerazioni preliminari, al punto 40, si trova scritto che «alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale». In più, sottolinea il legislatore sovranazionale, è «in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare ad alto rischio i sistemi di IA destinati ad assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti.».
Questa classificazione è operata dall’art. 6, co. 2, in combinato disposto con l’allegato III, n. 8.
L’articolo 6, paragrafo 2, prevede che «Un sistema di intelligenza artificiale è considerato ad alto rischio quando è destinato ad essere utilizzato come componente di sicurezza di un prodotto, o il cui utilizzo è soggetto ad obblighi di valutazione della conformità prima della messa in commercio o dell’entrata in servizio del prodotto in questione, oppure quando è elencato nell’allegato III, a meno che non sia dimostrato, in base ad una valutazione preliminare, che il sistema non comporta un rischio significativo per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, tenuto conto della sua finalità, del contesto d’uso, della probabilità e della gravità dell’impatto.».
In sintesi, i sistemi elencati nell’Allegato III sono presuntivamente ad alto rischio, salvo prova contraria fondata su una valutazione del rischio (risk-based approach).
L’Allegato III, punto 8 definisce gli ambiti di utilizzo dei sistemi di IA ad alto rischio per l’ amministrazione della giustizia e dei processi democratici quali destinati a: a) assistere nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a casi concreti, b) supportare le decisioni giudiziarie, amministrative o di tipo procedurale, c) valutare la probabilità che una persona abbia commesso un reato, d) valutare la credibilità delle prove o dei soggetti coinvolti, e) determinare sanzioni, misure correttive, misure cautelari o alternative alla detenzione.
In base al combinato disposto tra l’ art. 6(2) e l’allegato III, n. 8, quindi, tutti i sistemi IA utilizzati nel settore della giustizia come ausilio ai giudici, interpretazione delle norme, valutazione delle prove, di confezionamento di sentenze o di pene, sono “ad alto rischio”, salvo che il fornitore non dimostri che l’uso del sistema non genera un rischio significativo per diritti fondamentali, salute o sicurezza nel qual caso il sistema può non essere sottoposto agli obblighi dell’AI Act previsti per i sistemi ad “alto rischio”[2].
Dunque, il legislatore europeo, consapevole dell’impatto che l’intelligenza artificiale può avere in ambienti tanto delicati quanto importanti come l’amministrazione della giustizia, dedica il Titolo III a questi sistemi ad alto rischio prevedendo una serie di requisiti ed obblighi per accedere al mercato UE come, per citarne solo alcuni, la presenza di un sistema di gestione dei rischi, la garanzia della trasparenza delle informazioni o misure di sorveglianza umana.
In base all’AI ACT lo spettro della possibile applicazione dei sistemi di intelligenza artificiale in ambito giudiziario può essere molto ampio e l’autorità giudiziaria se ne potrebbe avvalere non solo nelle attività di ricerca e interpretazione sia dei fatti che della legge, ma anche nell’applicazione della legge a una seria concreta di fatti.
Sennonché, sia la considerazione preliminare che il n. 8 dell’allegato III utilizzano il verbo “assistere”.
Da ciò, si trae la conclusione che la finalità perseguita dal legislatore europeo esclude che i sistemi di IA possano svolgere un’attività sostitutiva. L’intelligenza artificiale è uno degli strumenti di cui può avvalersi l’autorità giudiziaria nella sua attività, ma rimane mero strumento con funzione servente e non può diventare essa stessa giudice.
A fronte di tale disciplina, buona parte della dottrina[3] ha rilevato che nonostante si tratti di sistemi ad alto rischio la disciplina del Regolamento Europeo soffre di una certa lacunosità e di un conseguenziale livello di armonizzazione non massimo, in considerazione degli spazi lasciati all’intervento legislativo degli Stati membri, sì da auspicare iniziative legislative degli Stati membri che, oltre che ammissibili nei limiti di cui all’art. 288 TFUE, sarebbero necessitate dai vuoti di regolazione della disciplina europea.
Le ragioni di tale impostazione sono qui condivise.
Nonostante il maggior dettaglio della disciplina europea per i settori ad alto rischio, non v’è dubbio che le disposizioni dedicate ai sistemi ad alto rischio trascendono i tratti distintivi dei singoli settori ordinamentali e, per quel che qui interessa, dell’amministrazione giudiziaria, determinando un’armonizzazione non esaustiva.
Nel concreto, sebbene l’AI ACT qualifica come “ad alto rischio” i sistemi di intelligenza artificiale che assistono giudici nell’interpretazione del diritto, nella valutazione di fatti, prove, responsabilità o nell’adozione di decisioni giurisdizionali, permane una certa lacunosità che riguarda essenzialmente il rapporto tra l’area delle attività strumentali e quelle riservate esclusivamente al giudice.
Così, a parere di chi scrive, i vuoti di tutela che appaiono più significativi riguardano la mancata limitazione del potere discrezionale dei giudici nazionali sull’uso dell’intelligenza artificiale nei processi decisionali e, quindi, delle condizioni in cui un giudice può (o non può) fondare una decisione sul risultato generato da un sistema di IA; il mancato richiamo alle garanzie fondamentali in materia di giustizia (difesa, contraddittorio, motivazione) disciplinate dalle costituzioni nazionali ( art. 111 Cost. in Italia), dalle norme processuali e dalla CEDU (art. 6 e 13); infine, ed in linea più generale, la mancata previsione del rapporto tra giudizio umano e assistenza algoritmica e la dichiarazione di prevalenza della riserva di umanità.
2. Il disegno di legge italiano sull’Intelligenza Artificiale e l’esigenza di rafforzamento delle garanzie costituzionali in materia di giustizia.
In questi vuoti di normazione si è incuneato il disegno di legge italiano di iniziativa governativa[4] che ha ritagliato regole ad hoc per l’amministrazione della giustizia italiana.
Per l’estrema delicatezza del settore, l’iniziativa legislativa del Governo italiano si è mossa nella direzione delle prerogative costituzionali della funzione giudiziaria conformandosi, nel contempo, in un’ottica multilivello, alle prescrizioni poste dall’AI ACT per le attività ad alto rischio.
Attualmente, la disposizione approvata in seconda lettura alla Camera e che allo stato non risulta emendata nel terzo ed ultimo passaggio in Senato sull’utilizzo dell’intelligenza artificiale nell’attività giudiziaria (art. 15), pur usando la tecnica della normazione per principi, fornisce, una disciplina dettagliata e volta ad implementare gli spazi lasciati vuoti dall’AI ACT.
La declinazione, in quattro commi, di principi normativi sull’uso dei sistemi dell’intelligenza artificiale nell’amministrazione della giustizia, rispecchia, in realtà, l’ordine di priorità dei valori che il disegno di legge si è dato per limitare i rischi connessi all’uso dell’intelligenza artificiale nell’amministrazione della giustizia. L’articolo15 così recita:
«1. Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti. 2. Il Ministero della giustizia disciplina gli impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie. 3. Fino alla compiuta attuazione del regolamento (UE) 2024/1689, la sperimentazione e l’impiego dei sistemi di intelligenza artificiale negli uffici giudiziari ordinari sono autorizzati dal Ministero della giustizia, sentite le autorità nazionali di cui all’articolo 20. 4. Il Ministro della giustizia, nell’elaborazione delle linee programmatiche sulla formazione dei magistrati di cui all’articolo 12, comma 1, lettera a), del decreto legislativo 30 gennaio 2006, n. 26, promuove attività didattiche sul tema dell’intelligenza artificiale e sugli impieghi dei sistemi di intelligenza artificiale nell’attività giudiziaria, finalizzate alla formazione digitale di base e avanzata, all’acquisizione e alla condivisione di competenze digitali, nonché alla sensibilizzazione sui benefici e rischi, anche nel quadro regolatorio di cui ai commi 2 e 3 del presente articolo. Per le medesime finalità di cui al primo periodo, il Ministro cura altresì la formazione del personale amministrativo.».
La norma si apre specificando subito le attività riservate all’attività esclusiva del magistrato[5] non delegabili alle macchine. Si tratta di tutte quelle attività che implicano un processo decisionale sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento incidente sull’esito del giudizio.
L’inequivocabile senso delle parole usate al comma 1 è in ragione dell’essenza squisitamente umana del processo decisionale, attività ritenuta non minimamente riproducibile attraverso la logica simbolica e che presuppone, sempre, l’assunzione di un metodo che consenta l’individuazione della fonte regolatoria appropriata e, soprattutto, di dettare in concreto la soluzione più adatta per il caso concreto.
È il giudice che è tenuto ad interpretare la legge (il che implica una scelta valoriale da effettuarsi in coerenza col sistema ordinamentale), a valutare i fatti e le prove (il che implica apprezzamento del contesto, credibilità e rilevanza), ad adottare il provvedimento giudiziario (il che è atto tipico di autorità).
Abdicare tali attività in favore delle macchine comporterebbe il rischio di affidare la decisione a modelli “black box” non interpretabili e di svuotare la figura del giudice della sua centralità antropologica, sostituendo il processo logico con un output computazionale con il venir meno delle garanzie costituzionali (artt. 24 e 111 Cost.).
In sostanza la norma, conformemente al quadro sovranazionale, pone un principio di “riserva della giurisdizione umana” e intende presidiare proprio le attività coincidenti con quelle elencate al numero 8, lettera a), dell’allegato III dell’AI Act (Amministrazione della giustizia e processi democratici), tra le quali rientrano quelle più intimamente connesse alla decisione giudiziaria.
La formulazione del principio enunciato al comma 1 non impedisce ma consente che i sistemi di intelligenza artificiale possano essere impiegati come supporto per il lavoro investigativo che non implica l’esercizio della funzione giurisdizionale.
Al fine di rimarcare il ruolo centrale del giudice, al comma 2 si ammette l’impiego di sistemi di intelligenza artificiale solo nello svolgimento di attività organizzative e di supporto all’esercizio delle funzioni giudiziarie. Allo scopo, il testo della norma fa riferimento alla semplificazione del lavoro giudiziario e alle attività amministrative accessorie per ricomprendere una vasta categoria di attività di supporto.
I successivi commi pongono in capo al Ministero della Giustizia sia la disciplina relativa gli impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie, sia l’autorizzazione alla sperimentazione e all’impiego di tali sistemi con ciò volendosi sgombrare il campo dal rischio di soggettive interpretazioni sull’uso delegabile dell’intelligenza artificiale e volendosi assicurare uniformità, certezza e parità di tutti gli uffici giudiziari.
La disposizione, attuando un preciso obbligo dell’AI ACT[6], si fa carico della formazione prevedendo che il Ministro della Giustizia, nell’elaborazione delle linee programmatiche per la formazione dei magistrati (ai sensi dell’art. 12, comma 1, lett. a) del d.lgs. 30 gennaio 2006, n. 26), promuova attività didattiche dedicate all’intelligenza artificiale e ai suoi impieghi nell’attività giudiziaria. Inoltre, per le stesse finalità, il Ministro è chiamato a curare anche la formazione del personale amministrativo della giustizia, riconoscendo quindi che l’impatto dell’IA coinvolge l’intera macchina giudiziaria, e non solo i magistrati. Tale disposizione è la conferma di quanto la formazione giudiziaria sia oggi una leva strategica dell’efficienza, della legittimazione e dell’innovazione della giustizia. E la scelta di porla in capo al Ministero della Giustizia appare dettata non solo da ragioni funzionali (art. 110 Cost.), ma anche da ragioni di politica legislativa perché è innegabile che costituisca uno strumento di politica pubblica che integra l’autonomia giurisdizionale con le esigenze di buon andamento dell’amministrazione. In un sistema multilivello complesso, come quello che include IA e diritto, la formazione consente alla magistratura e al personale giudiziario di affrontare con consapevolezza rischi e opportunità della transizione digitale.
È evidente, dunque, che nel disegnare il quadro dei principi di cui all’articolo 15, il disegno di legge italiano si è posto nel solco dei principi dettati dalla nostra Costituzione in materia di Giustizia.
Ed infatti, la visione spiccatamente antropocentrica dell’attività giudiziaria si ritrova già nella nostra Carta Costituzionale.
La centralità umana si ricava non solo dalla clausola generale dell’articolo 2 che impedisce ogni parificazione dell’uomo alla macchina ma anche al ruolo funzionalmente umano che la Costituzione riserva alla giurisdizione[7].
Il Giudice è soggetto soltanto alla legge in un’attività vincolata al ragionevole uso di principi e regole di cui si nutre quella legalità richiamata dall’art. 101 della Costituzione.
Egli è l’individuo nominato per concorso ed è anche beneficiario del principio di inamovibilità e di parità di cui all’art. 107 Cost.
Anche il modello del giusto processo di cui all’art. 111 Cost. ruota intorno alla persona fisica con i necessari attributi di terzietà ed imparzialità.
Alla luce di tale contesto valoriale, ove essenziale è l’apporto umano per una decisione appropriata al caso concreto, il problema si sposta sul rapporto tra la tecnologia e l’interprete e sul metodo per pervenire ad una decisione appropriata al caso concreto alla luce delle coordinate del personalismo solidale del nostro sistema ordinamentale.
4. L’intelligenza artificiale e l’argomentazione giuridica
È ferma la convinzione di chi scrive che è importantissima una riflessione di quanti operano nel mondo della giustizia e del diritto su come si possa stimolare la più conducente implementazione dello strumentario tecnologico, migliorandone i meccanismi di funzionalità nella consapevolezza che ci troviamo di fronte a un ausilio di enorme importanza ma che non potrà mai sostituire il giudizio umano.
Come rappresentato nel precedente scritto, in questa rivista, sul tema[8], è che se appare illusorio e riduttivo esaurire il ruolo dell’interprete a quello di chi è chiamato a rinvenire la norma nella singola disposizione di legge, riducendo il procedimento interpretativo a una sorta di equazione matematica, non si giustificherebbe la pretesa di costruire la scienza giuridica esclusivamente mediante logiche simbolico-formali che recano con sé la inevitabile conseguenza di uniformare il pensiero giuridico, inducendoci alla rassegnazione dell’esistenza per il giurista di un modo obbligato di pensare.
In tali termini centrale è il tema del metodo e l’esigenza che esso sia funzionale alla ricostruzione e alla effettiva attuazione di un sistema ordinamentale le cui coordinate rimangono quelle del personalismo solidale e in cui l’individuazione della regola più adeguata al singolo rapporto giammai può esaurirsi in una dimensione puramente linguistica e meno che mai di pura logica, sia pure rivestita della dignità del sillogismo e attraverso il richiamo alla tecnica della sussunzione.
Ragionare in tali termini significa anche volersi distanziare dal pensiero di quanti ritengono che gli algoritmi che governano i software allo stato più diffusi si fondino sulla collaudata tecnica della sussunzione di cui si nutre l’art. 12 delle preleggi, nonostante ormai gran parte della dottrina civilistica italiana, tra cui voci particolarmente autorevoli[9], consideri questa disposizione obsoleta e di fatto non più utilizzabile, addirittura probabilmente incostituzionale per ragioni metodologiche certamente condivisibili.
In particolare, laddove la norma in parola enuncia come criterio sussidiario il ricorso ai principi generali dell’ordinamento, principi, per contro, da applicarsi primariamente in un sistema segnato dal pluralismo e dalla gerarchia di fonti multilivello e nel quale nessun senso ha postulare il ricorso a precise disposizioni (per analogia legis) sulle quali, viceversa, l’interprete è chiamato a esercitare a sua volta un controllo che implica inevitabilmente l’individuazione di una ratio conforme ai fondamenti del sistema stesso.
L’impostazione che porta all’individuazione della disciplina più adeguata e giusta per il conflitto da dirimere reca con sé la presa d’atto della impossibilità di considerare del tutto omologhe due fattispecie, come pure di discernere ciò che è previsto, e come tale coperto dalla disposizione, e ciò che in tesi non è previsto e pertanto è escluso dalla portata applicativa della singola regola[10].
Come significativamente osservato, una siffatta netta distinzione continua ad esprimere l’affidamento dell’interprete ad una logica puramente formale, del tutto inadeguata rispetto all’esigenza già sottolineata di mettere in comunicazione il diritto e la giustizia, mantenendo quella separazione tra la conoscenza del diritto e il fine pratico della applicazione di esso, il cui superamento è invece alla base della impostazione in esame. Autorevole dottrina afferma in proposito, assai incisivamente, che siffatta fallace separazione ci consegnerebbe una scienza giuridica che non sarebbe giurisprudenza e una giurisprudenza che in alcun modo potrebbe essere scienza[11].
Se, dunque, appare illusorio e riduttivo esaurire il ruolo dell’interprete a quello di chi è chiamato a rinvenire la norma nella singola disposizione di legge, riducendo il procedimento interpretativo a una sorta di equazione matematica, non si giustifica la pretesa di costruire la scienza giuridica esclusivamente mediante logiche simbolico-formali che recano con sé la inevitabile conseguenza di uniformare il pensiero giuridico, inducendoci alla rassegnazione dell’esistenza per il giurista di un modo obbligato di pensare.
Ecco, quindi, che si torna al metodo e alla esigenza che esso sia funzionale alla ricostruzione e alla effettiva attuazione di un sistema ordinamentale le cui coordinate rimangono quelle del personalismo solidale e in cui l’individuazione della regola più adeguata al singolo rapporto giammai può esaurirsi in una dimensione puramente linguistica e meno che mai di pura logica, sia pure rivestita della dignità del sillogismo e attraverso il richiamo alla tecnica della sussunzione.
Anche a voler ragionare in base all’attuale contesto normativo sull’intelligenza artificiale, e segnatamente, sulla previsione dell’articolo 15 del disegno di legge italiano posta in ragione dell’essenza squisitamente umana del processo decisionale, siamo tutti chiamati a rifuggire gli eccessi del razionalismo e della logica per realizzare la più alta finalità dell’ermeneutica che è quella di individuare, in una leale collaborazione tra teoria e prassi, la giusta modalità di concretizzazione di principi e regole per arrivare alla soluzione più rispondente ai valori posti alla base di quel progetto irrinunciabile di giustizia di cui l’ordinamento si nutre.
Se il compito dell’interprete ed in particolare del giudice è quello da più parti a gran voce e autorevolmente rivendicato, di andare al di là delle forme per comprendere appieno l’atteggiarsi delle relazioni nell’ambito della evoluzione dei sistemi sociali, individuando la ‘giusta’ soluzione del conflitto in rapporto ai principi e ai valori fondanti, in questa prospettiva assume particolare valenza il metodo dell’argomentare.
Eminenti personalità della nostra dottrina[12] ci hanno insegnato, infatti, che il problema va risolto nel sistema, nel pieno rispetto dei principi. E questo vale ancor più nel presente in cui si impone che buona parte della legislazione vigente, proprio perché promanante da un sistema di fonti di enorme complessità e di diversi livelli, sia interpretata, verificandone la conformità a norme sopravvenute o gerarchicamente sovraordinate, al fine di renderla applicabile a nuove fattispecie o a fattispecie che hanno acquisto, nel tempo, diversa valenza.
Ed allora l’equilibrio tra principi, e ancor più in generale tra disposizioni normative, è un equilibrio da rinvenirsi attraverso una dialettica costante tra l’ordine dei principi e la realtà del fatto, di quel fatto, senza che ovviamente ciò legittimi il superamento del diritto positivo, che anzi ne è il presupposto. La scelta ermeneutica, nel rispetto di regole e principi prefissati, presuppone la rilevanza di entrambi gli aspetti, senza che sia possibile rilevare in ciò alcuna contraddittorietà.
Cosicché, anche la definizione “metodo induttivo” – evocato dai più rispetto all’uso e all’elaborazione dei dati - appare riduttiva e parziale, giacché quando il Giudice, nella motivazione, fa riferimento ai principi, espressi o inespressi, ne riconosce la normatività e non fa altro che applicare il diritto positivo. E questo non vuol dire che la sua sia un’attività puramente dichiarativa, come non può significare che sia attività creativa, dal nulla o dal basso, perché è pur sempre vincolata al ragionevole uso di principi e regole di cui si nutre quella legalità richiamata dall’art. 101 della Costituzione.
In un sistema le cui coordinate rimangono salde, l’individuazione della regola più adeguata al singolo rapporto non può esaurirsi in una dimensione puramente linguistica e meno che mai di pura logica simbolica, sia pure con la dignità del sillogismo e della tecnica della sussunzione. Prima ancora, quindi, e di là dalle implicazioni in tema di tutela dei dati e della persona, siamo tutti chiamati a rifuggire gli eccessi della razionalità e della logica, spesso paludamento di visioni tendenzialmente nichiliste, per realizzare la più alta finalità dell’ermeneutica: quella di individuare, nel confronto con i fatti, la più alta modalità di concretizzazione di principi e regole. Quella che mette capo alla soluzione più rispondente ai valori giuridificati di cui l’ordinamento si nutre.
Così, per arrivare al cuore della riflessione che qui si tenta di fare, l’uso di algoritmi idonei a predire le soluzioni giurisprudenziali, utilizzando enorme mole di dati e metodi probabilistici o statistici, lungi dal limitarsi a ravvisare nell’argomentazione giuridica una materia logico-matematica, e prima ancora di porsi il problema del corretto trattamento dei dati che utilizza, deve tendere ad adeguarsi, attraverso lo sviluppo del ritrovato tecnologico, alle esigenze dell’oggetto stesso dell’argomentazione in parola.
Alla soluzione corretta e giusta, infatti, non può considerarsi estraneo il ricorso a quella sensibilità necessaria a cogliere le sfumature irripetibili delle dinamiche di interessi in gioco. E ancor qui mi verrebbe da chiedere se sia davvero conducente utilizzare enorme mole di dati altri o dati sintetici.
La giustizia oltre che dall’incertezza delle soluzioni, è messa in pericolo anche dall’incasellamento acritico in soluzioni preconfezionate, valide per tutti i contesti.
La certezza del diritto, peraltro, non è garantita dalla ripetitività delle soluzioni, giacché altro è affermare che la prevedibilità è utile per gli operatori, altro è pensare di costruire la scienza giuridica unicamente mediante la logica simbolica, avvalendosi dell’intelligenza artificiale laddove fosse allo stato capace riprodurre solo alcuni meccanismi intellettuali.
In altri termini, il processo mentale dell’uomo-interprete, il percorso argomentativo che mette capo alla decisione, risente di fattori che possono sfuggire alla logica sillogistica che appartengono in parte alla peculiarità del fatto, in parte ai concreti interessi delle parti e ai valori della Giustizia, in un contesto mutevole per definizione, perché soggetto alla Storia prima ancora che alle trasformazioni della Società.
In conclusione, ogni discorso sul metodo si debba compendiare nella necessità di ribadire con forza che il diritto è scienza sociale e umana, è dell’uomo e per l’uomo e che le generazioni future, quelle della società digitale e del compiuto sviluppo dei sistemi intelligenti, dovranno rimanere consapevoli del proprio ruolo, che dal punto di vista di chi scrive è quello di rendere la fredda astrattezza e generalità della legge sempre vicina e aderente alla concretezza, alla specificità, alla unicità ed alla umanità del fatto.
La tecnica, dunque, al servizio dell’uomo. Il pensiero tecnico non quale verità assoluta che ha come scopo quello di sostituirsi al pensiero umano. Lo sforzo dell’uomo deve essere quello di concepire un pensiero che si ponga al di sopra del pensiero tecnico, governandolo e ripristinando l’equilibrio turbato dalla pretesa dell’asservimento dell’uomo alla tecnica e non della tecnica al servizio dell’uomo.
Un pensiero che si ispiri all’etica di quei valori che fondano l’ordinamento giuridico vigente.
La rivoluzione digitale dell’intelligenza artificiale è in atto e occorre confidare davvero che l’umanità, come la storia dei grandi passaggi epocali dimostra, saprà certamente indirizzarla al meglio.
L’autrice è consigliera della Corte di Cassazione.
[1] [Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024che stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull'intelligenza artificiale), pubblicato sulla Gazzetta Ufficiale dell’Unione Europea Serie L del 12 luglio 2024.-
[2] Nella classificazione quale sistema ad alto rischio dell’amministrazione della giustizia, l’AI ACT si pone nel solco dei principi della Carta Etica per l’uso dell’Intelligenza Artificiale nei sistemi giudiziari, adottata dalla Commissione Europea per l’Efficienza della Giustizia (CEPEJ) nel 2018, documento in cui si enfatizza l’uso dell’IA come strumento di supporto e non sostitutivo del ruolo del giudice.
[3] C. Burelli, Prime brevi considerazioni sul “ddl intelligenza artificiale”: incompatibilità o inopportunità?, Quaderni AISDUE, ISSN 2975 -2698 che, in considerazione del tenore del regolamento non eccessivamente prescrittivo, ritiene “che il grado di armonizzazione, se non propriamente minimo, non sia in senso stretto nemmeno massimo” sì da paragonare il regolamento più a una direttiva che non a un regolamento in senso stretto; per il procedimento amministrativo e le implicazioni sul piano del sistema multilivello delle fonti v. G. Gallone, L’improcrastinabile esigenza di tracciare una via “italiana” per l’intelligenza artificiale nel procedimento amministrativo. Opportunità e legittimità di un intervento regolatorio nazionale a corredo dell’AI Act, in Giustizia Insieme, maggio 2025 ove l’autore evidenzia le lacune normative dell’AI ACT nel procedimento amministrativo
[4] Il Governo italiano il 23 aprile 2024 ha approvato il “Disegno di legge per l’introduzione di disposizioni e di delega al Governo in materia di intelligenza artificiale”, presentato in data 20 maggio 2024 al Senato, che lo ha approvato, con modifiche, in data 20 marzo 2025. La Camera ha poi approvato il testo, con modificazioni, in data 25 giugno 2025. Attualmente il disegno di legge è in corso d’esame in commissione al Senato in terza lettura.
[5] Il testo della norma è stato modificato al primo passaggio in Senato sostituendosi la parola “esclusivamente” con la parola “sempre”. Ciò anche per venire incontro alle osservazioni della Commissione europea che, a seguito di interlocuzioni informali, ha rilevato che l’esclusività della riserva avrebbe potuto non essere allineata con l’articolo dall’art. 6, co. 2, in combinato disposto con l’allegato III, n. 8. Nella sostanza il significato della norma non muta volendo chiaramente significare che non possono essere delegate alle macchine le funzioni essenziale dell’attività giurisdizionali che implicano una valutazione in termini decisionali.
[6] L’art. 29 Reg. (UE) 2024/1689 (Obblighi degli utilizzatori di sistemi di IA ad alto rischio), stabilisce che l’utilizzatore di un sistema di IA ad alto rischio deve «Disporre di conoscenze, competenze e formazione adeguate in merito all’utilizzo del sistema di intelligenza artificiale ad alto rischio.» e deve anche «Comprendere il funzionamento, le capacità, i limiti e i rischi del sistema, nonché essere in grado di monitorarlo e utilizzarlo in modo appropriato.»
[7] M. Luciani, La decisione giudiziaria robotica, in rivista AIC, 3, 2018, 872 e ss.; F.G. Pizzetti, La Costituzione e l’uso in sede giudiziaria delle neurosceinze (e dell’intelligenza artificiale) spunti di riflessione, in BioLaw Journal Rivista di Bio diritto: G. Gallone, Riserva di umanità e funzioni amministrative. Indagine e limiti dell’automazione tra procedimento e processo, Padova, 2023.
[8] R. D’Angiolella, L’Intelligenza Artificiale nei processi decisionali: il pericolo per la giustizia, in Giustizia Insieme, 4 novembre 2023, sull’inadeguatezza del metodo algoritmo per i processi decisionali
[9] N. Lipari, Il diritto civile tra legge e giudizio, Cap. VIII, Il ruolo del giudice nella crisi delle fonti del diritto, pagg. 217-234, Giuffrè, Milano, 2017; Id. Intorno ai «principi generali del diritto» in Riv. dir. civ. 2016, p. 28 ss.; p. 34; P. Perlingieri, Il diritto civile nella legalità costituzionale secondo il sistema italo-europeo delle fonti, V ed., Napoli, 2020, vol. II, p. 380 ss.; G. Capograssi, L’interpretazione, in Id., Il problema della scienza del diritto, Milano, 1962, p. 114; P. Femia, Decisori non gerarchizzabili, riserve testuali, guerra fra Corti. Con un (lungo) intermezzo spagnolo, in L. Mezzasoma, V. Rizzo e L. Ruggeri, Il controllo di legittimità costituzionale e comunitaria come tecnica di difesa, Napoli 2010, p. 148 ss..
[10] F. Viola, La legalità del caso, in I rapporti civilistici nell’interpretazione della Corte costituzionale. La Corte costituzionale nella costruzione dell’ordinamento attuale, Atti del II Convegno nazionale S.I.S.Di.C., Napoli, 2007, p. 315 ss.
[11] N. Lipari, Vivere il diritto (a colloquio con Gabriele Carapezza, Figlia, Vincenzo Cuffaro e Francesco Macario) Napoli 2023, pp. 81 e 82.
[12] U. Scarpelli, Dalla legge al codice, dal codice ai principi in Riv di filosofia, 1978, p. 5 ss.; P. Perlingieri, Complessità e unitarietà dell’ordinamento giuridico vigente, in Rass. Dir. civ., 2005, p. 188 ss.; P. Grossi, Ritorno al diritto, Roma-Bari, 2015, p. X, nonché G Benedetti, «Ritorno al diritto» ed ermeneutica dell’effettività, in Riv. trim dir. e proc. civ., 2018, p. 763 ss.