Il presente contributo offre una prima riflessione sistematica sulla Legge 135/2025 in materia di intelligenza artificiale, con particolare riguardo all’art. 15 e all’uso dei sistemi di IA nell’attività giudiziaria. Muovendo dall’analisi del bilanciamento tra autonomia del magistrato e potere autorizzatorio ministeriale, il lavoro indaga la coerenza costituzionale e il rapporto con il quadro eurounitario delineato dal Regolamento (UE) 2024/1689 (AI Act). La trattazione si estende alle prospettive di armonizzazione internazionale, considerando la Raccomandazione UNESCO 2021 e le più recenti indagini empiriche sul ruolo dell’IA nella giustizia. Emergono riflessioni sul valore probatorio dei documenti redatti con strumenti di IA, sull’onere argomentativo del giudice e sulla progressiva trasformazione del potere ministeriale da autorizzatorio a gestionale, in un contesto di crescente autonomia e responsabilità giurisdizionale.
Sommario: 1. Premessa metodologica e inquadramento normativo – 2. La topografia normativa e l'ermeneutica sistematica dell'art. 15 - 2.1. Il principio di riserva giurisdizionale (comma 1) - 2.2. Il potere autorizzatorio ministeriale (comma 3) e le questioni di competenza costituzionale - 2.3. L'ambito oggettivo della disciplina ministeriale (comma 2): una tricotomia problematica - 2.4. La questione della fonte normativa e del coinvolgimento degli organi costituzionali - 3. Il documento elettronico e la questione della validità probatoria – 3.1. Il Regolamento eIDAS e il principio di equivalenza formale - 3.2. Il Codice dell'Amministrazione Digitale e la libera valutazione del giudice - 3.3. La presunzione relativa di inaffidabilità e il suo superamento - 4. Il regime transitorio e la sua operatività nella dialettica con il diritto eurounitario – 4.1. La natura provvisoria del potere autorizzatorio e la sua scadenza funzionale - 4.2. Le problematiche della fase transitoria: clausola di invarianza finanziaria e risorse tecniche - 5. Le conseguenze dell'utilizzo di sistemi non autorizzati: il problema del regime sanzionatorio – 5.1. I profili disciplinari - 5.2. I profili processuali: inesistenza e nullità - 6. La compatibilità con il Regolamento UE 2024/1689 e la questione dei sistemi ad alto rischio – 6.1. L'interpretazione conforme e l'armonizzazione dei livelli di tutela - 6.2. La giurisprudenza della Corte di giustizia e il principio di trasparenza sostanziale - 6.3. La giurisprudenza nazionale: orientamenti emergenti 7. La prospettiva internazionale: UNESCO e governance responsabile – 8. Conclusioni.
1. Premessa metodologica e inquadramento normativo
L'adozione della Legge 25 settembre 2025, n. 132[1], recante "Disposizioni e deleghe al Governo in materia di intelligenza artificiale", costituisce un intervento legislativo di peculiare rilevanza sistematica nell'ordinamento nazionale, segnando una tappa fondamentale nel processo di regolamentazione dell'impiego dei sistemi di intelligenza artificiale in ambito giudiziario. L'articolo 15, dedicato specificamente all'"attività giudiziaria", introduce un regime normativo caratterizzato da una duplice valenza: da un lato, stabilisce un principio di riserva decisionale in capo al magistrato; dall'altro, istituisce un meccanismo di autorizzazione preventiva, rimesso alla competenza del Ministero della Giustizia, per i sistemi impiegati "negli uffici giudiziari".
Tale previsione normativa, nella sua apparente linearità formulativa, dischiude in realtà una pluralità di interrogativi dirimenti che investono profili di legittimità costituzionale, compatibilità con il diritto eurounitario e operatività concreta. Si pone, in particolare, il problema della compatibilità di un potere autorizzatorio dell'esecutivo con i principi di autonomia e indipendenza della magistratura, consacrati negli artt. 101, comma 2, 104 e ss. Cost., specialmente laddove il magistrato, al di fuori del contesto organizzativo dell'ufficio, faccia ricorso a strumenti tecnologici non previamente inclusi nel novero di quelli autorizzati.
2. La topografia normativa e l'ermeneutica sistematica dell'art. 15
2.1. Il principio di riserva giurisdizionale (comma 1)
Un'analisi sistematica dell'articolo 15 impone di distinguere accuratamente tra l'ambito organizzativo, proprio dell'amministrazione giudiziaria, e quello giurisdizionale, presidio inviolabile dell'autonomia decisionale del magistrato. Il comma 1 sancisce inequivocabilmente la riserva al giudice di ogni decisione "sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti", indipendentemente dal locus in cui l'attività si svolge[2].
Tale disposizione si inserisce nel quadro delineato dal Regolamento (UE) 2024/1689 (c.d. AI Act), il quale, all'allegato III, contempla tra i sistemi ad alto rischio quelli "destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti". Tuttavia, il considerando 61 del medesimo Regolamento precisa che "l'utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un'attività a guida umana".
Seguendo il canone di interpretazione restrittiva, applicabile alle norme che comprimono diritti o libertà, si deve concludere che il potere ministeriale non possa estendersi agli strumenti di cui il magistrato si avvalga uti privatus. Ne risulta confermata la distinzione tra funzione organizzativa e funzione giurisdizionale: la coerenza interpretativa tra le due disposizioni normative impone di riconoscere che l'attività giudiziaria "in senso stretto" non possa essere oggetto di mera automazione algoritmica. Il sistema può essere impiegato nell'interpretazione del diritto o nella ricerca giurisprudenziale, ma senza procedere autonomamente alla individuazione del risultato interpretativo. In altri termini, la paternità intellettuale delle attività elencate nel comma 1 non può costituire il semplice derivato di un'acquisizione meramente formale -- mediante sottoscrizione dell'atto contenente il risultato -- bensì deve rappresentare il frutto di una decisione sostanziale di matrice umana, impermeabile all'operatività di un algoritmo.
Tale lettura trova conforto nella giurisprudenza della Corte di giustizia dell'Unione europea che, nella sentenza del 27 febbraio 2025 (causa C-203/22, C.K. / Dun & Bradstreet Austria GmbH)[3], ha affermato che l'uso di processi decisionali algoritmici non può sottrarsi al sindacato giurisdizionale e deve essere accompagnato da un obbligo di trasparenza sostanziale: l'interessato ha diritto non solo a conoscere l'esito numerico di uno scoring automatizzato, ma anche le informazioni necessarie e sufficienti a comprenderne la logica interna, affinché sia possibile verificarne la correttezza e la non discriminazione. Il meccanismo decisionale diviene invalido se la sentenza, anche quando redatta con l'ausilio di sistemi di IA, non espliciti i criteri logici e le informazioni determinanti, precludendo così il controllo effettivo.
2.2. Il potere autorizzatorio ministeriale (comma 3) e le questioni di competenza costituzionale
Il comma 3 dell'art. 15 della legge 132/2025 attribuisce al Ministero della giustizia il potere di autorizzare "la sperimentazione e l'impiego dei sistemi di intelligenza artificiale negli uffici giudiziari ordinari", previa consultazione delle autorità nazionali di cui all'articolo 20 (AgID e ACN). Tale previsione solleva rilevanti questioni di legittimità costituzionale alla luce dell'art. 110 Cost., che attribuisce al Ministro la competenza in materia di "organizzazione e funzionamento dei servizi relativi alla giustizia".
Come autorevolmente rilevato dalla Sesta Commissione del Consiglio Superiore della Magistratura nel parere deliberato il 24 settembre 2025, «la disciplina ministeriale esulerebbe dall'ambito dell'organizzazione e del funzionamento dei servizi relativi alla giustizia [...], interferendo nel concreto esercizio dell'attività giurisdizionale»[4]. Le attendibili funzionalità di sistemi di intelligenza artificiale destinati ad operare nei settori contemplati dal comma 2 dell'art. 15 -- organizzazione dei servizi, semplificazione del lavoro giudiziario, attività amministrative accessorie -- involgono infatti attività collaterali alla giurisdizione, ma potenzialmente in grado di incidere direttamente sulla qualità e l'efficienza dell'esercizio della stessa e, conseguentemente, sulla organizzazione degli uffici.
Particolarmente critico, nella delibera del Consiglio Superiore della Magistratura, appare il mancato coinvolgimento dell'Organo di autogoverno nella fase autorizzativa. La Sesta Commissione ha evidenziato come «l'attribuzione di funzioni regolatorie e di governance all'AgID e all'ACN appaia in linea con la moderna tendenza ad attribuire poteri di regolazione tecnica di ampi settori del mercato ad autorità amministrative indipendenti e agenzie governative, in virtù della loro elevata specializzazione tecnica». Tuttavia, deve sottolinearsi che «AgID e ACN non sono autorità amministrative indipendenti [...] bensì agenzie governative non indipendenti che, gestendo interessi e attività di rilevanza strategica, sono sottoposte a un più marcato controllo e indirizzo politico».
L'art. 14-bis, comma 1, del d.lgs. 7 marzo 2005, n. 82 (Codice dell'amministrazione digitale[5]) stabilisce infatti che l'AgID esercita le funzioni e competenze tecniche attribuite «in coerenza con gli indirizzi dettati dal Presidente del Consiglio dei ministri o dal Ministro delegato»: trattasi, dunque, di un'autorità di governo non indipendente. Analogamente, l'ACN opera secondo gli indirizzi del Governo e, in particolare, del Presidente del Consiglio dei ministri, al quale spetta «l'alta direzione e la responsabilità generale delle politiche di cybersicurezza» (art. 2, d.l. 82/2021).
La designazione di tali organismi quali interlocutori unici del Ministero della giustizia nella regolamentazione e governance delle applicazioni dell'intelligenza artificiale negli uffici giudiziari, in assenza di un coinvolgimento sostanziale del Consiglio Superiore della Magistratura, appare in potenziale contrasto con l'esigenza di garantire l'indipendenza e l'autonomia della magistratura, pilastro dello Stato di diritto consacrato dagli artt. 101, comma 2, 104 e ss. Cost.
2. 3. L'ambito oggettivo della disciplina ministeriale (comma 2): una tricotomia problematica
Il comma 2 dell'art. 15 prevede che «il Ministero della giustizia disciplina gli impieghi dei sistemi di intelligenza artificiale per l'organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie». Tale disposizione delinea una tripartizione funzionale che, se da un lato appare aderente alla distinzione operata dal considerando 61 del Regolamento UE 2024/1689, dall'altro solleva delicate questioni interpretative circa la perimetrazione concreta di ciascuna categoria.
Il Regolamento, infatti, esclude dalla classificazione dei sistemi ad alto rischio «i sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi». La formula utilizzata -- "puramente accessorie" -- implica una valutazione qualitativa rigorosa circa l'effettiva incidenza sull'amministrazione della giustizia.
Come rilevato dalla dottrina e dal dibattito professionale emerso nel biennio 2024-2025, particolarmente problematica risulta la categoria della "semplificazione del lavoro giudiziario". Si pensi, ad esempio, alla distribuzione automatizzata degli affari tra i magistrati dell'ufficio: tale attività, pur non coinvolgendo direttamente l'attività di ius dicere, investe necessariamente l'identificazione dell'oggetto della controversia e, quindi, la categorizzazione giuridica e la qualificazione delle azioni. Analoghe considerazioni devono essere svolte con riguardo a sistemi di IA in grado di fornire in automazione la priorità tra procedimenti nella trattazione delle cause (art. 132-bis disp. att. c.p.c.) e nell'esercizio dell'azione penale, in conformità ai progetti organizzativi degli uffici di Procura (art. 3-bis disp. att. c.p.p.)5.
La distinzione tra attività amministrative "puramente accessorie" e attività incidenti sull'amministrazione della giustizia assume particolare rilevanza alla luce del regime giuridico differenziato: solo le prime esulano dalla categoria dei sistemi ad alto rischio e, conseguentemente, dalla necessità di conformarsi ai rigorosi requisiti previsti dal Capo III del Regolamento UE 2024/1689 (artt. 9-15: sistema di gestione dei rischi, governance dei dati, documentazione tecnica, trasparenza, sorveglianza umana, accuratezza, robustezza e cibersicurezza).
Si pone inoltre il problema della qualificazione giuridica di attività come il calcolo dei termini di prescrizione o dei termini cautelari massimi: come autorevolmente sostenuto nel parere della Sesta Commissione, «sembra difficilmente plausibile [...] che nell'ottica del Regolamento possano essere considerate come amministrative accessorie le attività comunque comportanti l'applicazione di norme di diritto; quindi, quelle compiute nell'esercizio della giurisdizione». Il Regolamento circoscrive infatti le attività non ad alto rischio alle attività amministrative "puramente" accessorie, «precisando proprio che esse non devono incidere sull'amministrazione della giustizia nei singoli casi».
2.4. La questione della fonte normativa e del coinvolgimento degli organi costituzionali
Un profilo di particolare criticità concerne l'indeterminatezza della fonte normativa chiamata a disciplinare gli impieghi dei sistemi di IA. Il comma 2 si limita a stabilire che «il Ministero della giustizia disciplina» tali impieghi, senza specificare lo strumento normativo da adottare. Come rilevato dalla Sesta Commissione, «parrebbe opportuno un intervento chiarificatore del legislatore sul punto, al fine di sciogliere ogni dubbio interpretativo».
Tenuto conto del contenuto della materia e della sua incidenza sull'attività giudiziaria -- e, anche indirettamente, sul procedimento giurisdizionale -- appare coerente con il principio di legalità sostanziale e con la riserva di legge in materia di organizzazione giudiziaria (art. 108 Cost.) l'adozione di un regolamento governativo, ai sensi dell'art. 17, comma 1, lett. b), l. 400/1988 (regolamento di esecuzione). Potrebbe inoltre essere valutata l'opportunità di prevedere che la disciplina venga adottata mediante regolamento di attuazione all'esito della previsione di norme di principio con legge ordinaria, stante il riflesso dell'impiego dei sistemi sulla tutela di diritti costituzionalmente garantiti (diritto di difesa ex art. 24 Cost., giusto processo ex art. 111 Cost.).
Quanto al mancato coinvolgimento del Consiglio Superiore della Magistratura, la questione assume una valenza sistematica che trascende il mero profilo procedimentale. Come evidenziato nel parere del 24 settembre 2025, «le informazioni e gli strumenti di conoscenza a disposizione del Consiglio in tema di organizzazione ed informatizzazione degli uffici rischiano altrimenti di non confluire nel processo di elaborazione della disciplina regolatoria dell'utilizzo dei sistemi di intelligenza artificiale nel settore dell'attività giudiziaria». Si è ormai consolidato quel circuito virtuoso che vede il Consiglio, in particolare la Settima Commissione e la Struttura Tecnica per l'Organizzazione, interfacciarsi regolarmente con i RID (Referenti Informatici Distrettuali) ed i MAGRIF (Magistrati di riferimento per l'informatica), anche attraverso i periodici incontri di formazione e aggiornamento.
La regolamentazione dell'uso dei sistemi di intelligenza artificiale negli uffici, anche in ambiti ancillari, non può dunque prescindere dal contributo del Consiglio Superiore della Magistratura, organo costituzionale che, in quanto garante dell'autonomia e dell'indipendenza della magistratura, rappresenta l'interlocutore istituzionale imparziale necessario quale contrappeso agli attori politici nella governance di strumenti tecnologici che incidono sull'esercizio della funzione giurisdizionale.
De iure condendo, appare opportuna la previsione di un parere obbligatorio del CSM -- pur se non vincolante -- sulla disciplina ministeriale di cui al comma 2, nonché sui singoli provvedimenti autorizzativi di cui al comma 3, quantomeno con riferimento ai sistemi destinati alla "semplificazione del lavoro giudiziario". Analogamente, appare necessario l'apporto del Consiglio Nazionale Forense, attesa la prospettiva degli operatori del processo, fondamentale al fine di comprendere i risvolti dell'utilizzo dei sistemi nel concreto e quotidiano espletamento dell'attività giudiziaria.
3. Il documento elettronico e la questione della validità probatoria
3.1. Il Regolamento eIDAS e il principio di equivalenza formale
Anche a voler configurare l'uso di un sistema non autorizzato come un'irregolarità procedimentale, ciò non determinerebbe di per sé l'invalidità dell'atto. Il Regolamento (UE) n. 910/2014 (eIDAS[6]), all'articolo 46, stabilisce infatti che a un documento elettronico non possono essere negati effetti giuridici o ammissibilità probatoria per il solo fatto della sua forma[7]. Una sentenza redatta con l'ausilio di un sistema di IA, sebbene non previamente autorizzato, non può dunque essere respinta ab origine. Essa rientra a pieno titolo nella categoria del documento elettronico e deve essere valutata secondo i criteri ordinari.
3.2. Il Codice dell'Amministrazione Digitale e la libera valutazione del giudice
Nell'ordinamento interno, il Codice dell'Amministrazione Digitale (D.Lgs. 82/2005), all'articolo 20, comma 1-bis, prevede che l'idoneità del documento informatico e il suo valore probatorio siano oggetto di libera valutazione da parte del giudice, alla luce delle caratteristiche di sicurezza, integrità e immodificabilità7. È stato peraltro osservato, nel dibattito di categoria, che sul giudice gravi un preciso onere argomentativo, volto a dimostrare se e come l'impiego di uno specifico strumento abbia effettivamente compromesso tali caratteristiche[8]. Tale onere può apparire gravoso, ma costituisce il necessario presidio a tutela della trasparenza e del contraddittorio.
3.3. La presunzione relativa di inaffidabilità e il suo superamento
In questa prospettiva, la mancata autorizzazione ministeriale non produce automaticamente invalidità, ma alimenta semmai una presunzione relativa di inaffidabilità. È stato rilevato che tale presunzione non è assoluta: essa può essere superata dal giudice attraverso un apprezzamento autonomo, anche con il supporto di ausiliari tecnici, che consenta di verificare il grado di trust attribuibile allo strumento utilizzato. È stato altresì notato come, in taluni casi, anche sistemi non formalmente autorizzati possano offrire de facto garanzie tecniche e contrattuali sufficienti a soddisfare i requisiti di legge, sicché nulla impedisce al giudice di attribuire pieno valore probatorio all'atto, ove tale verifica risulti positiva.
4. Il regime transitorio e la sua operatività nella dialettica con il diritto eurounitario
4.1. La natura provvisoria del potere autorizzatorio e la sua scadenza funzionale
Il comma 3 dell'art. 15 delinea un regime transitorio destinato a operare «fino alla compiuta attuazione del regolamento (UE) 2024/1689». Il Regolamento, pubblicato nella Gazzetta ufficiale dell'Unione europea il 12 luglio 2024, costituisce il primo quadro normativo vincolante a livello globale sull'intero spettro dell'intelligenza artificiale10. La sua applicazione avverrà in modo scaglionato: mentre i divieti assoluti (Capo II) e gli obblighi di alfabetizzazione digitale sono immediatamente operativi dal 2 febbraio 2025, le disposizioni relative ai sistemi ad alto rischio troveranno piena applicazione dal 2 agosto 2027 (art. 6, paragrafo 1, e corrispondenti obblighi).
Il potere autorizzatorio attribuito al Ministero della Giustizia appare, a ben vedere, intrinsecamente transitorio. Lo stesso articolo 15 ne circoscrive l'efficacia temporale, facendolo cessare con la piena attuazione del Regolamento. È emerso nel dibattito di categoria che, una volta pienamente operativo, il nuovo regime non lascerà spazi a discrezionalità nazionali: il ruolo ministeriale muterà da quello di autorizzatore a quello di mero gestore e procuratore delle soluzioni certificate a livello europeo, con la sola facoltà di selezionare e mettere a disposizione degli uffici i sistemi già validati11.
Questa evoluzione trova conferma nell'architettura del Regolamento, fondata su una classificazione dei rischi che vieta le pratiche considerate inaccettabili (art. 5), sottopone i sistemi ad alto rischio a rigorosi meccanismi di conformità e marcatura CE (artt. 16-51), e impone obblighi di trasparenza per i sistemi a rischio limitato (artt. 50-51). L'art. 57, paragrafo 1, prevede inoltre che «gli Stati membri provvedono affinché le loro autorità competenti istituiscano almeno uno spazio di sperimentazione normativa per l'IA a livello nazionale, che sia operativo entro il 2 agosto 2026».
4.2. Le problematiche della fase transitoria: clausola di invarianza finanziaria e risorse tecniche
Un profilo di peculiare criticità concerne la sostenibilità operativa del potere autorizzatorio ministeriale nella fase transitoria, stante la clausola di invarianza finanziaria prevista dall'art. 27 del disegno di legge. Come rilevato dalla Sesta Commissione dal Consiglio Superiore della Magistratura nel precitato parere, «si pone [...] la questione della sussistenza o meno delle adeguate risorse tecniche, in capo al Ministero, finalizzate all'emissione dell'autorizzazione alla sperimentazione e all'impiego dei sistemi».
La complessità tecnica dell'assessment di conformità dei sistemi di IA -- che richiede la valutazione di profili quali la governance dei dati, la documentazione tecnica, la sorveglianza umana, l'accuratezza, la robustezza e la cybersicurezza (cfr. artt. 10-15 Regolamento UE 2024/1689) -- presuppone competenze altamente specialistiche e strumenti di verifica tecnica che difficilmente possono essere acquisiti o sviluppati in regime di invarianza finanziaria.
Tale questione assume maggiore pregnanza se si considera che, come evidenziato nel parere CSM, l'AgID e l'ACN sono designate quali Autorità nazionali per l'intelligenza artificiale ai sensi dell'art. 20 del disegno di legge, con competenze, fra l'altro, sull'istituzione e gestione di "spazi di sperimentazione" anche con riferimento ai sistemi applicabili all'attività giudiziaria. Orbene, il comma 3 dell'art. 15 prevede che tali autorità vengano meramente "sentite" dal Ministero, secondo un meccanismo consultivo che, nella fase transitoria, inverte il rapporto decisorio rispetto al regime definitivo (ove sarà AgID/ACN a decidere, sentito il Ministero).
5. Le conseguenze dell'utilizzo di sistemi non autorizzati: il problema del regime sanzionatorio
5.1. I profili disciplinari
Una questione di peculiare rilevanza sistematica concerne le conseguenze giuridiche derivanti dall'impiego di sistemi di IA non autorizzati ai sensi del comma 3. Il disegno di legge non prevede esplicitamente sanzioni a carico del magistrato che utilizzi impropriamente un sistema di intelligenza artificiale nell'adozione di un provvedimento, rimettendo evidentemente alle ordinarie misure disciplinari previste dal d.lgs. n. 109/2006.
Sul piano disciplinare, potrebbe configurarsi l'inosservanza dell'art. 2, comma 1, lett. n), d.lgs. n. 109/2006, che sanziona «la reiterata o grave inosservanza delle norme regolamentari, delle direttive o delle disposizioni sul servizio giudiziario o sui servizi organizzativi e informatici adottate dagli organi competenti». Potrebbero altresì prospettarsi le violazioni di cui alle lett. a) (comportamenti che, violando i doveri di cui all'art. 1, arrecano ingiusto danno o indebito vantaggio ad una delle parti), g) (grave violazione di legge determinata da ignoranza o negligenza inescusabile) e o) («indebito affidamento ad altri di attività rientranti nei propri compiti», ove nella categoria degli "altri" possa ricomprendersi l'algoritmo o, comunque, colui che lo ha ideato o addestrato).
5.2. I profili processuali: inesistenza e nullità
Sul piano processuale, la questione si presenta più complessa e articolata. Nel dibattito professionale è emersa l'opinione secondo cui l'atto, pur sottoscritto dal magistrato, ma adottato in violazione del comma 1 dell'art. 15 -- con conseguente abnormità dell'atto stesso per essere stato lo stesso adottato senza alcun contributo umano, ad eccezione della sottoscrizione -- potrebbe, in ambito civile, non essere considerato esistente, per difetto genetico di un requisito essenziale.
Come rilevato dalla Sesta Commissione del Consiglio Superiore della Magistratura, «ove il fatto fosse ritenuto di rilevante gravità per lesione dei più rilevanti principi in materia processuale, potrebbe ravvisarsi l'utilità di un intervento del legislatore delegato sul punto, mediante la esplicita previsione che, in presenza di tale specifica violazione, l'atto sia da considerare inesistente». Analogamente, in ambito penalistico, potrebbe rendersi assoluta, ex art. 179, comma 2, c.p.p., la nullità di un provvedimento adottato in seguito all'impiego di un sistema di IA in violazione dell'art. 15, comma 1, con conseguente regressione del procedimento allo stato o al grado in cui è stato compiuto l'atto nullo (art. 185, comma 3, c.p.p.).
Deve tuttavia rilevarsi che, in difetto di un criterio orientatore in tal senso contenuto nel disegno di legge, potrebbe essere precluso, in sede di esercizio della delega di cui all'art. 24, intervenire sanzionando la violazione sul piano processuale. Sul punto, come rilevato nel parere CSM, potrebbe sostenersi che nell'ambito dell'ipotesi di "impiego illecito" contemplata dall'art. 24, comma 3, lett. a) e f), non potrebbe essere ricompresa l'attività, in senso lato, decisoria del magistrato in violazione dell'art. 15, comma 1, da considerare, invece, illegittima piuttosto che illecita.
Peraltro, anche tale assunto è controvertibile, poiché tra i principi e criteri direttivi della delega di cui all'art. 24, comma 3, vi è quello concernente la «regolazione dell'utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari, nel rispetto delle garanzie inerenti al diritto di difesa e ai dati personali dei terzi, nonché dei principi di proporzionalità, non discriminazione e trasparenza» (lett. f). Dal che potrebbe desumersi che l'utilizzo del sistema di IA nelle indagini preliminari in violazione, ad esempio, delle garanzie inerenti al diritto di difesa, possa integrare proprio un impiego "illecito" del sistema. Sicché, quanto meno in ambito penalistico, potrebbe esservi spazio -- anche ritenendo che vi sia necessità di apposita delega -- per interventi sul fronte processuale.
6. La compatibilità con il Regolamento UE 2024/1689 e la questione dei sistemi ad alto rischio
6.1. L'interpretazione conforme e l'armonizzazione dei livelli di tutela
Una lettura costituzionalmente e convenzionalmente orientata dell'art. 15 impone di verificarne la compatibilità con il Regolamento (UE) 2024/1689[9], direttamente applicabile negli ordinamenti degli Stati membri ex art. 288 TFUE. Come già evidenziato, il Regolamento classifica tra i sistemi ad alto rischio quelli «destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti» (Allegato III, punto 8, lett. a).
Tuttavia, l'art. 6, paragrafo 3, del Regolamento prevede una deroga significativa: «In deroga al paragrafo 2, un sistema di IA di cui all'allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale». Tale deroga si applica quando il sistema è destinato a eseguire un compito procedurale limitato, a migliorare il risultato di un'attività umana precedentemente completata, a rilevare schemi decisionali senza sostituire la valutazione umana, o a eseguire un compito preparatorio (art. 6, paragrafo 3, secondo comma, lett. a-d).
La coerenza interpretativa tra il comma 1 dell'art. 15 e il Regolamento impone di riconoscere che i sistemi ad alto rischio, nel settore dell'amministrazione della giustizia, sono quelli che offrono sostegno alle attività decisorie, ma non quelli che sostituiscono il giudizio umano -- ipotesi, quest'ultima, espressamente preclusa dal comma 1 dell'art. 15. In altri termini: il sistema può essere impiegato, ad esempio, nell'interpretazione del diritto, ma senza procedere esso stesso alla individuazione del risultato interpretativo; può offrire una sintesi di atti processuali, ma senza che tale sintesi si riveli suggestiva di opzioni valutative del fatto e delle prove.
Tale lettura consente di escludere in radice un possibile disallineamento della normativa italiana dal Regolamento eurounitario, interpretando l'art. 15 -- in conformità al canone ermeneutico di cui all'art. 1, comma 2, del disegno di legge («le disposizioni della presente legge si interpretano e si applicano conformemente al regolamento (UE) 2024/1689») -- nel senso che le attività di giurisdizione "in senso stretto" non possano essere interamente affidate ai sistemi di IA.
6.2. La giurisprudenza della Corte di giustizia e il principio di trasparenza sostanziale
La sentenza della Corte di giustizia del 27 febbraio 2025 (causa C-203/22, C.K. / Dun & Bradstreet Austria GmbH) segna un punto di svolta nella tutela dei diritti fondamentali in relazione all'uso di sistemi decisionali automatizzati. La Corte ha affermato che l'uso di processi decisionali algoritmici non può sottrarsi al sindacato giurisdizionale e deve essere accompagnato da un obbligo di trasparenza sostanziale, non meramente formale.
In particolare, la Corte ha stabilito che «l'interessato ha diritto non solo a conoscere l'esito numerico dello scoring, ma anche le informazioni necessarie e sufficienti a comprenderne la logica interna, affinché sia possibile verificarne la correttezza e la non discriminazione». Il meccanismo decisionale diviene invalido se la sentenza, anche quando redatta con l'ausilio di sistemi di IA, non espliciti i criteri logici e le informazioni determinanti per lo scoring, precludendo così il controllo effettivo.
Tale pronuncia trova corrispondenza nell'art. 86 del Regolamento UE 2024/1689, rubricato "Diritto alla spiegazione del singolo processo decisionale", che stabilisce obblighi informativi rafforzati per le persone soggette a decisioni basate sull'output di sistemi di IA ad alto rischio. La giurisprudenza della Corte impone dunque al giudice nazionale un obbligo motivazionale qualificato: non è sufficiente che il provvedimento sia sottoscritto dal magistrato, ma occorre che la motivazione espliciti l'effettivo contributo umano critico nell'apprezzamento dell'output algoritmico.
6.3. La giurisprudenza nazionale: orientamenti emergenti
Anche i giudici nazionali hanno cominciato a misurarsi con questi problemi. Il Tribunale di Firenze, con ordinanza del 14 marzo 2025, ha escluso che l'uso di ChatGPT per la redazione di atti difensivi integri di per sé responsabilità aggravata, insistendo piuttosto sulla necessità di un vaglio umano critico delle fonti generate. Il Tribunale di Torino, con pronunce del settembre 2025, ha invece stigmatizzato l'affidamento cieco agli output di IA, ritenendo che l'assenza di verifica e la presenza di errori macroscopici possano costituire condotta professionale colpevole[10].
7. La prospettiva internazionale: UNESCO e governance responsabile
La prospettiva internazionale rafforza ulteriormente la direzione verso una governance responsabile dell'IA. La Raccomandazione UNESCO del 2021 sull'etica dell'intelligenza artificiale ha sancito i cardini di una governance responsabile: dignità, diritti umani, trasparenza, equità e sostenibilità[11].
Negli anni successivi, l'UNESCO ha arricchito questa cornice con indagini empiriche di rilievo, tra cui la Survey on AI in the Judiciary del 2024 e l'AI Governance Disclosure Initiative del 2025[12].
Tali iniziative confermano l'esigenza di un approccio multidimensionale alla governance dell'IA in ambito giudiziario, che coniughi innovazione tecnologica e tutela dei diritti fondamentali, efficienza processuale e garanzie del giusto processo, standardizzazione internazionale e specificità degli ordinamenti nazionali.
8. Conclusioni
Nel complesso, il quadro normativo e giurisprudenziale, arricchito dalle riflessioni emerse nel dibattito di categoria, sembra convergere verso un esito coerente: la progressiva compressione del potere esecutivo, la riaffermazione dell'autonomia giurisdizionale e l'ancoraggio della funzione giudiziaria a standard oggettivi e armonizzati a livello europeo. Il regime transitorio delineato dall'art. 15 appare funzionale a garantire una transizione ordinata verso il pieno dispiegamento del Regolamento (UE) 2024/1689, che rappresenta il primo tentativo di armonizzazione globale delle regole sull'intelligenza artificiale.
Resta tuttavia aperto l'interrogativo circa la capacità effettiva di tali standard di garantire un equilibrio tra l'efficienza tecnologica e le esigenze di garanzia proprie dello Stato di diritto. La risposta a tale interrogativo dipenderà, in ultima analisi, dalla capacità degli operatori del diritto -- giudici, avvocati, legislatori -- di presidiare con consapevolezza critica l'uso delle nuove tecnologie, evitando sia derive tecnocratiche sia resistenze pregiudiziali, nella consapevolezza che l'intelligenza artificiale è uno strumento che può potenziare la funzione giurisdizionale solo se rimane asservito alla decisione umana e non viceversa.
[1] Legge 25 settembre 2025, n. 132, Disposizioni e deleghe al Governo in materia di intelligenza artificiale, in G.U. n. 223 del 25 settembre 2025
[2] Art. 15, commi 1 e 3, L. 132/2025.
[3] Corte di giustizia dell'Unione europea, sentenza 27 febbraio 2025, causa C-203/22, C.K. / Dun & Bradstreet Austria GmbH.
[4] Consiglio Superiore della Magistratura, Sesta Commissione, parere deliberato il 24 settembre 2025
[5] Decreto legislativo 7 marzo 2005, n. 82, Codice dell'Amministrazione Digitale, art. 20, comma 1-bis
[6] Regolamento (UE) n. 910/2014, eIDAS, art. 46, in G.U. UE L 257 del 28 agosto 2014
[7] Corte di giustizia dell'Unione europea, sentenza 27 febbraio 2025, causa C-203/22, C.K. / Dun & Bradstreet Austria GmbH.
[8] Osservazioni emerse nel dibattito di categoria 2024-2025 (forum professionali e contributi LinkedIn).
[9] Regolamento (UE) 2024/1689 sull'intelligenza artificiale (AI Act), in G.U. UE L 233 del 12 luglio 2024
[10] Tribunale di Firenze, ordinanza 14 marzo 2025; Tribunale di Torino, settembre 2025
[11] UNESCO, Recommendation on the Ethics of Artificial Intelligence, Parigi, 2021
[12] UNESCO, Survey on AI in the Judiciary, 5 settembre 2024; UNESCO, AI Governance Disclosure Initiative, 2025
