Il presente contributo offre una prima riflessione sistematica sulla Legge 135/2025 in materia di intelligenza artificiale, con particolare riguardo all’art. 15 e all’uso dei sistemi di IA nell’attività giudiziaria. Muovendo dall’analisi del bilanciamento tra autonomia del magistrato e potere autorizzatorio ministeriale, il lavoro indaga la coerenza costituzionale e il rapporto con il quadro eurounitario delineato dal Regolamento (UE) 2024/1689 (AI Act). La trattazione si estende alle prospettive di armonizzazione internazionale, considerando la Raccomandazione UNESCO 2021 e le più recenti indagini empiriche sul ruolo dell’IA nella giustizia. Emergono riflessioni sul valore probatorio dei documenti redatti con strumenti di IA, sull’onere argomentativo del giudice e sulla progressiva trasformazione del potere ministeriale da autorizzatorio a gestionale, in un contesto di crescente autonomia e responsabilità giurisdizionale.
Sommario: 1.Premessa metodologica: la sfida costituzionale dell'intelligenza artificiale nella giustizia - 2. Il quadro normativo stratificato: dal Regolamento Europeo (cd AI ACT) alla disciplina nazionale - 3 La Legge 132/2025: luci, ombre e questioni irrisolte - 4. L'ambito applicativo: riserva giurisdizionale e attività compatibili nelle raccomandazioni del CSM 5. Rischi, cautele e protocolli operativi per un uso responsabile - 6. Validità probatoria e conseguenze dell'uso improprio -- Il sistema di certificazione europeo e la governance partecipata - 7. Conclusioni: la machina sapiens giurisdizionale nei binari del CSM come imperativo costituzionale.
1. Premessa metodologica: la sfida costituzionale dell'intelligenza artificiale nella giustizia
L'introduzione dell'intelligenza artificiale nell'amministrazione della giustizia segna un passaggio storico che trascende le dimensioni meramente tecniche o organizzative per investire i principi fondamentali dello Stato di diritto: l'indipendenza e l'autonomia della magistratura, il principio di legalità, il diritto di difesa, il giusto processo, la tutela dei dati personali. L'espressione metaforica contenuta nel titolo – "l'algoritmo giurisdizionale nei binari del CSM" – evoca l'immagine di una tecnologia potente e pervasiva che deve essere incanalata entro argini costituzionalmente definiti, sotto la vigilanza dell'organo che la Costituzione ha preposto alla tutela dell'autonomia della magistratura. I "binari" rappresentano il tracciato costituzionale entro cui l'innovazione tecnologica deve necessariamente scorrere, mentre il Consiglio Superiore della Magistratura si configura come garante che tale percorso non devii verso approdi incompatibili con i principi fondamentali di autonomia, indipendenza e umanità del giudizio. In sintesi, l'algoritmo, per quanto sofisticato, non può essere lasciato libero di autodeterminarsi secondo logiche proprie, ma deve essere governato, indirizzato, controllato dall'intelligenza umana e dalla sapienza giuridica che si è sedimentata nel corso dei secoli nella tradizione del processo come esperienza relazionale e non già come mero automatismo decisionale. La Legge 25 settembre 2025, n. 132, recante "Disposizioni e deleghe al Governo in materia di intelligenza artificiale", costituisce il primo intervento legislativo nazionale in materia, segnando una tappa fondamentale nel processo di regolamentazione dell'impiego dei sistemi algoritmici in ambito giudiziario. L'articolo 15, dedicato specificamente all'attività giudiziaria, introduce un regime caratterizzato da duplice valenza: da un lato, stabilisce un principio di riserva decisionale in capo al magistrato di ogni decisione sull'interpretazione e applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti; dall'altro, istituisce un meccanismo di autorizzazione preventiva rimesso alla competenza del Ministero della Giustizia per i sistemi impiegati negli uffici giudiziari. Tale previsione normativa dischiude una pluralità di interrogativi dirimenti che investono profili di legittimità costituzionale, compatibilità con il diritto euro-unitario e operatività concreta. Si pone, in particolare, il problema della compatibilità di un potere autorizzatorio dell'esecutivo con i principi di autonomia e indipendenza della magistratura consacrati negli artt. 101, comma 2, 104 e ss. della Costituzione, specialmente laddove il magistrato faccia ricorso a strumenti tecnologici non previamente inclusi nel novero di quelli autorizzati. La delibera del Consiglio Superiore della Magistratura dell'8 ottobre 2025, contenente raccomandazioni sull'uso dell'intelligenza artificiale nell'amministrazione della giustizia, fornisce orientamenti operativi immediati che colmano il vuoto normativo della fase transitoria, rivendicando con fermezza il ruolo dell'organo di autogoverno quale garante imprescindibile dell'autonomia e dell'indipendenza della magistratura anche – e forse soprattutto – nell'era dell'automazione decisionale. L'approccio metodologico che informa il presente contributo mira a evidenziare come la disciplina dell'intelligenza artificiale in ambito giudiziario richieda una sintesi equilibrata tra rigore costituzionale e pragmatismo operativo, tra fedeltà ai principi fondamentali e capacità di cogliere le opportunità offerte dall'innovazione tecnologica, tra tutela delle garanzie e perseguimento dell'efficienza.
2. Il quadro normativo stratificato: dal Regolamento Europeo (cd AI ACT ) alla disciplina nazionale
Il sistema normativo che regola l'impiego dell'intelligenza artificiale nell'amministrazione della giustizia si presenta come edificio complesso, caratterizzato da stratificazione di fonti eterogenee per rango, efficacia e ambito applicativo. Al vertice si colloca il Regolamento (UE) 2024/1689 del 13 giugno 2024, comunemente denominato AI Act, il quale in virtù del suo carattere direttamente applicabile ex art. 288 TFUE costituisce il parametro normativo primario cui l'ordinamento interno deve conformarsi. Il Regolamento adotta un approccio basato sulla stratificazione del rischio (risk-based approach) che classifica i sistemi destinati all'uso in ambito giudiziario tra quelli ad alto rischio, sottoponendoli conseguentemente a un regime particolarmente stringente. L'allegato III contempla tra i sistemi ad alto rischio quelli "destinati a essere usati da un'autorità giudiziaria o per suo conto per assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti". Il considerando 61 del medesimo Regolamento precisa, tuttavia, che l'utilizzo di strumenti di intelligenza artificiale può fornire sostegno al potere decisionale dei giudici o all'indipendenza del potere giudiziario, ma non dovrebbe sostituirlo, giacché il processo decisionale finale deve rimanere un'attività a guida umana. La delibera consiliare illumina un aspetto cruciale spesso trascurato nell'analisi dottrinale: l'applicazione temporale scaglionata del Regolamento. Mentre i divieti assoluti e gli obblighi di alfabetizzazione trovano immediata operatività dal 2 febbraio 2025, le disposizioni concernenti i sistemi ad alto rischio – cuore pulsante della disciplina giudiziaria – dispiegheranno effetti soltanto dal 2 agosto 2026. Tale differimento non rappresenta un accidente legislativo, bensì la consapevole scelta di consentire la predisposizione di infrastrutture tecniche, competenze specialistiche e procedure di certificazione di straordinaria complessità. Emerge così una prima, fondamentale acquisizione: esiste una fase transitoria – quella che stiamo attualmente attraversando – nella quale la disciplina si presenta frammentaria, caratterizzata da una coesistenza non sempre armonica tra norme nazionali ancora incomplete e prescrizioni europee non ancora pienamente operative. È precisamente in questo interstizio normativo che le raccomandazioni del Consiglio Superiore della Magistratura assumono una valenza determinante, colmando il vuoto regolamentare e fornendo quella necessaria prevedibilità che costituisce presupposto ineludibile per un utilizzo consapevole delle tecnologie emergenti.
3.La Legge 132/2025: luci, ombre e questioni irrisolte
La Legge 132/2025 si inserisce in questo contesto quale primo tentativo dell'ordinamento nazionale di dare attuazione alle prescrizioni euro-unitarie. L'articolo 15 delinea una apparentemente lineare bipartizione funzionale: il comma 1 sancisce inequivocabilmente la riserva al giudice di ogni decisione sull'interpretazione e applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti, indipendentemente dal locus in cui l'attività si svolge; il comma 2 prevede che il Ministero della giustizia disciplini gli impieghi dei sistemi di intelligenza artificiale per l'organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie; il comma 3 attribuisce al Ministero il potere di autorizzare la sperimentazione e l'impiego dei sistemi negli uffici giudiziari ordinari, previa consultazione delle autorità nazionali di cui all'articolo 20 (AGID e ACN).
Tale architettura normativa lascia emergere tre nodi problematici di primaria rilevanza costituzionale. Il primo concerne la compatibilità di un potere autorizzatorio rimesso all'Esecutivo con i principi di autonomia e indipendenza della magistratura, specialmente ove si consideri l'assenza di coinvolgimento sostanziale del Consiglio Superiore della Magistratura e la designazione di AGID e ACN – agenzie governative non indipendenti, sottoposte a un marcato controllo e indirizzo politico – quali interlocutori unici del Ministero nella regolamentazione e governance delle applicazioni dell'intelligenza artificiale negli uffici giudiziari. Il secondo nodo attiene all'incertezza interpretativa circa la perimetrazione concreta delle categorie funzionali individuate dal comma 2. La distinzione tra "organizzazione dei servizi relativi alla giustizia", "semplificazione del lavoro giudiziario" e "attività amministrative accessorie" si rivela, all'atto pratico, assai più sfumata di quanto la formulazione letterale lasci intendere. Il Regolamento europeo, al considerando 61, esclude dalla classificazione dei sistemi ad alto rischio soltanto quelli "destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi". L'avverbio "puramente" e la negazione "non incidono" assumono valenza ermeneutica dirimente, imponendo una valutazione rigorosa dell'effettiva incidenza dell'attività automatizzata sull'amministrazione della giustizia. Attività quali la distribuzione automatizzata degli affari tra i magistrati dell'ufficio o la definizione algoritmica delle priorità nella trattazione dei procedimenti si collocano evidentemente in una zona grigia: formalmente riferibili all'organizzazione del lavoro, esse presuppongono necessariamente operazioni di qualificazione giuridica che difficilmente possono considerarsi "puramente" accessorie. Il terzo nodo concerne l'indeterminatezza della fonte normativa chiamata a disciplinare gli impieghi dei sistemi di intelligenza artificiale, giacché il comma 2 si limita a stabilire che "il Ministero della giustizia disciplina" senza specificare lo strumento normativo da adottare. In questo contesto di incompletezza normativa e incertezza applicativa si collocano le raccomandazioni del Consiglio Superiore della Magistratura dell'8 ottobre 2025, che si configurano come soft law dotato di efficacia ordinante in ragione dell'autorevolezza dell'organo emanante e della persuasività intrinseca dei principi enunciati. Le raccomandazioni operano su tre piani complementari: sul piano prescrittivo, individuano con precisione i sistemi utilizzabili nella fase transitoria, le attività compatibili con l'ordinamento vigente, le cautele obbligatorie da osservare e i rischi da governare; sul piano formativo, assegnano alla Struttura Tecnica per l'Organizzazione e alla rete dei Referenti Informatici Distrettuali il compito di predisporre e diffondere buone prassi, protocolli operativi e percorsi di alfabetizzazione tecnologica; sul piano strategico-istituzionale, rivendicano con forza il ruolo comprimario del Consiglio nella governance dell'intelligenza artificiale applicata alla giustizia, proponendo tavoli tecnici congiunti, sandbox regolatorie, sistemi di audit periodico e interlocuzioni con l'avvocatura.
4. L'ambito applicativo: riserva giurisdizionale e attività compatibili nelle raccomandazioni del CSM
La tripartizione funzionale delineata dall'art. 15, comma 2, della Legge 132/2025 si rivela assai più problematica di quanto la formulazione letterale lasci intendere quando si tratti di verificarne l'operatività in relazione a fattispecie concrete. Il Regolamento europeo, al considerando 61, esclude dalla classificazione dei sistemi ad alto rischio soltanto quelli "destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi", menzionando a titolo esemplificativo l'anonimizzazione o la pseudonimizzazione di decisioni, la comunicazione tra il personale e i compiti amministrativi. L'avverbio "puramente" e l'inciso "che non incidono" assumono valenza ermeneutica tutt'altro che trascurabile, imponendo una valutazione qualitativa rigorosa circa l'effettiva incidenza sull'amministrazione della giustizia.
Le raccomandazioni del Consiglio Superiore della Magistratura risolvono pragmaticamente tale incertezza interpretativa mediante un elenco operativo, dichiaratamente non esaustivo, di impieghi dell'intelligenza artificiale che, allo stato attuale della normativa e in attesa della piena operatività del Regolamento europeo, possono considerarsi compatibili con i principi costituzionali e con le prescrizioni eurounitarie, a condizione che vengano implementati in modalità tracciata, sicura, con costante revisione umana e nell'ambito degli applicativi forniti all'interno del dominio giustizia.
Tale elenco riflette una logica di fondo ben definita: l'intelligenza artificiale può legittimamente assistere il magistrato in tutte quelle attività che, pur essendo strumentali o accessorie rispetto alla funzione giurisdizionale in senso stretto, comportano un impegno significativo di tempo e di risorse cognitive, a condizione che il contributo algoritmico non si sostituisca mai alla valutazione umana ma si limiti a facilitarla.
Gli ambiti compatibili individuati includono: ricerche dottrinali intese come assistenza nella consultazione di banche dati e nella costruzione di stringhe di ricerca; sintesi di provvedimenti ostensibili e contributi dottrinali per la creazione di abstract destinati alla classificazione tematica; attività organizzativo-gestionali quali report statistici, analisi di conformità tra programmi di gestione e dati di registro, comparazione automatizzata di documenti, redazione di bozze di relazioni su incarichi direttivi, gestione dei calendari d'udienza; supporto agli uffici per i cosiddetti "affari semplici" mediante redazione di bozze standardizzate da adattare al caso specifico; supporto ad attività giurisdizionali gestionali attraverso il controllo della documentazione prodotta in atti ove opportunamente anonimizzata; attività di natura tecnico-amministrativa quali generazione automatica di presentazioni, produzione di tabelle e grafici, revisione linguistica e stilistica, catalogazione e archiviazione per materia dei quesiti ai consulenti tecnici, predisposizione di calendari d'udienza, traduzione assistita. Tra le molteplici attività suscettibili di essere assistite da strumenti di intelligenza artificiale, quella concernente le ricerche su banche dati giurisprudenziali merita una riflessione autonoma e approfondita, collocandosi su un crinale sottile tra l'ammissibilità e la problematicità.
L'utilizzo dell'intelligenza artificiale per tale finalità presenta una natura bifronte: da un lato, può validamente assistere il magistrato nella consultazione delle banche dati, nella costruzione di stringhe di ricerca complesse e nella classificazione tematica del materiale reperito, configurandosi come supporto tecnico-organizzativo riconducibile ai "compiti procedurali limitati" di cui all'art. 6, par. 3, lett. a) del Regolamento (UE) 2024/1689; dall'altro lato, laddove i sistemi siano progettati per selezionare automaticamente la giurisprudenza "più rilevante", per suggerire orientamenti interpretativi prevalenti o per generare schemi motivazionali basati su pattern ricorrenti, si configura un impiego che incide potenzialmente sull'attività valutativa e sull'indirizzo giuridico.
Si impone conseguentemente vigilanza stringente su tre piani: la natura e l'architettura dei sistemi utilizzati; la trasparenza degli algoritmi di selezione e classificazione; il ruolo attivo e critico del magistrato nel vaglio dei risultati.
L'output prodotto deve essere oggetto di valutazione e verifica autonoma da parte del magistrato: l'automazione della ricerca non può sostituire quella sensibilità giuridica che è necessaria alla contestualizzazione del precedente. È necessario che le banche dati giurisprudenziali messe a disposizione del magistrato garantiscano una base dati completa, non discriminatoria e aggiornata, e prevedano forme di controllo e supervisione da parte della magistratura nella fase della selezione, classificazione e aggiornamento delle sentenze.
Durante la fase transitoria possono essere utilizzati: tutti i sistemi autorizzati dal Ministero della Giustizia ai sensi dell'art. 15, comma 3; gli strumenti forniti all'interno del dominio giustizia, quale ad esempio la funzionalità Copilot messa a disposizione dal pacchetto Office ministeriale; progetti sperimentali condotti in ambiente protetto e sotto la supervisione congiunta del Ministero e del Consiglio, purché con preventiva anonimizzazione e tracciabilità dei dati.
Rimane categoricamente escluso l'utilizzo di sistemi di intelligenza artificiale generalisti, non autorizzati, per l'attività giudiziaria in senso stretto, giacché tali sistemi non garantiscono i requisiti previsti dal Regolamento europeo per i sistemi ad alto rischio.
5. Rischi, cautele e protocolli operativi per un uso responsabile
L'impiego di sistemi di intelligenza artificiale è connesso a rischi significativi, distinguibili in rischi tecnici attinenti al funzionamento intrinseco dei sistemi e rischi sistemici concernenti le ricadute più ampie dell'automazione decisionale sulla tenuta dei principi costituzionali e processuali.
I rischi tecnici includono: la trasmissione automatica e predefinita di dati a fornitori terzi e la loro registrazione su server di aziende estere anche extra-UE, con conseguente esposizione al rischio di violazione della riservatezza e di profilazione non autorizzata; il riutilizzo dei dati per finalità non previste, con particolare riguardo alla possibilità che essi concorrano all'addestramento di modelli successivi, finendo per incorporarsi stabilmente nel patrimonio informativo dell'operatore commerciale e determinando erosione progressiva della sovranità pubblica sui dati giudiziari; la fallibilità degli output generati, che possono contenere errori e distorsioni quali le cosiddette "allucinazioni" consistenti nella generazione di contenuti non basati sulla realtà oggettiva, e le "compiacenze" consistenti nella generazione di contenuti orientati ad assecondare le aspettative percepite dell'utente; errori derivanti da dati di addestramento insufficienti o viziati, dalle modalità di funzionamento degli algoritmi che essendo basati sulla statistica tendono talvolta anche a "inventare" risposte solo probabili, da correlazioni spurie. I rischi sistemici concernono: i bias algoritmici, vale a dire distorsioni sistematiche che i sistemi ereditano dai dati di addestramento e dalle scelte progettuali, giacché l'intelligenza artificiale non è mai neutrale ma incorpora tutte le imprecisioni contenute nel database e gli eventuali pregiudizi di chi ha progettato il sistema; le discriminazioni strutturali, giacché qualora i dati di addestramento riflettano squilibri o stereotipi presenti nella realtà sociale il sistema finirà per replicare e amplificare tali distorsioni, producendo output affetti da discriminazione in contrasto con il principio di eguaglianza sostanziale sancito dall'art. 3 della Costituzione; l'opacità dei processi decisionali, giacché molti sistemi operano come "scatole nere" rendendo estremamente arduo individuare l'origine di eventuali distorsioni; l'automation bias, vale a dire quella pericolosa tendenza cognitiva a fare eccessivo affidamento sull'output automatizzato attribuendogli un'autorevolezza superiore a quella realmente posseduta.
La traduzione della consapevolezza dei rischi in cautele operative concrete si articola in cinque pilastri fondamentali. Il primo pilastro è costituito dal principio della sovranità dei dati e delle informazioni, in forza del quale i dati e le informazioni generate non devono mai essere accessibili a terzi non autorizzati, con conseguente necessità di orientarsi verso l'utilizzo di modelli residenti su server sotto il controllo del Ministero della Giustizia ovvero di modelli open source eseguibili localmente su hardware in dotazione ai magistrati. Il secondo pilastro è costituito dal divieto assoluto, non ammettente deroghe né temperamenti, di immettere nei sistemi dati sensibili, riservati o soggetti a segreto investigativo, anche in forma indiretta, stante l'impossibilità di garantire con certezza che tali informazioni non vengano utilizzate per finalità diverse o che non si verifichino fughe informative, con particolare attenzione al rischio di re-identificazione giacché anche dati anonimizzati possono essere re-identificati mediante l'incrocio di dataset apparentemente innocui. Il terzo pilastro è costituito dall'attenzione alla qualità dei dati immessi nei sistemi, al fine di evitare output affetti da bias o da discriminazioni nei confronti di persone in ragione di razza, religione, sesso, origine nazionale, età, disabilità, stato civile, affiliazione politica o orientamento sessuale. Il quarto pilastro, di assoluta centralità, è costituito dall'obbligo di supervisione umana su ogni utilizzo dell'intelligenza artificiale, supervisione che deve esplicarsi sulla pluralità di piani costituiti dalla verifica del rispetto delle normative, dal controllo dell'accuratezza, completezza e pertinenza dell'output, e soprattutto dalla necessità di verificare costantemente la possibilità di replicare autonomamente le conclusioni fornite dall'intelligenza artificiale. Il quinto pilastro è costituito dal principio della responsabilità individuale del magistrato, il quale è tenuto all'utilizzo consapevole e conforme degli strumenti di intelligenza artificiale, all'acquisizione di una formazione adeguata e al suo costante aggiornamento.
Gli utenti devono essere consapevoli che l'output prodotto dai sistemi di IA generativa non è costante poiché il loro funzionamento non segue logiche deterministiche ma probabilistiche; che le risposte fornite possono variare in funzione della formulazione del quesito; che non è garantito un livello uniforme di qualità, coerenza o affidabilità; che è sempre necessaria una verifica umana sull'accuratezza, la completezza e la pertinenza delle risposte con riferimento a fonti attendibili e normative aggiornate, al fine di evitare che contenuti generati automaticamente assumano valore probatorio o decisionale senza adeguato controllo.
6.Validità probatoria e conseguenze dell'uso improprio
Anche a voler configurare l'uso di un sistema non autorizzato come un'irregolarità procedimentale, ciò non determinerebbe di per sé l'invalidità dell'atto. Il Regolamento (UE) n. 910/2014 (eIDAS[1]), all'articolo 46, stabilisce infatti che a un documento elettronico non possono essere negati effetti giuridici o ammissibilità probatoria per il solo fatto della sua forma[2]. Una sentenza redatta con l'ausilio di un sistema di IA, sebbene non previamente autorizzato, non può dunque essere respinta ab origine. Essa rientra a pieno titolo nella categoria del documento elettronico e deve essere valutata secondo i criteri ordinari. Nell'ordinamento interno, il Codice dell'Amministrazione Digitale (D.Lgs. 82/2005), all'articolo 20, comma 1-bis, prevede che l'idoneità del documento informatico e il suo valore probatorio siano oggetto di libera valutazione da parte del giudice, alla luce delle caratteristiche di sicurezza, integrità e immodificabilità. È stato peraltro osservato, nel dibattito di categoria, che sul giudice gravi un preciso onere argomentativo, volto a dimostrare se e come l'impiego di uno specifico strumento abbia effettivamente compromesso tali caratteristiche[3]. Tale onere può apparire gravoso, ma costituisce il necessario presidio a tutela della trasparenza e del contraddittorio.
In questa prospettiva, la mancata autorizzazione ministeriale non produce automaticamente invalidità, ma alimenta semmai una presunzione relativa di inaffidabilità. È stato rilevato che tale presunzione non è assoluta: essa può essere superata dal giudice attraverso un apprezzamento autonomo, anche con il supporto di ausiliari tecnici, che consenta di verificare il grado di trust attribuibile allo strumento utilizzato. È stato altresì notato come, in taluni casi, anche sistemi non formalmente autorizzati possano offrire de facto garanzie tecniche e contrattuali sufficienti a soddisfare i requisiti di legge, sicché nulla impedisce al giudice di attribuire pieno valore probatorio all'atto, ove tale verifica risulti positiva.
Una questione di peculiare rilevanza sistematica concerne le conseguenze giuridiche derivanti dall'impiego di sistemi di IA non autorizzati ai sensi del comma 3. Il disegno di legge non prevede esplicitamente sanzioni a carico del magistrato che utilizzi impropriamente un sistema di intelligenza artificiale nell'adozione di un provvedimento, rimettendo evidentemente alle ordinarie misure disciplinari previste dal d.lgs. n. 109/2006.
Sul piano disciplinare, potrebbe configurarsi l'inosservanza dell'art. 2, comma 1, lett. n), d.lgs. n. 109/2006, che sanziona «la reiterata o grave inosservanza delle norme regolamentari, delle direttive o delle disposizioni sul servizio giudiziario o sui servizi organizzativi e informatici adottate dagli organi competenti». Potrebbero altresì prospettarsi le violazioni di cui alle lett. a) (comportamenti che, violando i doveri di cui all'art. 1, arrecano ingiusto danno o indebito vantaggio ad una delle parti), g) (grave violazione di legge determinata da ignoranza o negligenza inescusabile) e o) («indebito affidamento ad altri di attività rientranti nei propri compiti», ove nella categoria degli "altri" possa ricomprendersi l'algoritmo o, comunque, colui che lo ha ideato o addestrato).
Sul piano processuale, la questione si presenta più complessa e articolata. Nel dibattito professionale è emersa l'opinione secondo cui l'atto, pur sottoscritto dal magistrato, ma adottato in violazione del comma 1 dell'art. 15 -- con conseguente abnormità dell'atto stesso per essere stato lo stesso adottato senza alcun contributo umano, ad eccezione della sottoscrizione -- potrebbe, in ambito civile, non essere considerato esistente, per difetto genetico di un requisito essenziale.
Come rilevato dalla Sesta Commissione del Consiglio Superiore della Magistratura, «ove il fatto fosse ritenuto di rilevante gravità per lesione dei più rilevanti principi in materia processuale, potrebbe ravvisarsi l'utilità di un intervento del legislatore delegato sul punto, mediante la esplicita previsione che, in presenza di tale specifica violazione, l'atto sia da considerare inesistente». Analogamente, in ambito penalistico, potrebbe rendersi assoluta, ex art. 179, comma 2, c.p.p., la nullità di un provvedimento adottato in seguito all'impiego di un sistema di IA in violazione dell'art. 15, comma 1, con conseguente regressione del procedimento allo stato o al grado in cui è stato compiuto l'atto nullo (art. 185, comma 3, c.p.p.).
Deve tuttavia rilevarsi che, in difetto di un criterio orientatore in tal senso contenuto nel disegno di legge, potrebbe essere precluso, in sede di esercizio della delega di cui all'art. 24, intervenire sanzionando la violazione sul piano processuale. Sul punto, come rilevato nel parere CSM, potrebbe sostenersi che nell'ambito dell'ipotesi di "impiego illecito" contemplata dall'art. 24, comma 3, lett. a) e f), non potrebbe essere ricompresa l'attività, in senso lato, decisoria del magistrato in violazione dell'art. 15, comma 1, da considerare, invece, illegittima piuttosto che illecita.
Peraltro, anche tale assunto è controvertibile, poiché tra i principi e criteri direttivi della delega di cui all'art. 24, comma 3, vi è quello concernente la «regolazione dell'utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari, nel rispetto delle garanzie inerenti al diritto di difesa e ai dati personali dei terzi, nonché dei principi di proporzionalità, non discriminazione e trasparenza» (lett. f). Dal che potrebbe desumersi che l'utilizzo del sistema di IA nelle indagini preliminari in violazione, ad esempio, delle garanzie inerenti al diritto di difesa, possa integrare proprio un impiego "illecito" del sistema. Sicché, quanto meno in ambito penalistico, potrebbe esservi spazio -- anche ritenendo che vi sia necessità di apposita delega -- per interventi sul fronte processuale.
7. Il sistema di certificazione europeo e la governance partecipata
Il Regolamento (UE) 2024/1689 affida un ruolo centrale alle norme tecniche armonizzate, intese come specifiche tecniche elaborate dagli organismi europei di normazione – il Comitato Europeo di Normazione (CEN) e il Comitato Europeo di Normazione Elettrotecnica (CENELEC) – su mandato della Commissione europea conferito nel maggio 2023, con termine fissato alla fine di aprile 2025 per l'elaborazione e la pubblicazione delle norme che saranno successivamente valutate e, ove approvate, pubblicate nella Gazzetta ufficiale dell'Unione europea conferendo ai sistemi sviluppati in conformità ad esse una presunzione iuris tantum di conformità ai requisiti del Regolamento. Si delinea un modello di regolazione ibrido nel quale la fonte normativa primaria definisce i requisiti sostanziali in termini generali e principiali, mentre la normazione tecnica traduce tali requisiti in specifiche tecniche puntuali e verificabili. I requisiti obbligatori per i sistemi ad alto rischio, disciplinati dagli articoli da 8 a 15 del Regolamento, assumono particolare rilevanza per l'amministrazione della giustizia: sistema di gestione dei rischi inteso come processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita; qualità dei dati di addestramento, convalida e prova, che devono essere pertinenti, sufficientemente rappresentativi e nella misura del possibile esenti da errori e completi; documentazione tecnica che dimostri la conformità e fornisca alle autorità le informazioni necessarie; tracciabilità intesa a garantire che sia possibile ricostruire le modalità operative; trasparenza e fornitura di informazioni, stabilendo che i sistemi devono essere progettati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utilizzatori di interpretare l'output; sorveglianza umana, stabilendo che i sistemi devono essere progettati in modo tale che possano essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso; accuratezza, robustezza e cybersicurezza. Per dimostrare la conformità ai requisiti prescritti, il fornitore di un sistema ad alto rischio deve sottoporlo a una procedura di valutazione della conformità, potendo scegliere tra il controllo interno ovvero la valutazione da parte di terzi con il coinvolgimento di un organismo notificato. Gli organismi notificati rappresentano un elemento cardine del sistema di governance europeo: si tratta di organismi di valutazione della conformità notificati dalla competente Autorità nazionale – in Italia, l'Agenzia per l'Italia Digitale – a condizione che soddisfino una serie stringente di requisiti in materia di indipendenza, competenza, assenza di conflitti di interesse e adeguati standard di cybersicurezza.
Il sistema si completa con l'istituzione di una banca dati europea presso cui è fatto obbligo di registrarsi a tutti i fornitori di sistemi ad alto rischio, banca dati che svolge funzioni di monitoraggio dell'evoluzione del mercato, trasparenza verso il pubblico e garanzia che nei settori ad alto rischio possano essere utilizzati esclusivamente sistemi certificati secondo le procedure europee, muniti di marcatura CE e iscritti nella banca dati.
A decorrere dall'agosto 2026, i magistrati potranno legittimamente utilizzare nell'esercizio dell'attività giudiziaria in senso stretto soltanto sistemi che siano stati certificati secondo le procedure europee, rechino la marcatura CE e risultino iscritti nella banca dati dell'Unione europea.
Tale sistema comporta un significativo trasferimento del controllo di conformità a un livello centralizzato, esentando i singoli magistrati da verifiche tecniche di fatto impraticabili e garantendo uno standard uniforme di tutela su tutto il territorio dell'Unione.
Il mancato coinvolgimento del Consiglio Superiore della Magistratura nella disciplina ministeriale di cui all'art. 15, comma 2, e nella procedura di autorizzazione dei sistemi di cui al comma 3 appare in potenziale contrasto con l'esigenza di garantire l'indipendenza e l'autonomia della magistratura. Le raccomandazioni del CSM contenute nella delibera dell’8.10.2025 rivendicano con forza un ruolo di attore comprimario, unitamente al Ministero della Giustizia, nella sperimentazione, nell'implementazione e nell'impiego dell'intelligenza artificiale nella giurisdizione, proponendo una serie di azioni istituzionali concrete: costituzione di tavoli tecnici congiunti destinati a costituire sedi di confronto permanente sulle scelte strategiche secondo un modello di collaborazione paritetica; istituzione di un gruppo tecnico multidisciplinare permanente incaricato di svolgere attività di valutazione indipendente dei sistemi e di elaborare criteri metodologici condivisi; definizione di una sandbox regolatoria congiunta per la sperimentazione controllata di sistemi destinati all'uso giudiziario o organizzativo, intesa come strumento di cooperazione istituzionale con finalità di test ex ante, valutazione condivisa e monitoraggio trasparente;
La raccomandazione relativa allo sviluppo di un sistema di intelligenza artificiale interno al sistema giustizia rappresenta sotto questo profilo scelta di particolare saggezza e lungimiranza: anziché subire passivamente soluzioni tecnologiche elaborate da soggetti privati per finalità commerciali e secondo logiche di mercato che potrebbero non coincidere con le esigenze della giustizia, si propone di costruire strumento specificamente calibrato sulle peculiarità dell'amministrazione della giustizia italiana, rispettoso delle specificità del nostro ordinamento giuridico, pienamente controllabile sul piano pubblico e sostenibile economicamente nel lungo periodo, rappresentando l'unica via per garantire quella piena sovranità sui dati che costituisce presupposto ineludibile per l'effettiva indipendenza della magistratura nell'era digitale.
Si impone la necessità di dialogo istituzionale costante tra tutti gli attori coinvolti: il Ministero della Giustizia quale responsabile dell'organizzazione dei servizi, il Consiglio Superiore della Magistratura quale garante dell'autonomia e dell'indipendenza, AGID e ACN nelle loro funzioni di notifica e vigilanza, il Garante per la protezione dei dati personali, l'avvocatura, la comunità scientifica, giacché solo attraverso governance partecipata che consenta confronto tra prospettive diverse, integrazione di competenze complementari, bilanciamento di interessi legittimi sarà possibile pervenire a soluzioni equilibrate, costituzionalmente compatibili, tecnicamente sostenibili e socialmente accettabili. Non si deve sottovalutare la dimensione europea e internazionale della questione giacché l'intelligenza artificiale non conosce confini nazionali e la risposta normativa deve articolarsi su scala europea e globale: il Regolamento UE 2024/1689 rappresenta modello di riferimento di portata storica costituendo la prima volta che una comunità di Stati elabora corpus organico e vincolante governante l'intero spettro dell'intelligenza artificiale bilanciando innovazione e tutela dei diritti, e l'Italia deve cogliere tale opportunità contribuendo attivamente alla sua implementazione e partecipando costruttivamente all'evoluzione della disciplina europea.
Occorre la necessità di monitoraggio continuo dell'evoluzione tecnologica giacché l'intelligenza artificiale è tecnologia in rapidissima evoluzione e il sistema normativo deve essere sufficientemente flessibile da adattarsi ai mutamenti senza richiedere continue riforme legislative ma sufficientemente solido da garantire tenuta dei principi fondamentali: il sistema di audit periodico proposto costituisce strumento prezioso per verificare se le scelte compiute continuino a essere appropriate o richiedano correzioni, se i benefici attesi si stiano effettivamente realizzando o se si manifestino effetti inattesi che richiedano interventi correttivi, se le tutele predisposte risultino adeguate o necessitino di rafforzamento. Non si deve perdere mai di vista la finalità ultima dell'amministrazione della giustizia che rimane oggi come ieri quella di garantire l'effettività della tutela giurisdizionale, assicurare il rispetto dei diritti fondamentali, realizzare l'eguaglianza sostanziale, contribuire alla pacificazione sociale: l'intelligenza artificiale è strumento non fine, utile se e nella misura in cui contribuisce al perseguimento di tali obiettivi, dannosa se finisce per oscurarli o comprometterli. L'efficienza, la rapidità, la standardizzazione non sono valori assoluti ma strumentali rispetto a valore superiore che è la giustizia nel caso concreto, la decisione tenente conto delle peculiarità della fattispecie, la sentenza non limitantesi ad applicare meccanicamente la norma ma interpretandola alla luce dei principi costituzionali e delle esigenze di equità sostanziale.
L'integrazione tra il rigore dell'analisi giuridica sistematica e la concretezza degli orientamenti operativi non rappresenta mero esercizio accademico ma risponde a esigenza pratica primaria di fornire a magistrati, operatori del diritto, studiosi, tutti coloro che hanno a cuore le sorti dell'amministrazione della giustizia, strumento di orientamento completo, rigoroso, immediatamente utilizzabile nella fase di transizione carica di incertezze che stiamo attraversando. Da un lato emerge la prospettiva del giurista sistematico attento alle implicazioni costituzionali, eurounitarie, processuali, dall'altro la prospettiva dell'organo di autogoverno calato nella realtà operativa degli uffici, consapevole dei problemi concreti dei magistrati, capace di tradurre principi astratti in protocolli immediatamente applicabili: la sintesi tra tali prospettive consente visione integrata coniugante rigore teorico e utilità pratica, fedeltà ai principi e pragmatismo, capacità critica e propositività costruttiva. L'auspicio è che tale sintesi si realizzi non solo sul piano intellettuale mediante elaborazione di visione unitaria valorizzante i contributi di entrambe le fonti ma anche e soprattutto sul piano istituzionale mediante realizzazione del modello di governance bilanciata delineato con lucidità: tavoli tecnici congiunti ove Ministero e CSM collaborino in leale cooperazione, sandbox regolatorie sperimentanti in modo controllato le innovazioni prima dell'implementazione su larga scala, sistemi di audit periodico verificanti l'effettivo impatto dell'intelligenza artificiale e apportanti i correttivi necessari, percorsi formativi preparanti i magistrati ad affrontare con consapevolezza critica le sfide dell'era digitale.
Solo attraverso tale approccio integrato, collaborativo, costantemente vigilante sarà possibile governare la transizione senza compromettere i valori fondamentali quali indipendenza, autonomia, imparzialità, umanità del giudizio che costituiscono patrimonio irrinunciabile della tradizione giurisdizionale europea e rappresentano oggi più che mai presidio essenziale contro i rischi della tecnocrazia, dell'automazione acritica, dell'erosione della dimensione umana del diritto. L'intelligenza artificiale può essere formidabile alleato del magistrato giacché può liberare tempo per la decisione, facilitare l'accesso all'informazione, contribuire a ridurre i tempi processuali e alleggerire i carichi pendenti, ma tutto ciò potrà realizzarsi soltanto se sapremo costruire sistema di governance ponente l'essere umano al centro anziché alla periferia, concepente la tecnologia come strumento al servizio della giustizia e non già come fine autosufficiente, preservante quella dimensione di responsabilità personale, di giudizio critico, di sensibilità alle peculiarità del caso concreto che nessun algoritmo per quanto sofisticato e potente potrà mai replicare integralmente senza tradire l'essenza stessa della funzione giurisdizionale come attività intellettuale guidata da valori e principi e non da mere correlazioni statistiche.
Il cammino che ci attende è lungo e irto di difficoltà ma l'integrazione tra riflessione teorica rigorosa e orientamento operativo concreto, tra analisi critica delle norme e formulazione di raccomandazioni immediatamente applicabili, tra rivendicazione ferma dei principi costituzionali e pragmatismo realizzatore costituisce la premessa indispensabile per percorrerlo con successo. La Legge 132/2025 e la delibera del Consiglio Superiore della Magistratura dell'8 ottobre 2025 rappresentano i due pilastri di una costruzione ancora da completare: spetta ora alla comunità giuridica nel suo complesso – magistrati, avvocati, studiosi, legislatori – raccogliere la sfida e tradurre in realtà operativa quella visione di intelligenza artificiale costituzionalmente orientata, umanamente governata, tecnicamente sostenibile che entrambi i provvedimenti, ciascuno con proprio linguaggio e prospettiva, hanno saputo delineare con chiarezza e forza persuasiva. L'algoritmo giurisdizionale può e deve scorrere sui binari tracciati dal Consiglio Superiore della Magistratura: questa è la scommessa, questa è la sfida, questo è l'imperativo categorico per una magistratura che voglia essere all'altezza del proprio tempo senza tradire la propria storia e i propri valori fondanti.
L'intelligenza artificiale, machina sapiens giurisdizionale, è già presente nell'amministrazione della giustizia e destinata a diventare sempre più pervasiva. La scelta è tra subirla passivamente o governarla attivamente secondo criteri che pongano al centro la persona umana e le garanzie processuali. Il Consiglio Superiore della Magistratura indica la via: non fuga dal progresso né abbraccio acritico, ma ricerca di equilibrio tra efficienza e garanzie, tra innovazione e tradizione. L'IA può liberare il magistrato dalle incombenze ripetitive, consentendogli di concentrarsi sulla parte più nobile del giudizio, quella che richiede intelligenza umana, sensibilità ai valori e capacità di comprensione. In questo contesto di collaborazione uomo-macchina, la governance partecipata proposta dal CSM rappresenta lo strumento più adeguato per assicurare che l'apporto algoritmico resti governabile, tracciabile e sempre funzionale al giudizio umano, senza mai sostituirlo.
[1] Regolamento (UE) n. 910/2014, eIDAS, art. 46, in G.U. UE L 257 del 28 agosto 2014
[2] Corte di giustizia dell'Unione europea, sentenza 27 febbraio 2025, causa C-203/22, C.K. / Dun & Bradstreet Austria GmbH.
[3] Osservazioni emerse nel dibattito di categoria 2024-2025 (forum professionali e contributi LinkedIn).
