Sommario: 1. La lavorazione del “dato” e la “cassetta degli attrezzi” del giurista. - 2. L’algoritmo non è uno strumento “neutro”. - 3. L’importanza di una governance condivisa dell’innovazione tecnologica nella giurisdizione: l’esperienza di PCT e di APP - 4. Il caso delle Banche Dati di merito (Pubblica e Riservata). – 5. IA e anonimizzazione dei provvedimenti nella BDP e in PRO.DI.GI.T. – 6. IA e i rischi della giustizia predittiva. – 7. I diversi approcci sistemici nella regolazione dell’IA. - 8. Il “metodo” Osservatorio per migliorare la governance dell’innovazione giudiziaria.
1. La lavorazione del “dato” e la “cassetta degli attrezzi” del giurista.
Viviamo nell’era dei dati e dell’informazione – come ha ricordato recentemente anche il Presidente del Garante per la protezione dei dati personali (P. STANZIONE) – e le nostre politiche, le nostre economie, le nostre vite sono condizionate dal flusso di dati e da tecnologie che corrono più veloci della regolamentazione necessaria a garantirne uno sviluppo sostenibile.
Questo vale per tutti i cittadini, ma in particolar modo per il mondo dei giuristi, la cui professionalità consiste nel partire da un dato rilevante per il diritto, il fatto, verificarlo attraverso lo studio, l’esperienza, l’istruttoria se del caso, per poi sussumerlo e porlo a base di una informazione complessa, cristallizzando il processo logico-associativo in un atto giudiziario che contiene una domanda o una eccezione o in una sentenza che regola in diritto il dato iniziale rispondendo alla domanda e alla eccezione.
Il complesso e affascinante procedimento dello ius dicere si è svolto per molto tempo attraverso supporti materiali da organizzare, ma di per sé non tali da incidere sulla formazione del contenuto dell’atto o della decisione finale (D. PELLEGRINI) e, come tali, sono stati a lungo privi di reale interesse per i giuristi. Quando sono state adottate le Carte che tracciano la costellazione dei nostri diritti fondamentali, come la dichiarazione Universale dei Diritti dell’Uomo dell’ONU (approvata 10 dicembre 1948), la Convenzione Europea Dei Diritti dell’Uomo (firmata il 4 novembre 1950) e la stessa Costituzione della repubblica italiana (in vigore dal 1.1.1948), l'intelligenza artificiale non era conosciuta.
Allora, la collocazione degli Uffici nei Tribunali o negli studi legali, la presenza di solide scrivanie, di supporti cartacei al diritto contenuti in libri, fascicoli e faldoni, erano elementi nella “cassetta degli attrezzi” dell’operatore da ordinare con cura, ma tendenzialmente “neutri” per il procedimento ermeneutico della giurisdizione, ossia non idonei ad incidere in maniera significativa sul contenuto del dato giuridicamente rilevante e sulla sua lavorazione finale.
2. L’algoritmo non è uno strumento “neutro”.
Quel mondo antico è cambiato. Nel 1950 viene pubblicato sulla rivista Mind il geniale saggio (A.M. TURING) Computing machinery and intelligence in cui si descrive quello che poi sarebbe stato denominato come “il Test di Turing”, sul quale si basa la gran parte degli studi successivi sull’intelligenza artificiale. Fin dalle prime battute il paper si incentra sulle definizioni del significato dei termini “macchina” e “pensiero”, giungendo alla convinzione che si può raggiungere un'intelligenza artificiale, farlo imitando la mente umana e alimentarla seguendo i normali insegnamenti che si danno ad un bambino, efficiente ricettore di nuove informazioni.
Oggi, l’utilizzo del supporto tecnico-informatico attraverso il quale l’associazione del dato e la lavorazione dell’informazione giuridica avviene nell’ambito di un processo largamente dematerializzato, è divenuto un elemento decisivo sia sul piano dell'efficienza complessiva e dei tempi di risposta alla domanda di giustizia, sia sul piano della qualità del risultato. L’intelligenza artificiale amplifica esponenzialmente questa tendenza, nei suoi aspetti positivi e in quelli deteriori: pensiamo alla salute del lavoratore esposto a lunghissimi periodi di permanenza a video, al progressivo svuotamento dei tribunali come luoghi socialmente riconosciuti deputati al controllo dello ius dicere. Pensiamo ancora alla massificazione della giurisdizione, deriva in cui l’atto giudiziale e la sentenza rischiano di diventare agli occhi di molti dirigenti della stessa organizzazione giudiziaria un prodotto seriale di cui conta essenzialmente la quantità da esibire in statistica in assenza di vistose anomalie formali, elementi che rischiano di prevalere sulla funzione creativa e di garanzia nello specifico caso concreto e, in ultima analisi, sull’idoneità dell’atto giudiziale ad assicurare una reale e concreta composizione individualizzata della controversia.
Tutti noi giuristi dobbiamo rivendicare che l’informatica giuridica e l’intelligenza artificiale ad essa applicata non venga considerata un mero servizio che il Ministero della Giustizia deve erogare agli utenti degli Uffici giudiziari con adeguata continuità su tutto il territorio nazionale, dalla Sicilia alla Lombardia, obiettivo comunque non sempre raggiuto. È fondamentale che gli organi rappresentativi della Magistratura e dell’Avvocatura e consolidati corpi intermedi come l’Osservatorio Nazionale sulla Giustizia Civile, i quali realizzano quotidianamente da molti anni una sintesi interdisciplinare tra Accademia, Avvocatura e Magistratura, rivendichino e siano presenti ai tavoli di lavoro ministeriali sull’intelligenza artificiale, per condividere le responsabilità e contribuire a stabilizzare un segmento fondamentale per la governance della giurisdizione, dal momento che lo strumento dell’IA non è affatto neutro rispetto ai tempi e alla qualità del risultati attesi.
3. L’importanza di una governance condivisa dell’innovazione tecnologica nella giurisdizione: l’esperienza di PCT e di APP
Sul terreno della governance condivisa dell’innovazione tecnologica nella giurisdizione, l’Ufficio innovazione del Tribunale di Milano, l’Ordine degli avvocati di Milano e l’Osservatorio sulla Giustizia civile hanno messo a fuoco negli anni attraverso l’esperienza del processo civile telematico un metodo di lavoro straordinario, cui merita data ulteriore continuità. A partire dal 2011 è stato finalmente attuato il d.P.R. n.123/2001, recante le prime regole sul PCT e allora la Cancelleria dell’Ufficio (P. BOVE), pur all’avanguardia nelle sperimentazioni sin dal 2006 sui decreti ingiuntivi telematici, nutriva molte perplessità sulle reali possibilità che il Processo Civile Telematico potesse funzionare. Tuttavia, il Tribunale e l’Ordine degli avvocati, hanno sorpreso tutti gli addetti ai lavori, dimostrando che il processo civile davvero poteva essere dematerializzato. Fondamentale è stata la sinergia con l’Avvocatura, sia per le risorse umane che per quelle intellettuali impiegate, ad esempio ai fini del training capillare dei magistrati da parte di avvocati-formatori, molto più esperti di molti magistrati sugli applicativi. A distanza di oltre un decennio dal lancio di Consolle, il PCT ancora richiede continua lavorazione, non solo a livello di reingegnerizzazione dell’applicativo da parte del Ministero, ma anche on-the-job e ancora – nonostante l’aquis di esperienze ormai diffuse tra i colleghi - la collaborazione con l’Avvocatura è importante.
Molto diverso è il caso del Processo Penale Telematico, che per il momento non pare aver sfruttato a pieno il bagaglio di conoscenze, di errori e di emendamenti maturati dal suo omologo civile in sede di concezione, sviluppo e implementazione. Nel 2024 il PPT è un esempio di come la carenza dell’apporto multidisciplinare alla governance dell’innovazione crei consistenti difficoltà. L’elaborazione del PPT è avvenuta negli ultimi anni sostanzialmente “in vitro” nelle stanze della società appaltatrice e del Dicastero, in vista del perseguimento degli obiettivi PNRR dopo l’emergenza Covid-19. L’Applicativo per il Processo Penale (APP) è stato presentato in alcuni Uffici di Procura per la sperimentazione solo nel novembre 2023, quasi contemporaneamente sono stati coinvolti i RID e i MAGRIF, magistrati esperti di informatica in poche unità presenti in ciascun distretto, e il 1° gennaio 2024 lo strumento è stato lanciato in tutta Italia, riducendo per ora le iniziali ambizioni alle sole archiviazioni penali. È mancata una condivisa sperimentazione, protratta per un periodo di tempo significativo. Cospicue sono le criticità emerse sin da subito – certificate da un gruppo di analisi sul PPT individuato dal Consiglio Superiore della Magistratura - e gli sviluppi futuri sono affidati ad una nuova versione dell’applicativo in corso di progettazione “2.0”. La materia penale è sicuramente un terreno difficile per l’informatica giuridica, non è un caso che sconti un forte ritardo nella digitalizzazione, ma, in disparte da questo, è evidente che nella concezione di APP è stato seguito un metodo non inclusivo non solo nella definizione del “dominio” dell’applicativo e nel suo “disegno concettuale”, ma anche nel disegno “logico” e, infine, in quello “fisico”, metodo escludente apporti esterni che non ha permesso al Ministero e alla appaltatrice di individuare per tempo numerose criticità progettuali. Questa è una lezione per il futuro e in particolare per applicativi che fanno uso di intelligenza artificiale applicata al diritto: un’eccessiva rigidità di progettazione, escludente interlocutori fondamentali come un consistente numero di utenti primari, rischia di compromettere la fruibilità dello strumento alle prime prevedibili difficoltà nel suo utilizzo concreto.
4. Il caso delle Banche Dati di merito (Pubblica e Riservata).
Per il momento le problematiche che investono APP non hanno avuto molta eco al di fuori della Magistratura perché nell’immediato l’applicativo investe essenzialmente gli Uffici di Procura e la sua introduzione risponde ad esigenze amministrative di rispetto delle milestones fissate in sede di PNRR, ma l’attuale metodo di concezione unilaterale di primarie innovazioni tecnologiche destinate a rivoluzionare il lavoro quotidiano dei giuristi non pare isolato. Significativo è il caso della Banca Dati di merito Pubblica (BDP), on line dal 14 dicembre 2023, e quello della Banca Dati di merito Riservata (BDR) a disposizione dei magistrati. La base dati fa uso, tra l'altro, anche di intelligenza artificiale generativa per l'ausilio alla massimazione: ad esempio, l'algoritmo è abilitato a proporre al massimatore un completamento automatico della frase iniziata dal redattore, e così di sintetizzare il contenuto della decisione da massimare. Il risultato è più un sommario (summary in Common Law) che una vera e propria massima secondo gli standard in uso presso il Massimario della Corte di Cassazione o del Foro italiano. Prevede anche, attraverso una gestione dei permessi, un meccanismo di validazione della massima da parte del Dirigente e poi la pubblicazione e inserimento nella base dati. C'è un OCR per il riconoscimento di testi non nativi digitali con possibilità di indicizzazione di sezioni dei documenti più corposi.
È previsto anche un "chatbot", che fornisce tramite l'intelligenza artificiale risposte a quesiti giuridici posti con linguaggio naturale. Risponde sulla base delle massime contenute nella base dati e, in prospettiva, anche dei sommari delle sentenze di merito caricate: si dichiara che circa 3 milioni di provvedimenti sono già censiti, e oltre 1600 massime. La risposta individua anche la fonte, ossia la sentenza o ordinanza, da cui ha tratto le informazioni, per consentire una verifica da parte di chi legge e limitare i rischi di inganni (hallucinations). Tuttavia, non rende evidenti i bias, ossia i pregiudizi discriminatori che si annidano tra i criteri scelti dall'algoritmo per la selezione della giurisprudenza ritenuta rilevante.
Inoltre, come l’Osservatorio Nazionale sulla Giustizia Civile di Milano ha osservato in un recente condivisibile documento del Gruppo Europa IA e Diritto (E. RIVA CRUGNOLA, S. TOFFOLETTO), particolarmente disfunzionale pare la scelta, da un lato, di mettere a disposizione del pubblico la BDP, previa autenticazione tramite Spid, CIE e CNS, nonché di mettere a disposizione dei magistrati la BDR, e, dall’altro lato, di chiudere, sia per i magistrati che per gli avvocati, l’accesso, tramite Consolle PCT, all’Archivio Nazionale della giurisprudenza. Numerose sono le criticità riscontrate, soprattutto in materia di anonimizzazione dei provvedimenti da parte dell’IA e anche la query e il reperimento dei provvedimenti risultano difficili per gli utenti, abituati alla ricerca dei provvedimenti secondo criteri preimpostati di data, numero di registro, parti, relatore, con conseguente scarsa fruibilità e reperimento del dato raffinato. È stata riscontrata anche la non completezza della conservazione dei provvedimenti dichiarati, anche recenti, nell’archivio di BDP e BDR.
Un altro tema non pienamente messo a fuoco e da non sottovalutare è quello della sicurezza della Banca Dati Riservata, sia civile che penale, che riguarda anche le decisioni già prese, dense di dati sensibili.
Si può ragionevolmente ritenere che diverse delle criticità emerse avrebbero potuto tempestivamente essere individuate in presenza di una interlocuzione specifica con i giuristi interessati e soprattutto di una adeguata sperimentazione, coinvolgendo in specifici tavoli di lavoro permanenti anche l’Ordine Nazionale Forense e una pluralità di esponenti dell’Accademia.
5. IA e anonimizzazione dei provvedimenti nella BDP e in PRO.DI.GI.T.
L’intelligenza artificiale è strumento molto utile nei processi lavorativi e nell’analisi statistica del dato, anche negli Uffici giudiziari (B. FABBRINI). Ad esempio, è utilissima ad individuare i punti critici ove vi sono gravi falle di efficienza nella sequenza organizzativa, come nel caso si tratti di individuare, attraverso l’esame del dato strutturato, la ragione per cui un gran numero di notifiche non vanno a buon fine in un determinato Ufficio.
È invece opportuna la cautela nell’utilizzo dell’IA con riferimento alla lavorazione ed elaborazione del dato testuale dei provvedimenti: può essere utile per ricerche di base e per riassunti su questioni giuridiche, ma sempre da verificare attraverso le lenti di un giurista qualificato.
Anche per obiettivi apparentemente circoscritti come l’anonimizzazione delle decisioni l’IA pare uno strumento ancora non pienamente affidabile e il cui uso è utile a supporto del giurista, ma non in sistemico automatismo. Algoritmi ancora non raffinati e oggetto di training su dati non accuratamente scelti rischiano di dare risultati che possono incrinare la fiducia nella qualità della professione legale e della giurisdizione, consentendo da un lato la diffusione di dati sensibili sfuggiti nel testo e, dall’altro, oscurando parti delle decisioni essenziali per comprendere la motivazione. In tal senso vi sono esempi tratti anche da laboratori di diritto comparato: le banche dati in Austria (RIS-Justiz) sono accessibili da tutti anche non da avvocati e, per tale ragione, gran parte delle sentenze inserite on line sono anonimizzate su indicazione spontanea dei collegi giudicanti. In altri termini, non opera un meccanismo di anonimizzazione “a richiesta” dell’interessato, proprio per fronteggiare i rischi connessi ad una banca dati ad accesso indiscriminato. Orbene, è significativo che l’anonimizzazione non avvenga tramite IA, bensì manualmente e, a specifica interrogazione dell’Evidenzbüro - EB, l’Ufficio del Massimario della Corte Suprema d’Austria, è stato confermato che si tratta di una precisa scelta di prudenza, in quanto gli algoritmi disponibili sono ritenuti strumenti non ancora sufficientemente evoluti e idonei ad evitare rilevanti falle. La sfida è coniugare l’anonimizzazione generalizzata delle sentenze con la comprensibilità e controllabilità pubblica della motivazione a supporto della decisione.
L’Osservatorio sulla Giustizia Civile in Italia ha una vastissima esperienza in materia di Privacy, frutto di un attento approfondimento scientifico, oltre che di una raccolta del dato molto ampia e stratificata, ed è una risorsa per chi voglia intervenire in questo settore attraverso l’IA.
È discussa l’efficacia dell’IA adoperata nell’anonimizzazione dei provvedimenti inseriti nella Banche Dati di merito Pubblica, dove secondo alcuni autori (P. F. MONDINI) la generale estensione dell’”accecamento” alle date rende talvolta molto difficile comprendere lo sviluppo temporale delle vicende controverse e l’individuazione degli estremi delle sentenze citate nella motivazione attraverso la loro data, con nocumento per la stessa finalità della motivazione come strumento di controllo della decisione giudiziale.
Vi è almeno un altro caso importante di banche dati di merito destinate ad ampio pubblico in cui l’algoritmo con IA è chiamato ad operare per favorire il rispetto della Privacy, senza nuocere alla comprensione della motivazione, ed è quello dell’applicativo PRO.DI.GI.T., il progetto digitale sulle banche dati di merito della Giustizia Tributaria. Il progetto è incentrato su una banca dati di merito con sommari di decisioni di primo e secondo grado degli ultimi anni, scandagliate da un algoritmo che mira a rafforzare trasparenza e prevedibilità della Giustizia Tributaria, puntando a rendere 4.0 la nuova giurisdizione in materia, alla luce della l. n.130/2022 e del d.lgs. 220/2023. Il progetto è stato finanziato per 8 milioni di euro da PON Governance e React UE ed è stato portato a conclusione nel dicembre 2023, anche se non sono esclusi sviluppi futuri. PRO.DI.GI.T.è un progetto elaborato dal Consiglio di presidenza della Giustizia tributaria in collaborazione col Ministero dell’Economia e delle Finanze e prevede che le banche dati siano accessibili a tutti, non solo a giudici e professionisti, ma anche a cittadini. L’anonimizzazione dei provvedimenti è disposta dall’intelligenza artificiale, ma con caratteristiche pare diverse da quelle proprie dell’algoritmo in uso per le Banca Dati di merito. Lo strumento al momento non è ancora di accesso pubblico.
6. IA e i rischi della giustizia predittiva.
PRO.DI.GI.T. presentata dal Ministero dell’Economia e delle Finanze alla fine del 2023 pare concepita per assicurare un’accessibilità ampia, e potenzialmente rivolta ad ogni cittadino. L’uso dell’intelligenza artificiale in questa prospettiva può porre un vero e proprio tema di giustizia predittiva (R. E. KOSTORIS). La banca dati, una volta accessibile, potenzialmente potrebbe essere consultata autonomamente da contribuenti che hanno ricevuto una cartella di pagamento per contestate evasioni fiscali al fine di cercare in autonomia di individuare una possibile traiettoria decisoria, evitando di rivolgersi ad un avvocato affinché studi la questione giuridica e proponga al cliente una possibile soluzione, giudiziale o stragiudiziale. La finalità di rafforzare la “trasparenza” nella giurisdizione e l’accesso alla giudice attraverso l’algoritmo (F. CONTINI) è condivisibile, ma la questione è complicata dal fatto che in materia fiscale la giurisprudenza di merito elaborata dalla giurisdizione tributaria è spesso non in linea con la giurisprudenza di legittimità, esercitata anche in questa materia dal giudice ordinario. Ad esempio, le statistiche della Sezione tributaria della Corte di Cassazione da anni riportano il maggior tasso percentuale di cassazioni con rinvio tra tutte le sezioni civili della Corte: molte sentenze di merito vengono riformate.
Una visione complessiva del contenzioso tributario, ai fini dell’utilizzo della banca dati come strumento maggiormente aderente alla realtà dell’intero processo e dunque del suo ragionevole esito, suggerisce di tener conto anche della giurisprudenza di legittimità, ma questo richiederebbe la lavorazione e la predisposizione di sommari anche su di un vasto numero di sentenze della Sezione V Civile della Cassazione, affinché possano essere sottoposte al trainingdell’algoritmo di intelligenza artificiale, il “bambino” che assorbe qualsiasi informazione, per usare l’espressione cara a Turing.
In assenza di questo passaggio, il rischio è di fornire un’informazione parziale ad un utente non esperto che interroghi il sistema, circa il possibile esito del giudizio. Si pensi al caso di un cittadino privo delle cognizioni tecniche proprie del professionista del diritto, tanto più necessarie in una materia ad elevato tecnicismo. Il rischio è paradossalmente di contribuire ad aumentare l’entropia e non a rendere più prevedibile l’esito del processo. Il coordinamento in materia è particolarmente complesso anche perché i primi due gradi di giudizio sono amministrati da una giurisdizione, quella tributaria, diversa da quella ordinaria che esercita l’ultimo grado giurisdizionale, segmenti che la recente riforma sul giudice specialistico tributario rischia di separare in modo ancora più netto.
È evidente l’importanza di un metodo, come quello dell’Osservatorio sulla Giustizia Civile che, nella sintesi tra membri dell’Accademia, foro e giudici può svolgere quel ruolo di cerniera culturale indispensabile perché l’artificiale generativa sia uno strumento efficace per il cittadino in una materia fortemente specialistica e peculiare anche quanto all’organizzazione giudiziaria. Non si tratta di tornare ad imprigionare il “genio nella lampada”, ma serve molta cautela sull’uso della giustizia predittiva ed è consigliabile il mantenimento della fondamentale mediazione culturale di un professionista del diritto, quale è l’avvocato, al fine di indirizzare correttamente le query che interrogano l’algoritmo e di valutarne gli esiti.
7. I diversi approcci sistemici nella regolazione dell’IA.
Il tema dell’intelligenza artificiale, di enorme rilevanza per il mondo della giustizia, presenta anche rischi considerevoli per i diritti della difesa e per molti diritti fondamentali come la Privacy, il giusto processo, la terzietà e indipendenza del giudice, il controllo pubblico della decisione attraverso la motivazione, il diritto all’oblio ecc...
Per governare questi rischi, nel mondo occidentale si confrontano attualmente diversi approcci, che, volendo semplificare per chiarezza espositiva, si possono individuare in un binomio: eurounitario e atlantico.
L’UE pare aver scelto un approccio normativo e di disciplina regolamentare al fenomeno. Un primo settore di intervento normativo da parte dell’UE riguarda l’AI Act. Il voto definitivo del Parlamento europeo è intervenuto il 13 marzo 2024, ma lo stesso relatore (B. BENIFEI) ha schematizzato i blocchi di disciplina precisando che la loro entrata in vigore non è imminente:
1) entro sei mesi dal voto definitivo è prevista la vigenza dei “divieti assoluti” quali il divieto - salvo eccezioni - all'uso di sistemi biometrici, il divieto di sistemi di social scoring e di sistemi di controllo delle emozioni, il divieto di sistemi di polizia predittiva;
2) entro un anno dal voto definitivo vi sarà la vigenza degli obblighi di sicurezza per i sistemi più potenti creatori a loro volta di sistemi, degli obblighi di trasparenza per i contenuti creati tramite AI, e la vigenza della disciplina relativa alla tutela dei contenuti protetti dal diritto d’autore;
3) entro due anni dal voto definitivo è poi prevista la vigenza dell'intero sistema relativo ai cd usi sensibili, la certificazione di conformità ecc...
La dilazione della vigenza delle previsioni normative è stata giustificata dallo stesso relatore con la necessità di elaborare nel frattempo degli standard omogenei, e soprattutto di predisporre adeguati sistemi di governance.
Una seconda area di intervento UE normativo sull’IA riguarda la proposta di direttiva in tema di lavoro su piattaforme tecnologiche. La proposta della Commissione prevede in sintesi una presunzione relativa di subordinazione in presenza di dati-indice e di principi generali in tema di monitoraggio umano dei risultati algoritmici. È stato osservato (M. BARBERA) che la proposta è attualmente avversata da lobby molto agguerrite ed ostacolata da interventi governativi, e quindi per il momento il percorso di approvazione è ancora lungo.
Un terzo settore di intervento normativo UE riguarda la nuova direttiva sulla responsabilità da prodotti difettosi aggiornata all’IA (B. CAPPIELLO).
L’approccio atlantico, in parte diverso da quello UE e che è stato definito più cauto (G. PELLICANO), è attualmente adottato da Regno Unito e, soprattutto, da Stati Uniti, i quali privilegiano l’autoregolamentazione dei giganti digitali, veri e propri campioni nazionali da non penalizzare nella competizione tecnologica globale, non presenti nel contesto europeo (G. CARULLO).
L’Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, emanato il 30 ottobre 2023 dal presidente degli Stati Uniti, perimetra l’ambito dell’intervento prioritario del governo, circoscrivendolo alla cybersecurity, alla prevenzione dei rischi relativi a cd infrastrutture critiche, e ai rischi derivanti da un uso improprio di elementi chimici, biologici, radiologici e nucleari. È previsto che il 94 percento delle attività di programmazione e definizione di standard affidate alle diverse Agenzie sia completato entro ottobre 2024. Se tali milestones verranno rispettate a ridosso dello snodo elettorale delle presidenziali 2024, il governo USA avrà predisposto, quindi, il suo sistema di promozione e gestione dei sistemi di intelligenza artificiale, in anticipo rispetto ai tempi di completa implementazione dell’apparato normativo dell’UE sull’intelligenza artificiale. Il piano americano mira ad attuare da subito interventi per attrarre esperti di intelligenza artificiale nella sfera pubblica, ma, anche in questo caso, la governance distingue in maniera pragmatica i campi di intervento immediato e quelli cui rivolgere uno sforzo continuativo entro un lasso di tempo più ampio.
Un simile tipo di governance ha punti di forza e di debolezza. Si tratta di un’impostazione che può essere definita privatistica, critica che è stata mossa anche all’AI Act unionale (G. DE MINICO), ossia è un approccio che affida a autodichiarazioni e autovalutazioni momenti fondamentali della regolazione dell’IA. Nondimeno, è stato notato (C. FICK) che i casi di regolamentazione volontaria presentano vantaggi per più profili: in primo luogo non inibiscono la capacità di innovare in un importante settore soggetto a costante evoluzione tecnologica e, in secondo luogo, un approccio volontario è rapido, anche se realisticamente è solo un primo passo verso la costruzione di una struttura di regolazione che possa dirsi davvero solida, oltre che dinamica e flessibile.
Non è l’unica diversità di approccio rispetto al metodo normativo UE. Al di là delle norme programmatiche, nei contenuti la governance dipende molto dall’ordine di priorità sull’IA e dal concreto bilanciamento dei diritti fondamentali in gioco che verrà trovato sui tavoli tecnici, soprattutto in materie sensibili come sicurezza e immigrazione.
La normativa può prevedere determinati standard di accuratezza dei dati utilizzati per fare il training dei sistemi di IA. Maggiormente selezionati e accurati sono i dati, minori sono i rischi di un risultato impreciso e affetto da bias (U. GALETTA), ossia da pregiudizi discriminatori, ad es. per gruppi di migranti e minoranze religiose. Ma, sull’altro versante, si osserva che i risultanti travolgenti raggiunti sino a ora dall’artificiale generativa (A. GARAPON) derivano in gran parte da un utilizzo indiscriminato di enormi quantità di dati reperiti sulla rete e in banche dati precompilate, senza particolari controlli sulle fonti e sulla attendibilità. Una selezione e un controllo effettivo sul rispetto del diritto d’autore, così come rendere ostensibili le fonti dei dati posti a base degli esiti dell’elaborazione incide sull’efficacia e la rapidità di sviluppo dell’IA, senza contare che l’output algoritmico, ad esempio in caso di reti neurali artificiali, non sempre è replicabile.
La recente iniziativa sull’intelligenza artificiale della presidenza italiana del G7 sembra essere un passo nell’adozione di un approccio più vicino a quello atlantico. I lavori del forum sono in corsoil 14 marzo 2024 a Verona e il 15 marzo a Trento, con un focus speciale sulla pubblica amministrazione. È un G7 dei ministri dell’industria-tecnologia-digitale di Italia, Canada, Francia, Germania, Giappone, Regno Unito e Stati Uniti d’America – esteso a rappresentanti dell’Unione Europea -, e l’Italia ha la presidenza del forum per il 2024. L’obiettivo del Summit, rende noto la Presidenza del Consiglio dei ministri, è promuovere lo sviluppo e l’uso sicuro e affidabile dei sistemi di intelligenza artificiale. Il risultato delle discussioni sarà un compendio incentrato sulla fornitura e sull’accesso a servizi pubblici digitali efficienti, inclusivi e sicuri e un compendio sui Sistemi Pubblici Digitali adottati dai membri del G7. La Presidenza italiana realizzerà anche una cassetta degli attrezzi (Toolkit) per lo sviluppo e l’uso etico di applicazione di IA nel settore pubblico e integrerà i progressi del Processo di Hiroshima sull’Intelligenza Artificiale HAIP, frutto della presidenza giapponese del G7 nel 2023. Si mira anche a sviluppare meccanismi per il monitoraggio volontario dell’adozione del Codice di Condotta Internazionale per le Organizzazioni che Sviluppano Sistemi di IA Avanzati.
8. Il “metodo” Osservatorio per migliorare la governance dell’innovazione giudiziaria.
L’approccio atlantico all’IA punta essenzialmente sul ruolo dei privati e sul concorso di responsabilità volontaria nella gestione dell’innovazione. Ma anche l’approccio regolamentare UE richiederà un sistema di governance adeguato sia a livello europeo che nazionale, destinato a coinvolgere soggetti esterni al perimetro delle istituzioni statali, perché si tratta sì di una "sfida istituzionale", ma coinvolgente competenze plurime (F. DONATI). È difficile pensare che queste risorse materiali ed intellettuali possano trovarsi tutte solo ed esclusivamente all’interno dell’Amministrazione in un settore tecnologico sviluppato da enormi investimenti privati. È possibile prevedere, dopo l’adozione dell’AI Act da parte dell’UE, un ruolo di rilievo delle corti nazionali ed europee nella fase applicativa del regolamento (C. SCHEPISI), anche in considerazione del lasso di tempo che occorrerà alla sua piena attuazione. Ma gli interpreti del diritto che da tempo si occupano di IA, ben prima delle Corti, anche in Italia sono gli avvocati e i centri di studi dei migliori atenei, spesso interconnessi con l’industria.
Ecco, dunque, l’importanza del “metodo Osservatorio” per l’implementazione dei progetti in corso sull’intelligenza artificiale. Contribuire ad una sinergia multidisciplinare magistrati-avvocati-Accademia significa investire su di un asset utilissimo per l’introduzione e il successo degli applicativi italiani sull’IA. Le esperienze raccolte in oltre un decennio di PCT suggeriscono che oltre al problema della concezione, disegno e ingegnerizzazione di un applicativo informatico, c’è tutto l’enorme impegno della messa a terra che richiede un lavoro culturale costante su migliaia di operatori del diritto: solo il numero degli avvocati in Italia è di circa 240.000 e quello dei magistrati ordinari è di poco inferiore a 10.000. Persone non sempre entusiasticamente ricettive dell’innovazione tecnologica, con necessità di un lasso di tempo significativo di formazione, parte di un costante e progressivo miglioramento dello strumento via via emendato dalle disfunzioni che solo nell’utilizzo quotidiano emergono compiutamente. Serve una formazione e un’assistenza all’uso capillare che il Ministero della Giustizia da solo non può assicurare in tempi brevi e che, da sola, anche la Scuola Superiore della Magistratura difficilmente può assolvere, perché fatta inevitabilmente di mille questioni concrete e quotidiane che richiedono una presenza e assistenza on-the-job. L’Avvocatura e l’Accademia hanno interesse a rendere l’infrastruttura efficace, user friendly e maggiormente rispettosa dei diritti fondamentali, e costituiscono nell’Osservatorio sulla Giustizia Civile un forum sperimentato da anni, dotato di risorse intellettuali e materiali utili a contribuire al successo dell’applicativo.
Non basta però la buona volontà, sono necessarie anche strutture chiare di governance. Vi è necessità di un tavolo tecnico permanete sui temi della digitalizzazione e sull’intelligenza artificiale applicata alla giurisdizione, in cui si possano confrontare non solo la DGSIA – attualmente spacchettata (C. CASTELLI) in una parte che gestisce la contrattualistica e un'altra che gestisce la tecnologia – e altre articolazioni del Ministero in paritetico con il CSM, ma anche le società appaltatrici dei servizi, il Consiglio Nazionale Forense, la Dirigenza amministrativa degli Uffici, l’Associazione Nazionale Magistrati. Come del resto è stato per il PCT dieci anni fa, seguendo una metodologia che permette anche un’adeguata pubblicità e condivisione dei passaggi e delle strategie necessarie. Vi è altrimenti il rischio di rallentare il processo di tecnologizzazione degli Uffici giudiziari da qui al 2026, mettendo in dubbio gli obiettivi del PNRR in materia di giustizia e rendendo il loro perseguimento molto più gravoso.
L'autore è consigliere della Corte di Cassazione. Le opinioni espresse sono strettamente personali e non impegnano in alcun modo la Corte. Il contributo riprende i contenuti della relazione svolta al convegno tenuto il 14 marzo 2024 presso il Palazzo di Giustizia di Milano, sul tema “Intelligenza Artificiale nella Giustizia Civile: Norme, Principi, Effetti e Strumenti”, organizzato dalla Scuola Superiore della Magistratura, dall’Università degli Studi di Milano e dall’Osservatorio sulla Giustizia Civile.
(Immagine: Ipparco di Nicea nell'Osservatorio di Alessandria, xilografia tratta da Hermann Göll, Die Weisen und Gelehrten des Alterthums, 2nd Ed. Leipzig, (Otto Spamer) 1876, p. 169, Berlin, Sammlung Archiv für Kunst und Geschichte e colorata successivamente)