“Mi rimetto alla clemenza dell’intelligenza artificiale”.
L’AI-jurisdicional process e il cyber-lawyer
di Luca Di Majo
Abstract (ITA): Tra le varie professionalità influenzate dalla diffusione delle nuove tecnologie, la professione legale rappresenta probabilmente quella più delicata per l’alta funzione assegnatale dalla Costituzione, ancorché indirettamente, per la tutela dei diritti fondamentali.
L’Intelligenza Artificiale, nel campo della giustizia e, in particolare, rispetto ai principi sanciti dal diritto di difesa (art. 24 Cost.) e dal giusto processo (art. 111 Cost.), comporta un cambiamento di paradigma della professione forense.
L’accesso alla giustizia, il contraddittorio, l’assunzione della prova, l’attività interpretativa del giudice, le garanzie delle parti nel processo sono solo alcuni temi che tengono insieme coloro che animano il processo, sui quali l’Avvocato non può trovarsi impreparato, accogliendo e governando le nuove sfide poste dalla tecnologia.
Abstract (ENG): Among the various professions affected by the spread of new technologies, the legal profession is probably the most delicate because the high function assigned to it by the Constitution, albeit indirectly, for the protection of fundamental rights.
Artificial Intelligence, in the field of justice and, in particular, with respect to the principles enshrined in the right of defence (art. 24 Cost.) and due process (art. 111 Cost.), entails a paradigm shift in the legal profession.
Access to justice, the adversarial process, the taking of evidence, the interpretive activity of the judge, the guarantees of the parties in the trial are just some of the issues that hold together those who animate the process, on which the lawyer cannot be unprepared, accepting and governing the new challenges posed by technology.
Parole chiave: Avvocato, Intelligenza Artificiale, Costituzione, Processi giurisdizionali, Diritto di difesa, Giusto Processo
Key Words: Lawyer, Artificial Intelligence, Constitution, Jurisdictional process, Right of defence, Due process of Law
Sommario: 1. Premessa 2. L’avvocato e i processi giurisdizionali ieri e oggi, tra tradizione, innovazione e intelligenza artificiale. 3. Gli articoli 24 e 111 della Costituzione nella morsa dell’intelligenza artificiale. 3.1. Fuga dal contraddittorio? 3.2. Assuefazione all’algoritmo? 3.3. Declino delle impugnazioni? 4. L’intelligenza artificiale e la deontologia forense:dovere di competenza tecnologica o avvocato specialista? 5. Il Cyber-lawyer in un prossimo (ma già attuale) AI-jurisdicional process, tra previsione e predizione.
1. Premessa.
Molteplici sono gli aspetti plasmati, a tratti “dominati”[1], dall’intelligenza artificiale[2] e, tra questi, figura la giustizia.
La riflessione sulla relazione tra processi giurisdizionali e tecnologia si sta tuttavia focalizzando su una precisa angolazione, e cioè sul ruolo del giudice nella dicotomia previsione/predizione[3] di processi[4] tendenzialmente automatizzati[5], tralasciando aspetti non secondari che incideranno sulla funzione di una figura alla quale non è stata riservata espressamente dignità costituzionale, ma che esercita, nel prisma del diritto di difesa (art. 24 Cost.)[6], un ruolo ancor più delicato in quanto volto alla garanzia dei diritti fondamentali delle persone, non limitata alla mera assistenza “fiduciaria”[7]: l’avvocato.
In una tale prospettiva tecnologica che, per certi versi, sarà in grado di segnare un “passaggio epocale”[8], la professione forense si colloca già oggi in una posizione ancor più cruciale, essendo “incalzata”[9] sotto una duplice dimensione.
In specie, a un punto di vista – probabilmente maggiormente suggestivo per un costituzionalista –sono implicati la garanzia del diritto di difesa e del giusto processo perché strettamente legati alla tutela dei diritti fondamentali della persona umana (ma non solo)[10]; da un altro, è coinvolto il mercato dei servizi legali, con tutto ciò che attiene al rispetto delle regole di deontologia professionale, il cui anacronismo è da vagliare nel confronto con il codice di condotta di una figura importante del settore giustizia che trae esclusivamente dalla propria attività professionale i mezzi per condurre un’esistenza libera e dignitosa.
L’intelligenza artificiale si insinua nella professione forense come supporto, certo, ma anche come elemento costitutivo di un nuovo business in grado di offrire servizi seriali ad un costo probabilmente minore, ampliando l’offerta ad un’utenza sempre maggiore e calmierando una serie di costi che rappresentano, per molti, un limite all’accesso al diritto di difesa, nonostante lo Stato preveda (con limiti particolarmente stringenti) il patrocinio gratuito ai non abbienti (ma non ai poco abbienti)[11].
Non sono molti gli studi legali attualmente in corsa sui treni dell’intelligenza artificiale, in lenta crescita[12] e con un tasso inferiore rispetto a quello di altri studi professionali[13].
Ciononostante, sembrerebbe non apparire un’ipotesi del tutto remota una vera e propria rivoluzione in senso tecnologico della figura dell’avvocato, per certi aspetti surrogabile da modelli di technolaw[14] plasmati da disruptive legal technologies[15] “che stanno già mutando l’intero orizzonte del mercato legale e che impongono al professionista forense non solo di aggiornare il proprio lavoro, per migliorarlo, ma di reinventarlo quasi completamente”[16].
Tutto ciò, non senza profili di criticità[17], è già realtà negli Stati Uniti d’America, dove l’intelligenza artificiale ha segnato il passo di un diverso modo di intendere la difesa nei processi, vuoi per una maggiore apertura del Nuovo Mondo alle rivoluzioni digitali, vuoi per essere il sistema del common law più conferente rispetto alla predisposizione degli algoritmi a lavorare sul precedente per generare una risposta affidabile sull’esito di una controversia.
Assunto, questo, vero solo in parte, attesa l’assuefazione ad una cultura del precedente giurisprudenziale che ha permeato il modus operandi di giudici e avvocati appartenenti ai sistemi di civil law che appaiono sempre più slegati dal codice e meno impermeabili al diritto vivente delle Corti di legittimità e di merito[18], tanto che la distinzione, quantomeno sul piano concettuale, può porsi tra sistemi giuridici a vincolo forte o sistemi giuridici a vincolo debole nei confronti del precedente[19].
Così, non è inverosimile prevedere una diffusione di inusuali modelli difensivi fondati sulla rielaborazione di case law a partire da algoritmi che inducono il giurista ad interrogarsi sull’attualità degli schemi tradizionali del diritto di difesa volti a garantire comunque uno standard minimo dei diritti delle persone rispetto alle pretese del potere pubblico[20].
2. L’avvocato e i processi giurisdizionali ieri e oggi, tra tradizione, innovazione e intelligenza artificiale.
L’attività di assistenza legale è da sempre in continuo movimento.
Da un lato, la richiesta di servizi integrati ha progressivamente eroso la figura del singolo avvocato storico, volto noto nella città, e degli studi legali che si reggevano unicamente su una figura per lo più monocratica.
Le categorie difensive classiche (civile, penale, amministrativo) si sono disgregate innanzi ad una parcellizzazione delle competenze sempre più percepibile che pretende una riconsiderazione di un “alto”[21] magistero che si fonde con un corpo sociale articolato, ne riceve le istanze, ne cura gli interessi e, “assumendone il patrocinio, si fa portatore delle istanze davanti a chi, come il giudice [ma non solo, n.d.s.] è legittimato a stabilire se siano fondate o no”[22].
Da un’altra prospettiva, l’attività difensiva viene offerta in modalità associata, per certi aspetti “competitiva”[23], attraverso studi legali plurispecializzati[24] che operano one-to-many nelle più diverse branche del diritto civile, penale, del lavoro, tributario, sportivo, europeo, internazionale, nell’ambito delle quali trova spazio il Cyber-lawyer (se si può così definire), colui il quale maneggia, un po’ per scelta e un po’ perché obbligato, a partire dal d.l. n. 179/2012, gli strumenti che la tecnologia gli mette a disposizione, da ultimo l’intelligenza artificiale.
Eppure, fin dall’antichità il sistema giustizia, a dispetto delle varianti in cui ha potuto diversificarsi e dell’evoluzione dei modelli, ha conosciuto una costante comune: uomini che giudicano altri uomini e dibattono su questioni di uomini. Insomma, ha prevalso sempre una dimensione puramente umana.
L’assistenza legale è sempre stata impersonata da advocati (o tutores) e l’ars oratoria fondata su accurati schemi argomentativi e retorici[25], che dagli antichi romani[26] risalgono fino all’età contemporanea.
I sussidi, al più, sono stati i codici, strumenti a disposizione di giudici e avvocati che raccolgono norme interpretate e decisioni giurisdizionali frutto dell’intelletto umano, catalogate in prestigiose riviste divenute, con il corso del tempo, scrigni[27] dai quali attingere conoscenze per tenere fermo un precedente giurisprudenziale, per attualizzarne i contenuti o, se del caso, superarne l’impostazione dogmatica.
Ciò vale per avvocati e giudici, attori che contribuiscono a rendere sempre fluido quel diritto vivente che plasma i principi generali dell’ordinamento interno nel prisma delle tecniche interpretative.
La figura e il ruolo dell’avvocato (invero, anche del giudice) stanno mutando negli ultimi anni a causa della complessità sociale[28] e di una modalità innovativa di esercizio dell’attività professionale dovuta, in particolare, al progressivo avvicendarsi degli strumenti tecnologici a disposizione dei procuratori legali.
Eppure, l’avvocato viene immaginato da sempre collocato in uno studio, seduto dietro una scrivania, immerso tra carte, codici, atti, lettere, calamaio, macchina da scrivere (poi sostituiti da penne, PC e tablet), libri, insomma, tutto quanto appare strumentale all’esercizio della professione[29]. Uno spazio affollato, non c’è che da dire, in un immaginario collettivo che non trova più posto in una realtà caratterizzata da software on line e consolle in grado di fornire più efficacemente le risposte agli interrogativi posti tanto dal professionista quanto dal cliente.
Per il Cyber-lawyer, i primi segnali della rivoluzione digitale si sono palesati con il d.l. n. 179/2012: la posta elettronica certificata, la firma digitale, l’esclusivo deposito telematico degli atti processuali hanno progressivamente sancito l’obbligatorietà dell’utilizzo dello strumento informatico in quasi tutta l’attività del procuratore, tanto che il suo mancato utilizzo, ovvero l’utilizzo non conforme, rischia di essere fonte di responsabilità professionale (cfr., sul punto, infra, par. 4).
L’approdo verso forme di processo digitale, dovuto quasi esclusivamente all’incedere improvviso ed impetuoso della pandemia[30], ha poi contribuito inarrestabile alla diffusione di modalità di celebrazione di processi fino a poco tempo fa inusuali: dal semplice deposito telematico fino alle modalità di trattazione c.d. cartolare, oggi divenuta modalità ordinaria, ma già sperimentata nelle forme del processo pandemico con l’art. 16, d.l. n. 228/2021[31].
La rivoluzione digitale segna, dunque, un cambiamento di paradigma in ogni angolo del diritto[32]. La tecnologia influenza il processo in tutte le sue sfaccettature, in tutte le sue strutture, nei suoi contenuti.
È un ricordo lontano il trapasso dal telefax alla e-mail e, successivamente, alla posta elettronica certificata; appare oggi quasi irrilevante la novità dei Personal Computer che hanno consentito, con programmi sempre più evoluti e completi, di velocizzare la scrittura di atti giudiziari; è oramai pienamente operativo il processo telematico in tutte le varianti giurisdizionali[33]; è ammessa la mediazione obbligatoria ex d.lgs. n. 28/2012 anche su piattaforme virtuali, dove tentare di raggiungere l’adesione tra le parti «da remoto» (art. 22, comma 1, lett. c), d.m. n. 150/2023), benché la composizione stragiudiziale della controversa all’italiana rappresenti ancora oggi un tentativo mal riuscito di mutuare Online Dispute Resolution (ODR) attraverso modalità del tutto distanti dal modello europeo previsto dal regolamento UE n. 524/2013, in considerazione della percentuale sconfortante di accordi conclusi[34].
L’ultima frontiera della giustizia digitale è attualmente l’intelligenza artificiale[35], nonostante alcuni ordinamenti si collochino, già nel momento in cui scrive, in una dimensione ulteriore e immersiva, ammettendo la celebrazione di processi giurisdizionali nel metaverso[36].
Mentre con il metaverso si sta tentando, non senza difficoltà e non senza apprensioni per la tenuta dei diritti fondamentali[37], di creare un universo parallelo, proiettando la percezione umana e sensoriale al di là delle relazioni fisiche[38], l’intelligenza artificiale è, al contrario l’insieme di metodi scientifici e tecniche finalizzati a riprodurre, mediante le macchine, le capacità cognitive degli esseri umani.
È una nozione, questa, che trova originariamente la propria definizione in un atto di soft law, la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla CEPEJ nel corso della sua trentunesima riunione plenaria (Strasburgo, 3-4 dicembre 2018)[39], e che introduce un percorso che indurrà, nel prossimo futuro, a configurare un processo (ogni tipo di processo) molto più digitale di quanto oggi non lo sia e una professione forense molto più digitalizzata di quanto non lo si possa attualmente immaginare.
Il rischio di affidarsi all’intelligenza artificiale in campo giudiziario sembra acquisire progressivamente maggiore fondatezza tale da giustificare l’emendamento n. 71 alla versione originaria del considerando n. 40 dell’Artificial Intelligence ACT, approvato il 14 giungo 2023, laddove, a fronte della classificazione «ad alto rischio» degli algoritmi utilizzati nell’amministrazione della giustizia per l’«impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale», è riservata ad essi, «nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge […] una funzione di «sostegno, [senza] sostituire il potere decisionale dei giudici o l’indipendenza del potere giudiziario, in quanto il processo decisionale finale deve rimanere un’attività e una decisione a guida umana»[40].
Non pare opportuno estendere tale classificazione ai sistemi di intelligenza artificiale destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l’assegnazione delle risorse. Si tratta, infatti, di attività ordinarie che non comportano problemi applicativi, anzi sono destinati ad efficientare la macchina della giustizia.
Tutt’altro, invece, si verifica nella dimensione strettamente processuale. La giustizia è, difatti, sempre più coinvolta nel processo di “compenetrazione tra gli spazi fisici e quelli digitali”[41], e le prospettive fin qui delineate hanno avuto un effetto dirompente sull’approccio interpretativo dei giudici, benché gli stessi siano ancora legati alla risoluzione di controversie tradizionali in un processo fondato su metodi tradizionali di lettura delle prove.
La riflessione in merito al grado di incidenza delle nuove tecnologie in ambito giudiziale appare per lo più sbilanciata sul grado di predittività della “massimizzazione induttiva di una certa quantità probabilistica”[42] e su un’esigenza (la cui ragionevolezza sarà tutta da dimostrare) di “velocizzare le attività ed evitare eventuali errori umani nell’esercizio della giurisdizione, con l’obiettivo di rafforzare la certezza dell’ordinamento giuridico attraverso il contenimento del soggettivismo giudiziario”[43], abbandonando, allo stesso tempo, “l’equilibrio, la saggezza, l’etica, la coscienza, la sensibilità, il coraggio e la valutazione della unicità e peculiarità del singolo caso da vagliare, requisiti basilari quando, con una sentenza, si interviene sulla libertà o sulla proprietà di un individuo”[44].
I timori e le perplessità emergenti invitano il giudice ad essere parco nell’utilizzo di algoritmi predittivi per il potenziale pregiudizio «a un ricorso giurisdizionale effettivo e a un giudice imparziale»[45].
Sono questioni particolarmente delicate, certamente, già in parte scrutinate, derivanti dalle prime applicazioni di intelligenza artificiale nel campo civile[46] e nel campo penale,[47] che hanno consentito di segnare alcuni limiti[48]all’“algocrazia”[49], come il principio di conoscibilità[50], il principio di non esclusività della decisione algoritmica[51], il principio di non discriminazione algoritmica[52].
Altri aspetti a rischio contenuto, al contrario, non sottovalutano i benefici (non pochi, invero) nella gestione dei processi e nella economicità dei processi stessi, come l’assegnazione delle cause attraverso l’indicazione di specifici parametri: il peso specifico delle controversie, la coerenza tra le conoscenze del giudice e l’oggetto del contendere, in esempio, consentono una più equa distribuzione tra i magistrati assegnati ad un determinato Tribunale[53], così da intercettare cause simili, organizzarle secondo una logica razionarle, attraverso la creazione di un meccanismo di assegnazione automatica che tiene conto delle analogie tra le varie controversie (più analitico rispetto al riparto di competenze tra le materie trattate dalle singole sezioni), senza affidarsi alla cecità di un mero numero di ruolo.
Il presupposto di partenza da cui muove chi si è occupato di questi temi resta però legato ad un ruolo soltanto parziale dell’intelligenza artificiale, fondato su soli schemi interpretativi e su decisioni di controversie tecnologicamente orientate, limitato ad un’analisi del ruolo del giudice e di quanto la giustizia possa (o debba) di essere predittiva.
Qui, al contrario, pur in una logica di approccio attinente ad una valutazione probabilistica dell’esito del giudizio[54], non prevale il tema riguardante l’applicazione della tecnologia alla sola modalità di celebrazione c.d. cartolare delle udienze, uno dei tanti profili ereditati dalla pandemia[55] (oggi stabilizzati come modalità ordinaria nel d.lgs. n. 149/2022 e nel d.lgs. n. 150/2022), quanto riflettere sul grado di incidenza degli algoritmi sulla redazione di atti difensivi e sulla selezione delle allegazioni probatorie che restano pur sempre alla base di una decisione meccanica benché non completamente automatizzata.
Immaginare, dunque, la risposta della libera professione alla domanda Avvocato, lei ce l’ha un’intelligenza artificiale[56]?
Non è un interrogativo banale. Esso integra, piuttosto, un quesito di fronte al quale il professionista assume un certo imbarazzo nel fornire una risposta (quasi come si ponesse in dubbio il suo percorso di affrancamento dal livello medio di conoscenze giuridiche downloaded dall’avvocato Google), paventando, per certi versi, una possibile fonte di violazione di precise regole deontologiche.
Difatti, il Cyber-lawyer non può ignorare l’esistenza e il funzionamento degli algoritmi se vuole rimanere dentro il circuito della giustizia (e dentro il mercato dei servizi legali), dove l’esercizio del diritto di difesa diventerà sempre più imprescindibile dall’utilizzo di algoritmi volti, da un lato, ad orientare, pur sempre «in condizioni di parità» (art. 111, comma 2, Cost.), il contraddittorio tra le parti (infra, par. 3.2.), dall’altro, a verificare se la sentenza fondata sull’algoritmo non possa essere sottoposta a gravame, perché la scelta di impugnare o meno una decisione giurisdizionale rischia di essere meno concreta di oggi (infra, par. 3.3.).
Il progresso tecnologico, oltre a sperimentare forme inedite di celebrazioni processuali, impone al Cyber-lawyer la conoscenza di nuovi strumenti di legal tech, già introdotti da forme primordiali di intelligenza artificiale: applicativi che consentono di digitalizzare, automatizzare, razionalizzare e semplificare l’attività, di processare una grandissima quantità di normativa, giurisprudenza, di esprimere in maniera più o meno sintetica il risultato a partire dall’impostazione del parametro di ricerca. Ciò che si desume non è tanto la ricchezza del contenuto, quanto piuttosto la selettività della ricerca e la capacità di selezionare, in una miriade di decisioni, quelle giuste.
In questo senso, l’evoluzione degli algoritmi agevola una navigazione più smart, anche consentendo di aggirare le insidie celate dietro l’abuso del processo per lo stop all’avvio di azioni giudiziarie palesemente infondate, volte esclusivamente a dilatare i tempi per la soddisfazione dei diritti e degli interessi delle controparti, ben sapendo già in principio dell’inutilità di un’azione giudiziaria che va soltanto ad ingolfare la macchina dei Tribunali, senza comportare alcun giovamento alla parte.
Sono modalità molto più efficaci rispetto alla complessa consultazione di banche dati giurisprudenziali, dove è l’avvocato, manualmente, ad intraprendere un faticoso lavoro di sintesi in cui, muovendo dall’indagine condotta su un determinato istituto oppure su una determinata fattispecie, garantisce, un domani come oggi, l’imprescindibile caratteristica di un “servizio legale [ricamato] su misura”[57] della controversia.
Non si tratta esclusivamente di applicazioni legate all’implementazione della tecnicalità del linguaggio giuridico (Lex Machina), della conoscenza dell’ordinamento normativo e della giurisprudenza (Casetext), o di aspetti riguardanti attrazione e fidelizzazione innovative della domanda; piuttosto si fa riferimento a Online Dispute Resolution[58] comeCybersettle[59], Money Claim già sperimentati con discreto successo altrove[60], in particolare da piattaforme private[61]o dalla giustizia pubblica[62], e a tecnologie volte al miglioramento della performance professionale attraverso la c.d. IA generativa, come piattaforme testuali (ChatGPT) o grafiche (DALL-E2), fondate su un approccio maggiormente induttivo che deduttivo (Luminance), nonché a modelli di intelligenza artificiale preposti alla redazione di contratti (Kyra System o Contract Express) e all’interpretazione delle clausole negoziali (ThoughtRiver o LawGeex).
Tra legal design[63] e modelli fondati su meccanismi di machine learning e deep learning[64], si tratterà di rimodulare l’attività professionale artificialmente intelligente attraverso cinque fasi: “in primo luogo, l’avvocato dovrà individuare e formulare il problema/quesito; successivamente, dovrà preparare i dati da inserire nel sistema [prescelto, n.d.s.] (assicurando che essi siano integri e corretti); dovrà poi elaborare i dati al fine di generare un risultato (output); dovrà revisionare il risultato ottenuto; dovrà soppesare e spiegare al cliente il significato del risultato ottenuto”[65], non limitandosi ad agire secondo automatismi come il Robot-Lawyer realizzato dalla start-up americana DoNotPay.
Profili, questi, che l’Avvocato del terzo millennio – dotato di conoscenze tecnologiche che segnano un cambio di passo dell’esercizio della professione – non può semplicemente osservare con disincanto, perché gli stessi comportano la rilettura di categoria classiche come il diritto di difesa, l’accesso alla giustizia (quanto conviene affrontare un processo che l’algoritmo ritiene perso in partenza?), la parità delle armi[66] (quanto costa affidarsi ad un sistema di intelligenza artificiale di ultima generazione per non soccombere nel processo?), il libero convincimento del giudice[67] e la propria autonomia (come può un giudice motivare il proprio dissenso da dati elaborati da algoritmi?), il tradizionale sistema delle impugnazioni[68] (qual è la reale possibilità di revisione di una decisione algoritmica?), il divieto di istituzione di giudici straordinari (l’intelligenza artificiale potrà assumere, in un futuro remoto, le funzioni di giudice straordinario?).
Non poco, se volgiamo lo sguardo ai principi costituzionali che regolano il diritto di difesa (art. 24 Cost.) e il giusto processo (art. 111 Cost.)[69].
In questa nuova ed inedita prospettiva, la futura mutazione genetica dei processi trascina con sé inevitabilmente questioni che attengono al magistero del Cyber-lawyer, delineandone un ruolo, in prospettiva futura, probabilmente più esterno al processo ma non per questo meno responsabile nei confronti del cliente[70], nel rispetto delle regole deontologiche e, soprattutto, non subalterno alla clemenza o al severo giudizio dell’intelligenza artificiale.
Un tema attuale, allo stesso tempo futuribile, che impegnerà la professione forense calandola in una dimensione intertemporale, nella quale l’art. 24 Cost., il processo giusto (art. 111 Cost.) ed equo (art. 6 CEDU), che maggiormente interessano la figura dell’avvocato, andranno probabilmente riletti alla luce di procedimenti giurisdizionali molto più tecnologici di quanto lo si possa oggi immaginare[71].
3. Gli articoli 24 e 111 della Costituzione nella morsa dell’Intelligenza Artificiale.
Gli articoli 24 e 111 Cost. fissano inderogabilmente quelli che sono i principi non negoziabili dell’esercizio del diritto di difesa nel giusto processo[72].
La genesi di tali articoli, pur muovendo dall’intento comune di mantenere un livello di tutela alto dei diritti inviolabili dell’uomo, ha seguito traiettorie diverse, restando la prima disposizione immutata nel tempo, a fronte del «giusto processo» elevato – secondo alcuni solo formalmente[73] – a dignità costituzionale con la novella del 1999.
Si tratta in ogni caso di “sommi”[74] principi comuni a tutti i processi, tanto da “sottrarre al giudice ogni scelta discrezionale circa il ‘se’ e il ‘come’ del contraddittorio allorché in gioco vi sia la tutela dei diritti”[75].
I principi sanciti dai primi due commi dell’art. 111 Cost. si saldano con l’art. 24 Cost. rafforzando l’area di tutela dei diritti inviolabili quando vi si prospetta una violazione da parte del privato o dell’autorità pubblica.
Ciò che emerge è, dunque, la figura di un processo “giusto nella misura in cui aspiri e tenda a garantire non solo il rispetto formale delle procedure, ma anche l’accuratezza nell’accertamento dei fatti e nella soluzione della quaestio iuris, attraverso la comprensione (cum-prehendere) e l’intelligenza (intus-legere) della materia del contendere, da ricostruire con la maggior precisione possibile in esito alla dialettica processuale”[76].
Insomma, un processo non deve essere giusto perché giusta è la decisione, ma è considerato giusto per la predisposizione di garanzie riservate alle parti, per le quali è “strumento”[77] di concretizzazione dell’art. 24 Cost.
Difesa tecnica e giusto processo sono così strettamente legati: “la difesa c.d. tecnica consiste nell’attribuire alla parte il diritto di godere in giudizio dell’assistenza di un esercente la professione legale. Il diritto di far valere in giudizio le proprie ragioni sintetizza, invece, il principio del contraddittorio volto a garantire la partecipazione attiva delle parti al processo”[78].
Come si muovono gli algoritmi rispetto alle esigenze poste dall’art. 24 Cost. e dal nuovo art. 111 Cost., in particolare rispetto al contraddittorio, alla ragionevole durata e al ruolo del difensore? Quale significato possono avere questi principi richiamati, se ai processi giurisdizionali si vuole legare la forza di una élite tecnica, mollando gli ormeggi che li tengono uniti alla Costituzione? Dopotutto, non è pur vero che la tecnica rimanda a regole precise, matematiche, statistiche, automatiche, procedimentalizzate che sottraggono spazio alle voci dei magistrati, degli avvocati e delle parti?
Va detto, così per fugare ogni dubbio, che qui si rifugge da qualsiasi aspirazione meramente aziendalistica della giustizia rispetto al profilo della «ragionevole durata del processo», perché ciò altro non è che un’ansiogena aspirazione a comprimere temporalmente le controversie al di là di ogni profilo di ragionevolezza e vincolata alla sola volontà di rendere la giustizia stessa verosimilmente più performante.
Resta insito in questa riflessione l’aspetto legato al contraddittorio fondato sull’eguale accesso ai mezzi di ricerca della prova volti a fornire al giudice un quadro sinottico della controversia e metterlo nelle condizioni migliori per assumere la decisione più vicina alla verità processuale. In una tale dimensione, l’intelligenza artificiale, proprio per le caratteristiche sopra delineate, non può non aspirare a diventare il centro di acquisizione e di valutazione delle prove fino a fornire i parametri al giudice per la decisione finale.
Qui, però, l’intelligenza artificiale, pone alcune incognite.
In quale direzione si muovono il diritto di difesa e il giusto processo se, nelle fasi processuali più controverse (l’assunzione e la valutazione della prova, la discussione), interloquire in contraddittorio con l’altra parte e con il giudice rischia di rivelarsi privo di alcun senso innanzi alla pretesa infallibilità dell’algoritmo? In che modo l’avvocato sarà in grado di contro-valutare una prova proveniente fuori la sede costituzionalmente prevista (artt. 111, comma 2, Cost.), pur ammessa nei codici di rito, restando in ogni caso salvo il contraddittorio nel processo a seguito di acquisizione? Sarà ancora possibile considerare non anacronistico il ragionevole dubbio oltre il quale un imputato va condannato, oppure deve farsi strada un’idea assoluta di colpevolezza, peraltro anche inconciliabile con l’art. 27 Cost.? Non rischia di diventare inutile la revisione delle sentenze fondata sul modello tradizionale del judicial review? Come può, un giudice dell’appello riformare una sentenza che si basa su dati e statistiche anche apparentemente solide? E se tale prospettiva sarà smentita, quale natura assumerà il giudizio di appello? Resterà un giudizio sul fatto o muterà geneticamente in un giudizio sull’algoritmo[79]?
Sono interrogativi ai quali oggi non è possibile ancora fornire una risposta certa per il velo di ignoranza che ricopre le pieghe che assumerà un futuro AI-jurisdicional process; ciò non esclude, anzi rafforza l’auspicio che gli algoritmi restino dentro quei principi inviolabili della Costituzione, come tali immodificabili[80] e non negoziabili per il solo fatto che modelli di intelligenza artificiale pretendono di cambiare l’etica, l’epistemologia, la natura del giusto processo e della difesa tecnica, di cui l’avvocato deve restare il reale dominus, nonostante già oggi, come detto, inizi a fare i conti con un processo non più esclusivamente umano.
3.1. Fuga dal contraddittorio?
L’istruttoria è una fase cruciale dei processi, non c’è che dire, non raramente ad alta tensione tra le parti e volta a tentare un riequilibrio di quella disparità che si è sempre atteggiata come un aspetto fisiologico ed insuperabile.
Eppure, l’art. 111 Cost. lega insieme contraddittorio e parità delle armi come un’endiadi, uno accanto all’altra. Qualsiasi decisione del giudice deve fondarsi su prove valutate in contraddittorio e introdotte nei processi dalle parti, alle quali i codici di rito assegnano una molteplicità di mezzi di ricerca della prova che lasciano intendere una idea di parità da realizzare nella fase istruttoria e non tanto nell’ambito delle attività di indagine svolte dal Pubblico Ministero o nella selezione di ciò che l’attore o il ricorrente allegano agli atti introduttivi dei giudizi civili[81].
È stato infatti rilevato che la parità delle armi “non può distruggere la diversità di posizione iniziale, derivante dal fatto che la invocazione del giudice proviene non da tutt’e due le parti insieme, ma da una parte che colla proposizione della domanda prende volontariamente l’iniziativa del processo contro l’altra parte che senza sua volontà si trova coinvolta nel rapporto processuale ed è costretta a subirne gli effetti”[82]; tanto è vero che nel processo penale emerge con forza una “disparità vantaggiosa”[83] a favore del Pubblico Ministero che gode di una sostanziale segretezza nel corso delle indagini preliminari, ove il contraddittorio è pressoché inesistente, salvo quelle fasi in cui il disvelamento di un procedimento a carico dell’imputato è dovuto per l’esecuzione di atti garantiti o in caso di istanza per lo svolgimento dell’incidente probatorio.
Insomma, la parità delle armi è svincolata da qualsivoglia aspetto legato alla natura della prova. Piuttosto, ciò che la Costituzione pretende essere «pari» è la modalità di accertamento, in condizioni di eguaglianza[84], di quanto gli elementi probatori possano essere rilevanti per giungere a quel fine «primario [e] ineludibile»[85] che corrisponde alla verità processuale, alla «realizzazione della giustizia che […] fra l’altro vale ad assicurare l’esercizio di tutte le libertà»[86]. In una tale dimensione, «la potestà effettiva dell’assistenza tecnica e professionale nello svolgimento di qualsiasi processo, [assicura] il contraddittorio [affinché] venga meno ogni ostacolo a far valere le ragioni delle parti»[87]. Il patrocinio del difensore, in altre parole, è volto al temperamento e al riequilibrio delle situazioni di svantaggio nel processo, attraverso la “contrapposizione paritetica fra i soggetti in causa”[88].
Il contraddittorio è salvo nella misura in cui si svolge in condizioni di parità, il che significa che su un elemento probatorio si snoda “un’adeguata gamma di poteri paralleli, che mirano alla realizzazione piena del contraddittorio”[89], considerato come “quel gioco di interventi alternati o contestuali, quell’andirivieni di domande e di repliche, di asserzioni e negazioni che costellano l’iter del processo, guidandolo verso la fine”[90] che assicurano la «difesa in giudizio, cioè davanti ad un giudice, e con il debito procedimento legale»[91].
Insomma, il contraddittorio espresso dall’art. 111, comma 2 Cost., è fondato sul principio dell’audiatur et altera pars[92], salvo l’insieme dei procedimenti sommari che, tuttavia, godono di una efficacia limitata e non si sottraggono, nelle diverse forme e nei diversi riti, ad un approfondimento cognitivo più ampio e volto a verificare i presupposti che hanno indotto il giudice a pronunciarli, mantenendo così fermo il metodo di formazione dialettico della prova.
Il contraddittorio è garanzia della parità delle armi nei processi che, a prescindere da una qualificazione “forte o debole”[93], si manifesta nel prisma delle modalità con cui i codici di rito riservano al giudice, da un lato, i poteri ex officio o su istanza di parte per l’acquisizione delle prove, dall’altro, la piena discrezionalità sulla valutazione delle medesime, a condizione che il confronto tra par(t)i sia stato «pieno [ed] effettivo»[94], comunque non al di sotto di quella soglia di adeguatezza che la Corte EDU pretende in ossequio all’art. 6, par. 3, lett. d), CEDU[95].
Che la possibilità di svolgere il contraddittorio su una prova di natura algoritmica non sia negata dalla svolta artificiale dei processi non vale a considerarlo rispettoso nel nucleo essenziale così come le Alte Corti lo hanno da sempre definitivo. Quanto può essere forte il contraddittorio davanti al presunto dogma dell’infallibilità, invero, sarà tutto da verificare.
Quale sarà il destino di quel profilo anche simbolico[96] del processo “antico e tradizionale, con le sue ritualità (esperienza e i tempi del processo, la presenza nelle aule del Tribunale, le condizioni concrete che determinano una prova)[97], a fronte della “razionalità matematica”[98] e “freddezza”[99] dei numeri? Ciò che esprime il testimone in udienza, innanzi al giudice, non è equivalente ad una decontestualizzata dichiarazione scritta; ciò che emerge attraverso una continua, e a tratti anche conflittuale, interazione di domande e risposte, così come l’ordine con il quale vengono poste, può diventare decisivo ai fini della risoluzione del processo.
Anzitutto, nella dimensione inedita di un AI-jurisdicional process, appare davvero molto arduo interrogare l’algoritmo e ricevere risposte diverse da quelle fornite attraverso l’elaborazione degli input selezionati ed inseriti dalle parti nell’algoritmo medesimo, poi chiamato a fornire un output attraverso la combinazione di elementi, non certo a giustificare o a motivare l’espressione di ciò che può essere considerato alla stregua di un parere tecnico-scientifico. Tuttavia, se l’intelligenza artificiale alla quale si è affidata una parte è assimilabile a ciò che tradizionalmente è definita dal codice di rito consulenza di parte, essa assume una rilevanza ben più significativa, non riducendosi a «mera allegazionedifensiva, di carattere tecnico, priva di autonomo valore»[100] per essere in grado di schiacciare la difesa della controparte non artificialmente intelligente, ovvero a determinare l’esito della valutazione sulla colpevolezza dell’imputato.
La sorte del processo, dinanzi ad un contraddittorio privo di senso rispetto ad una verità assoluta espressa dall’algoritmo, sarebbe decisa a priori e in assenza di qualsivoglia forma dialettica.
Il contraddittorio resterebbe, dunque, stretto nella morsa di dati, né più e né meno di quanto avviene in tutti quei processi di accertamento negativo del credito, nei quali il giudice si limita a prendere atto dei risultati espressi da mere formule matematiche.
A seguito dell’utilizzo dell’intelligenza artificiale, lo spazio di manovra del giudice è ridotto, e la difesa delle parti surrogata dall’ipse dixit dell’algoritmo.
Quanto potrà incidere l’abilità oratoria di un avvocato nel contraddittorio, spesso decisiva nelle fasi finali dei processi, sulla posizione assunta dal giudice a seguito della lettura dei dati algoritmici? Quanto peserà la preparazione giuridica del patrocinatore legale se sarà obbligato a rimettersi a quanto espresso dall’algoritmo? Poco o nulla.
Il ruolo dell’avvocato nella lettura del processo sarà limitato alla sola fase di studio e introduttiva, nella quale la propria abilità verrà comunque mortificata da un’attività legata alla sola scelta di ciò che inserire o non inserire nella macchina, magari provando diverse combinazioni di input fino a quando l’algoritmo non partorirà la migliore delle strategie difensive poi ratificate in un atto di citazione, in un ricorso, in una querela, in un’arringa.
Dinanzi ad un processo ipotecato ab origine, quanta credibilità potrà assumere la difesa tecnica, che per sua natura ha la funzione di “predisporre il giudice”[101] all’ascolto, invece di apparire ridondante per l’univoca ricostruzione che offrirà l’intelligenza artificiale, sarà tutta da verificare sul campo, nonostante l’esperienza insegni che, in particolare per quanto concerne il processo penale, la prova “ha un suo insopprimibile margine di indeterminatezza”[102] in grado di stravolgere la convinzione del giudice sul ragionevole dubbio che può condurre, secondo un apprezzamento esclusivamente soggettivo, alla condanna ovvero all’assoluzione dell’imputato. E questo profilo non può essere relegato nel dimenticatoio per non versare lacrime su errori giudiziari che hanno distrutto la vita di condannati innocenti.
L’aspetto maggiormente preoccupante di un processo che si svolge attorno agli algoritmi è l’annullamento di qualsivoglia forma di contraddittorio[103] e di una decisione frutto di un automatismo successorio privo di “emozione decisionale”[104], anzi anche pericoloso per l’assedio alle garanzie tradizionali dei processi, laddove, in esempio, l’utilizzo di captatori mnemonici[105] annienta il diritto al silenzio dell’imputato e colloca le testimonianze rese in una dimensione di verità assoluta, di fatto impossibile da superare o smentire, nonostante gli attori dei processi siano pienamente consapevoli che quando occorre stabilire se un certo comportamento sia da ritenersi morale, giusto, equo, ragionevole, opportuno, onorevole, conforme ai principi di diritto – e cioè quando sono in gioco dei valori – non è mai facile formarsi convinzioni aprioristiche in valore assoluto, e la giustizia giusta resta il più delle volte un miraggio, se non una vera e propria utopia.
3.2. Assuefazione all’algoritmo?
Il rischio di assecondare parametri metagiuridici attratti nel processo attraverso l’utilizzo di modelli di intelligenza artificiale fa comprendere ancor di più quanto siano in grado di essere disruptive gli algoritmi nella dimensione della giustizia così come tradizionalmente intesa, e rispetto ai principi generali di un giusto processo “esigente”[106] rispetto a quei pilastri trasfusi nell’art. 111 Cost.
L’intelligenza artificiale “basata sulla calcolabilità tecnica e sul principio dell’applicazione automatica, dovrebbe garantire certezza scientifica e contrastare una eccessiva discrezionalità nelle decisioni [nonostante] il pericolo dell’arbitrarietà”[107], semmai possa essere considerato tale quell’aspetto creativo e, per certi aspetti patologico, del diritto vivente.
In Italia, i giudici hanno progressivamente affinato una sensibilità sempre più marcata rispetto a quegli elementi decisivi che consentono una risoluzione delle controversie molto più agevole, ogni volta che l’oggetto del contendere si uniforma, ad esempio, ad un precedente giudiziale, riconoscendone a tratti una inusuale vincolatività, derivante invero non solo dagli organi giurisdizionali, ma dall’ordinamento giuridico positivo stesso[108], pur essendo i sistemi di common e civillaw ontologicamente diversi, così come pure il valore del precedente giurisprudenziale[109] è diverso nei due contesti.
Ciò dimostra come il ruolo del giudice sia cambiato e come tale figura si allontani sempre più dagli schemi tradizionali che lo vedevano quale bouche de loi, per finire talvolta schiacciato dal peso dei precedenti autorevoli di altri giudici, non per forza soltanto di quelli inappellabili pronunciati dalla Corte di Cassazione.
Per quanto qui di interesse, tocca prendere atto dell’esistenza di una sensibilità dei giudici nei confronti di qualcosa che va cristallizzandosi nel tempo e dal quale fanno fatica a svincolarsi, cosa che secondo alcuni rappresenta ancora oggi una grave patologia dell’ordinamento italiano.
Se riconduciamo questa sensibilità dei giudici all’avvento dell’intelligenza artificiale, in assenza di limiti applicabili al governo delle stringhe, non possiamo non porci il problema di quale atteggiamento i giudici possano assumere a fronte del mutamento radicale delle caratteristiche dei processi giurisdizionali, non potendosi escludere il rischio di un’assuefazione alle evidenze algoritmiche.
Va detto che in un ordinamento fondato sul principio di legalità e sulla soggezione del giudice alla legge (art. 101 Cost.) non si tratta di una soluzione appagante, anzi la stessa può essere considerata una grave patologia perché si affida al giudice un ruolo che non gli appartiene, reclamando sempre più una sorta di razionalizzazione della funzione difensiva e giudiziaria per la carica virulenta assunta dai precedenti, ieri, e dall’algoritmo, oggi.
In uno stagno dalle acque già così torbide, viene gettato il sasso (anzi, il macigno) dell’intelligenza artificiale che conduce a ripensare il sistema complessivo, nel quale l’avvocato è chiamato a prendere coscienza dell’importanza del dato algoritmico in un futuro probabilmente legato ad uno stare decisis che esce dalle mura dei Tribunali e bussa alle porte degli studi legali. Non si tratta di scenari che si arrestano alla tecnica decisoria, anzi giocano in anticipo, influenzando la strategia degli avvocati, legando la predizione alla decisione, configurando una precostituita certezza a fronte di soluzioni modulate sulla singola fattispecie e vagliate case by case[110].
Se questa sarà la prospettiva, certo da prendere con un discreto livello di beneficio del dubbio, v’è da chiedersi se l’intelligenza artificiale esprima una regola, cioè un contenuto normativo. E se esprime una regola, qual è il grado del vincolo posto al processo? Dov’è il fondamento normativo che impone al giudice di seguire l’algoritmo per motivare una decisione, anche interlocutoria?
In sintesi, la riflessione giuridica sul tema non può sottovalutare almeno tre aspetti: l’obbligatorietà e il vincolo dell’algoritmo; il problema del ragionamento giuridico; il problema della giustificazione della decisione giurisdizionale.
Un caso deciso dal giudice è una combinazione di un insieme di aspetti: esiste una situazione di fatto nella quale possiamo distinguere diversi fattori che favoriscono l’una o l’altra parte, e l’una o l’altra conclusione. Il giudice, nel decidere il caso in un certo modo, ha stabilito che certi fattori presenti nel caso – quelli che favoriscono la decisione – sono sufficienti per giungere a quella conclusione, e inoltre prevalgono sui fattori contrari. Cioè, se abbiamo alcuni fattori (F1) che favoriscono una certa conclusione (C1) e altri fattori (F2) contrari alla conclusione (C2), il giudice decide per la conclusione (C1).
I fattori sono gli input da inserire nell’algoritmo.
Anzi, qualche attento osservatore della giustizia predittiva non esclude l’applicazione di formule matematiche all’art. 12 delle Preleggi, del tipo “IP: (IL±ILn) o (IR±IRn) o [IL=0=>(AL±Aln)] o [AL~0=(AI±Ain)], laddove IP corrisponde all’interpretazione di una data disposizione di legge; IL corrisponde all’interpretazione letterale ex art. 12 Preleggi; IR corrisponde all’interpretazione per ratio o teleologica ex art. 12 Preleggi; AL corrisponde all’interpretazione per analogia legis ex art. 12 Preleggi; AI corrisponde all’interpretazione per analogia iuris (principi generali dell’ordinamento giuridico) ex art. 12 Preleggi; ± corrisponde a più (somma) oppure meno (sottrazione), in dipendenza dal modello di interpretazione se volta ad affermare (+) oppure a negare (-); o corrisponde alla composizione che in matematica vuol dire applicazione di una funzione al risultato di un’altra funzione, ovvero più semplicemente la composizione è una forma di miscelamento (non corrisponde alla somma aritmetica) tra più dati; => corrisponde al significato se … allora (IL=0=> vuol dire se IL è uguale a 0, allora…); ~ corrisponde al significato di circa; n è una variabile corrispondente al numero di possibili interpretazione del medesimo tipo”[111].
Ed allora, l’insegnamento che l’avvocato trae da un processo decisionale così inusuale è che, in assenza di fattori contrari, i fattori favorevoli sono sufficienti a determinare la conclusione C1, e se i fattori che hanno determinato la conclusione prevalgono sui fattori in contrasto, si ha quella conclusione C1 e non una diversa conclusione C2.
Insomma, la strada della strategia difensiva appare segnata ab origine perché con l’algoritmo si concretizza la pretesa di conoscere l’esito di un processo.
L’intelligenza artificiale appare agli occhi dei manovali del diritto come un Prometeo scatenato, un Titano a cui lo Stato tecnologico ha sciolto le catene di Efesto e ha iniettato – alla luce dell’esplosione di una magnificente “regola imperativa”[112] dettata dagli algoritmi – nuovo ius. Come Ulisse liberato, il giudice sarà attratto sempre più dalle fascinazioni suadenti dell’intelligenza artificiale in un futuribile AI-jurisdicional process, dove il suo ruolo rischia di atteggiarsi alla stregua di supplenza giudiziaria, invero antitetica al precetto della soggezione del giudice alla legge (art. 101 Cost.), e difforme rispetto al sistema e al telaio costituzionale interno che si fonda anche sul principio di legalità.
L’insegnamento da trarre per quanto concerne un probabile atteggiarsi dell’intelligenza artificiale come precedente dogmatico, in prospettiva di una risoluzione piuttosto certa delle controversie, è che non può ammettersi una integrazione senza limiti tra la rielaborazione dell’algoritmo e la previsione degli scenari processuali futuri.
Spetterà certo al giudice il governo sapiente degli effetti indotti nei processi giurisdizionali, almeno sotto tale profilo, da parte dell’intelligenza artificiale, tenendo conto (e come non si poterebbe) dei cardini oltre i quali la funzione giudicante travalicherebbe il sistema imposto dalla Carta costituzionale e fondato sul rispetto del “nucleo irrinunciabile di ogni processo”[113] espresso dagli artt. 24, 25, 101 e 111 Cost.
L’avvocato, al pari del giudice, naviga in una lingua di mare tra due sponde strette: da un lato, deve cogliere la migliore strategia difensiva, dall’altro, duellare con il precedente algoritmico; e sono veramente stretti gli spazi difensivi del singolo avvocato, perché, in base ai futuri modelli processuali fondati sull’intelligenza artificiale, non sarà più la tecnica difensiva a confrontarsi con il testo della legge, alla ricerca di una norma reale. La tecnica difensiva, difatti, smarrirà la bussola dell’art. 12 delle Preleggi. Al suo posto, nuovi modelli di omologazione di attività difensiva e interpretazione avanzeranno unitamente ad un’idea di conformismo giudiziario orientato dall’intelligenza artificiale.
Quale sarà il destino della riserva di legge se agli algoritmi sarà assegnato il compito di determinare la rilevanza penale dei comportamenti? Quesito, questo, cruciale se si considera che la riserva di legge medesima e il principio di legalità restano imprescindibili presidi per “contenere la discrezionalità degli organi del potere giudiziario, in nome dell’eguaglianza di trattamento dei cittadini, vincolando i primi a convogliare l’accertamento sostanziale ad essi dedotto, ovvero il giudizio, entro una griglia democraticamente predeterminata (sia pure in modo non asfissiante) di forme, scansioni temporali, chance di ricerca di elementi di fatto, ecc., uniforme per tutti gli utenti, a prescindere dalle differenti qualità soggettive delle parti interessate e dai mutevoli termini oggettivi della controversia”[114]. Argini la cui tenuta, dunque, sarà tutta da verificare.
3.3. Declino delle impugnazioni?
La riflessione sulle possibili ricadute delle applicazioni algoritmiche nei processi, nell’esclusiva correlazione con la figura dell’Avvocato, non può che concludersi con le impugnazioni.
Se, come si è tentato di evidenziare, il dogma dell’algoritmo costringe il giudice a seguirne l’impostazione, così da far sembrare la sentenza figlia di un automatismo slegato da ogni incursione soggettiva nella motivazione, quale potrà essere il livello di aspettativa dell’accoglimento di un gravame?
Su questo terreno va necessariamente posta una distinzione tra il giudizio di appello e il ricorso per Cassazione, per la natura ontologicamente diversa dei due processi, da cui deriva che soltanto il primo può configurarsi quale vero e proprio judicial review, a differenza della cognizione innanzi alla Suprema Corte, la quale è legata ad una valutazione delle violazioni di legge anche nei casi in cui l’art. 384, comma 2, c.p.c. le riserva certamente la possibilità di entrare nel merito della questione, ma esclusivamente per motivi di diritto che non richiedano nuovi accertamenti di fatto[115], tanto di norme sostanziali quanto di norme processuali[116].
In questa sede e nel momento in cui scrive non sono ancora maturi i tempi per offrire, con un sufficiente grado di certezza, un ventaglio quantomeno esaustivo delle violazioni di legge commesse dal giudice e/o indotte dall’algoritmo, dovendosi verificare in futuro sul campo quali possano essere le questioni che la Corte di Cassazione riterrà di poter e dover affrontare senza chiudere la porta dell’ammissibilità.
Ciò che può rilevarsi, allo stato dell’arte e in prospettiva futura, è chi si tratterà di una pronuncia rivolta non alle risposte fornite dall’algoritmo, quanto piuttosto alle caratteristiche dell’algoritmo e alle modalità di acquisizione della prova.
Nel primo caso, non è remota l’ipotesi che la Cassazione possa considerare fuori dalle ordinarie (e legittime) modalità di acquisizione della prova, quegli elementi di natura algoritmica prodotti da modelli incoerenti con i principi espressi dal Consiglio di Stato con le sentenze nn. 8472, 8473, 8474 del 2019, oppure attraverso atti di ufficio o di parte che rendono la prova inutilizzabile per essere stata acquisita al di fuori della disciplina legale.
In questo caso, nulla vi è da aggiungere rispetto al tradizionale modello di giudizio fondato sui parametri ex artt. 115 e 116 c.p.c. e 191 c.p.p.
Da una prospettiva diversa, si tratterà di sanzionare una modalità di lettura della prova che non ha tenuto conto dei principi guida elaborati dalla giurisprudenza, in assenza dei quali l’algoritmo stride altresì con le regole del contraddittorio nella formazione della prova, considerato che l’assenza di trasparenza dei processi algoritmici obbliga i difensori a condurre un’istruttoria al buio, senza conoscere i fondamenti e le ragioni alla base del risultato espresso dall’algoritmo utilizzato.
Discorso a parte va riservato ai giudizi di secondo grado, nei quali l’avvocato è chiamato a gettare il cuore oltre l’ostacolo, non limitandosi ad offrire una prospettazione diversa da quella fornita dall’algoritmo utilizzato in primo grado, quanto piuttosto a leggere tra le righe degli input, comprendere il perché la rielaborazione delle stringhe di quel modello di intelligenza artificiale sia stata in grado di produrre un risultato sfavorevole alla parte rappresentata, spingendosi finanche a provare l’incoerenza tra l’algoritmo utilizzato e l’oggetto del processo.
Non è un compito semplice, pur essendo questi (al momento) gli unici viatici tramite cui il difensore può penetrare nelle pieghe dell’algoritmo ed esprimere una posizione fondata su una valutazione soggettiva circa le ragioni per le quali alcuni input sono stati estromessi e altri invece sono da ritenersi superflui, vagliando se quel modello di intelligenza artificiale era idoneo, o meno, ad esprimere una valutazione sull’oggetto del processo, volta a rimettere in discussione la decisione di primo grado.
Insomma, cambia radicalmente l’oggetto dell’appello perché l’attenzione si sposta sulla valutazione del grado di affidabilità e del corretto utilizzo da parte degli attori del processo[117] di tali strumenti, restando sullo sfondo le ragioni che hanno mosso il giudizio di primo grado e che in realtà sono quelle che pretendono giustizia in secondo grado.
Il giudizio di appello, non diversamente da quanto accade in primo grado, finirà per mutare geneticamente in giudizio sull’algoritmo.
Ora, se la questione prospettata dal difensore sarà fondata su motivi di appello legati al processo decisionale algoritmico, la Corte sarà chiamata ad offrire una propria posizione al pari di come avviene nel processo decisionale, utilizzando il medesimo algoritmo e sottoponendolo ad una sorta di stress-test, edulcorando o aggiungendo quegli elementi che l’appellante riterrà essere stati omessi o considerati rilevanti dal Giudice di prime cure quando, al contrario, gli stessi andavano a monte estromessi dalla funzione di input.
Diversi i casi della valutazione della coerenza dell’algoritmo con l’oggetto del contendere, ovvero se, attraverso l’appello e nelle more della pronuncia di primo grado e il giudizio di secondo grado, sopraggiungeranno aggiornamenti al softwaredell’algoritmo utilizzato, tali da smentire la posizione espressa in primo grado alla quale il giudice aveva intanto aderito
Entrambe le ipotesi richiedono, tuttavia, tanto un’approfondita conoscenza dei modelli di intelligenza artificiale da parte del Collegio, quanto un investimento economico non indifferente che si riverbererà anche sul bilancio dello Stato sul quale non potranno che gravare i costi di adeguamento della giustizia per collocarsi in una posizione almeno pari rispetto a quelle parti dotate di una potenza economica significativa tanto da potersi permettere l’intelligenza artificiale di ultima generazione, in ogni caso, va detto anche questo, non immune da errori[118].
Non è remoto, dunque, il rischio di un giudizio di appello appannaggio di quella parte economicamente dominante qualora lo Stato non sarà in grado di opporre, nel confronto tra algoritmi, modelli di intelligenza artificiale certificati che godranno di altissimo livello di credito tra la comunità scientifica di riferimento.
Ciò, tuttavia, comporterà ulteriori conseguenze inusuali per i processi: in primo luogo, la parte economicamente debole e non in grado di reperire sul mercato l’algoritmo di ultima generazione sarà destinata a soccombere anche in appello. In secondo luogo, dinanzi all’inerzia non volontaria della parte di rivolgersi all’intelligenza artificiale procurandosi un algoritmo, vi sarà da chiedersi si i giudici (e in particolare la Cassazione), manterranno fede a quell’orientamento che considera esplorativa quella consulenza tecnica d’ufficio non supportata da elementi tecnici idonei a indurre i giudici stessi ad ammetterla.
E, infine, dinanzi a tutte queste incognite che non sono solo attinenti ai giudizi di appello, potendosi manifestare anche all’origine di qualsivoglia contenzioso, quanta preparazione e coraggio avrà bisogno l’avvocato per intraprendere un percorso processuale dai confini nebulosi, dalle prospettive incerte e dai costi ingenti? Già la riforma Cartabia ha imposto una stretta significativa sul contenzioso, allargando il perimetro delle inammissibilità e rafforzando – in modalità alquanto discutibili – le Alternative Dispute Resolution. Dinanzi ad un ulteriore salto in avanti della natura dei processi, probabilmente, sarebbe il caso di non fidarsi troppo delle magnifiche sorti dell’intelligenza artificiale, continuando piuttosto a riporre fiducia nella qualità della difesa tecnica, pur riconoscendo che l’utilizzo degli algoritmi nei processi, per quanto possa auspicarsi il più ridotto possibile, sarà quanto prima una realtà dell’ordinamento giuridico interno.
Insomma, non è remoto il “rischio della standardizzazione decisoria: difatti, se si ritiene che una causa abbia un basso livello di successo perché contraria a molti precedenti, allora nessuno proporrà tale causa, con la conseguenza di frustrare la spinta naturalistica all’evoluzione del diritto”[119] ogni volta in cui la ragionevole previsione di soccombere porterà l’avvocato a fermarsi davanti a ciò che “non possunt commovere”[120].
4. L’intelligenza artificiale e la deontologia forense: dovere di competenza tecnologica o avvocato specialista?
Il diverso modello processuale fondato su schemi algoritmici sollecita un’ulteriore riflessione strettamente legata ai requisiti preliminari di competenza tecnica richiesti dalla legislazione vigente e dal codice deontologico (d’ora in avanti c.d.) per l’esercizio della professione forense.
L’obbligatoria iscrizione negli albi professionali (art. 5, c.d.) presuppone quella «specifica qualificazione professionale»[121] accertata mediante il rilascio dell’abilitazione all’esercizio della professione forense, previo svolgimento del periodo di pratica (art. 43, legge n. 247/2012).
Assume rilevanza l’adeguata formazione professionale, uno dei cardini della Carta dei principi fondamentali dell’Avvocato Europeo[122] e della Nuova disciplina sull’ordinamento della professione forense (legge n. 247/2012) che dedica numerose disposizioni al percorso di aggiornamento dell’avvocato, affidando alla responsabilità personale «il continuo e costante aggiornamento della propria competenza professionale» (art. 11, comma 1), e riservando ai Consigli distrettuali ampia autonomia organizzativa tanto sulle modalità di erogazione dei corsi (art. 11, comma 4, e art. 29, comma 1, lett. d)) – anche in convenzione con enti di ricerca e Università, altresì beneficiando di fondi assegnati dalla Regione (art. 11, comma 5) – quanto sulla verifica (art. 29, comma 1, lett. i)) del possesso dei requisiti.
Nulla di diverso da chi aveva già posto l’attenzione sull’importanza dei requisiti di qualificazione professionale, dell’apporto al processo fornito dalla sua “qualificata esperienza, in tutte le fasi processuali, in cui la piena e regolare instaurazione del contraddittorio sugli elementi di prova che concorrono a formare il convincimento del giudice sia cruciale per l’esito del giudizio”[123].
Nel prisma dei doveri di deontologia, una tale disciplina rappresenta, allo stesso tempo, presupposto della preparazione tecnico-scientifica e idoneità competenziale dell’avvocato, chiamato ad adoperare gli strumenti innovativi che la tecnologia gli offre, al pari di ogni altro “attore del processo”[124], sia per non soccombere innanzi al presunto dogma dell’infallibilità dell’algoritmo, sia per non andare incontro a violazioni concernenti la responsabilità professionale.
Ebbene, in assenza di una disciplina normativa esplicita, il ricorso a strumenti di intelligenza artificiale espone l’avvocato ad una responsabilità simile a quella prospettata nella misura in cui si avvale di collaboratori nell’ambito dell’attività professionale prestata in favore di un cliente? L’introduzione di strumenti di intelligenza artificiale aumenta il grado di diligenza professionale? Fino a che punto l’avvocato risponde al proprio cliente per un mancato utilizzo, un errato utilizzo, o un utilizzo inidoneo di algoritmi?
Benché all’avvocato non siano richieste competenze pari a quelle di un ingegnere informatico e non vi sia norma, allo stato attuale, che formi un cappio attorno all’attività forense, il patrocinatore non potrà prescindere dall’acquisizione di basi conoscitive moderate in ambito informatico: saper riconoscere il valore legale e la rilevanza giuridica di una sottoscrizione digitale, saper distinguere tra le diverse tipologie di documenti informatici, conoscere la modalità di elaborazione dei dati di un software che utilizza un sistema predittivo di intelligenza artificiale, essere in grado di inserire correttamente gli input che l’intelligenza artificiale è chiamata ad elaborare, sono competenze già in parte richieste per esercitare la professione forense e che, a maggior ragione, saranno imprescindibili un domani.
Il legame tra gli strumenti di legal tech e la responsabilità del Cyber-lawyer rileva rispetto agli obblighi del professionista nei confronti del proprio cliente, la violazione dei quali può essere fonte di responsabilità civile (art. 2229 ss. c.c.), ovvero disciplinare (artt. 4, 14, 15 e 27 c.d.).
Da un lato, la professione legale si caratterizza per l’autonomia e l’indipendenza dell’azione professionale e del giudizio intellettuale (art. 3, comma 1, legge n. 247/2012). Dall’altro, proprio da tale attività può derivare la responsabilità disciplinare per la mancata osservanza di quelli che sono i doveri e le regole di condotta stabiliti dal codice deontologico forense, dalla legge, dalla coscienza e dalla volontarietà delle azioni o delle omissioni (art. 4 c.d.).
Pertanto, qualsiasi tipo di atto che sia contrario ai doveri di condotta che gravano sugli avvocati è suscettibile di sanzione, benché il patrocinatore abbia per errore ritenuto che l’atto da lui compiuto non fosse professionalmente idoneo a violare anche una delle norme poste a tutela della parte assistita.
E così, la scelta di non usufruire degli strumenti di intelligenza artificiale, pur nella libera disponibilità del difensore, ovvero un utilizzo malaccorto degli algoritmi, quand’anche non configurasse responsabilità professionale, sarebbe già di per sé fonte di responsabilità disciplinare[125].
La conclusione di un contratto di prestazione d’opera intellettuale[126] comporta infatti l’esecuzione personale dell’obbligo assunto (art. 2232 c.c.), salvo avvalersi dell’ausilio e della collaborazione di altri soggetti. In questi, casi l’avvocato risponde rispetto all’attività da essi prestata (art. 7, c.d.), pur valutando la graduazione della diligenza (art. 2236 c.c.) che il codice pretende adeguata a quella che è la natura del magistero prestato.
Il grado minimo di colpa richiesto per il verificarsi della responsabilità, in generale e nella maggior parte dei casi, è quello della colpa lieve, salvo che non si abbia a che fare con delle questioni nelle quali emergono problemi tecnici di speciale complessità, nelle quali rileva, eccezionalmente, la colpa grave.
La valutazione della colpa è legata alla particolare difficoltà della prestazione, e cioè delle circostanze del caso concreto, sulla scorta dell’ampio criterio dettato dalla diligenza professionale ex art. 1176 c.c. che coniuga «due opposte esigenze, quella di non mortificare l’iniziativa del professionista col timore di ingiustificate rappresaglie da parte del cliente in caso di insuccesso e quella inversa di non indulgere verso non ponderate decisioni o riprovevoli inerzie del professionista» (art. 917 Relazione al codice civile).
La fattispecie dedotta dall’art. 2236 c.c., che prevede una limitazione di responsabilità nei soli casi di dolo o colpa grave per il prestatore di opera professionale, non può trovare un’applicazione generalizzata per ogni attività svolta con l’ausilio dei dispositivi intelligenti, poiché presupposto indefettibile per l’applicazione concreta di detto precetto codicistico, come è noto, è che la prestazione richiesta al professionista implichi la soluzione di problemi tecnici di particolare difficoltà.
Così, se l’utilizzo di macchinari mossi da intelligenza artificiale non necessariamente implica la soluzione di problemi tecnici di particolare complessità, rivolgendosi anzi alla risoluzione di mere questioni routinarie o ripetitive, a dispetto delle peculiarità di controversie distinte che pretendono una prestazione legale “su misura”[127], vi sarebbe in teoria poco spazio per l’elemento soggettivo della colpa grave, residuando semmai un margine per la colpa lieve[128].
Ciononostante, sotto un altro punto di vista, la legge forense e il codice deontologico potrebbero collocarsi in una direzione diversa.
L’art. 4 c.d. è volto a garantire la qualità della prestazione, unitamente al dovere di competenza (artt. 9, comma 1, e 14 c.d.) e di formazione continua (art. 15 c.d.). Le conoscenze giuridiche in una dimensione professionale prettamente telematica non sono più sufficienti da sole a consentire l’esercizio dell’attività forense. Le nozioni strettamente giuridiche devono coniugarsi alla conoscenza tecnologica: chi, oggi, non è in grado di compiere un deposito telematico o una notifica ai sensi dell’art. 3-bis, legge n. 53/1994, chi non conosce la differenza tra una copia informatica e un duplicato informatico, chi, un domani, non sarà nelle condizioni di governare gli strumenti messi a disposizione dall’intelligenza artificiale, difficilmente può sottrarsi a profili di responsabilità professionale (o anche civile, in caso di danni provocati) legati ad una dolosa o colposa indifferenza da parte dell’avvocato allo sviluppo tecnologico.
È questo il significato più profondo del dovere di aggiornamento professionale e di formazione continua (art. 15, c.d.) che impone all’avvocato di essere costantemente alla ricerca della perfezione, o comunque di assumere nuove competenze.
Insomma, un vero e proprio dovere di competenza tecnologica fondato sull’affidamento che il cittadino ripone in una figura prestata a garanzia dell’«effettività della tutela dei diritti» (art. 2, comma 1, legge n. 247/2012) che poggia su uno degli architravi della professione forense.
In mancanza di «competenza» (art. 3, comma 2, legge n. 247/2012), l’avvocato non può che astenersi dall’assumere la difesa tecnica, dal momento che “nemo potest de ea re, quam non novit, non turpissime dicere”[129], essendo obbligato ad assicurare «la qualità della prestazione professionale» (art. 12 c.d.) e a comunicare «l’esistenza di circostanze impeditive per la prestazione dell’attività richiesta» (art. 24, comma 4, c.d.) pure non strettamente legate a profili concernenti il solo conflitto di interessi, e connesse al grado di conoscenza dei modelli di intelligenza artificiale che possono rilevare in una particolare controversia o venire in rilievo nel corso dei processi.
Ipotizzare l’esclusione dal novero delle competenze di quelle relative alla tecnologia non è più sostenibile. Conoscere le modalità con cui la tecnologia si è attestata, i linguaggi algoritmici, i sistemi di traduzione, l’affidabilità dei software, diventerà il bagaglio minimo di conoscenze da integrare, certo da non sostituire, all’armamentario gnoseologico di un Cyber-lawyer che dallo stesso dovrà essere capace di carpirne i benefici e di aggirarne i rischi.
In questo contesto assume rilevanza il dovere di informazione (art. 27 c.d.) nella duplice funzione del diritto del cliente ad essere consapevolmente reso edotto delle potenzialità e dei rischi dell’intelligenza artificiale, ma anche della necessità di temperare una responsabilità del professionista che rischia di essere incontrollata e facilmente utilizzabile come grimaldello per ottenere il ristoro negato nel processo ordinario.
Tra l’altro, al momento del conferimento dell’incarico, sono posti dei doveri preliminari in capo all’avvocato tali da escludere la prospettazione di tesi difensive irragionevoli o palesemente infondate e volte ad evitare «azioni inutilmente gravose» (art. 23, comma 4, c.d.). «comportamenti, atti o negozi nulli, illeciti o fraudolenti» (art. 23, comma 6, c.d.).
Sono disposizioni legate da un nesso funzionale volto a salvaguardare il diritto del cliente di essere assistito da un professionista obbligato, da un lato, a mantenere l’alta qualità di servizi offerti, dall’altro, a non accettare incarichi che non sia in grado di svolgere con adeguata competenza.
Ora, quanto la competenza debba essere adeguata in relazione al livello di complessità degli algoritmi giudiziari è un’ulteriore questione controversa legata all’assenza di un obbligo di specializzazione, essendo il conseguimento del titolo di «specialista» (art. 9, legge n. 247/2012) lasciato alla piena discrezionalità del professionista, con l’unico limite nel massimo di due materie nella scelta.
Tra le materie oggetto di facoltà specializzanti ex art. 3, d.m. 12 agosto 2015, n. 144 (Regolamento recante disposizioni per il conseguimento e il mantenimento del titolo di avvocato specialista, a norma dell'articolo 9 della legge 31 dicembre 2012, n. 247) ve ne sono due che riecheggiano competenze legate all’intelligenza artificiale e indicate rispettivamente all’art. 3, comma 3, lett. g) (diritto dell’innovazione tecnologica) e comma 4, lett. g) (diritto penale delle nuove tecnologie). Allo stesso tempo – e ciò rappresenta un elemento di debolezza del regolamento attuativo della legge forense – non vi è traccia di indirizzi caratterizzanti nell’ambito del diritto amministrativo, nonostante sia proprio la dimensione pubblica ad essere stata attratta originariamente dall’applicazione di algoritmi.
A fronte dell’omesso obbligo, a parere di chi scrive, la procedura di accertamento dei criteri minimi di competenza – al di sotto dei quali all’avvocato non è consentito fregiarsi di una specializzazione – appare informata a criteri valutativi ragionevoli sia nella scelta della commissione (art. 6, comma 4, d.m. n. 144/2015) che nella valutazione dei presupposti di idoneità (artt. 6. 7, 8, d.m. n. 144/2015), la cui sopravvenuta assenza comporta la revoca del titolo (art. 12 d.m. n. 144/2015).
Ora, posto che non può mettersi in dubbio un dovere di adeguata competenza dell’avvocato, ciò che manca in questa sorta di statuto sul dovere di competenza professionale è un vero e proprio obbligo di formazione specializzata in nuove tecnologie, laddove può prevedersi, con un sufficiente grado di certezza, che gli algoritmi incideranno significativamente in tutti gli aspetti della professione forense, nella cui dimensione, a tutela dell’affidamento di chi invoca il ristoro dei diritti fondamentali lesi o negati, ai sensi dell’art. 1, comma 2, lett. c), legge n. 247/2012, l’avvocato deve “portare qualche aiuto alla causa, ma se non è possibile, almeno non danneggiarla”[130].
Dopotutto, non v’è alcun dubbio che “se si vuole assicurare la parità delle armi tra accusa e difesa, il terreno su cui bisogna lavorare, ragionando degli avvocati, è anzitutto quello della qualità professionale che andrebbe elevata”[131] al massimo grado, perché delicata è la funzione sociale e giuridica che la Costituzione riserva ad essi, seppur indirettamente, attraverso l’art. 24 Cost.[132].
5. Il Cyber-lawyer in un prossimo (ma già attuale) AI-jurisdicional process, tra previsione e predizione.
È questo lo scenario, per qualcuno “irrealistico”[133], nel quale l’avvocato sarà chiamato a prestare il proprio magistero, inimmaginabile per molti a cagione del cambiamento radicale di paradigma rispetto a quando la norma da interpretare era legata ai segni dei tempi, non “contestata e sradicata”[134] da una riproduzione formale di dati che estromette, in gran parte, quella funzione interpretativa anche sotto forma di sollecitudine al mutamento giurisprudenziale volto ad adeguare la normativa ai tempi che cambiano[135].
Il ricco patrimonio delle antiche arti non sempre può apparire coerente con la futuribile concezione dei processi.
Al di là dei profili attinenti alla dimensione strettamente processuale, come l’atteggiamento del giudice nei confronti dei dati elaborati dagli algoritmi che penetrano nel giudizio, o le questioni di carattere per lo più organizzativo, lo scenario tratteggiato induce ad immaginare una professione forense meno libera, più meccanica e più complessa.
Diventerà meno libera per il vincolo al dato algoritmico che la strategia difensiva si trova a dover prendere in considerazione.
Diventerà più meccanica per il solo fatto che anche l’avvocato sarà obbligato a conoscere e utilizzare gli strumenti di intelligenza artificiale per efficientare la sua professione. E non soltanto dal punto di vista di mera ricerca e di studio, ma muovendo da una logica di risultato, con il rischio di una mutazione genetica dell’attività legale da obbligazione di mezzi a obbligazione di risultato per la “promessa di giustizia […] che dovrebbe fornire previsioni attendibili circa le future decisioni di giudici o l’attività coronata da successo di avvocati e studi legali”[136].
Diventerà più complessa per la difficoltà di smentire l’algoritmo attraverso gli ordinari mezzi di impugnazione.
Sono prospettive di cambiamento radicale del paradigma tradizionale dei processi giurisdizionali mascherate dietro la volontà di aziendalizzare[137] la giustizia rendendola più performante.
Purtuttavia, se l’obiettivo è quello di migliorare il sistema, non è consigliabile riservare gran parte dei processi decisionali alla tecnologia se non si vuole ridurre il diritto di difesa ad un “vano presidio formale che può ben poco nei confronti della controparte e dello stesso giudice”[138].
Quando l’interesse generale si manifesta con evidenza, ma il potere pubblico tende a prevaricare e a perdere quel profilo di giustizia, l’esigenza di salvaguardare i diritti delle persone e le garanzie costituzionali non arretrano, ma si rafforzano, per evitare che lo squilibrio tra posizione pubblica e posizione privata determini gravi ingiustizie a danno della seconda che si confronta con il potere punitivo pubblico anche (forse di più) se fondato sull’algoritmo.
Tra l’altro, diverse sono dunque le riserve mosse da scienziati, filosofi, sociologi, economisti, manager, giornalisti, sul rischio di fondo derivante dal delegare eccessivamente attività lavorative e cerebrali (essenza quest’ultima dell’essere uomo pensante) a macchine, così svilendo il ruolo dell’essere umano, del suo studio, delle sue capacità, del suo estro creativo, dei suoi talenti e, soprattutto, del suo buonsenso nel caso concreto, della sua etica, del suo libero arbitrio, della sua sensibilità e saggezza, del suo coraggio e, soprattutto, della sua coscienza, intesa quale regola comportamentale valorizzata in molti codici deontologici, e che consiste nella capacità di elaborare, con sensazioni interiori e non in modo neutro, le esperienze sensoriali, corporee, emotive e mentali che l’uomo esperisce, e di cui è priva l’intelligenza artificiale, che non può essere consapevole di nulla, né può ragionare coscientemente sulle sue esperienze[139].
Il processo non consiste sic et simpliciter nell’individuare la norma più tagliata al caso di specie, quanto in una combinazione tra più elementi, frutto di un processo interpretativo complesso di articoli, di contingenze storiche, di aspetti soggettivi, di gerarchia tra i precedenti. Si tratta di attività che rispondono a delle regole anche inconsapevolmente scelte per individuare la fattispecie astratta; valutazioni per lo più soggettive che diventa complesso assegnare alla macchina per una serie di elementi valutativi incoerenti con una valutazione predittiva oggettiva, come i rapporti tra i diversi precedenti, l’autorità che emette il provvedimento, la prossimità rispetto al caso deciso, il livello di analogia dei fatti concreti. Attività che mettono in tensione il dualismo tra la decisione della macchina e la decisione della persona. Ciò a maggior ragione in quei settori, come il diritto penale, dove la posizione fisico-soggettiva delle parti resta una fondamentale precognizione per la scelta della migliore strategia processuale. La fisiognomica, in un processo che vive continuamente di episodi, di colpi di scena, pretende la valutazione dell’esperienza umana dell’avvocato (ma anche del giudice), senza cedere alla tentazione di automatismi o di valutazioni meccaniche che si basano in gran parte sulla economia dell’esperienza.
L’intelligenza artificiale mette in discussione la dimensione simbolica, configurando il processo su una mera sommatoria di regole, e non sul contraddittorio tra parti, come invece espressamente richiede l’art. 111 Cost. Eppure, il processo, per esser giusto quando interviene sui diritti della persona non può non preservare la dimensione umana. Ed è questo un elemento che il legislatore deve tenere indenne nella futura regolazione di un processo artificialmente intelligente, anche per consentire all’avvocato di continuare ad essere protagonista e a non subire passivamente una decisione che non sarebbe in grado di contrastare nel primo grado, men che meno nei successivi.
Si tratta di questioni che ci pongono una serie di riflessioni più generali su come rendere questi sistemi di intelligenza artificiale compatibili con l’assetto costituzionale e con i principi costituzionali a cui l’ordinamento interno è legato, e che sono il cuore della difesa dei diritti dalla rilevanza normativa pregnante.
Nella prossima fase di reingegnerizzazione del processo, nel velo di ignoranza con cui ci si approccia a nuovi ed inusuali strumenti tecnologici, o l’avvocato resta protagonista in un contesto non privo di criticità[140], o sarà costretto a rimettersi alla clemenza dell’intelligenza artificiale, il che significherebbe abdicare quasi definitivamente alla funzione riconosciutagli dall’art. 24 Cost.
Che l’intelligenza artificiale possa migliorare l’uomo, non v’è dubbio, e tra l’altro ciò lo dimostrano le rivoluzioni tecnologiche che hanno consentito uno straordinario progresso[141]; di cui è possibile “rivelare”[142] potenzialità finanche nascoste.
Certamente, però, tali strumentazioni non possono sostituirlo.
Quantomeno un auspicio, allora: sia riservato al legislatore la piena signoria sulla scelta di quanta tecnologia deve essere iniettata nei processi, benché si lasci la persona umana nella piena capacità di governare l’intelligenza artificiale, allo stesso modo in cui l’uomo ha governato il cambiamento, cioè preservando l’umanità dei percorsi, “ispirandosi a quell’irrinunciabile umanesimo giuridico forense, che faccia del comune iter logico-procedurale compiuto da avvocati e giudice, nell’esercizio dei rispettivi ruoli istituzionali e quali che siano i mezzi espressivi (orali, scritti, telematici, o in corpore vili), il fulcro e il centro gravitazionale di quel tipico e dinamico actus trium personarum su cui il processo s’impernia, secondo metodologie di contrapposizione dialettica di tesi e antitesi sulla quaestio facti ben più e ben prima della quaestio iuris”[143].
[1] G. Zaccaria, La responsabilità del giudice e l’algoritmo, Modena, Mucchi editore, 2013, p. 10.
[2] Per una rassegna, A. D’Aloia (a cura di), Intelligenza Artificiale e diritto: come regolare un mondo nuovo, Milano, Franco Angeli, 2020, A. Patroni Griffi (a cura di), Bioetica, diritti e Intelligenza Artificiale, Milano, Mimesis, 2023, L. Portinali, Intelligenza Artificiale: storia, progressi e sviluppi tra speranze e timori, in MediaLaws, n. 3/2021, p. 13 ss., U. Ruffolo (a cura di), Intelligenza Artificiale. Il diritto, i diritti, l’etica, Milano, Giuffrè, 2020.
[3] G. Ubertis, Intelligenza Artificiale e giustizia predittiva, in Sistema Penale, 16 ottobre 2023.
[4] F. Donati, Intelligenza Artificiale e giustizia, in Rivista AIC, n. 1/2020, spec. pp. 423-433.
[5] C. Napoli, Algoritmi, intelligenza artificiale e formazione della volontà pubblica: la decisione amministrativa e quella giudiziaria, in Osservatorio AIC, n. 3/2020, spec. pp. 343-352.
[6] Che, come riferisce F. Dal Canto, Articolo 24, in F. Clementi, L. Cuocolo, F. Rosa e G.E. Vigevani, La Costituzione italiana. Commento articolo per articolo, Bologna, Il Mulino, 2008, p. 166, è “necessario presupposto per la garanzia di tutti i diritti” per riconoscere ad ogni soggetto il diritto di agire in giudizio a difesa dei diritti fondamentali.
[7] Questa era la posizione assunta in Assemblea Costituente dall’On. Tupini.
[8] F. Pizzetti, Con AI verso la società digitale, in Federalismi.it, n. 23/2023, p. IV. In merito alla professione forense, parla di “cambiamento della visione conservatrice” R. Susskind, L’Avvocato di domani. Il futuro della professione legale tra rivoluzione tecnologica e intelligenza artificiale, trad. it. a cura di G. Bizzarri, Milano, 2019. Una “sfida” secondo A. Pajno, M. Bassini, G. De Gregorio, M. Macchia, F.P. Patti, O. Pollicino, S. Quattrocolo, D. Simeoli e P. Sirena, AI: profili giuridici. Intelligenza artificiale: criticità emergenti e sfide per il giurista, in BioLaw Journal – Giornale di BioDiritto, sezione on line first.
[9] G. Zaccaria, La responsabilità del giudice e l’algoritmo, cit., p. 30.
[10] Si pensi, in esempio, alla funzione di difesa di diritti fondamentali frustrati nelle piattaforme digitali. Su tali aspetti, cfr. F. Paruzzo, I sovrani della rete. Piattaforme digitali e limiti costituzionali al potere privato, Napoli, ESI, 2022 e, in una prospettiva ancor più futuristica, se si viole, L. Di Majo, L’art. 2 della Costituzione e il “Metaverso”, in MediaLaws, n. 1/2023, pp. 35-65.
[11] Il patrocinio a spese dello Stato che, tuttavia, è limitato a fasce reddituali molto basse, 12.838,01 (aggiornato al decreto interdirigenziale del 10 marzo 2023 e pubblicato in Gazzetta Ufficiale del 6 giugno 2023). La disciplina sulle spese di giustizia, nella quale è collocato anche l’accesso alla giustizia per i meno abbienti è il d.P.R. 30 maggio 2002, n. 115, nella parte in cui attua l’art. 24, comma 3, Cost.
[12] Dal 2020, l’Osservatorio Professionisti e Innovazione Digitale del Politecnico di Milano ha stimato nel 2019 l’1% degli Avvocati che utilizzano sistemi di Intelligenza Artificiale, nel 2020 un surplus del 9% e nel 2021 e un + 2,9% nel 2022 (https://ntplusdiritto.ilsole24ore.com/art/osservatorio-professionisti-e-innovazione-digitale-polimi-176-mld-euro-spesa-digitale-38percento-AEPVbMkB).
[13] Sempre l’Osservatorio Professionisti e Innovazione Digitale del Politecnico di Milano ha rilevato che “nelle spese in tecnologia il mondo degli studi professionali si presenta molto variegato. Le organizzazioni multidisciplinari continuano a investire mediamente più delle altre categorie, 25.060 euro, mentre la spesa digitale media dei consulenti del lavoro è pari a 11.950 euro, quella dei commercialisti 11.390 euro e quella degli avvocati 8.890 euro. Il 41% degli studi multidisciplinari investe più di 10.000 euro, contro il 34% dei consulenti del lavoro, il 23% dei commercialisti e solo l’11% degli avvocati. Quasi 7 studi legali su dieci investono massimo 3mila euro all’anno in tecnologie. La categoria legale è anche quella maggiormente in sofferenza per redditività, con solamente il 57% degli studi in positivo nel biennio 2021-2022, contro una media di oltre il 70% per le altre discipline” (https://www.osservatori.net/it/ricerche/comunicati-stampa/professionisti-innovazione-digitale-investimenti).
[14] P. Moro, L’Avvocato ibrido. Tecnodiritto e professione forense, in P. Moro e C. Sarra (a cura di), Tecnodiritto. Temi e problemi di informatica e robotica giuridica, Milano, Franco Angeli, 2017, p. 11.
[15] C.M. Christensen, M.E. Raynor e R. McDonald, What iS Disruptive Innovation?, in Harvard Business Review, n. 10/2015, pp. 46-53.
[16] R. Susskind, Tomorrow’s Lawyers? An Introduction To Your Future, Oxford, Oxford University Press, 2013.
[17] Cfr., sul punto, R. Trezza, La tutela della persona umana nell’era dell’intelligenza artificiale: rilievi critici, in Federalismi.it, n. 16/2023, pp. 277-305.
[18] G. Scarselli, La nostra giustizia, in marcia verso la common law, in Judicium, n. 8/2022.
[19] Per la distinzione tra modelli ordinamentali, cfr. A. Pizzorusso, (voce) Ordinamento giudiziario (dir. comp. e stran.), in Enc. Giur., Vol. XXI, Roma, 1990.
[20] Evidente in particolare nel processo penale, ove “la funzione del difensore deve essere non tanto quella di coadiuvare il giudice (né tantomeno il pubblico ministero) nella ricerca della verità, bensì essenzialmente quella di contrastare – nel rispetto delle regole processuali – la pretesa punitiva dello Stato, contribuendo così, seppure indirettamente, all’accertamento dei fatti ed a far sì che la sentenza risulti conforme a giustizia (A. Traversi, La difesa penale. Tecniche argomentative e oratorie, Milano, Giuffrè, 2014, p. 8). Su questi aspetti, cfr. altresì V. Vigoriti, Garanzie costituzionali del processo civile. Due process of la e art. 24 Cost., Milano, Giuffrè, 1970, spec. p. 25 ss. Ricorda P. Calamandrei, Processo e giustizia, in Rivista di diritto processuale, n. 1/1950, p. 150 che “il dialogo tra autorità e libertà passa anche attraverso le umili formule della procedura”. Ulteriormente, rileva L.P. Comoglio, Art. 24, in G. Branca (a cura di), Commentario alla Costituzione, Bologna-Roma, Zanichelli, 1970, p. 51, “si volle, con il principio di inviolabilità di difesa, segnare una precisa direttiva al legislatore, garantendo, in termini lapidari e perentori, la presenza e l’esperimento attivo di tali istituto in qualsiasi stato e grado del giudizio e dinanzi a qualsiasi magistratura, nell’intento di cancellare gli abusi, le incertezze e le deficienze, che nel passato regime totalitario lo avevano vulnerato”.
[21] C. Punzi, Il “ministero” dell’Avvocato, in Rassegna Forense, n. 2/2009, p. 218.
[22] A. La Torre, L’Avvocatura, in Rassegna Forense, 2000, p. 37.
[23] Come rileva G. Alpa, L’avvocatura italiana al servizio dei cittadini, cit. Relazione di apertura al XXX Congresso Nazionale Forense. Genova, 25 novembre 2010, in Rassegna forense, n. 4/2010, p. 790.
[24] Si tratta di realtà solide nei Paesi anglosassoni, come fa notare R. Susskind, L’Avvocato di domani, cit., p. 13: “molti dei principali studi legali hanno creato dei centri di servizio low-cost ai quali affidare tutto il lavoro legale ripetitivo; i quattro principali studi di consulenza e revisione – i «Big 4» - hanno sviluppato enormemente le loro capacità legali globali; un’ondata di startup, ormai più di mille al mondo, ha travolto l’emisfero legale; l’applicazione dell’Intelligenza Artificiale (IA) al mondo del diritto ha catturato l’immaginazione di innovatori in tutto il settore, dagli studi leader nel mercato a professori nelle scuole di diritto; in Inghilterra e Galles, entrambe parte del nostro sistema liberalizzato, sono state lanciate innumerevoli «strutture alternative di business» (Abs) che oggi sono più di cinquecento; organismi professionali, come il Canadian Bar Association, hanno pubblicato studi sul futuro dei servizi legali.
[25] G. Sposito, Dizionario di retorica: con elementi di linguistica, fonetica, stilistica e narratologia per l’oratore quotidiano Pesaro, Intra Edizioni, 2020 e A. Traversi, La difesa penale. Tecniche argomentative e oratorie, Milano, Giuffrè, 2014.
[26] G. Broggini, Cicerone avvocato, in AA.VV., Cicerone Oratore. Rendiconti del corso di aggiornamento per docenti di latino e greco del Canton Ticino, Lugano 22-23 settembre 1987, Lugano, Giampiero Casagrande editore/E.U.S.I., 1990, pp. 13-36 e A. Pierantoni, Gli Avvocati di Roma antica, Milano, Zanichelli, 1900.
[27] Una tale funzione è riconosciuta anche da C. Castelli e D. Piana, Giusto processo e intelligenza artificiale, Rimini, Maggioli, 2019, p. 36, i quali ritengono che la funzione classificatoria delle riviste giuridiche sarebbe implementata dalla tecnologia.
[28] Si v. M. La Torre, Il giudice, l’avvocato e il concetto di diritto, Soveria Mannelli, Rubbettino, 2002, spec. pp. 53-157.
[29] Anzi, come fa notare A. Tedoldi, Il giusto precesso civile: de profundis o palingenesi?, in G. Ferri e E. Lorenzetto (a cura di), Il giusto processo a vent’anni dalla legge costituzionale n. 2 del 1999, Napoli, ESI, 2020, p. 123, “oggi agevolata da massime da massime giurisprudenziali e approfondimenti dottrinali molto più facilmente e rapidamente disponibili che in passato, grazie a banche dati e contributi consultabili in via telematica: anzi il materiale bibliografico è ormai pletorico e persino alluvionale”.
[30] A partire dalla ripresa dei processi, disciplinata originariamente dal d.l. n. 18/2020, in particolare dall’art. 83, e comunque in modalità ontologicamente diverse da quelle del processo tradizionale benché fondato su Polisweb, certamente, ma limitato al deposito degli atti processuali.
[31] Vi rientrano l’obbligo di pagamento telematico del contributo unificato (art. 221, d.l. n. 34/2020, c. 3), la trattazione scritta (c. 4), il deposito telematico dinanzi alla Corte di Cassazione (c. 5), l’udienza da remoto (cc. 6 e 7), il giuramento scritto del C.T.U. (c. 8) e l’udienza a porte chiuse (art. 23, c. 3, d.l. n. 137/2020), o la possibilità per il Giudice di celebrarla in luogo diverso da quella in cui è dislocato l’Ufficio Giudiziario. È altresì prorogata la norma che consente di tenere le udienze di separazione consensuale e quelle di divorzio congiunto mediante trattazione scritta, così come è prorogata alla stessa data la norma (art. 23, c. 8-bis, d.l. n. 137/2020) relativa alla decisione dei ricorsi per cassazione proposti per la trattazione in pubblica udienza, sostituita dall’udienza in camera di consiglio salvo che una delle parti o il Procuratore Generale faccia istanza di discussione orale, dinanzi alla Corte di Cassazione. Restava infine prorogata al 31 dicembre 2022 anche la disposizione contenuta nell’art. 23-bis d.l. 137/2021, relativa alle copie esecutive telematiche e l’estensione di tutte le ricordate disposizioni emergenziali, in quanto compatibili, agli arbitrati rituali (art. 23, co. 10, d.l. 137/2020).
[32] Parla di “svolta epocale” F. Pizzetti, Con AI verso la società digitale, in Federalismi.it, n. 23/2023, p. IV o di “mondo nuovo” A. D’Aloia, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal – Rivista di BioDiritto, n. 1/2019.
[33] Da ultimo, anche il processo costituzionale si è adeguato, benché soltanto con l’avvento della pandemia da Sars-Cov2 (Sul punto, cfr. M. Troisi, Processo costituzionale ed emergenza pandemica, in L. Di Majo e L. Bartolucci (a cura di), Le prassi delle istituzioni in pandemia, Napoli, Editoriale Scientifica, 2022.
[34] Cfr. i dati ufficiali del Ministero della Giustizia disponibili e consultabili in relazione a diversi periodi temporali su https://webstat.giustizia.it/Analisi%20e%20ricerche/Mediazione%20Civile%20-%20Anno%202022.pdf.
[35] Per le prime riflessioni, cfr. M. Luciani, La decisione giudiziaria robotica, in Rivista AIC, n. 3/2018, p. 872 ss., T.E. Frosini, L’orizzonte giuridico dell’intelligenza artificiale, in BioLaw Journal – Giornale di BioDiritto, on line first, F. Donati F., Intelligenza artificiale e giustizia, in Rivista AIC, n. 1/2020, V. Manes, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in Dis-crimen, 15 maggio 2020, L. Rodio, Brevi riflessioni sul funzionamento e potenzialità dell’intelligenza artificiale in ambito giudiziario, in Amministrazione in cammino, 21 ottobre 2020.
[36] In esempio, in Brasile, il Tribunal Regional do Trabalho da 22ª Região, sta sperimentando la celebrazione delle udienze in modalità immersiva(cfr. https://www.gp1.com.br/pi/piaui/noticia/2022/6/6/juiz-jose-carlos-vilanova-e-classificado-para-o-premio-innovare-527077.html.).
[37] Ho espresso alcune perplessità in L. Di Majo, La sfida del Metaverso alla persona umana e ai diritti, in M. Rubino de Ritis, A. Fuccillo e V. Nuzzo (a cura di), Diritto e universi paralleli. I diritti costituzionali nel Metaverso, Napoli, ESI, 2023. In precedenza, dello stesso avviso, anche E. Mazzarella, Contro Metaverso, Milano, Mimesis, 2022.
[38] Per una descrizione più ampia del Metaverso, dal punto di vista giuridico, cfr. M. Rubino de Ritis, A. Fuccillo e V. Nuzzo (a cura di), Diritto e universi paralleli. I diritti costituzionali nel Metaverso, cit.
[39] https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348. Sono state anche emanate, quasi contestualmente, le Ethics Guidelines for Trustworthy AI dall’High Level Expert Group in data 8 aprile 2019. Cfr., sul punto, C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo? I lavori in corso alla Commissione europea per l’efficacia della giustizia (Cepej) del Consiglio d’Europa, in Questione Giustizia, n. 4/2018, pp. 189-195, D. Messina, Le linee guida in materia di Intelligenza Artificiale: alla ricerca di un’“etica by design” nel nuovo scenario digitale, in De Iustitia, n. 2/2019, pp. 87-104 e S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, in Leg. pen., 2018 pp. 1-12.
[40] Testo grammaticalmente e sintatticamente riadattato alla formulazione della proposizione, di cui si è riportato, in corsivo, la modifica del considerando n. 40 da parte dell’emendamento n. 71.
[41] A. Papa, Intelligenza Artificiale e decisione pubbliche tra tecnica, politica e tutela dei diritti, in Federalismi.it, n. 22/2022, p. 102.
[42] P. Moro, Intelligenza artificiale e professioni legali. La questione del metodo, in Journal of Ethics and Legale Technologies, n. 1/2019, p. 29.
[43] M.G Saia, G. Rocchi e A. Polini, Definizione di intelligenza artificiale nel documento licenziato dal Gruppo di Lavoro costituito dal Consiglio Nazionale Forense Intelligenza artificiale e giurisdizione, p. 8.
[44] V. Tenore, I robot in giudizio! Considerazioni sull’utilizzo di intelligenza artificiale (AI) da parte del magistrato: Abdicare al ragionamento e alla riflessione quotidiana a favore di un robot togato, ovvero un “cretino digitale” è un bene per la giustizia e per i suoi attori e destinatari?, in Rivista della Corte dei Conti, n. 4/2023, p. 8.
[45] Libro Bianco sull’intelligenza artificiale “Un approccio europeo all’eccellenza e alla fiducia”.
[46] Per la prima volta in Italia, una controversia di natura lavoristica ha consentito all’ordinamento tradizionale di misurarsi con l’applicazione di strumenti legati all’intelligenza artificiale. Si è trattato di verificare la correttezza delle procedure di mobilità nazionale e la programmazione dei trasferimenti da parte del Ministero dell’Istruzione, dell’Università e della Ricerca. La questione è stata affrontata dal Consiglio di Stato con le sentenze nn. 8472, 8473, 8474 del 2019, con cui ha colto l’occasione per specificare che, pur essendo gli algoritmi uno strumento utile in una prospettiva di efficienza, efficacia, buon andamento e imparzialità della Pubblica amministrazione per il solo fatto che una straordinaria mole di dati sono immagazzinati, riordinati ed elaborati, e dunque alcun elemento ostativo – in teoria – emerge, vi sono dei limiti insormontabili anche di derivazione europea da tener presente.
Seguono, poi, due controversie. La sentenza n. 3570 del 24 novembre 2020, pronunciata dal Tribunale di Palermo, si inserisce nel solco di quelle che hanno affrontato la questione della parificazione del rapporto di lavoro dei riders, la cui prestazione è strettamente connessa all’uso di piattaforme informatiche (app). Il Tribunale di Palermo, nella vicenda che ha interessato la nota società Foodin S.r.l. (meglio conosciuta come Glovo), ha affermato la natura di rapporto di lavoro subordinato del soggetto che presta attività lavorativa, avvalendosi di piattaforme a mezzo delle quali vengono erogati servizi di consegna.
Il Tribunale di Bologna nell’ambito della controversia su Deliveroo ha affrontato la questione della profilazione discriminatoria attraverso gli algoritmi. In effetti, il sistema di profilazione dei riders adottato dalla piattaforma Deliveroo, basato su affidabilità e partecipazione, nel trattare nello stesso modo chi non partecipa alla sessione prenotata per futili motivi e chi non partecipa perché sta scioperando o anche perché malato o perché portatore di handicap, in concreto discrimina questi ultimi, emarginandoli dalla piattaforma e riducendo significativamente le sue occasioni di accesso al lavoro. L’accesso alla prenotazione del turno di lavoro era consentito in relazione al punteggio accumulato dai riders che, tuttavia, non teneva conto delle situazioni afferenti ad uno stato di necessità, discriminando chi, per motivi ostativi legittimi, non poteva prestare l’attività lavorativa (ordinanza del 31 dicembre 2020).
[47] C. Cali, L’imparzialità del giudicante. Alcune implicazioni etiche derivanti dall’utilizzo dell’intelligenza artificiale in giurisprudenza, in A. Alù e A. Ciccarello, La Pubblica Amministrazione del futuro. Tra sfide e opportunità del settore pubblico, Napoli, Editoriale Scientifica, 2021, pp. 121-134, M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre del risk assessment tools tra Stati Uniti ed Europa, in Diritto Penale Contemporaneo, n. 1/2019.
[48] P. Calabrese, Algoritmi e PA: ok del Consiglio di Stato anche per attività discrezionale, purché conoscibile, in Osservatorio AIR, ma anche S. Sassi, Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità, in Analisi giuridica dell’economia, n. 1/2019 e R. Ferrara, Il giudice amministrativo e gli algoritmi. Nota estemporanea a margine di un recente dibattito giurisprudenziale, in Diritto Amministrativo, n. 4/2019.
[49] Secondo A. Arvidsson, Introduzione ai media digitali, Bologna, Il Mulino, 2013, p. 23 “con il termine algocrazia viene descritto un ambiente digitale di rete in cui il potere viene esercitato in modo sempre più profondo dagli algoritmi, cioè i programmi informatici che sono alla base delle piattaforme mediatiche, i quali rendono possibili alcune forme di interazione e di organizzazione e ne ostacolano altre”.
[50] Tutti i sistemi di intelligenza artificiale non possono che essere resi trasparenti per il cittadino in relazione al tipo di programma utilizzato, al metodo di inserimento e di rielaborazione dei dati immessi nel processo decisionale artificiale. Deve restare ferma la distinzione tra la responsabilità della decisione dalla scelta di ricorrere all’algoritmo.
In secondo luogo, V. Canalini, L’algoritmo come “atto amministrativo informatico” e il sindacato del giudice, 2019, in Giornale di diritto amministrativo, n. 6/2019, F. D’Alessandri, Procedimento amministrativo: l’importanza del ricorso agli algoritmi, in Quotidiano giuridico, 2020.
[51] Il solo fatto di non poter assumere, come giustificazione della propria azione, il ricorso al modello informatizzato di intelligenza artificiale, preserva la motivazione di ogni provvedimento adottato, laddove la pubblica amministrazione è chiamata a giustificare una propria scelta che non può non rimanere sotto la signoria del responsabile del procedimento (umano). Il fondamento normativo si rinviene nell’art. 22 GDPR. Sul punto, v. G. Comandè e G. Malgieri, Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, in International Data Privacy Law, n. 4/2017, N. Muciaccia, Algoritmi e procedimento decisionale: alcuni recenti arresti della giustizia amministrativa, in Federalismi.it, n. 10/2020.
[52] Il ricorso a sistemi di intelligenza artificiali basati su algoritmi non deve presentare, nel sistema di acquisizione dei dati o di rielaborazione dei dati, pregiudiziali che potrebbero essere legati proprio al modo in cui si raccolgono tali dati.
[53] Questo già accade nella Corte di Cassazione, ove viene previsto un Magistrato spogliatore con funzione per lo più di filtro.
[54] G. Zaccaria, Figure del giudicare: calcolabilità, precedenti, decisione robotica, in Riv. dir. civ., 2020, p. 77.
[55] F.M. Buggè e I Nasso, No time no space: il processo pandemico e la sua eredità possibile, in L. Bartolucci L. e L. Di Majo (a cura di), Le prassi delle istituzioni in pandemia, cit., p. 343 ss.
[56] M. Gianecchini, Avvocato, lei ce l’ha un’intelligenza artificiale? Da Ross a Kyra, ecco i servizi legali informatizzati, in Corriere Imprese Nordest, 17 settembre 2017.
[57] R. Susskind, L’Avvocato di domani, cit., p. 80.
[58] Su questi aspetti, si rinvia per approfondimenti a J. Barnett e P. Treleaven, Algorithmic Dispute Resolution - The Automation of Professional Dispute Resolution Using AI and Blockchain Technologies, in The Computer Journal, Vol. n. 61, n. 3/2018, pp. 399-408, R. Ott, Online Dispute Resolution: Review of Initiatives Worldwide, in Computer Fraud & Security, n. 1/2000, pp. 13-15.
[59] Cybersettle ha offerto un sistema di risoluzione on line delle controversie basato su un automatismo double-blind biding: vengono abbinate le richieste del querelante con le offerte delle compagnie di assicurazione. Se le offerte si avvicinavano l’una all’altra in un particolare round, allora il sistema divideva la differenza tra le offerte e il regolamento dichiarato (cfr. T. Ballestreros, International Perspectives on Online Dispute Resolution in the E-Commerce Landscape, in International Journal of Online Dispute Resolution, n. 2/2021, pp. 85-101, ma anche M.A. Wheeler, A. Michael e G. Morris, Cybersettle, in Harvard Business School Case 902-158, n. 4/2001, pp. 1-15.
[60] In Francia, in esempio, WeClaim è una forma alternativa di risoluzione delle controversie parzialmente automatizzata che supporta i privati nella redazione di reclami raccoglie adesioni volte ad attivare azioni collettive.
[61] Una piattaforma di e-commerce molto nota (E-bay) ha sperimentato un sistema i-cloud di risoluzione delle controversie (Modria), accessibile ad imprese, privati ed enti pubblici che possono personalizzare e costruire il proprio Online Dispute Resolution, tra cui diagnosi della controversia, negoziazione, mediazione e arbitrato, gestione del flusso di lavoro configurabile autonomamente che gestisce l’assunzione di casi, la generazione di documenti, la pianificazione, la reportistica e la messaggistica.
[62] Money Claim Online è un sistema che “consente agli utenti senza alcuna conoscenza legale di recuperare i soldi a cui hanno diritto, senza dover gestire moduli complessi né mettere piede in alcun tribunale di contea. Il servizio si occupa di una varietà di reclami, come i debiti non pagati fino a 100.000 sterline. Esso consente al ricorrente di presentare un reclamo online, di tenersi aggiornato sul suo andamento e, se necessario, di andare in giudizio per ottenere una sentenza ed eventualmente la sua esecuzione” (R. Susskind, L’Avvocato di domani, cit. p. 128).
[63] A. Colella e A. Strata, Il legal design: una nuova prospettiva di accessibilità e democratizzazione del linguaggio giuridico, in L’Eurispes, 26 aprile 2022.
[64] Come rileva G. Pasceri, Introduzione all’intelligenza artificiale, in AA.VV., Innovazione, intelligenza artificiale, giustizia, Quaderno dell’Ordine degli Avvocati di Milano, luglio 2021 pp. 8-9, “Il sistema ‘machine learning’ consente di acquisire informazioni, classificarle per poi, in base ad un algoritmo che sfrutta la lettura di ‘similitudini’, offrire un risultato. Questo sistema permette all’agente intelligente di apprendere senza essere programmato esplicitamente. In altri termini, il machine learning automatizza la costruzione del modello analitico catalogando una quantità significativa di dati. L’algoritmo usa modelli statistici e ricerche operative per trovare informazioni nascoste nei dati stessi. Come anticipato, per realizzare un machine learning occorre addestrare l’agente intelligente fornendogli un ‘training set’. In questo modo, l’agente intelligente: a) acquisisce dei dati; b) elabora e analizza le relazioni esistenti tra gli stessi; c) fornisce un risultato output corrispondente a quanto appreso. Nell’ambito del machine learning vengono classificate tre categorie di apprendimento: i) l’apprendimento non supervisionato; ii) l’apprendimento supervisionato; iii) l’apprendimento per rinforzo. Nell’apprendimento non supervisionato l’agente intelligente riceve solo dati input. L’agente non conosce quale sia l’output atteso dall’operatore. In questo modo l’AI è portato a scoprire ed estrapolare caratteristiche salienti di dati utili all’esecuzione della funzione affidatagli. L’apprendimento supervisionato, invece, presuppone che all’agente intelligente si forniscano set di dati con relativi output attesi. In questo modo, il sistema è spinto ad apprendere come corretta correlazione tra il dato input inserito al dato output atteso. In questo modo, l’agente intelligente è in grado di catalogare gli input negli output. L’apprendimento per rinforzo è sostanzialmente utilizzato quando l’ambiente in cui opera l’agente intelligente è mutevole o dinamico. In questo modo l’agente intelligente è portato ad operare in modo da risolvere il problema secondo le circostanze del caso. All’acquisizione di dati input, l’agente intelligente tenta di risolvere il problema autonomamente. Se la correlazione è esatta l’addestratore “premia” l’agente, diversamente lo indirizza verso la soluzione corretta. In questo modo l’agente intelligente è portato, nel tempo, a riuscire a valutare dati input mutevoli e dinamici (come nel caso della chirurgia, della guida autonoma etc.). Nel ‘deep learning’ o apprendimento profondo, i dati vengono processati tramite una successione c.d. profonda dei livelli di attivazione, sfruttando i progressi computazionali in grado di apprendere modelli complessi attraverso una enorme quantità di dati. Gli algoritmi, non essendo più vincolati esclusivamente alla creazione di un set di relazioni comprensibili, iniziano a identificare autonomamente le relazioni tra elementi. Per tali ragioni, la deep learning è studiata per fornire previsioni e interpretazioni di problemi estremamente complessi o, associando un dato certo ad un dato incerto, autoapprendere (cd. self-learning), riuscendo a valutare e attivarsi adeguatamente anche in un ambiente o in presenza di dati input mutevoli e dinamici”. Cfr., sul punto, anche S. Shalew-Shwartz e S. Ben-Davis, Understanding Machine Learning: From Theory of Algorithms, Oxford, Oxford University Press, 2014.
[65] M. Patrini e G. Pirotta, Intelligenza artificiale e impatto sulla professione dell’avvocato, in AA.VV., Innovazione, intelligenza artificiale, giustizia, Quaderno dell’Ordine degli Avvocati di Milano, cit., p. 27.
[66] Ex multis, cfr. V. Vigoriti V., Garanzie costituzionali del processo civile. “Due process of Law” e art 24 Cost., Milano, Giuffrè, 1970, M. Chiavaro, Processo e garanzie della persona, Milano, Giuffrè, 1984, N. Tonolli, Il principio di parità delle armi nell’equo processo e la regola nemo in propria causa testis esse debet, in Riv. Int. Dir. dell’uomo, 1996, E.A. Marzaduri, La parità delle armi nel processo penale, in Quaderni Costituzionali, n. 2/2007, p. 378 ss., P. Sordi, Il giusto processo civile, in Cortecostituzionale.it, 2014, M. Salvemini, Il giusto processo amministrativo tra parità delle parti, verità materiale e divieto di ius novorum, in Dirittifondamentali.it, n. 2/2019, p. 1 ss., E. Lupo, Le garanzie di contesto: la parità tra le parti, in Legislazionepenale.eu.
[67] Cfr., sul punto, per il diritto processuale penale, G. Ubertis, La prova penale: profili giuridici ed epistemologici, Padova, Utet, 1995, ma anche F. Stella, Oltre il ragionevole dubbio: il libero convincimento del giudice e le indicazioni vincolanti della Costituzione italiana, in AA. VV., Il libero convincimento del giudice penale. Vecchie e nuove, Milano, Giuffrè, 2004, P. Tonini P. e C. Conti, Il diritto delle prove penali, Milano, Giuffrè, 2012. Per quanto concerne i profili di diritto processuale civile, M. Taruffo, La valutazione delle prove, in M. Taruffo (a cura di), Per la chiarezza di idee su alcuni aspetti del processo civile, in Riv. trim. di dir. e proc. civ., n. 3/2009, e dello stesso A., La prova nel processo civile, Milano, Giuffrè, 2012, G. Monteleone, Intorno al concetto di verità «materiale» o «oggettiva» nel processo civile, in Riv. dir. proc., n. 1/2009.
[68] Per una ricostruzione del sistema delle impugnazioni, si rinvia ai più prestigiosi manuali di diritto processuale civile e penale, tra cui (ma senza presunzione di esaustività), G. Verde, Profili del processo civile, Napoli, Jovene, 2008; C. Mandrioli, Diritto processuale civile, Torino, Giappichelli, 2000; A. Proto Pisani, Lezioni di diritto processuale civile, Napoli, Jovene, 1999; V. Andrioli, Diritto processuale civile, Napoli, Jovene, 1979; G. Chiovenda, Principi di diritto processuale civile, Napoli, Jovene, 1965, F. Cordero, Procedura penale, Milano, Giuffrè, 2012, P. Tonini e C. Conti, Manuale di procedura penale, Milano, Giuffrè, 2021, P.M. Corso, O. Dominioni, A. Gaito, M.N. Galantini, G. Garuti, O. Mazza, G. Spangher, G. Varraso e D. Vigoni (a cura di), Procedura penale, Torino, Giappichelli, 2021.
[69] G. Ferrara, Garanzie processuali dei diritti costituzionali e «giusto processo», in Rass. Parl., 1999, p. 359 ss., M. Bove, Art. 111 Cost. e “giusto processo civile”, in Riv. Dir. Proc., 2002, p. 479 ss. e B. Capponi B. e V. Verde (a cura di), Il nuovo articolo 111 della Costituzione e il “Giusto processo” in materia civile, Napoli, Esi, 2002. Sul versante penale, M. Cecchetti, (voce) Giusto processo (dir. cost.), in Enc. dir., vol. V Aggiornamento, Milano, 2001, p. 595 ss.
[70] Sono state diffuse dalla Fédération des Barreaux d’Europe delle Linee guida sull’utilizzo dei sistemi di Large Language Models (LMMs), disponibili, nella versione italiana, all’indirizzo internet https://www.ordineavvocati.lu.it/wp-content/uploads/2023/07/Avvocati-e-IA-Linee-guida-FBE.pdf.
[71] I segni del tempo sono già visibili: si è avuta conoscenza, nel Congresso Nazionale Forense tenutosi a Lecce, dal 6 all’8 ottobre 2022, che dal 2016 il robot Ross viene utilizzato dallo studio legale Baker e Hostetler per analizzare la documentazione relativa ai reati finanziaria. JP Morgan utilizza COIN, un robot che esamina e rielabora accordi commerciali. In Italia, l’algoritmo Anthea è stato utilizzato per raggiungere accordi genitoriali in tema di esercizio dei diritti e dei doveri sui minori. Modelli ulteriori di algoritmi come Ironclad, Prometheo e Caselex, si sono già stabilizzati in numerose realtà legali.
[72] Per una ricostruzione sui principi del giusto processo, cfr., ex multis, P. Ferrua, Il ‘giusto processo’, Roma, Zanichelli, 2012, pp. 82-196 e, più recentemente, P. Raucci, La valenza autonoma della formula “giusto processo” in Costitizuone, Padova, Wolters Kluwer, 2023.
[73] In questo senso, G. Ferrara, Garanzie processuali dei diritti costituzionali e «giusto processo», cit., p. 539 ss.. F. Gallo, Quale modello processuale per il giudizio tributario?, in Rass. trib., n. 1/2011, p. 12 ss. e M. Luciani, Il “giusto” processo amministrativo e la sentenza amministrativa “giusta”, in Dir. proc. amm., n. 1/2018, p. 38. Contra, M. Patrono, Il giusto processo: profili costituzionali, in G. Ferri e E. Lorenzetto (a cura di), Il giusto processo a vent’anni dalla legge costituzionale n. 2 del 1999, cit., pp. 12-59. Mediana la posizione di A. Police, Art. 111, cit., secondo cui, “pur essendo sostanzialmente priva di portata innovativa, l’introduzione dei primi due commi dell’art. 111 non risulta però del tutto priva di conseguenze. In primo luogo, infatti, tali commi, nel cristallizzare l’orientamento interpretativo, peraltro ampiamente consolidato, che amplia la portata dell’art. 24 Cost., fino a ricomprendervi i principi della disciplina processuale, hanno quanto meno la funzione di escludere eventuali ripensamenti dell’interprete in senso restrittivo”. G. Fiandaca, Il legislatore non deve ridursi al livello della Consulta, in Italia Oggi, 22 dicembre 1998, ha letto la riforma come una risposta all’orientamento della Corte costituzionale che, secondo alcuni, era rimasta ancora collocata nella vecchia dimensione inquisitoria del codice di procedura penale.
[74] M. Patrono, Il giusto processo: profili costituzionali, cit., p. 16.
[75] M. Patrono, op. ult. cit., p. 47.
[76] A. Tedoldi, Il giusto precesso civile: de profundis o palingenesi?, cit., p. 122.
[77] L.P. Comoglio, Art. 24 Cost., cit., p. 6.
[78] A. Police, Articolo 24, in R. Bifulco, A. Celotto e M. Olivetti, Commentario alla Costituzione, Torino, Utet, 2006, p. 511.
[79] È quanto prospetta anche G. Zaccaria, La responsabilità del giudice e l’algoritmo, cit., p. 34, per il quale “si apre così una competizione tra regole dettate dalla scrittura digitale e norme giuridiche. Si viene in tal modo a creare anche una convivenza tra testi normativi e fatti, così come tradizionalmente intesi nel mondo giuridico, da un lato e tra loro trasformazione omogeneizzante in dati, dall’altro”.
[80] Corte costituzionale, sentenza n. 1146/1998.
[81] In questo senso, anche M. Cecchetti, Il principio del “Giusto processo” nel nuovo art. 111 della Costituzione. Origini e contenuti normativi generali, in P. Tonini (a cura di), Giusto processo. Nuove norme sulla formazione e sulla valutazione della prova, Padova, Cedam, 2001, p. 77 e P. Ferrua, Il giusto processo in Costituzione, in Diritto e giustizia, n. 1/2000.
[82] P. Calamandrei, Istituzioni di diritto processuale civile [1940], in M. Cappelletti (a cura di), Opere giuridiche, Vol. V, Napoli, 1970, p. 426.
[83] M. Patrono, Il giusto processo: profili costituzionali, cit., p. 30, giustificata dalla Corte costituzionale «nei limiti della ragionevolezza, sia dalla peculiare posizione istituzionale del pubblico ministero, sia dalla funzione allo stesso affidata, sia da esigenze connesse alla corretta amministrazione della giustizia» (Corte costituzionale, sentenza n. 421/2001).
[84] Ed infatti, L.P. Comoglio, Art. 24 Cost., in G. Branca (a cura di), Commentario alla Costituzione, cit., p. 28, rileva la stretta connessione tra il diritto di difesa e l’art. 3 Cost., nella parte in cui il riferimento all’eguaglianza, “indubbiamente, il tessuto connettivo delle garanzie processuali” rende implausibile ogni tentativo del legislatore di introdurre strumenti discriminatori a svantaggio delle parti processuale relativamente alla possibilità di ricorrere ai mezzi istruttori.
[85] Corte costituzionale, sentenza n. 255/1992.
[86] Corte costituzionale, sentenza n. 114/1968.
[87] Corte costituzionale, sentenza n. 46/1957.
[88] L.P. Comoglio, La garanzia costituzionale dell’azione e il processo civile, Padova, Cedam, 1970, pp. 306-307.
[89] L.P. Comoglio, op. ult. cit., p. 140.
[90] P. Ferrua, Il ‘giusto processo’, cit., p. 100.
[91] Corte costituzionale, sentenza n. 66/1964 e n. 44/1968.
[92] Su aspetti più ampi che legano contraddittorio e giusto processo, si rinvia a M. Manzin e F. Puppo (a cura di), Audiatur et altera pars. Il contraddittorio fra principio e regola, Milano, 2008, p. 3 ss.
[93] G. Sorrenti, Articolo 111, in F. Clementi, L. Cuocolo, F. Rosa e G.E. Vigevani, La Costituzione italiana. Commento articolo per articolo, Bologna, Il Mulino, 2008, p. 303. Parla di “forza epistemica del contraddittorio”, P. Ferrua, Il ‘giusto processo’, p. 129 ss.
[94] Corte costituzionale, sentenza n. 3/2010.
[95] Corte EDU, Doorson c. Olanda, 26 marzo 1996.
[96] Che l’Avvocato preserva con la presenza umana nelle fasi del processo e volto alla “persuasione” del Giudice sulle tesi proposte (A. Traversi, La difesa penale. Tecniche argomentative e oratorie, cit., p. 212 ss.)
[97] G. Ziccardi, La responsabilità del giudice e l’algoritmo, cit., pp. 34-35.
[98] C. Castelli e D. Piana, Giusto processo e intelligenza artificiale, cit., p. 92.
[99] L. Di Majo, Le incognite sull’utilizzo dell’Intelligenza Artificiale nel processo costituzionale in via incidentale, in La Rivista Gruppo di Pisa, n. 2/2023, p. 59.
[100] Cass. civ., SS.UU., n. 13902/2013.
[101] A. Traversi, op. ult. cit., p. 221.
[102] F. Iacovello, La motivazione della sentenza penale e il suo controllo in Cassazione, Milano, 1997, p. 168.
[103] Mentre invece, come giustamente ammonisce G. Sorrenti, Articolo 111, cit., ricorda che “il contraddittorio, oltre ad un fondamento tecnico, ha anche una irrinunciabile valenza etica. Se anche infatti si arrivasse a disporre, grazie all’inarrestabile progresso tecnologico, di strumenti che assicurassero il raggiungimento della verità, non si potrebbe prescindere da modalità rispettose della dignità umana, in quanto kantianamente, nessun verdetto, per quanto in astratto corretto, potrebbe essere ‘giusto’ se conseguito a prezzo di una degradazione dell’uomo da soggetto a oggetto”.
[104] N. Paolantonio, Il potere discrezionale della pubblica automazione. Sconcerto e stilemi (Sul controllo giudiziario delle “decisioni algoritmiche”), in Diritto Amministrativo, n. 4/2021, p. 835.
[105] J. Tang, A. LeBel, S. Jain e A.G. Huth, Semantic reconstruction of continuous language from non-invasive brain recordings, in Nature Neuroscience, n. 26/2023, pp. 858–866.
[106] M. Patrono, Il giusto processo: profili costituzionali, cit., p. 45.
[107] G. Zaccaria, La responsabilità del giudice e l’algoritmo, Modena, Mucchi Editore, 2023, p. 54.
[108] In Argentina e in Colombia godono dell’autorità di precedente vincolante le sentenze della Corte Suprema rese in materia di diritto costituzionale; in Svizzera i Tribunali Cantonali sono obbligati a conformarsi alla decisione del Tribunale Federale quando questo abbia dichiarato incostituzionale una legge cantonale; in Portogallo l’autorità del precedente è riconosciuta alle sentenze rese dal Tribunal Supremo de Justicia quando sono pubblicate nel Diario del Governo; in Turchia le cc.dd. sentenze di unificazione che possono essere emanate dalla Corte di Cassazione o dal Consiglio di Stato godono altresì di una tale prerogativa. In particolare, in alcuni ordinamenti latino-americani la dottrina legal, cioè la funzione creatrice e vincolante delle pronunce del Tribunale Supremo – come in Spagna – è riconosciuta dall’ordinamento positivo: un ricorso al Tribunale Supremo è ammesso contro una decisione giudiziaria per violazione della legge se questa decisione ha violato una dottrina legal, cioè una giurisprudenza fissata da più decisioni del Tribunale Supremo. In Messico, la Costituzione Federale consacra espressamente la dottrina legal e sono necessarie 5 decisioni consecutive perché sia riconosciuto il carattere del precedente obbligatorio. In Germania, quando una regola è stata consacrata da una giurisprudenza costante, diviene regola consuetudinaria e a questo titolo deve essere applicata dai giudici.
[109] Sul quale vi è ampio dibattito in dottrina, da tempo immemore. Cfr., ex multis e senza presunzione di esaustività, A. Cadoppi, Il valore del precedente, Torino, Giappichelli, 2007, G. Gorla, (voce) Precedente giudiziario, in Enc. Giur. Treccani, Vol. XXXVI, 1991, U. Mattei, Precedente giudiziario e stare decisis, in Dig. Disc. Priv., Vo. XIV, 1996, M. Taruffo, Precedente e giurisprudenza, in Riv. Trim. Dir. Proc. Civ., 2007, V. Zagrebelsky, Dalla varietà della giurisprudenza alla unità della giurisprudenza, in Cass. pen., 1988.
[110] Contra C. Castelli e D. Piana, Giusto processo e intelligenza artificiale, cit., p. 49, per i quali, la duttilità degli orientamenti “trascura i costi che la varianza della giurisprudenza comporta, sia come incertezza sui propri diritti e quindi sull’esito che una eventuale causa può avere, sia come inevitabile stimolo ed incremento della domanda di giustizia. A fronte di giurisprudenze diverse è inevitabile che il cittadino prima e l’avvocato poi provino la strada giudiziaria nella speranza di qualche possibilità di successo. La prevedibilità di un orientamento, specie quando questo è il frutto di un serio confronto e di successivi assestamenti giurisprudenziali, dà certezza al diritto, scoraggia azioni temerarie e solidifica il diritto”.
[111] L. Viola, Interpretazione della legge con modelli matematici, Diritto Avanzato, Milano, 2017, p. 23.
[112] N. Irti, Per un dialogo sulla calcolabilità giuridica, in A. Carleo (a cura di), Calcolabilità giuridica, Bologna, Il Mulino, p. 25.
[113] G. Verde, L’art. 111 della Costituzione a venti anni dalla riforma. Spunti per una discussione, in G. Ferri e E. Lorenzetto (a cura di), Il giusto processo a vent’anni dalla legge costituzionale n. 2 del 1999, cit., p. 2.
[114] G. Sorrenti, Articolo 111, cit., pp. 302-303.
[115] Cassazione, sentenze n. 8622/2012 e n. 14199/2021.
[116] Cassazione, sentenza n. 24866/2017.
[117] All’avvocato, insomma, è demandato il compito di “ispezionare” l’algoritmo (N. Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, Bologna, Il Mulino, 2023, passim).
[118] F. Romeo, Giustizia algoritmica, Torino, Giappichelli, 2020.
[119] V. Tenore, I robot in giudizio! Considerazioni sull’utilizzo di intelligenza artificiale (AI) da parte del magistrato: Abdicare al ragionamento e alla riflessione quotidiana a favore di un robot togato, ovvero un “cretino digitale” è un bene per la giustizia e per i suoi attori e destinatari?, cit. p. 26.
[120] M.T. Cicerone, De oratore ad Quintum fratrem, libro II, par. 205.
[121] Corte costituzionale, sentenza n. 125/1979: «Per il nostro ordinamento positivo, il diritto di difesa nei procedimenti giurisdizionali si esercita, di regola, mediante l’attività o con l’assistenza del difensore dotato di specifica qualificazione professionale, essendo limitata a controversie ritenute di minore importanza ovvero a procedimenti penali per reati cosiddetti bagatellari la possibilità che la difesa venga esercitata esclusivamente dalla parte».
[122] Secondo il Principio (f) della Carta, «l’Avvocato non può fornire consulenza o rappresentare efficacemente il cliente se non ha un’adeguata formazione professionale, formazione che deve essere permanente come risposta ai rapidi mutamenti del diritto e della pratica dell’avvocatura e del contesto economico e tecnologico. Le norme professionali sottolineano che l’Avvocato non può accettare un incarico se non è competente nella materia della controversia che è sottoposta alla sua attenzione».
[123] L.P. Comoglio, Art. 24 Cost., cit., p. 57.
[124] F. Roia, La tradizione della cultura giuridica italiana e le sfide della modernità, in Rassegna Forense, 2008, p. 219.
[125] In esempio, e ciò è un profilo rilevante anche per l’accesso alla giustizia, la scarsa disponibilità economica della parte che si rivolge al difensore. Come è noto, i sistemi di intelligenza artificiale costano e rappresentano per l’Avvocato un costo per la propria attività che non potrà non ricadere sull’utente finale, cioè il cliente.
[126] Per una rassegna, anche più ampia, dei profili critici rispetto all’attività contrattuale, Cfr. R. Trezza, Il contratto nell’era del digitale e dell’intelligenza artificiale, in Il diritto dell’economia, n. 2/2021, pp. 287-319.
[127] R. Susskind, L’Avvocato di domani, cit., p. 80
[128] La Corte di Cassazione ha distinto diverse fattispecie punibili per colpa lieve o colpa grava. Ex multis, benché senza presunzione di esaustività, cfr. Cass. civ., s. n. 8546/2005, Cass. civ., s. n. 16275/2015, Cass. civ., s. n. 30169/2018.
[129] M.T. Cicerone, De oratore ad quintum fratrem, libro II, par. 101.
[130] M.T. Cicerone, Ibidem, par. 304-306.
[131] G. Ferri, Osservazioni di un costituzionalista sulla legge costituzionale n. 2 del 1999, in G. Ferri e E. Lorenzetto (a cura di), Il giusto processo a vent’anni dalla legge costituzionale n. 2 del 1999, cit.
[132] Esorta R. Susskind, L’Avvocato di domani, cit., p. 197, “a usare la tecnologia per tracciare nuove strade per il diritto, la nostra istituzione sociale più importante”.
[133] G. Meliota, Intelligenza Artificiale e giustizia predittiva, in Rivista di diritto del risparmio, n. 2/2022.
[134] A. Del Noce, Note sul tema etico dell’intelligenza artificiale, relazione al Congresso Nazionale Forense di Lecce, 6-7-8 ottobre 2022, p. 14
[135] Rileva sul punto G. Zaccaria, La responsabilità del giudice e l’algoritmo, cit., p. 36, che “tanto nel ragionamento giuridico che controlla l’intero procedimento, quanto nella decisione robotica, c’è un insopprimibile aspetto di soggettività, che è legato alla storicità dell’uomo, che interpreta e programma. Solo che nel primo caso tale soggettività è esplicitata e manifesta, nel secondo invece essa è celata nei meccanismi della programmazione”.
[136] G. Zaccaria, op. ult. cit., p. 36.
[137] Parla di “esigenze aziendalistiche” (benché non riferite all’Intelligenza Artificiale, ma al giusto processo), G. Verde, L’articolo 111 della Costituzione, cit., p. 11.
[138] L.P. Comoglio, Art. 24, cit., p. 57.
[139] Così, V. Tenore, I robot in giudizio! Considerazioni sull’utilizzo di intelligenza artificiale (AI) da parte del magistrato: Abdicare al ragionamento e alla riflessione quotidiana a favore di un robot togato, ovvero un “cretino digitale” è un bene per la giustizia e per i suoi attori e destinatari?, cit., p. 12.
[140] Ammonisce G. Zaccaria, La responsabilità del giudice e l’algoritmo, cit., p. 65, “legittime cautele e non aprioristici rifiuti, critiche fondate e adesioni sorvegliate”.
[141] Su questi aspetti, cfr. il rapporto licenziato dal World Economic Forum, reperibile su http://reports.weforum.org/digital-transformation/artificial-intelligence-improving-man-with-machine/.
[142] C. Castelli e D. Piana, Giusto processo e intelligenza artificiale, cit., p. 10.
[143] A. Tedoldi, Il giusto processo civile, cit., p. 133.
(Immagine fonte)