Sommario - 1. Introduzione. - 2. Le raccolte informatiche di giurisprudenza, di norme e di dottrina. Il processo telematico. - 3. Che cos’è l’intelligenza artificiale? - 4. Che cos’è l’intelligenza? - 5. L’intelligenza rivelata dalla prestazione (il c.d. test di Turing). - 6. Criteri sintattici e criteri semantici (la stanza cinese di J. Searle). - 7. Il problema della fondazione simbolica (Wittgenstein e le ‘forme di vita’). - 8. I tratti di una nuova rivoluzione copernicana. - 9. Sistemi esperti, machine learning, deep learning. Il rischio dell’opacità. 10. Del giudicare come rendere ragione (di sé) e come praxis. - 11. La coscienza e le radici del male.
1. Introduzione.
L’incontro tra l’esperienza dell’intelligenza artificiale e l’attività del giudice costituisce uno dei temi di più rilevante interesse nell’ambito del dibattito giuridico-politico contemporaneo, e induce a considerarne gli effetti, destinati a ricadere, al di là dello stile o della qualità del lavoro del giudice, sull’essenza stessa della funzione giudiziaria.
La prospettiva su cui più frequentemente insiste lo sguardo che indugia sull’impiego dell’intelligenza artificiale (nel quadro delle diverse attività sociali) tende per lo più a soffermarsi sul tema della ‘sostituibilità’ dell’attività umana, nei suoi aspetti o manifestazioni più salienti, attraverso il contributo fornito dall’elaborazione delle macchine.
Della possibilità che le macchine siano (o, più concretamente, saranno) in grado assicurare con immediatezza lo svolgimento di funzioni giudiziarie, converrà, allo stato, limitarsi a rilevare, con prudenza, il carattere meramente congetturale; e ciò, non tanto (o non solo) per la gravità delle implicazioni d’indole etico-sociale o culturale che appaiono connesse a una simile prospettiva, quanto per la natura ancora preliminare o ipotetica delle conoscenze o delle concrete strategie di elaborazione dei dati rilevanti ai fini di un accettabile o controllabile procedimento di giustizia predittiva.
Si tratta – rispetto a quanto già accade in relazione a molte occupazioni o professioni più agevolmente ‘surrogabili’ dal ricorso alle ‘macchine intelligenti’ – di anticipazioni che, con riguardo all’assunzione di funzioni giudiziarie, si ricollegano più spesso a test, o prove, condotte nel quadro di esperienze giuridiche diverse dalla nostra che appaiono ancora insufficienti a giustificare alcun tipo di realistica o concreta preoccupazione.[1]
Verosimilmente, converrà piuttosto insistere – con riguardo al tema più generale delle reazioni suscitate dall’impiego dell’intelligenza artificiale - sulla necessità di tenersi distanti, tanto da un’ingenua e illusoria esaltazione entusiastica circa le ‘magnifiche sorti e progressive’ della potenza elaboratrice delle macchine, quanto da un’ingiustificata e insensata prospettiva ‘apocalittica’, destinata ad alimentare unicamente l’incubo della progressiva sostituzione dell’umano attraverso la realizzazione di organismi cibernetici dotati di nuove forme di intelligenza individuale o collettiva, secondo i termini della cosiddetta ‘singolarità’; un disegno capace di presagire, una volta resa autonoma l’elaborazione degli scopi delle singole intelligenze artificiali, il futuro dominio delle macchine sull’uomo e il relativo controllo nello spazio e nel tempo.
Entrambe quelle prospettive, pur largamente fruttuose sul piano dello sviluppo delle ideazioni cinematografiche o letterarie di carattere fantascientifico, devono ritenersi, viceversa, prive di alcun significato concreto sul piano della serietà del discorso culturale, se si eccettua il valore di laboratorio morale, in chiave di sperimentazione mentale, che rimane comunque riscontrabile nell’elaborazione e nella discussione pubblica suscitata dalla diffusione di simili forme d’arte.
2. Le raccolte informatiche di giurisprudenza, di norme e di dottrina. Il processo telematico.
Il riferimento alla nozione dell’intelligenza artificiale tout court deve ritenersi, intanto, fermo a una modalità ancora troppo generica di designazione, se si pone mente alle numerose e complesse modalità degli impieghi che accade di riscontrare nelle varie e diverse forme di applicazione dell’intelligenza artificiale.
In ambito giudiziario, varrà intanto sottolineare il carattere largamente sperimentato dell’esperienza informatica delle corti italiane degli ultimi decenni, con particolare riguardo alle applicazioni destinate alla raccolta, conservazione e sistematizzazione critica della giurisprudenza della Corte di cassazione: si tratta di un’attività che, avviata in forma embrionale tra gli anni ’60 e ‘70 del secolo scorso presso il Centro elettronico di documentazione della Corte, è per lo più destinata a fornire a un contributo di informazione immediata sullo stato della giurisprudenza di legittimità in relazione alla risoluzione di singole questioni.[2]
Raccolte analoghe sono state efficacemente organizzate e realizzate, negli ultimi decenni, nell’ambito dell’editoria privata, anche allo scopo di associare, alla raccolta della giurisprudenza di legittimità e di merito, le pubblicazioni di carattere dottrinario già comparse sulle riviste ‘cartacee’ di maggiore diffusione in ambito nazionale.
Si tratta di iniziative che, quando trascendono le finalità commerciali degli editori privati, si estendono anche alla raccolta online della giurisprudenza di altre corti nazionali (di giurisdizione amministrativa) o degli organi di giustizia dell’Unione Europea.
Anche sul piano normativo, le istituzioni italiane hanno provveduto a realizzare efficaci sistemi di raccolta informatica di tutta la normativa primaria esistente, ossia di tutte le leggi e gli atti normativi di carattere legislativo nazionale e regionale, e di gran parte dell’attività regolamentare svolta dagli enti statali e territoriali.
Gran parte degli enti pubblici cui risale lo svolgimento di prerogative di carattere regolamentare gestiscono, peraltro, siti Internet dotati di attendibili raccolte informatiche di contenuto normativo.
Al di là dell’informatica applicata alla raccolta di dati riferiti ai c.d. ‘formanti’ del diritto, non può non sottolinearsi l’introduzione, da alcuni anni (e, nell’ultimo anno, dinanzi alla Corte di cassazione), del c.d. processo civile telematico, ossia di un sistema capace, non solo di governare lo scambio e l’archiviazione documentale degli atti dei soggetti che partecipano al processo, ma che si estende (talora attraverso il ricorso ad applicazioni fornite da terzi ed acquisite sul piano commerciale dall’amministrazione pubblica) alla celebrazione di udienze mediante collegamento a distanza: una tecnica di interazione tra giudice e parti ripresa e istituzionalizzata (sulla falsariga della legislazione emergenziale emanata durante l’epoca delle restrizioni imposte dalla diffusione del Covid-19), dalle più recenti riforme del processo civile.
Ciascuna di queste esperienze di modalità di impiego dell’informatica in ambito giudiziario deve ritenersi sostanzialmente limitata, così come obiettivamente concepita e concretamente configurata, all’esecuzione di compiti di ausilio archivistico, di scambio documentale e di comunicazione a distanza.
Rimane invece ancora escluso (allo stato, anche secondo quanto emerge dalla lettura della Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata, nel 2018, dalla Commissione europea sull’efficienza della giustizia - CEPEJ) che i giudici europei facciano uso quotidiano e regolare (o, quantomeno, ufficiale) di software di giustizia predittiva in senso stretto, ossia di software capaci - non solo, genericamente, di ampliarele informazioni riguardo al passato o al presente, ma anche - di generare una risposta in forma di proposta di decisione in relazione a casi particolari sottoposti alla computazione della macchina.[3]
3. Che cos’è l’intelligenza artificiale?
Allo scopo di avviare utilmente la considerazione degli effetti o, in generale, dell’incidenza che l’intelligenza artificiale è in grado di assumere sul lavoro del giudice è in primo luogo indispensabile domandarsi che cosa l’intelligenza artificiale sia e che cosa è possibile attendersi dal suo impiego.
Nella Proposta di Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (COM/2021/206 final, 21 aprile 2021) si legge che ‘‘artificial intelligence system’ (AI system) means a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions, that influence physical or virtual environments” (Article 3, § 1(1); testo modificato dal Parlamento europeo il 14 giugno 2023).
In una recente sentenza, il Consiglio di Stato ha definito l’intelligenza artificiale «un sistema che non si limita solo ad applicare le regole software e i parametri preimpostati (come fa invece l'algoritmo ‘tradizionale’) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico».[4]
Prima ancora di approfondire il senso o le modalità di struttura e di funzionamento di tali tecniche di elaborazione di dati, varrà muovere da una preliminare considerazione – se si vuole, ‘filosofica’ – del significato che è possibile ascrivere alla nozione di ‘intelligenza artificiale’.
Secondo una fortunata immagine – ripresa da uno dei nostri maggiori studiosi di filosofia dell’informazione [5] – l’intelligenza artificiale consisterebbe, non già nell’incontro tra l’applicazione della funzione intellettuale e la capacità operativa di un dispositivo meccanico (una sorta di unificazione tra funzioni mentali e movimento della materia), bensì nella singolare storia di un ‘divorzio’ tra la capacità di agire (intesa come la capacità di organizzare le premesse operative per la risoluzione di un problema e di agire per ottenerla) e l’intelligenza che presiede a tale azione; in breve, le c.d. ‘macchine intelligenti’ realizzerebbero una capacità di agire (un’‘agentività’, secondo l’inelegante termine invalso nel linguaggio specialistico) del tutto priva di intelligenza.
Il riferimento storico-culturale più spesso evocato, a proposito di tale prospettiva, è quello che allude al lavoro di elaborazione svolto attraverso i c.d. ‘pensieri ciechi’, ossia a quei pensieri che Leibniz, nel corso del XVII secolo, veniva definendo attraverso la scissione (già ritenuta impossibile da Cartesio) tra ‘coscienza’ e ‘conoscenza,’ ossia tramite la combinazione di calcolo e logica formale o simbolica.
L’esempio concreto, espressamente proposto dallo stesso Leibniz, è quello del ‘chiliagono’ (ossia del poligono con mille lati): se l’idea di un simile poligono – diversamente da un triangolo o da un quadrato – non è realisticamente pensabile, immaginabile o tantomeno figurabile, dello stesso poligono è tuttavia possibile calcolare agevolmente i dati e le misure attraverso il ricorso alla logica dei simboli.
In questo caso, secondo la prospettiva leibniziana, il calcolo e il ragionamento condotto sulle caratteristiche di quella figura geometrica prescindono totalmente dalla nostra capacità di pensarne o immaginarne figurativamente il significato.[6]
4. Che cos’è l’intelligenza?
La premessa, secondo cui la realizzazione di macchine capaci di trasformare la computazione di simboli in prestazioni operativamente adeguate non sarebbe caratterizzata dall’impiego di alcuna forma di intelligenza propria, induce a interrogarsi ulteriormente su cosa realmente sia, o possa ragionevolmente intendersi per ‘intelligenza’ o, più precisamente, cosa concretamente occorra affinché sia possibile predicare una simile qualità a un comportamento o a un’azione.
Al di là degli enormi progressi registrati negli ultimi anni dalle scienze umane (dalle discipline cognitive alle neuroscienze, dalle ricerche filosofiche a quelle psicologiche, ecc.), un accordo sufficientemente ampio o diffuso sulla definizione dell’intelligenza deve ritenersi, allo stato, ancora escluso.
E tuttavia, malgrado l’impossibilità di definire in modo soddisfacente, o scientificamente univoco, la nozione di ‘intelligenza’, rimane tuttavia ferma la generalizzata capacità degli esseri umani (quantomeno) di ‘riconoscere’ l’intelligenza in termini pratici, ossia di riscontrarne il ricorso in quei caratteri comportamentali capaci di fornirne un esempio.
Se si immagina cosa possa rendere veramente intelligente un comportamento si è indotti a pensare alla capacità di intendere il senso comune, di ricavare insegnamenti dall’esperienza, alle abilità di apprendimento e di ragionamento, alle competenze comunicative, alla memoria, all’attitudine a vedere in qualcosa qualcos’altro in modo tale da destinarlo a un fine ulteriore, all’acume inferenziale, alla propensione a mettersi nei panni altrui.
Si tratta di forme rivelative dell’intelligenza in cui si esprime la capacità dell’essere umano di ‘gestire informazioni’ sotto forma di simboli o dati; elementi, questi ultimi, che non sono in alcun modo privi di interpretazione, quanto piuttosto pattern (schemi) informativi dotati di un significato loro proprio.
L’essere umano vivente è immerso nel tempo, con le sue specifiche scansioni naturali e culturali da articolare: ha storia, memoria, immaginazione, senso delle possibilità e delle alternative, scarti di imprevedibile creatività, capacità di riflettere su sé stesso in base a una coscienza che non ha nulla a che vedere con i pensieri ciechi di leibniziana memoria.
In un testo d’indole divulgativa pubblicato alla metà degli anni ’90 [7], Daniel Goleman prospettava la possibilità di guardare all’intelligenza e al suo significato attraverso la valorizzazione delle componenti emotive dell’affettività; momenti dell’esperienza individuale chiamati a rivestire una rilevanza non minore, per la vita sociale, di quella che siamo soliti attribuire all’intelligenza razionale o cognitiva.
Se ci soffermiamo ad osservare gli esseri viventi come esempi di chi ‘sa stare al mondo’, ci accorgiamo del carattere dirimente e decisivo del possesso, da parte di ciascun essere umano, di una propria ‘storia’: è nel corso (e in conseguenza di) questi irripetibili processi storici che ciascun essere umano forma la propria abilità di ragionare in modo brillante o meno, o anche di muoversi in maniera imprevedibile o acrobatica.
Ma i percorsi di quelle storie costituiscono, allo stesso modo (e contemporaneamente), anche le ragioni (o le cause) dei ‘difetti’ degli esseri umani, dei diversi temperamenti, delle irriducibili sensibilità e delle credenze che giustificheranno le sensazioni del piacere e del dispiacere, dell’amore, della sofferenza e del dolore; in breve, le ragioni di tutte le differenze individuali destinate ad arricchire i contenuti delle relazioni umane e della convivenza.
Ed è proprio attraverso questa dimensione relazionale e la convivenza, come strutture costitutive dell’umano, che le comunità elaborano, collettivamente, nella reciproca capacità di dare e di ricevere, il senso dello stare al mondo e d’intenderne i significati in ambiti e contesti che appaiono fortemente connotati sul piano emozionale.
Se dietro ciascun individuo, così come dietro ciascuna comunità umana, è possibile ricostruire il senso di ‘una storia’, dietro ogni macchina si trovano ‘tante storie’ quanti sono i dati che ne alimentano l’attività di computazione: nessuna di tali singole storie è, tuttavia, ‘la storia’ di quella macchina e, dunque, nessuna linea coerente di significati e nessuno spazio di convivenza collettiva varranno a sostanziare il senso, temporalmente disteso, della sua esperienza di elaborazione.
Molti ricercatori vedono nel progresso della robotica una strada percorribile per il perfezionamento delle intelligenze artificiali: dotandosi di un corpo, le macchine potrebbero percepire e agire nel mondo, e in tal modo costruirsi un modello di causalità simile a quanto avviene nel mondo animale: si tratta di raggiungimenti che si prospettano concretamente attraverso una stretta collaborazione tra le neuroscienze sensoriomotorie, la robotica e l’intelligenza artificiale.
E tuttavia, anche in questo caso, il cammino che si prospetta non appare affatto così agevole: l’ostacolo più arduo, infatti, sembra rappresentato dalla condizione per cui l’implementazione delle capacità sensoriomotorie della macchina richiederebbe (diversamente da quanto avviene per l’esercizio delle nostre attività mentali) una quantità di calcolo incredibilmente spropositata.
Secondo l’informatico e ricercatore canadese Hans Moravec, ciò è dovuto alla circostanza secondo cui le porzioni di cervello animale dedicate alle abilità sensoriali e motorie sono costruite su centinaia di milioni di anni di interazioni con il mondo, là dove le abilità mentali di alto livello costituiscono un’innovazione relativamente recente, molto più semplici e quindi replicabili in una macchina.[8]
5. L’intelligenza rivelata dalla prestazione (il c.d. test di Turing).
In assenza di un criterio oggettivo capace di fornire una definizione ‘sostanziale’ di intelligenza sufficientemente condivisa, a partire dagli anni ‘50 si è arrivati, in ambito informatico, a distinguere l’intelligenza del comportamento della macchina attraverso la relativa sottoposizione al c.d. test di Turing e alla verifica della relativa capacità di ‘comportarsi come un uomo’, ossia di ‘simulare’ in termini pratici i risultati dell'intelligenza umana.
In termini elementari, il test di Turing è organizzato attraverso la collocazione, in uno spazio isolato, di un uomo a cui è attribuito il compito di porre domande (ad es., attraverso un computer) e, in un diverso spazio separato, di un altro uomo e di una macchina dotata di intelligenza artificiale: ciascuno di questi due ultimi soggetti (il secondo uomo e la macchina) è tenuto a rispondere alle domande del primo uomo; in tal caso, se nel giro di breve tempo l’uomo che pone le domande non è in grado di comprendere quale dei due soggetti che risponde sia la macchina, e quale l’essere umano, si potrà affermare che la macchina ha superato il test di Turing.
Di recente, il laboratorio di ricerca della società OpenAI Inc. ha diffuso in rete (al libero e gratuito accesso della collettività) uno strumento di conversazione dotato di intelligenza artificiale (ChatGpt), attraverso il quale a ciascun utente è aperta la possibilità di procedere autonomamente al tentativo di un (simulacro di) test di Turing.[9]
Digitando nell’ottobre del 2023 [10] la domanda: “Il veicolo non entra nel parcheggio perché è troppo piccolo. Che cosa è troppo piccolo?”, la risposta del programma è stata: “Il veicolo è troppo piccolo. Potrebbe essere che il veicolo sia troppo corto o stretto per il parcheggio”.
Alla successiva digitazione (sempre nel medesimo periodo) della domanda: “Il piede non entra nello stivale perché è troppo piccolo. Che cosa è troppo piccolo?”, la risposta è stata: “Il piede è troppo piccolo: probabilmente il piede è di dimensioni tali da non riempire tutto lo stivale”.
Appare evidente come nel fornire risposta a quelle domande – comprensibili unicamente attraverso la ricerca del significato della proposizione premessa alla frase interrogativa (che allude al decisivo valore semantico del verbo ‘entrare’ rispetto al rapporto tra le dimensioni del veicolo o del piede e quelle del parcheggio o dello stivale) – la macchina non comprende il significato delle informazioni fornite, limitandosi a computarle secondo modalità puramente sintattiche (ossia attraverso l’applicazione delle regole di cui la stessa macchina dispone) formulando, di conseguenza, la propria risposta.
Nel caso di specie, non riuscendo a individuare il soggetto sottinteso della seconda proposizione (“perché è troppo piccolo”) attraverso un’attendibile criterio capace di discriminare le ricorrenze di veicolo, parcheggio, piede o stivale “troppo piccolo” (rispetto al verbo ‘entrare’), la macchina ha fatto ricorso all’unico criterio disponibile, ossia al criterio logico-grammaticale costituito dal soggetto (espresso) della prima proposizione (il veicolo, il piede), giungendo tuttavia, in tal modo, a un esito (da considerare) ragionevolmente paradossale (il veicolo non entra nel parcheggio perché lo stesso veicolo è troppo piccolo; il piede non entra nello stivale perché lo stesso piede è troppo piccolo).
Se solo la macchina avesse compreso il significato del verbo ‘entrare’, posto in rapporto al tema delle dimensioni del veicolo e del parcheggio o del piede e dello stivale, non avrebbe avuto difficoltà, rispetto alla dimensione della ‘piccolezza’, nel discriminare tra il veicolo e il parcheggio o tra il piede e lo stivale.
Infatti, ponendo (sempre nello stesso periodo) le domande: “La macchina non entra nel parcheggio perché è troppo piccolo. Che cosa è troppo piccolo?” e la domanda “Il piede non entra nella scarpa perché è troppo piccola. Che cosa è troppo piccolo?”, le risposte sono state: “Il parcheggio è troppo piccolo. Probabilmente perché lo spazio disponibile nel parcheggio è limitato” e “La scarpa è troppo piccola perché, evidentemente, di dimensioni inferiori rispetto a quelle del piede”.
In tali ultimi esempi, l’elaboratore non ha avuto dubbi nel rispondere che il parcheggio e la scarpa sono ‘troppo piccoli’: facilitata, nel primo caso, dalla distinzione di genere (femminile-maschile) tra il soggetto espresso della prima proposizione (la macchina-femminile) e l’aggettivo della seconda (piccolo-maschile) e, nel secondo caso, attraverso il dato della declinazione al femminile dell’aggettivo ‘piccola’ (femminile) rispetto al genere del soggetto della proposizione principale, il piede (maschile), la computazione non poteva che riannodare i legami tra gli aggettivi e i sostantivi valendosi del criterio del genere, con la conseguente affermazione della ‘piccolezza’ del parcheggio (e non già della macchina) e della scarpa (e non già del piede).
In ogni caso, la comprensione semantica del verbo ‘entrare’, posto in rapporto al tema delle dimensioni della macchina e del parcheggio o del piede e della scarpa, deve ritenersi rimasta, ai fini della risposte fornite dall’elaboratore, del tutto esclusa.
6. – Criteri sintattici e criteri semantici (la stanza cinese di J. Searle).
Le argomentazioni sin qui articolate – unitamente all’oggettivo rilievo della sperimentata incapacità delle intelligenze artificiali attualmente in circolazione di superare stabilmente il test di Turing – consentono di ribadire come l’attività della c.d. ‘intelligenza artificiale’ proceda secondo criteri che sono propriamente sintattici (ossia che prevedono la mera applicazione di regole predeterminate nella gestione dei simboli utilizzati) e non già semantici (ossia legati alla comprensione dei significati di detti simboli).
In breve, mentre le macchine appaiono pienamente capaci di processare molto velocemente impressionanti quantità di dati, le stesse non sono in grado di comprendere il significato dei dati che processano; e ciò, almeno fino a quando non sarà possibile realizzare il progetto di una futuribile ‘macchina semantica’.
Sul versante di tale interpretazione dell’intelligenza artificiale, uno dei più autorevoli e qualificati filosofi della mente e del linguaggio contemporanei, John Searle, ha proposto il noto esperimento mentale della c.d. stanza cinese.
Secondo tale esperimento, si immagina la collocazione di un uomo di lingua inglese (che conosce solo tale lingua) in una stanza diversa da quella occupata da un uomo cinese che comunica con lui, in lingua cinese, attraverso un computer.
Si assume, inoltre, che l’uomo di lingua inglese, non comprendendo una sola parola di cinese, utilizzi uno speciale (e prodigioso) libro di regole, capace di fornirgli, in lingua inglese, le istruzioni migliori sulle risposte (con caratteri cinesi) più adeguate alle domande ricevute, senza peraltro rivelare il significato dei caratteri cinesi della domanda e della risposta.
Si immagina, infine, che la conversazione tra i due proceda, via computer, per diversi minuti con piena soddisfazione dell’interlocutore di lingua cinese: in tal caso potrà dirsi che l’uomo di lingua inglese ha saputo sostenere, per un tempo significativo, una produttiva conversazione in lingua cinese, pur non capendo assolutamente nulla di ciò su cui si era conversato.
Secondo Searle, l’uomo di lingua inglese si è comportato, in tale vicenda, esattamente come fosse un computerchiamato a calcolare una formula sulla base di un programma e di simboli formali. Non era dunque necessario che comprendesse ciò che doveva fare, o il significato dei simboli utilizzati, poiché, ai fini della buona riuscita della conversazione, gli era unicamente richiesto di seguire le istruzioni precedentemente fornitegli.
7. – Il problema della fondazione simbolica (Wittgenstein e le ‘forme di vita’).
Lo scoglio su cui è destinata a infrangersi ogni pretesa dell’intelligenza artificiale di adeguare l’intelligenza umana è, dunque, uno scoglio d’indole semantica: l’intelligenza artificiale non ha (o, se si vuole, non ha ancora) alcuna capacità di attribuire significati ai dati che le vengono sottoposti per la computazione.
Va da sé che una simile incapacità non è nient’altro che la corrispettiva incapacità dell’uomo di attribuire alla macchina la disponibilità di una simile competenza.
Tale incapacità, d’altro canto, discende, a sua volta, dall’impossibilità, allo stato, di rispondere, in modo oggettivamente univoco, all’interrogativo che attiene al modo attraverso il quale i dati o, in generale, i simboli linguistici elaborati dall’uomo nell’ambito delle proprie relazioni (e poi trasmessi alla macchina), acquistano il proprio significato; un interrogativo noto, nel campo dell’intelligenza artificiale, come il problema della ‘fondazione simbolica’.
Anche con riguardo a tale problema occorre riconoscere, in capo alle scienze umane, un non (ancora) estinto debito conoscitivo: non esiste, infatti, (ancora) alcuna chiara o univoca comprensione (al di là delle pur rilevantissime e promettenti ipotesi di studio prospettate al dibattito scientifico) del modo in cui il problema della fondazione simbolica (ossia la risposta alla domanda sul ‘come’ i dati, o talune informazioni, acquistino significato) è risolto dagli stessi esseri umani.
Ciò che è unicamente noto è che la capacità di processare informazioni dotate di significato (e di comprenderne pienamente il senso) è precisamente quello in cui agenti intelligenti come gli esseri umani sono in grado di primeggiare in assoluto.
Tutti gli esseri umani completamente e normalmente sviluppati sembrano avvolti nel ‘bozzolo’ del proprio spazio semantico.
In senso stretto, gli uomini non apprendono mai consapevolmente ‘puri dati’ privi di significato. La percezione genuina di dati totalmente non interpretati, benché possibile in particolari circostanze, non costituisce la norma, e non può essere parte di un’esperienza cosciente a lungo sostenibile.
In breve, l’uomo non percepisce mai puri dati còlti in isolamento, ma sempre in quanto parte di un contesto semantico che, inevitabilmente, li dota di un significato determinato.
Quelli che vanno sotto il nome di ‘dati grezzi’ sono i dati che mancano di una specifica e rilevanteinterpretazione, ma non di qualsiasi interpretazione.
Sappiamo molto poco del modo in cui costruiamo con successo, attraverso il linguaggio, le storie dense di informazioni che ci tengono insieme e di cui siamo parte.
Su tale punto, Ludwig Wittgenstein ci ha insegnato, attraverso la revisione, nelle Ricerche filosofiche, delle tesi contenute nel Tractatus logico-philosophicus, che il significato delle espressioni del linguaggio che normalmente utilizziamo dipende dal contesto storico specifico in cui quelle espressioni vengono utilizzate.
Se non esiste ‘il’ significato del linguaggio è perché il significato del linguaggio è una concreta forma di vita.
Il senso delle nostre azioni e della nostra vita risiede in uno specifico ambito storico-relazionale, ossia nelle particolari forme di vita entro le quali siamo immersi: “Si può imparare a conoscere gli uomini?” si domanda Wittgenstein: “Sì, qualcuno può farlo. Non però attraverso un corso d’insegnamento, ma attraverso l’‘esperienza’”.[11]Il significato delle parole è dato dall’uso che se ne fa nell’esperienza e non da una pretesa corrispondenza tra segni e cose. L’esperienza si frammenta in regioni di esperienza (‘forme di vita’), all’interno delle quali hanno luogo i corrispondenti giochi linguistici: parlare un certo linguaggio fa parte di una certa forma di vita.[12]
Se le cose stanno così, allora, agenti umani e agenti artificiali appartengono a mondi differenti e ci si può attendere che questi ultimi, non solo abbiano capacità dissimili dalle nostre, ma che commettano anche errori di altro genere.
Il comportamento intelligente si basa sulla comprensione dei significati, più che sulla manipolazione sintattica (ossia secondo regole) di simboli, e gli agenti che operano in termini semantici o in termini sintattici, mentre possono entrambi raggiungere facilmente i medesimi obiettivi in modo efficiente e con successo, sono inclini a incorrere in differenti tipologie di possibili errori.
Nonostante i tentativi che ancora vengono svolti da molti ricercatori e studiosi, l’intelligenza artificiale non dovrebbe tentare di ‘simulare’ il comportamento umano intelligente: l’intelligenza artificiale dovrebbe piuttosto cercare di emulare i suoi risultati: è noto, al riguardo, il commento dell’informatico olandese Edsger W. Dijkstra, secondo cui “chiedersi se un computer possa pensare è tanto interessante quanto chiedersi se un sottomarino possa nuotare”.[13]
Seppure, infatti, non disponiamo di tecnologie esperte dal punto di vista semantico, la memoria sopravanza l’intelligenza sul piano della prestazione, sì che tecnologie puramente sintattiche possono eludere il problema del significato e della comprensione, offrendoci ciò di cui abbiamo bisogno con grande efficacia (una traduzione, un ristorante preferito, un libro interessante, un biglietto a un prezzo migliore, e così via).
8. I tratti di una nuova rivoluzione copernicana.
Si è in precedenza accennato al test di Turing e si è notata la stretta inerenza tra l’appropriatezza delle modalità di formulazione dei quesiti posti alle ‘macchine intelligenti’ e la qualità delle risposte acquisibili.
La necessità di conformare le domande in modo coerente alla struttura e alle modalità di funzionamento delle macchine, al fine di ottenere risposte adeguate (si è visto come la domanda sul parcheggio e sul veicolo debba essere posta in modo tale da non trarre in inganno l’elaboratore chiamato a conversare con un umano), esprime, in termini elementari, la stessa necessità che, a livello politico, sociale od economico, governa la costruzione degli ambienti più adatti al corretto ed efficiente funzionamento delle macchine dotate di intelligenza artificiale alle quali sempre più frequentemente chiediamo prestazioni.
Si pensi agli ambienti industriali creati attorno alle macchine che realizzano prodotti in serie, o si pensi, più semplicemente, alla conformazione degli elettrodomestici che circondano la vita quotidiana delle persone; macchine che richiedono, per il loro funzionamento, l’esecuzione di azioni che, benché elementari, appaiono ben diverse da quelle eventualmente richieste per la realizzazione diretta, da parte dell’uomo, delle medesime prestazioni.[14]
Si tratta di esempi che rendono evidenti le necessità imposte dalla convivenza o dalla collaborazione degli esseri umani con le macchine dotate di intelligenza artificiale: nel cooperare con simili macchine è indispensabile che l’uomo adegui, alle esigenze operative di quelle, le variazioni dei propri comportamenti, stilizzando le movenze della propria esperienza di relazione con le macchine secondo la logica di queste.
Appare del tutto intuitivo – presa coscienza della crescente pervasività dei sistemi di intelligenza artificiale che circondano i numerosi e diversi ambiti della nostra esperienza personale e collettiva – come l’impegno ripetuto e costante all’adeguamento dei comportamenti alle esigenze operative delle macchine comporti il rischio del c.d. ‘effetto gregge’, ossia dell’induzione, con il passare del tempo, di stili di vita e di abitudini di ragionamento confinati alla riflessione sulle sole operazioni di ausilio alle principali prestazioni della macchina e, dunque, il rischio di un crollo della consapevolezza individuale e collettiva circa il carattere autonomo o indotto (e quindi eterodiretto) dei nostri stessi pensieri.
Si tratta della squilibrata prospettiva secondo cui il General Intellect (di marxiana memoria) incorporato nelle macchine finisce per conferire forma alle relazioni e di distorcere i comportamenti umani, in un contesto in cui il funzionamento effettivo dei sistemi (commerciali, finanziari, economici, amministrativi, politici, ecc.) in tanto è possibile, in quanto tutto (pensieri e comportamenti umani inclusi) è conformato attorno alle macchine.
Avvolgendo il mondo, le nostre tecnologie conformano i nostri ambienti fisici e concettuali, inducendo ad adattare a loro i nostri comportamenti e i nostri pensieri, poiché questa diviene la via migliore e più facile (o talora l’unica) per far funzionare le cose.
A lungo andare, tuttavia, la mancata sorveglianza sui pensieri e sui comportamenti o, più in generale, la carente consapevolizzazione delle logiche di funzionamento delle macchine con cui dividiamo il nostro tempo (con la conseguente necessaria calibrazione delle aspettative di prestazione) non potrà che favorire, pericolosamente, la generalizzazione di gravi e rovinosi processi di alienazione intellettuale.
9. Sistemi esperti, machine learning, deep learning. Il rischio dell’opacità.
Alla luce delle analisi che precedono è possibile tornare, con un grado di minore ingenuità, alla considerazione del rapporto tra l’esperienza professionale del giudice e l’impiego dell’intelligenza artificiale in ambito giudiziario.
Si è detto come l’uso dei sistemi informatici nei contesti giudiziari sia attualmente limitato alla richiesta di prestazioni contenute alle funzioni di archiviazione documentale o alla ragionata selezione, attraverso la mediazione di operatori logici, dei dati elementari utili alla ricostruzione di indirizzi giurisprudenziali funzionali alla risoluzione di questioni giuridiche astrattamente considerate.
Si è altresì accennato alla perdurante esclusione, allo stato, (anche secondo quanto emerge dalle registrazioni della Commissione europea sull’efficienza della giustizia - CEPEJ) di un uso quotidiano e regolare (o, quantomeno, ufficiale), da parte dei giudici europei, di software di giustizia predittiva in senso stretto, ossia di software capaci (non solo, genericamente, di ampliare le informazioni riguardo al passato o al presente, bensì anche) di generare una risposta in forma di proposta di decisione in relazione a casi particolari sottoposti alla computazione della macchina.
Le ragioni più spesso associate alle valutazioni positive sulla giustizia predittiva (quando non all’incoraggiamento vòlto alla relativa introduzione nella pratica quotidiana) appaiono per lo più argomentate con riguardo agli innegabili vantaggi che l’uso di un simile strumento sarebbe in grado di assicurare sul versante della prevedibilità delle decisioni e della certezza del diritto, oltre che dell’incomparabile rapidità dei processi di computazione e di proposizione delle soluzioni che l’uso delle macchine intelligenti verosimilmente varrebbe a garantire.
Gli studiosi dei temi della giustizia predittiva sono soliti sottolineare, in termini elementari, la fondamentale distinzione tra forme di intelligenza artificiale strutturata sulla base di sistemi esperti e forme di intelligenza artificiale strutturata sulla base di sistemi realizzati per l’apprendimento automatico.[15]
Nei primi casi, la conoscenza del sistema è fornita direttamente dall’uomo: si tratta di sistemi caratterizzati dalla capacità di fornire una rapida ricognizione dello stato delle conoscenze già acquisite, eventualmente aggregate e riaggregate secondo criteri predeterminati, ma sostanzialmente incapaci di generare risposte nuove, dotate di informazioni di per sé non contenute in quelle immesse originariamente nel sistema attraverso i dataset di input.
La contenuta efficienza mostrata dall’impiego dei sistemi esperti nell’ambito dell’attività predittiva può trovare la sua spiegazione nell’enorme difficoltà di formalizzare a priori il ragionamento giuridico in schemi passibili di essere omogenizzati nelle regole di una sintassi, sì da riconoscere e trattare in modo soddisfacente il contenuto di casi nuovi mai precedentemente esaminati.
Nelle forme dell’intelligenza artificiale strutturata sulla base di sistemi realizzati per l’apprendimento automatico, viceversa, la conoscenza del sistema è il frutto di un’autonoma capacità della macchina di estrarre le informazioni rilevanti dai dati di input e così imparare a svolgere in modo adeguato le funzioni a esse affidate.
A lora volta, i sistemi per l’apprendimento automatico possono differenziarsi, in termini generalissimi, nelle forme dell’addestramento supervisionato, per rinforzo e dell’addestramento non supervisionato.
Nell’ipotesi dell’addestramento supervisionato, il sistema può essere, ad es., nutrito di dati tratti da casi che si ritengono risolti correttamente: adottando questa forma il sistema finirà col ‘ragionare’ e rispondere secondo la logica dei casi forniti, ed è intuibile il rischio di ottenere risultati che tendono a risolversi in una sostanziale ‘pietrificazione’ della giurisprudenza formata secondo logiche inevitabilmente conservative.
Nella forma dell’addestramento per rinforzo il sistema è viceversa addestrato per rispondere secondo una propriaelaborazione dei dati forniti e riceverà, dall’uomo che se ne prende cura, una risposta positiva o negativa al suo output; tali risposte saranno in seguito utilizzate dal sistema per regolare il proprio comportamento futuro in base ai feedback della propria stessa attività. In tal caso, il sistema risponderà in coerenza ai valori e alle logiche di coloro ai quali è stata attribuita la responsabilità di fornire i dati di feedback.
L’addestramento non supervisionato, infine, è il sistema nutrito attraverso il ricorso ad un’ampia base di dati (ricorre talora l’uso della controversa espressione ‘big data’) dalla cui elaborazione saranno ricavati (come primo output) schemi formalizzati di ragionamento che costituiranno, a loro volta, la base per la formulazione delle risposte ai casi nuovi.
La struttura di machine learning da ultimo sommariamente descritta è quella verosimilmente tenuta presente in quei tentativi di definizione dell’intelligenza artificiale, cui si è inizialmente accennato, da parte del Parlamento e del Consiglio Europeo, e del Consiglio di Stato italiano, in cui si evidenziano i caratteri più significativi delle forme attualmente più diffuse di intelligenza artificiale: i vari livelli di autonomia (varying levels of autonomy), la costante elaborazione di nuovi criteri di inferenza tra dati e l’automaticità dei processi di apprendimento.
Sono definizioni che se pure evidenziano, dell’intelligenza artificiale di più recente generazione, la facoltà di compensare l’incompletezza delle informazioni ricevute in partenza attraverso l’apprendimento, o la capacità di assumere decisioni in situazioni di irriducibile incertezza, allo stesso tempo sottolineano come l’assolvimento di tali funzioni avvenga in un ambito di perdurante imperscrutabilità dei meccanismi causali interni.
In breve, mentre è possibile individuare agevolmente gli input e gli output del sistema, rimane del tutto occulto ‘cosa’ accade all’interno della ‘scatola nera’, ossia i termini e le forme della catena causale che determina il passaggio da quegli input a quegli output.
Le forme di intelligenza artificiale alle quali si attribuiscono le maggiori potenzialità consistono in applicazioni dotate di capacità di previsione, come i robot di ultima generazione e come tutti i dispositivi capaci di machine learning, ossia di apprendimento continuo, grazie alle sofisticate tecniche di deep learning, alla raccolta massiva di dati (big data) e al collegamento al cloud, ossia a quell’insieme di server remoti che offrono servizi per l’archiviazione e la gestione delle informazioni: un potente hub computazionale in grado di conservare, elaborare ed erogare enormi masse di dati, da cui attingere continuamente per gli aggiornamenti (gli upgrading).
Da questa prospettiva, “i learner, come sono definiti gli algoritmi di apprendimento, sono degli ottimi studenti. Essi consistono generalmente in linee di codice che vanno dalle centinaia ai milioni, e sono ricavati induttivamente, grazie ai big data, da imponenti flussi di dati che generano poi istruzioni precise e univoche. A loro volta, tali dati sono il materiale cui attingono gli algoritmi di apprendimento”.[16]
E tuttavia, “la possibilità di cambiare la struttura del sistema apre, tuttavia, virtualmente la strada a un tipo di IA in grado di trascendere i fini che le assegnano gli umani e di agire, di conseguenza, secondo una logica propria, per noi diventata insondabile”.[17]
Questa dimensione di imperscrutabilità o di insondabilità dei meccanismi di elaborazione autonoma delle macchine, che vanno dal processo dei big data alla costruzione dell’output, costituisce, in particolare, una delle più rilevanti criticità del deep learning strutturato attraverso le c.d. reti neurali, ossia attraverso quell’insieme di ‘nodi’ variamente legati tra loro che veicolano informazioni numeriche, a loro volta rappresentative di una certa valutazione delle informazioni (dati) che vengono volta a volta sottoposte alla macchina.
Una delle caratteristiche più insidiose di questi sistemi è appunto rappresentata dall’opacità delle operazioni che vengono svolte nella computazione delle informazioni, poiché spesso taluni passaggi tra i nodi non risultano spiegabili o adeguatamente comprensibili per il ragionamento umano, quando non offuscati dalle privative industriali legate alla collocazione del prodotto informatico sul mercato.
In termini banali, all’interno di un sistema del genere la descrizione dei fatti di una controversia diventa un insieme di vettori numerici, che debbono essere collegati al possibile esito della stessa, secondo le correlazioni statistiche elaborate dall'algoritmo di apprendimento automatico sulla base delle combinazioni tra descrizioni di fatti ed esiti presenti negli insiemi (dataset) di addestramento.
Trattandosi di sistemi opachi rispetto all'utilizzatore, questi sistemi assicurano una risposta, ma non forniscono spiegazioni.
Nei casi in cui a un giudice fosse affidato il compito di interagire e cooperare, nell’esercizio delle proprie funzioni, con macchine strutturate secondo schemi così definiti, parrebbe assolutamente indeclinabile la necessità che a quel giudice sia stata preventivamente assicurata la possibilità di comprendere con chiarezza la logica di funzionamento e lo stile di computazione del sistema di cui si avvale.
In breve, occorrerà che il giudice disponga di una piena consapevolezza della natura dello specifico dataset di input con il quale sistema è stato alimentato; dei criteri che hanno governato la ricerca e l’analisi di tale dataset; dei caratteri dei processi di successiva selezione algoritmica attraverso cui i dati sono destinati a transitare; degli obiettivi diretti e delle finalità cui sono ordinati i diversi passaggi, o nodi, del sistema, etc.: si tratta di elementi conoscitivi indispensabili affinché il giudice possa esercitare la propria autonoma capacità di valutazione critica del significato dell’output di sistema.
A mero titolo di esempio, se un determinato sistema risulta progettato (in ragione delle modalità specifiche dell’analisi dei dati che lo alimentano e delle strutture algoritmiche che presiedono alla formulazione della decisione di output) allo scopo di prevedere l’esito possibile di certi casi sulla base del passato, un simile sistema potrà soddisfare l'obiettivo di anticipare la sentenza del ‘giudice medio’: un obiettivo che, mentre avvicina l’interesse dell’utilizzatore avvocato o cittadino (là dove interessati a prevedere il probabile comportamento futuro del giudice, sì da impostare di conseguenza il proprio comportamento processuale), assume un’importanza assai più limitata per il giudice, il cui compito è, viceversa, quello di adottare una decisione giuridicamente corretta.
Da qui l’esigenza di comprendere in profondità, nel quadro di un’analisi dei rapporti tra il giudice e l’intelligenza artificiale, il senso stesso di quella particolare attività in cui consiste “il giudicare del giudice”.
10. Del giudicare come rendere ragione (di sé) e come praxis.
Si è detto del carattere indispensabile, per il giudice, dell’acquisizione delle nozioni elementari per la comprensione delle modalità di funzionamento del modello di intelligenza artificiale con cui si trova ad interagire; e si è sottolineata l’indeclinabilità del compito di padroneggiare le forme di funzionamento dei sistemi di intelligenza artificiale e il significato dei relativi risultati, al fine di farne materia di una successiva elaborazione in sede decisionale.
Si tratta di questioni che assumono un rilievo centrale ai fini della meditazione sull’intelligenza artificiale e sui suoi riflessi sul ‘giudicare’.
Sarà bene evidenziare come, a differenza di gran parte delle attività professionali o, in genere, delle attività lavorative o delle funzioni sociali in cui assume valore preponderante il risultato dell’attività (il prodotto) rispetto al procedimento produttivo, con riguardo alla funzione giudiziaria l’esito del lavoro, in tanto ha valore (e conta), in quanto il procedimento per realizzarlo abbia rispettato una o più condizioni o standard di natura qualitativa; nel senso che, più che il risultato, occorre aver riguardo, preliminarmente, all’itinerario seguito allo scopo di raggiungerlo o di definirlo.
In breve, benché sia del tutto ovvio che l’efficacia concreta del dictum del giudice si ricolleghi con immediatezza al contenuto del ‘dispositivo’ di un provvedimento (la condanna a una pena o al pagamento di una somma di denaro; l’annullamento di un contratto; l’assoluzione da un’imputazione di reato), tale dispositivo, in tanto è destinato a sussistere (e a produrre effetti), in quanto costituisca l’esito di un percorso motivazionale logicamente congruo e comprensibile che lo sostiene e lo giustifica.
Non aiuta, in questo senso, una certa (diffusa) inclinazione ‘produttivistica’ nella considerazione dei temi del processo e del giudizio. L’accostamento del processo all’idea della ‘produzione’ induce a guardarvi come a un’attività ‘servente’ o ‘strumentale’ alla realizzazione di fini ad essa estranei; un impegno vòlto, attraverso la tecnica giudiziaria, al compimento del prodotto, e dunque del giudizio (la decisione, la sentenza), di regola chiamato a tradurre, in termini matematici, uno dei principali indici di misurazione della produttività del giudice.
Un’antica tradizione di origine aristotelica[18] – la cui più recente riscoperta ha costituito un tratto essenziale di una parte significativa del pensiero etico-politico del Secondo Novecento[19] – invita a distinguere, della vita pratica dell’uomo, l’attività produttiva (la poiesis, governata dalla techné) dalla prassi (la praxis), avente se stessa quale propria finalità: l’attività per cui l’uomo pone la propria stessa azione come oggetto di un percorso di graduale educazione e perfezionamento, attraverso il governo (non già della ‘tecnica’, bensì) della ‘saggezza’ (phronesis).
Produzione e prassi (poiesis e praxis) valgono a distinguersi dunque in ciò, che il sapere teorico generale di cui l’uomo dispone è destinato, nella produzione che si avvale della tecnica (techné), a trasferirsi sulle cose allo scopo di trasformarle in conformità ad esso; per cui il prodotto, come fine di per sé estraneo all’attività produttiva, diviene lo specchio (o, meglio uno specchio) concretizzato del sapere teorico.
Nel caso della prassi, governata dai canoni della saggezza (phronesis), il sapere teorico generale è viceversa chiamato a combinarsi o a ‘contaminarsi’ con la realtà, con le circostanze e le vicende del mondo, affinché sappia modificarle, ma insieme anche lasciarsene modificare, sì da dar luogo a una nuova forma di sapere capace, con saggezza, di coniugare, e tenere insieme, il generale e il particolare.
Seguendo il filo di queste linee argomentative, alla descrizione dell’attività processuale sembra dunque convenire la qualificazione nei termini di una prassi (di una praxis), ossia di una specifica attività pratica, governata dalla saggezza, che ha fine in sé stessa.
Ogni atto del processo è il giudizio stesso (in taluni contesti, ‘processo’ e ‘giudizio’ sono usati come sinonimi): in realtà, il processo è il giudizio che si va facendo in un tempo e in un luogo determinati, in una dimensione spazio-temporale specificamente qualificata.
Da questo punto di vista assume un preciso significato la regola costituzionale per cui “tutti i provvedimenti giurisdizionali devono essere motivati” (art. 111 Cost.): si tratta di un principio in cui si riflette la necessità che, in un sistema democratico e liberale, ogni decisione costituisca l’esito (ossia solo il punto terminale) di un percorso logico attraverso il quale il giudice rende concretamente ragione della scelta delle premesse su cui ha ritenuto di fondare i propri ragionamenti e dei modi attraverso i quali da tali premesse ha provveduto ad argomentare criticamente le conseguenze che ha inteso trarne.
In breve, l’atto del giudicare (quantomeno sul piano giudiziario) potrà ragionevolmente sintetizzarsi in questo elementare assolvimento del dovere del giudicante di dare sinteticamente ragione di sé, ossia delle scelte che ha ritenuto di privilegiare intorno ai fatti naturali e a quelli normativi dei quali ha inteso informare i percorsi logico-argomentativi posti a fondamento del giudizio.
Là dove il giudice intenda avvalersi dell’ausilio dell’intelligenza artificiale che si esprime nelle forme della giustizia predittiva sarà pertanto indispensabile (proprio allo scopo di assolvere a quel dovere di dare compiuta ragione di sé e delle proprie scelte) entrare, con il proprio interlocutore automatizzato, in una relazione di comprensione critica fondata sull’acquisizione di una piena coscienza della specifica articolazione dei percorsi computazionali che presiedono all’output del sistema; delle articolate potenzialità di questo, ma insieme anche dei limiti o, in generale, della qualità specifica dell’interlocuzione che intrattiene con esso.[20]
11. La coscienza e le radici del male.
Il lungo discorso sin qui condotto si è posto l’obiettivo di individuare, sia pure in termini elementari e non esaurienti, il profilo dei rischi che si annidano nell’incontro tra l’esperienza dell’intelligenza artificiale e l’attività del giudice.
Si tratta degli stessi rischi che da sempre insidiano il corso dell’esperienza umana e che, con riguardo al tema che viene coinvolgendo la considerazione dell’intelligenza artificiale, si traducono nei pericoli del ‘funzionalismo tecnocratico’ o della ‘burocratizzazione’.
Nell’accennare a tale fenomeno, sarà ancora utile riferirsi alle pagine preziose dedicate da Hannah Arendt – oltre ‘Le origini del totalitarismo’[21] e la ‘Banalità del male’[22] – alla figura tradizionale, se non proprio germinale del pensiero occidentale, di Socrate.[23]
Nell’affrontare la densità di quelle brevi pagine, Adriana Cavarero[24] sottolinea come la figura di Socrate abbia finito con l’attraversare l’intera opera di Hannah Arendt, apparendole come il modello di un pensare critico alla base della capacità umana di giudicare, l’invenzione della coscienza come tribunale interno dell’io che, facendosi ‘due-in-uno’, si interroga e dà conto di sé a sé stesso.
Quando Arendt ripensa il nesso tra condizione umana e politica, ne ricostruisce le vicende concettuali fin dalle origini greche, a partire dal dato reale della de-umanizzazione prodotta dalla macchina infernale dei campi di sterminio.
Nella terrificante originalità del sistema totalitario, di cui Auschwitz è l’atroce emblema, è in gioco la cancellazione dell’unicità della persona e perciò la distruzione della spontaneità come componente costitutiva del comportamento umano, al fine di produrre un esemplare completamente indistinguibile e indefinibile della speciehomo sapiens.
Questo post-umano fabbricato dal campo di sterminio non solo coincide con l’evento del collasso delle definizioni di ‘uomo’ e di ‘umanità’ elaborate dalla tradizione metafisica, ma si accompagna al sospetto che proprio questa tradizione, nata con Platone, sia in qualche modo implicata nel verificarsi di tale collasso.
Arendt pone in evidenza come il male radicale abbia a che fare con l’eliminazione dell’imprevedibilità della natura umana.
Esiste una complicità tra l’orrore di Auschwitz, in quanto laboratorio per la fabbricazione dell’animale degenerato Homo, e la predilezione della tradizione metafisica per la categoria astratta di ‘Uomo’.
Nella macchina infernale del lager è la condizione umana stessa, ossia il dato reale della pluralità, a subire la tremenda mutazione mirata ad eliminare negli internati ogni residuo di spontaneità e di umanità, cancellando la molteplicità e trasformando gli esemplari identici della specie artificiale Uomo.
Il crimine ontologico della produzione artificiale di una specie post-umana trova concretizzazione nel processo ad Eichmann, la banale figura del tedesco medio, grigio e solerte burocrate, che incarna in modo emblematico la tipologia umana caratterizzata da un’adesione supina agli standard morali correnti, pronto a passare dai precetti del Vangelo agli ordini di Hitler.
Eichmann non è un mostro, ma lo specchio di un torpore etico diffuso. La banalità del male chiama in causa la capacità di giudicare i principi delle proprie azioni, invece che uniformarle al comando dei potenti.
La lezione di Socrate, così come Arendt la interpreta, è l’antidoto al rischio dell’individuo adattabile e guidato da motivi opportunistici che una perversa eventualità epocale può trasformare in un uomo-massa e renderlo strumento di qualsivoglia follia ed orrore.
La pluralità umana che comporta l’unicità di ogni essere umano (e perciò una visione ‘poliprospettica’ del mondo) fa sì che a ciascuno il mondo appaia da un diverso punto di vista. Socrate è innanzitutto il filosofo che ha il merito di confrontarsi con la pluralità delle opinioni, costringendo ciascuno dei suoi interlocutori a darne conto e a verificarlo insieme, di modo che esse non rischino di cristallizzarsi in verità arbitrarie.
Sfera solitaria, la coscienza è il luogo appartato dove ognuno rende conto di sé a sé stesso, si giudica. Purché, appunto, sia capace di pensare di convivere con la propria coscienza: facoltà che ad Eichmann e alla tipologia di volenterosi carnefici e complice di Hitler evidentemente mancano.
Socrate ha il merito di scoprire che l’attività del pensare, in quanto sede della coscienza, consiste in un dialogo silenzioso dell’anima con sé stessa, attività che perciò è testimone della pluralità umana, in quanto, interrogando sé stessa e rispondendosi, l’io che pensa comprende di essere ‘due-in-uno’, ossia scopre la sua dimensione duale.
“Ripensare l’umanità, o forse pensarla per la prima volta nei suoi tratti concreti, significa […] registrare la pluralità che rende ciascun essere umano un essere unico e diverso da ogni altro […]. Significa postulare un nesso […] fra la pluralità stessa e l’attività solitaria del pensare”.[25]
L’articolazione della complessità in cui consiste il dialogo interiore che ognuno di noi intrattiene con la pluralità delle voci che accompagnano la nostra esperienza esistenziale rappresenta l’unico antidoto contro l’annientamento della propria coscienza.
Il futuro dei rapporti tra l’uomo (e dunque il giudice) e l’intelligenza artificiale non è affidato allo sviluppo di quest’ultima (ai cui percorsi, occorre ribadire, non è sensatamente consentito associare immagini fantasiose, o inquietanti vaneggiamenti), quanto alla responsabilità di ciascuno, a cui, con sempre maggiore urgenza, è richiesto di coltivare in modo continuativo la qualità dei propri saperi e di non smarrire mai la meraviglia, anche ingenua, e la curiosità per tutto ciò che è ‘altro’.
Si tratta di prerogative che, da sempre, rappresentano la migliore premessa di quell’imprevedibile – e, dunque, consapevolmente tragica – capacità umana di comprendere il senso vivo delle cose.
* Il testo riprende, con l’inserimento di minimi riferimenti bibliografici, i contenuti della relazione svolta nel corso del convegno Professione Zeta. L’evoluzione digitale delle professioni nel risarcimento del danno alla persona, dal titolo Giuristi o tecnocrati? Gli effetti della digitalizzazione del processo tra intelligenza artificiale e conformismo intellettuale, organizzato dall’associazione culturale Melchiorre Gioia, in Roma, nelle giornate del 20 e del 21 ottobre 2023.
[1] A titolo di esempio, può ricordarsi che, in Estonia, è previsto, per le small claims, un sistema gestito in autonomia con la possibilità di ricorrere successivamente ad un giudice ‘umano’; in Canada, il governo federale ha emanato direttive per la gestione di pratiche amministrative con strumenti di intelligenza artificiale; negli U.S.A., a parte il noto caso del programma COMPAS sulla previsione della recidiva, di cui al caso Loomis avanti la Corte Suprema del Wisconsin (il cui esame è stato respinto dalla Corte Suprema U.S.A.: www.scotusblog.com/case-files/cases/loomis-v-wisconsin/ V. anche, tra i tanti, il commento di E. Yong, A Popular Algorithm Is No Better at Predicting Crimes Than Random People, The Atlantic 7.01.2018. In generale su IA e diritto v. S. Greenstein, Preserving the rule of law in the era of artificial intelligence (AI), in Artificial Intelligence and Law (2022) 30:291-323, https://link. springer. com/article/10. 1007/s10506-021-09294-4#citeas), di recente è stato il caso di DONOTPAY (I. Carnat, DoNotPLay with justice: high expectation vs harsh reality of robot lawyers, nel blog del Laboratorio Lider-Lab della Scuola Superiore Sant’Anna di Pisa, www. lider-lab.it/2023/02/14/donotplay-with-justicehigh-expectation-vs-harsh-reality-of-robot-lawyers/.) a dominare le cronache; recentemente è stata oggetto di numerosi commenti la sentenza del Juzgado Primero Laboral di Cartagena De Indias (Colombia) del 30.01.2023, dove il giudice utilizza ChatGPT per la parte argomentativa della decisione, facendo peraltro proprie le ‘risposte’ della chatbox ai quesiti posti, allo scopo (esplicitamente unico) di ottimizzare i tempi (R. Perona, ChatGPT e decisione giudiziale, in Diritti Comparati 21.02.2023, https://www.diritticomparati.it/chatgpt-e-decisione-giudizialeper-un-primo-commento-alla-recente-sentenza-del-juzgado-primero-laboral-di-cartagena-de-indias-colombia/); un’altra sentenza, peruviana, in materia di famiglia (determinazione misura alimenti) è stata confermata dalla Corte Superior de Justicia de Lima Sur (Note di M. Foti, Innovazione in materia di diritto di famiglia e uso di ChatGPT: il caso peruviano, al link https://www.altalex.com/documents/news/2023/05/02/innovazione-materia-diritto-famiglia-uso-chatgpt-caso-peruviano, e P. Martini, L’intelligenza artificiale entra nel processo, https://www.altalex.com/documents/news/2023/04/26/intelligenza-artificiale-entra-processo. Anche in Italia si discute, da tempo, sull’uso di strumenti informatici nelle controversie familiari: v. da ultimo E. Sertori, Prospettive di applicazione degli strumenti informatici per il calcolo degli assegni nelle controversie familiari, in www.judicium.it (2023). Sul complesso di tali richiami v. D. Cerri, I giuristi pratici e l’intelligenza artificiale, in Nuova Giur. Ligure, 2023, n. 2, pp. 27 ss.
[2] Per una storia del Centro Elettronico di Documentazione della Corte di cassazione v. F. Fiandanese, Il Centro Elettronico di Documentazione della Corte Suprema di Cassazione, in G. Peruginelli e M. Ragona (a cura di), L’informatica giuridica in Italia. Cinquant'anni di studi, ricerche ed esperienze Collana ITTIG-CNR, Serie ‘Studi e documenti’, n. 12, Napoli, ESI, 2014, pp. 151-168.
[3] A queste forme più sofisticate di intelligenza artificiale applicata deve ritenersi dunque rivolto il consistente interesse normativo delle istituzioni europee (e, più in generale, internazionali): ad es., la Commissione UE nel 2020 ha pubblicato il Libro Bianco sull’intelligenza artificiale (COM (2020)65) (https://op.europa.eu/it/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1), evidenziando che “Alcuni algoritmi dell’IA, se usati per prevedere il rischio di recidiva di atti delittuosi, possono riflettere distorsioni legate alla razza e al genere, prevedendo probabilità di rischio di recidiva diverse per le donne rispetto agli uomini, oppure per i cittadini di un determinato paese rispetto agli stranieri”; nel 2021ha quindi fatto propria la Proposta di Regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (COM (2021)206) (https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0006.02/DOC_1&format=PDF), nella cui Relazione (§3.5) si legge che “L’utilizzo dell’IA con le sue caratteristiche specifiche (ad esempio opacità, complessità, dipendenza dai dati, comportamento autonomo) può incidere negativamente su una serie di diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea”. Il 3 maggio 2023, il Parlamento Europeo ha approvato la Risoluzione sull’intelligenza artificiale in un’era digitale (https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_IT.html) e, successivamente, 14 giugno2023 ha approvato gli Emendamenti alla Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)) (https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_IT.html). Il Consiglio OCSE ha adottato nel 2019 una Raccomandazione che rinnova la necessità di approntare quello che è definito come un eco-sistema digitale tale da promuovere un “human-centric approach to trustworthy AI”, e dove tutti i protagonisti dovrebbero rispettare le regole dello stato di diritto, i diritti umani e i valori democratici, per tutto il ciclo di vita dei sistemi di IA (1. 2 OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449, a https://legalinstruments. oecd. org/en/instruments/OECD-LEGAL-0449.). Si vedano anche gli Orientamenti etici per un’IA affidabile, redatti dal Gruppo indipendente di esperti ad alto livello sull’ intelligenza artificiale, istituito dalla commissione UE (https://op.europa.eu/it/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1). Si possono ricordare anche le Linee Guida universali per l’IA, redatte nel 2018 da EPIC-Electronic Privacy Information Center (https://thepublicvoice.org/AI-universal-guidelines/), oltre che la già ricordata Carta Etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata dalla CEPEJ (https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenzaartificiale-nei-si/1680993348).
Per gli U.S.A. si veda il Joint Statement del 25.04.2023 delle principali agenzie USA sull’enforcement degli strumenti contro la discriminazione e i pregiudizi negli ‘automated systems’ (ambito più ampio dei sistemi di IA, includendo tutti i processi che impiegano algoritmi) (https://www. ftc. gov/legal-library/browse/cases-proceedings/publicstatements/joint-statement-enforcement-efforts-against-discriminationbias-automated-systems.).
[4] Cons. Stato, sez. 3, sentenza 25 novembre 2021, n. 7891: “Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente ‘semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato’ (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learning e crea un sistema che non si limita solo ad applicare le regole software e i parametri preimpostati (come fa invece l’algoritmo ‘tradizionale’) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”.
[5] Luciano Floridi, di cui v., almeno, Id., La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, Raffaello Cortina Editore, 2017, passim.
[6] “Quando penso ad un chilogono o poligono di mille lati eguali, non sempre considero la natura dei lati, dell'eguaglianza e del mille (cioè del cubo di dieci), ma mi servo di questi vocaboli (il cui senso, naturalmente, sebbene in forma oscura ed imperfetta è presente nella mente), al posto delle idee che ne ho, perché ricordo il significato di quei vocaboli dei quali non ritengo sia necessaria, in quel momento, fornire la spiegazione. Questo tipo di conoscenza soglio chiamarla cieca o simbolica e di essa ci avvaliamo nell’algebra o nell’aritmetica e quasi dovunque. Certamente, quando la nozione è molto composta, non riusciamo a pensare tutte assieme le note che entrano in essa: quando questo è possibile, o nei limiti in cui è possibile, allora chiamo quella conoscenza intuitiva. Delle nozioni primitive o distinte non c’è altra conoscenza che quella intuitiva; delle nozioni composte la conoscenza, per lo più, è simbolica” (G. W. Leibniz, Meditazioni sulla conoscenza, la verità e le idee (1684), in Scritti filosofici, vol. II, Torino, Utet, 1968, p. 681).
[7] D. Goleman, Intelligenza emotiva, Milano, Rizzoli, 1996.
[8] Su tali questioni v. l’articolo, Il sogno di ChatGPT e la Neuro AI, pubblicato dal neurobiologo Roberto Montanari sulla rivista Eastwest, n 104 del luglio-settembre 2023.
[9] Si tratterebbe di una versione del programma che si assume meno evoluta di quella viceversa offerta a pagamento.
[10] La specificazione della data di proposizione della domanda assume rilevanza se si tiene conto del processo di continua elaborazione, da parte del programma, delle risposte fornite dagli utenti; attraverso tale elaborazione, il programma è, a sua volta, capace di correggere o di superare eventuali output rivelatisi imprecisi o errati.
[11] L. Wittgenstein, Ricerche filosofiche, Torino, Einaudi, 2014, p. 266.
[12] L. Wittgenstein, Ricerche filosofiche, cit. passim.
[13] E.W. Dijkstra, The Threats to Computing Science. Documento presentato all’ACM 1984 South Central Regional Conference, 16-18 novembre, Austin, Texas, ripreso da L. Floridi, La quarta rivoluzione, cit. p. 189.
[14] La semplice collocazione di piatti o posate all’interno di una lavastoviglie costituisce il compimento di un’azione che, dovendo conformarsi al modo di funzionamento della macchina, appare ben diversa dal lavaggio diretto di tali stoviglie da parte dell’uomo. Allo stesso modo, lo stile di avvio di una conversazione con uno smartphone o con un dispositivo di ausilio domestico, al fine di ottenere informazioni (“Hey Siri” o “Alexa”), è stilizzato in modo rigorosamente meccanico rispetto alla libertà degli infiniti modi di avvio di una conversazione tra persone.
[15] Su tali specifiche questioni v. A. Santosuosso e G. Sartor, La giustizia predittiva: una visione realistica, in Giur.It., 2022, pp. 1760 ss. (specialmente pp. 1765 ss.).
[16] R. Bodei, Dominio e sottomissione. Schiavi, animali, macchine, intelligenza artificiale, Bologna, Il Mulino, 2019, p. 391.
[17] R. Bodei Dominio e sottomissione, cit., p. 392.
[18] Si allude qui ai contenuti del libro VI dell’Etica Nicomachea.
[19] A mero titolo di esempio, possono qui richiamarsi H. Arendt, Vita Activa, Milano, Bompiani, 1964 (The Human Condition, 1958); J. Habermas, Teoria e prassi nella società tecnologica, Bari, Laterza, 1969 e Id., Prassi politica e teoria critica della società, Bologna, Il Mulino, 1973. Più di recente, è possibile esaminare, in rapporto ai temi dell’etica aristotelica, gli approcci dell’opera etico-politica di Martha Nussbaum (v., tra tutti, Id. La fragilità del bene. Fortuna ed etica nella tragedia e nella filosofia greca, (1986), Bologna, Il Mulino,1996).
[20] Coerentemente a tali presupposti, l’art. 13, co. 1, della Proposta di Regolamento della Commissione Europea che stabilisce regole armonizzate sull’intelligenza artificiale (COM (2021)206) recita: “I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo adeguatamente”. Nel Considerando 40 di tale Proposta di Regolamento, la Commissione rileva che “Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati ad assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l'assegnazione delle risorse”.
Con l’emendamento 71 (del 14 giugno 2023) alla ridetta Proposta di Regolamento, il Parlamento, intervenendo sul richiamato Considerando 40 ha licenziato il seguente testo: “Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o da un organo amministrativo, o per loro conto, per assistere le autorità giudiziarie o gli organi amministrativi nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti o utilizzati in modo analogo nella risoluzione alternativa delle controversie. L'utilizzo di strumenti di intelligenza artificiale può fornire sostegno, ma non dovrebbe sostituire il potere decisionale dei giudici o l'indipendenza del potere giudiziario, in quanto il processo decisionale finale deve rimanere un'attività e una decisione a guida umana. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l'assegnazione delle risorse”.
Negli Orientamenti etici per un’IA affidabile, redatti dal Gruppo indipendente di esperti ad alto livello sull’intelligenza artificiale, istituito dalla commissione UE, si trova affermato il c.d. Principio dell’esplicabilità, al cui riguardo si evidenzia [2.2 (53)] che “L’esplicabilità è fondamentale per creare e mantenere la fiducia degli utenti nei sistemi di IA. Tale principio implica che i processi devono essere trasparenti, le capacità e lo scopo dei sistemi di IA devono essere comunicati apertamente e le decisioni, per quanto possibile, devono poter essere spiegate a coloro che ne sono direttamente o indirettamente interessati. Senza tali informazioni, una decisione non può essere debitamente impugnata. Non sempre è possibile spiegare, tuttavia, perché un modello ha generato un particolare risultato o decisione (e quale combinazione di fattori di input vi ha contribuito). È il cosiddetto caso della ‘scatola nera’ i cui algoritmi richiedono un’attenzione particolare. In tali circostanze, possono essere necessarie altre misure per garantire l'esplicabilità (ad esempio, la tracciabilità, la verificabilità e la comunicazione trasparente sulle capacità del sistema), posto che il sistema nel suo complesso rispetti i diritti fondamentali. Il grado di esplicabilità necessario dipende in larga misura dal contesto e dalla gravità delle conseguenze nel caso in cui il risultato sia errato o comunque impreciso”.
[21] H. Arendt, Le origini del totalitarismo, (1951), Torino, Einaudi, 2004.
[22] H. Arendt, La banalità del male. Eichmann a Gerusalemme, (1963), Milano, Feltrinelli, 1964.
[23] H. Arendt, Socrate, Milano, Raffaello Cortina, 2015, che riprende, in traduzione italiana, la terza e ultima parte di un corso americano tenuto da Arendt nel 1954.
[24] A Cavarero, Il Socrate di Hannah Arendt, in H. Arendt, Socrate, cit., pp. 73 ss.
[25] A. Cavarero, Il Socrate di Hannah Arendt, cit., pp. 97-98.
(Immagine: dettaglio da Antonio Zanchi, Socrate e un discepolo che si guarda allo specchio, 1670, Palazzo Tozzoni, Imola (BO)