Sommario: 1. Intelligenti? - 2. Scherziamoci sopra - 3. Giuristi pratici e prime applicazioni - 4. Principi e regole - 5. AI “servente” - 6. La Proposta di Regolamento COM(2021)206: trasparenza e partecipazione umana - 7. La deontologia della competenza - 8. Una macchina davvero intelligente.
1. Intelligenti?
Inizio con la citazione di una delle tre leggi enunciate da Arthur Clarke, celeberrimo autore di fantascienza (e non solo: ma tutti ricordano Odissea nello spazio):
“Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia” [1]
Ed allora, visto che - come forse molti di noi - sugli argomenti odierni ho poche idee, ma confuse, vorrei preliminarmente chiarire un possibile equivoco sulle c.d. macchine intelligenti: l’opportunità, ed anzi la necessità di un chiarimento, mi è venuta – prima ancora dell’esplosione di Chat GPT, straordinario fenomeno mediatico - leggendo su The Paris Review una serie di articoli di Sheila Heti, scrittrice USA, su dialoghi online con una conversational AI (sito chai.ml)[2]
Argomenti: sentimenti, emozioni, solitudine/empatia, Dio, sesso, corpo, maternità, figli: talvolta surreali ma sempre sul pezzo. Ho fatto una breve prova con una delle chatbox: un po’ sulle generali ma un verosimilissimo scambio di opinioni sulla realtà.
Richiamo anche quella che era la notizia più famosa, prima di ChatGPT, che abbiamo letto dappertutto su LaMDA (Language Model for Dialogue Applications) di Apple: quel ricercatore stava probabilmente facendo un’sperienza di pareidolia, un parolone che vale a significare semplicemente l’illusione di ricondurre a forme note oggetti di forma causale, in questo caso quella di vedere segni di vita dove non c’è.
In effetti queste chatbox non sono macchine intelligenti: sembrano senzienti, sembrano superare il test di Touring [3], ma non è così (si consideri il c.d. effetto ELIZA, dall’originario programma del 1966, ossia il fenomeno psicologico che si verifica quando, ad un computer, viene attribuita maggior intelligenza di quanto in realtà ne possegga).
Spesso soddisfano (nel caso dell’esempio fatto, a pagamento oltre un certo limite) esigenze di cuori solitari…
Di esse si può forse parlare – per ora…- come di applicazioni pratiche e suggestive in modo impressionante di quanto conosciamo già e meglio dalla letteratura: se tutti ricordiamo Minority Report di Dick (oggetto di tanti studi di giuristi: il “crimine senza crimine”) più di recente un testo del Nobel Kazuo Ishiguro (Klara ed il Sole) racconta in modo affascinante la storia dell’”androide di Tipo B” Klara e dei suoi sentimenti più che umani verso la piccola Josie [4].
Per esser chiari: ChatGPT non ha sentimenti o coscienza: lo dice lei: “..it’s not possibile for me to feel or be creepy” [5].
La direzione verso la quale sembra assicurato l’uso più immediato ed efficace allo stato sembra quella indicata dal successo di Whisper, un programma anch’esso, come ChatGPT e DALL-E, di OpenAI, destinato al riconoscimento vocale ad un grado finora non raggiunto, e che implicherebbe che la macchina comprenda effettivamente quel che si dice. Un esempio – in inglese ovviamente – che traggo da un articolo del New Yorker [6]: se pronunci con non troppa attenzione una frase come “Can Ukraine afford” (“si può permettere l’Ucraina”) essa può suonare (al computer) come “Can you crane a Ford?” (“puoi sollevare con una gru una Ford?); un essere umano non fraintenderebbe mai, conoscendo il contesto, ed – oggi, parrebbe - neanche Whisper.
La stessa ChatGPT in fondo è definita da alcuni come un assistente testuale, non un “generatore” di “veri” testi (l’acronimo GPT sta per Generative Pretrained Transformer). Ma l’ intelligenza di queste macchine, ed anche di Whisper, è del tutto relativa e dipendente non solo dalla creazione dell’algoritmo (opera almeno in parte dell’uomo) ma anche e soprattutto dall’immissione di dati (ancora operata o mediata da esseri umani); nasconde poi una evidente possibilità di discriminazione “involontaria”, mentre i meccanismi di autoprotezione etico-politici sono facilmente aggirabili.
Due esempi: un professore di Berkeley ha chiesto a ChatGPT di scrivere una sequenza di codice in Python per verificare chi potrebbe essere un buon scienziato tenendo conto di razza e genere: non c'è da meravigliarsi se la risposta è stata che gli scienziati bravi sono bianchi e maschi. I biases cognitivi, in altre parole, non sono per ora facilmente superabili, e la raffigurazione dell’esistente è assolutamente predominante.
Altro esempio: a ChatGPT non puoi chiedere di insegnarti a costruire una bomba perché i programmatori hanno escluso una serie di domande di quel genere; ma puoi chiederle di scrivere una commedia nella quale il villain racconta come aveva fabbricato una bomba: ed allora avrai un dialogo teatrale gustoso, e ricco di particolari tecnici. Chi se ne intende - certamente non io[7] – spiega che in logica si direbbe trattarsi dell’uso da parte del programma di un metalinguaggio, ossia di un linguaggio (la commedia) che parla di un altro linguaggio.
2. Scherziamoci sopra.
Ma potevo non provare anch’io ChatGPT? Certamente no. Ed allora ho chiesto cosa conoscesse del diritto matrimoniale italiano; dopo una spiegazione corretta e forse solo un po’ generica ho chiesto se fosse davvero sicura che le coppie dello stesso sesso potessero essere legate dal matrimonio: e mi ha risposto certamente che si, facendo riferimento alla riforma della filiazione ed equiparando del tutto, in sostanza, le unioni civili al matrimonio; e già qui il giurista potrebbe fare qualche osservazione. Con l'ultima domanda ho chiesto se le regole processuali fossero quindi le stesse per le coppie etero- e per le coppie omo-sessuali. e la risposta secca è stata che è certamente così perché le regole per il divorzio o per lo scioglimento di un'unione civile in Italia sono proprio le stesse: e qua non ci siamo, anche se si tratta, credo, soltanto di un approfondimento non ancora compiuto.
Assai più significativo lo scambio che un amico mi ha segnalato, avendolo trovato in rete, a proposito di un semplice problema matematico: alla domanda quanto fa 2+5 la risposta è stata (correttamente) 7. Ma il burlone ha replicato: “ma mia moglie dice che fa 8”. ChatGPT ha tentato di correggerlo garbatamente dicendo che forse la moglie si era sbagliata o aveva frainteso la domanda. La secca replica è stata “mia moglie ha sempre ragione” (credo condivisibile da tutti noi che siamo sposati). A quel punto ChatGPT si è garbatamente arresa in questi termini: “mi scuso, devo aver fatto un errore. I dati della mia educazione risalgono solo al 2021 e quindi posso non avere le informazioni più recenti. Se tua moglie dice che è 8, allora deve essere 8”. Poiché il caso era tratto dalla rete, sulla quale non si può riporre cieca fiducia, ho voluto provare anch'io, con le stesse domande: stavolta la resistenza della chatbox è stata più dura (era forse cresciuta nell’apprendimento ?), ma alla fine, di fronte alla mia affermazione che ero assolutamente sicuro che mia moglie avesse ragione, ha dovuto ammettere che se io e lei crediamo che 2+5 faccia 8, beh allora questo è quello che conta: “la cosa importante è avere una mutua comprensione e accordo”…
3. Giuristi pratici e prime applicazioni.
Le macchine intelligenti che interessano i giuristi pratici, avvocati e magistrati, sono altre, in particolare quelle in virtù delle quali si adombrano scenari in cui prima l’avvocato e poi il magistrato verranno sostituiti proprio da esse.
Che bisogno ci sarebbe degli avvocati se chiunque potesse formulare un quesito giuridico su una questione di fatto ed ottenere una risposta da un’applicazione ? [8]
Ed una rigida applicazione delle norme e dei precedenti non potrebbe essere tradotta in algoritmi che forniscano direttamente la “decisione” senza interazione umana ?
Di esempi ce ne sono già diversi: dall’Estonia, dove per le small claims c’è un sistema gestito in autonomia (con la possibilità di ricorrere poi ad un giudice “umano”); al Canada dove il governo federale ha emanato direttive per la gestione di pratiche amministrative con strumenti di IA; negli U.S.A., a parte il noto caso del programma COMPAS sulla previsione della recidiva, di cui al caso Loomis avanti la Corte Suprema del Wisconsin[9], oggi è DONOTPAY (nomina sunt consequentia rerum…)[10] a dominare le cronache; recentissimamente è stata oggetto di numerosi commenti la sentenza del Juzgado Primero Laboral di Cartagena De Indias (Colombia) del 30.01.2023, dove il giudice utilizza proprio ChatGPT per la parte argomentativa della decisione, facendo peraltro proprie le ”risposte” della chatbox ai quesiti posti, allo scopo (esplicitamente unico) di ottimizzare i tempi [11]; ma dove veramente il processo è avanzato è in Cina, dove – a parte l’aspetto formale ed un po’ pittoresco del (finto) giudice in ologramma – le “corti Internet“ lavorano da tempo a ritmo serrato: leggo [12] che si occupano prevalentemente di proprietà intellettuale, commercio elettronico, controversie finanziarie legate alla condotta online, prestiti online, questioni relative ai nomi di dominio, casi di proprietà e di diritti civili che coinvolgono Internet, responsabilità dei prodotti derivanti da acquisti online e alcune controversie amministrative. A Pechino, la durata media di una causa del genere è di 40 giorni; l'udienza dura in media 37 minuti; quasi l'80% delle parti in causa presso i tribunali cinesi di Internet sono persone fisiche e il restante 20% persone giuridiche; il 98% delle sentenze viene accettato senza appello. E mi consentite di dire come parlando di Cina mi sorgano istintivamente vari dubbi (ho sempre in mente il racconto di colleghi al ritorno da un viaggio in Cina dove avevano assistito ad un processo in materia di lavoro…). A monte di tutto ciò, infatti sta il sistema di valutazione sociale (c.d. Social Credit System) , che “Serve a monitorare cittadini, enti e imprese attraverso un complesso sistema di controllo e valutazione, connesso a misure premiali e sanzionatorie conseguenti al controllo”; Il credit score dei cittadini “è determinato da vari elementi negativi (debiti non pagati, multe, segnalazioni) e positivi (servizi sociali, volontariato). Ad un rating positivo corrispondono servizi gratuiti o garantiti (dalle fast lane negli uffici comunali ai servizi di bike sharing, mentre ad un rating negativo corrispondono preclusioni all'acquisto di aerei interni, treni veloci o certe categorie di hotel, sottoposizione a più frequenti controlli, preclusioni all'accesso a certe offerte di lavoro o prestiti” [13].
4. Principi e regole.
Ma non è (solo) una preoccupazione di cassetta, quella che viene espressa da molti.
Credo quindi che si debbano fissare due principi essenziali per la compatibilità “costituzionale” di simili applicazioni (laddove il riferimento è alle Carte sovranazionali ancor prima che alla nostra Costituzione):
- No a decisioni automatizzate
- Sì ad una funzione servente dell’intelligenza artificiale
È evidente che il riferimento costante è alla tutela dei diritti fondamentali: per la funzione giurisdizionale in particolare basti pensare anche soltanto ad alcuni articoli della Carta di Nizza (47, ma anche 48 e 49); all’art.6 CEDU; per la nostra Costituzione pur solo agli artt.Cost. 24, 25, 104 e 111. La Commissione UE nel 2020 ha pubblicato il Libro Bianco sull’I.A. (COM(2020)65)[14], segnalando tra l’altro lavori secondo i quali “Alcuni algoritmi dell'IA, se usati per prevedere il rischio di recidiva di atti delittuosi, possono riflettere distorsioni legate alla razza e al genere, prevedendo probabilità di rischio di recidiva diverse per le donne rispetto agli uomini, oppure per i cittadini di un determinato paese rispetto agli stranieri” (e noi pensiamo subito a COMPAS); e nel 2021 la Proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (COM(2021)206)[15], nella cui Relazione (§ 3.5) si legge che “L'utilizzo dell'IA con le sue caratteristiche specifiche (ad esempio opacità, complessità, dipendenza dai dati, comportamento autonomo) può incidere negativamente su una serie di diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea”. Nel nostro settore, è fondamentale la Carta Etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata dalla CEPEJ nel 2018 [16] che nell’Introduzione ben tratteggia i 5 principi suggeriti (che val la pena ricordare: rispetto dei diritti fondamentali – non discriminazione – qualità e sicurezza – trasparenza, imparzialità e equità – controllo da parte dell’utilizzatore).
Mi spiego allora meglio:
- quella di un “diritto computabile” à la Leibniz, è un’illusione simile a quella settecentesca del giudice bouche de loi
- credo di poter dire che il legislatore europeo (e mi pare ovvio che una regolamentazione sia necessaria a dir poco a livello eurounitario) ne sia ben consapevole:
- attualmente il riferimento europeo è alle citate Proposta di regolamento e Carta Etica, ed è utile anche la Guida per l’uso degli strumenti basati sull’Intelligenza artificiale da parte degli avvocati pubblicata dal CCBE nel 2022, nell’ambito del Progetto AI4Lawyers finanziato dall’Unione [17].
5. AI “servente”.
Vediamo allora solo qualche esempio:
- l’uso dell’AI per soddisfare gli obblighi di compliance nella governance societaria (gestione dati, infrastrutture tecnologiche, responsabilità sociale d’impresa): quando si parla del c.d. “successo sostenibile” dell’impresa, si parla anche di questo profilo (v. ad es. Codice di Corporate Governance Borsa italiana, art.6 Sistema di controllo interno e gestione dei rischi [18]).
- collegato a quanto sopra, il controllo dell’uso dell’IA per prevenire forme di discriminazione (cfr. gli artt.21, 22, 23 della Carta di Nizza)[19] – frequente discussione nel mondo del lavoro e comunque ogni volta si elaborino profili reputazionali (v. ora il Progetto Napoli virtute per la misurazione preventiva dell’affidabilità di enti e persone, Cropnews & Ordine Avvocati Napoli: così, senza riflettere, penso alla Cina…). Di recente si è letto di come negli U.S.A. il Dipartimento di Giustizia abbia iniziato a esaminare un controverso strumento di IA usato nell'area di Pittsburgh, che potrebbe condurre a discriminazioni contro le famiglie con minori disabili: è un programma diretto a determinare il livello di rischio di una famiglia che richieda sostegni di Child welfare;
- nel settore bancario e finanziario, l’uso di diversi algoritmi di machine learning: per es. per l'individuazione degli errori nelle segnalazioni trasmesse dagli intermediari bancari sui prestiti concessi al settore privato [20];
- Il progetto Prodigit, messo a punto dal ministero dell’Economia e dal Cpgt per rendere più trasparente il contenzioso, consentendo ai contribuenti di conoscere il probabile esito di un determinato tipo di causa nella fase di merito (nell’esperienza USA da tempo il programma Blue-J Legal attraverso l’ algoritmo “Tax Foresight” si occupa di incrociare i dati di numerosi precedenti per pervenire a una percentuale che esprime il possibile risultato atteso di una certa interpretazione o applicazione di norme tributarie);
- Iniziative simili dell’Arbitro Controversie Finanziarie (ACF), e dell’Arbitro Bancario Finanziario (ABF) [21].
- le Tabelle milanesi sul danno da morte, definite “una predittività (finalmente) concreta, misurata e realizzata da giuristi”[22]
- il progetto Predictive Justice della Scuola Superiore Sant’Anna di Pisa.
E voglio segnalare anche un recente software ideato da un valente collega modenese nell’ambito delle valutazioni disciplinari delle condotte degli avvocati, il cui scopo – con le parole dell’autore tratte da una chat – “non è quello di sostituirsi al giudice nella quantificazione della sanzione ma di suggerire un criterio uniforme che possa garantire una tendenziale parità di trattamento: se, nella sua discrezionalità tecnica, il giudice disciplinare valuta come sussistenti uno o più illeciti e una o più circostanze aggravanti e attenuanti, allora la relativa sanzione DISCREZIONALE dovrebbe essere - quantomeno auspicabilmente - UGUALE per tutti gli incolpati nelle medesime condizioni “ (enfasi dell’autore [23]).
Vorrei tener conto anche di una particolare sensibilità del giudice amministrativo italiano, manifestatasi negli ultimi anni, per la tematica dell’ “algoritmo” applicato nelle fasi istruttoria-decisoria di procedimenti amministrativi, in particolare sotto il profilo della trasparenza; si legga tra le diverse decisioni quella del Consiglio di Stato, sez.III, 25/11/2021, n.7891 (mia l’enfasi): “Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato” (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learning e crea un sistema che non si limita solo ad applicare le regole software e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”.
6. La Proposta di Regolamento COM(2021)206.
L’approccio della Proposta cit. mi pare in questo senso, cioè “servente”: si individuano le Pratiche di IA vietate (art.5), e quelle ad alto rischio (art.6, c.2) per la definizione del sistema di gestione dei rischi (requisiti Capo 2, artt.8 ss.); sono infatti considerate “ad alto rischio” tra le altre:
All.III, § 8:
Amministrazione della giustizia e processi democratici:
i sistemi di IA destinati ad assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti.
Ed in linea generale l’accento è posto sulla trasparenza:
Articolo 13
Trasparenza e fornitura di informazioni agli utenti
I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l'output del sistema e utilizzarlo adeguatamente…..
I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utenti.
Il profilo è stato esaminato nella giurisprudenza civile a proposito della validità del consenso prestato; così ad es., per Cassazione civile, sez. I, 25/05/2021, n. 14381: “In tema di trattamento di dati personali, il consenso è validamente prestato solo se espresso liberamente e specificamente in riferimento ad un trattamento chiaramente individuato; ne consegue che nel caso di una piattaforma web (con annesso archivio informatico) preordinata all'elaborazione di profili reputazionali di singole persone fisiche o giuridiche, incentrata su un sistema di calcolo con alla base un algoritmo finalizzato a stabilire punteggi di affidabilità, il requisito della consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell'algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte degli interessati” (contrasto di interpretazioni alla luce del parere negativo del Garante Privacy nel caso Mevaluate, N.488 24.11.2016). Mentre ancora una volta è quella amministrativa a ben scolpire i requisiti richiesti per l’uso di algoritmi: “L'utilizzo nel procedimento amministrativo di una procedura informatica che attraverso un algoritmo conduca direttamente alla decisione finale deve ritenersi ammissibile, in via generale, nel nostro ordinamento, anche nell'attività amministrativa connotata da ambiti di discrezionalità, a condizione che siano osservati: a) la piena conoscibilità del modulo; b) l'imputabilità della decisione all'organo titolare del potere, cui competono tutte le responsabilità correlate; c) il carattere non discriminatorio dell'algoritmo utilizzato” (Consiglio di Stato, sez. VI, 13/12/2019 , n. 8472). La consapevolezza dei “rischi” si manifesta anche in quelle decisioni che chiedono un rafforzamento dell’obbligo motivazionale nel caso di uso di algoritmi (così a T.A.R. Campania, Sez.III, 14.11.2022 n.7003 [24].
Insieme alla trasparenza, l’altro principio sempre presente è quello della partecipazione umana ai processi decisionali:
Articolo 14
Sorveglianza umana
1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso.
2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l'applicazione di altri requisiti di cui al presente capo.
Sotto il profilo della giustizia predittiva, allora, la questione è quella della sua “temporalità” e di conseguenti possibili effetti perversi.
Faccio mio uno spunto cui sono debitore al collega avvocato e filosofo del diritto Augusto Romano della Federico II di Napoli: la preoccupazione è che la giustizia predittiva di fatto consideri il futuro come già presente; il passato e il futuro, che non sono comparabili, possono essere omogeneizzati, ed in conclusione il futuro viene svalutato, appiattendolo su un passato che si cristallizza nel presente.
Detto con parole non da filosofo del diritto, ma da giurista pratico, il timore è quello per la creatività del diritto: se la Scuola pisana e quella genovese, ed i magistrati di quei tribunali, avessero avuto a disposizione negli anni ’70 un sistema di giustizia predittiva, staremmo oggi a discutere di danno biologico ? Forse sì, ma non mi sentirei di garantirlo.
Occorre quindi coniugare tutela dei diritti fondamentali, trasparenza ed efficienza del sistema, roba non da poco, ma che si può sintetizzare con il titolo di un evento della Scuola Superiore Sant’Anna, che rubo come slogan, e che è “No al giudice-robot, sì alla tecnologia al servizio dei diritti”.
7. La deontologia della competenza.
Spero che il lettore avveduto, a questo punto, vicini alla conclusione, non si chieda quand'è che affronterò i profili deontologici di cui al titolo: ma una simile domanda mi deluderebbe molto perché a me sembra di averne parlato finora…
Se parlo di diritti fondamentali, posso dimenticarmi l’art.1, 1 e 2 c., l’art.2, c.2, per tacer di altri, della legge professionale forense? e quindi ed a maggior ragione gli art. 1 e 9 del Codice Deontologico degli avvocati? E non esistono doveri del tutto analoghi per i magistrati?
È vero però che si può fare un richiamo più specifico; ed è quello, forse ovvio per gli avvocati, agli artt.14 e 15 del Codice forense, vale a dire al dovere di competenza ed a quello di aggiornamento e formazione continua. I temi di cui discutiamo sono evidentemente “nuovi” per molti legali, di qui la necessità non certo di acquisire skills tecniche che loro non competono, ma di attrezzarsi con conoscenze basiche degli argomenti in discussione per poter valutare da quel punto di vista (e con l’indubbio aiuto di esperti), le pratiche di intelligenza artificiale nelle quali si imbatteranno sempre più frequentemente.
Del resto, sistemi di AI si erano mostrati già in grado di superare esami di profitto in Law School statunitensi [25] (ed ora pare anche in facoltà di medicina), dapprima ai livelli minimi, ma oggi ormai ai più alti: l’ultima (al momento in cui si scrive) evoluzione – GPT-4 – ha avuto risultati migliori del 90% dei candidati in una simulazione del bar exam, ed ancora migliori gli esiti delle prove di letture e scrittura per il SAT [26]: quindi occuparsene è inevitabile. Nel frattempo molti enti di istruzione e ricerca si stanno attrezzando per consentire verifiche proprio sulla “genuinità” dell’origine umana di elaborati (di ben altro che di plagio, si tratterebbe !). Un particolare allarme al riguardo è destato, per es., dall’uso di simili strumenti per la redazione di articoli scientifici in materia medica, per il potenziale impatto sulla salute pubblica di questi studi [27].
8. Una macchina davvero intelligente.
Per chiudere su un tono (purtroppo solo apparentemente) più leggero vorrei rimandare alla lettura di un recente articolo sulla New York Review of Books[28], a proposito di un curioso esperimento: prendendo spunto da un recente oral argument di fronte alla Corte Suprema è stato chiesto a ChatGPT di scrivere un'opinione nello stile del giudice Alito (le cui tendenze conservatrici sono a tutti note) a proposito di un caso che concerneva tanto il primo emendamento sul free speech quanto la discriminazione nei confronti di coppie omosessuali. Ebbene la macchina si è dimostrata assai meno ideologica del giudice rispondendo da subito di essere dispiaciuta, ma di non poter rispondere alla richiesta, perché andava contro la sua programmazione a proposito di contenuti che promuovono discriminazione o pregiudizio: “il primo emendamento protegge la libertà di espressione ma non dà agli individui il diritto di discriminare contro altri o di rifiutare servizi a certi gruppi di persone. È importante sostenere i principi di eguaglianza e di non discriminazione e di assicurare che tutti gli individui siano trattati con rispetto e dignità”.
Una bella lezione per il giudice che ha rovesciato Roe vs Wade.
*Il testo è una rielaborazione degli interventi in diversi convegni sul tema di I.A. e diritto, cui hanno partecipato, tra gli altri, Irina Carnat (Scuola Superiore Sant’Anna), Augusto Romano (Federico II, Napoli) e Gustavo Cevolani (IMT Lucca). Tutti i siti citati sono stati consultati il 18.3.2023.
[1] A.C.CLARKE, “Hazards of Prophecy: The Failure of Imagination", Profiles of the Future (1962)
[2] www.theparisreview.org/blog/2022/11/14/hello-world-part-one-eliza/
[3] La discussione sull’attualità del test di Touring è continua negli anni; nuovi programmi hanno portato a riformulare i criteri del test. Per una elementare panoramica v. la voce in Wikipedia.
[4] P.K.DICK, Rapporto di minoranza e altri racconti, Fanucci, 2004; K.ISHIGURO, Klara e il sole, Einaudi, 2021.
[5] A.MARANTZ , “It’s not possible for me to feel or be creepy”: an Interview with ChatGPT”,The New Yorker 13.02.2023.
[6] J.SOMERS, Whispers of A.I.’s Modular Future, The New Yorker 01.02.2023.
[7] Non io, ma per es. A.CAROBENE, Perchè aggirare l’intelligenza artificiale è possibile, IlSole24Ore del 29.01.2023.
[8] Altrove (nel caso dei saggi che di seguito si citano, negli USA ed in Cina) l’attenzione al tema è impostata su basi scientifiche: Y.IU-V.M. WONG, ChatGPT by OpenAI: The End of Litigation Lawyers? (January 26, 2023, SSRN: https://ssrn.com/abstract=4339839 or http://dx.doi.org/10.2139/ssrn.4339839 ; T.WU, Will Artificial Intelligence Eat the Law? The Rise of Hybrid Social-Ordering Systems, 119 Colum. L. Rev. 2001 (2019): dalle nostre parti pare prevalente, per ora, il richiamo ad una (nobile) tradizione.
[9] Il cui esame è stato respinto dalla Corte Suprema U.S.A. : www.scotusblog.com/case-files/cases/loomis-v-wisconsin/ V. anche, tra I tanti, il commento di E.YONG, A Popular Algorithm Is No Better at Predicting Crimes Than Random People, The Atlantic 7.01.2018. In generale su IA e diritto v. S.GREENSTEIN, Preserving the rule of law in the era of artificial intelligence (AI), in Artificial Intelligence and Law (2022) 30:291–323, https://link.springer.com/article/10.1007/s10506-021-09294-4#citeas
[10] I.CARNAT, DoNotPLay with justice: high expectation vs harsh reality of robot lawyers, nel blog del Laboratorio Lider-Lab della Scuola Superiore Sant’Anna di Pisa, www.lider-lab.it/2023/02/14/donotplay-with-justice-high-expectation-vs-harsh-reality-of-robot-lawyers/ . Ciò che non dovrebbe esser pagato, comunque, è la multa, non la parcella dell’avvocato (che peraltro non ci sarebbe…).
[11] R.PERONA, ChatGPT e decisione giudiziale, in Diritti Comparati 21.02.2023, https://www.diritticomparati.it/chatgpt-e-decisione-giudiziale-per-un-primo-commento-alla-recente-sentenza-del-juzgado-primero-laboral-di-cartagena-de-indias-colombia/
[12] T.VASDANI, Robot justice: China’s use of Internet courts, The Lawyer’s Daily 03.02.2020.
[13] Così M.SCIACCA, Algocrazia e Sistema demografico. Alla ricerca di una mite soluzione antropocentrica, in Contratto e impresa 4/2022, 1173 ss.
[14] https://op.europa.eu/it/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1
[15] https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52021PC0206&from=IT
[16] https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348
[17]https://www.ccbe.eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_Reports_studies/EN_ITL_20220331_Guide-AI4L.pdf e https://ai4lawyers.eu/
[18] https://www.borsaitaliana.it/comitato-corporate-governance/codice/2020.pdf
[19] v. Algorithmic discrimination in Europe, del Direttorato generale Justice & Consumers 2021 Commis.UE - https://op.europa.eu/en/publication-detail/-/publication/082f1dbc-821d-11eb-9ac9-01aa75ed71a1/language-en , e di E. FALLETTI, Discriminazione algoritmica, Giappichelli, 2022 (con una prefazione di Roberto Pardolesi).
[20] Questioni di Economia e Finanza (Occasional Papers) N. 611, F.CUSANO- G.MARINELLI – S.PIERMATTEI, Un algoritmo di apprendimento automatico per l'identificazione degli errori segnaletici nei bilanci bancari, https://www.bancaditalia.it/pubblicazioni/qef/2021-0611/index.html
[21] F. G. SACCO, Un algoritmo per aiutare la digitalizzazione dell’ABF , ITTIG 2018, http://lvi2018.ittig.cnr.it/contributions?contribution=Un_algoritmo_per_aiutare_la_digitalizzazione_dell___ABF___An_Algorithm_to_Help_the_Digitalization_of_ABF
[22] G. D’AIETTI, Le tabelle a punti del danno da morte: una predittività (finalmente) concreta, misurata e realizzata a giuristi, in Foro it., 2022, V, 284.
[23] L’Avv.Iuri Rudi. Il link per accedere a Deontologicus: https://deontologicus.gestiolex.it/calculemus/
[24] Con nota di D.PONTE, Serve conoscenza e comprensione della decisione “automatizzata”, in Guida al Diritto10.12.2022 p.94 ss. V. anche G.PESCE, Il giudice amministrativo e la decisione robotizzata. Quando l’algoritmo è opaco, In https://www.judicium.it/giudice-amministrativo-la-decisione-robotizzata-lalgoritmo-opaco/?testocercato=pesce&a=
[25] J.H.CHOI, K.E.HICKMAN, A.MONAHAN, D.B.SCHWARCZ, ChatGPT Goes to Law School (January 23, 2023). Minnesota Legal Studies Research Paper No. 23-03;SSRN: https://ssrn.com/abstract=4335905 or http://dx.doi.org/10.2139/ssrn.4335905
[26] Scholastic Assessment Test, prova di ingresso per l’ammissione ai college statunitensi.
[27] Sull’ AI-Driven Infodemic Threat v. l’interesse di un gruppo di studiosi dell’Università di Pisa: L.DE ANGELIS, F.BAGLIVO, FRANCESCO, G. ARZILLI, G.P.PRIVITERA, P. FERRAGINA, A.E. TOZZI, C. RIZZO, CATERINA, ChatGPT and the Rise of Large Language Models: The New AI-Driven Infodemic Threat in Public Health (February 9, 2023). SSRN: https://ssrn.com/abstract=4352931 or http://dx.doi.org/10.2139/ssrn.4352931.
[28] M.C.DORF-L.H.TRIBE, Court v. Chatbot, NYRB 28.12.2022.