L’Intelligenza Artificiale nel processo?
Commento alla firma del Protocollo per la definizione del contesto etico e giuridico per l’applicazione dell’Intelligenza Artificiale ai procedimenti amministrativi e giurisdizionali, firmato il 17 febbraio dal Ministero per l’innovazione e dalla Fondazione Leonardo.
di Franco De Stefano
SOMMARIO: 1. Il protocollo d’intesa tra Governo e Fondazione Leonardo. 2. La prevedibilità e l’affidabilità dell’attività amministrativa. 3. L’Intelligenza Artificiale nella giustizia all’attenzione dei legislatori sovranazionali. 4. Automazione e giurisdizione. 5. L’Intelligenza Artificiale nella giurisdizione?
1. Il protocollo d’intesa tra Governo e Fondazione Leonardo.
Prima di tutto, la notizia in sé e per sé, come si ritrae dai siti istituzionali, rispettivamente www.innovazione.gov.it e www.fondazioneleonardo-cdm.com.
Il Ministro per l’innovazione tecnologica e la digitalizzazione Paola Pisano e il Presidente della Fondazione Leonardo – Civiltà delle Macchine Luciano Violante hanno firmato il 17 febbraio scorso un protocollo d’intesa, per definire il contesto etico e giuridico all’interno del quale sviluppare e applicare l’intelligenza artificiale (d’ora in avanti, anche solo IA), in particolare per rispondere alle esigenze della Pubblica Amministrazione con l’impiego delle tecnologie più moderne e, in buona sostanza, mettendo a frutto le potenzialità della gestione automatizzata dei processi decisionali ed operativi[1].
Lo scopo è quello di introdurre applicazioni di intelligenza artificiale nella gestione dei procedimenti amministrativi “con l’impegno di mettere l’uomo al centro”, lavorando per promuovere “un’intelligenza artificiale sostenibile sul piano sociale, culturale e democratico”.
Il ministro, richiamato il piano Italia 2025, ha ricordato come l’intelligenza artificiale e i big data possano sostenere i decisori pubblici verso scelte sempre più consapevoli, se ed in quanto basate sull’analisi di dati, gestendo in maniera efficiente una serie di procedimenti amministrativi: progettare, sviluppare e sperimentare soluzioni di intelligenza artificiale, purché etiche, progettate in modo sicuro e con sempre al centro l’uomo e i suoi valori, per poi applicarle ai procedimenti amministrativi significa dare attuazione moderna ai principi costituzionali che vogliono un’amministrazione efficiente. La scelta è stata prospettata come imposta dallo sviluppo tecnologico, ma foriera di grandi ricadute positive sulla vita di tutti i giorni dei cittadini.
Il presidente della fondazione, dal canto suo, sottolinea come la collaborazione con il MID rappresenti, per la Fondazione Leonardo, il seguito della Conferenza Internazionale sullo statuto etico e giuridico dell’IA, tenutosi a novembre presso la Camera dei deputati, nello sviluppo dell’impegno per la modernizzazione del Paese nel contesto europeo.
La collaborazione avviata con il protocollo, della durata di un anno ed articolata intanto nella costituzione di un gruppo di lavoro composto dai rappresentanti dei due firmatari, prevede:
- la definizione di una metodologia di valutazione che possa garantire, durante le fasi di progettazione, sviluppo e implementazione, l’utilizzo sostenibile dell’IA nei servizi pubblici, nel rispetto dei nostri valori costituzionali;
- la stesura di una proposta di “codice di conformità” per l’implementazione dell’IA nel settore pubblico o in quello privato, anche in vista della definizione di un sistema di certificazione di sostenibilità etica e giuridica;
- la definizione di un piano di formazione per il personale docente delle scuole, su concetti basilari e metodi dell’IA, partendo dall’analisi dei benefici e dei rischi, fino alle regole di condotta per un’IA “benefica”;
- la definizione di almeno due progetti, destinati a una possibile sperimentazione, dedicati all’applicazione di IA nei procedimenti amministrativi e giurisdizionali; questi progetti saranno identificati anche nell’ambito della cabina di regia interministeriale per l’innovazione del Paese, avviata dal Ministro per l’innovazione tecnologica e la digitalizzazione.
In particolare, la Fondazione Leonardo – Civiltà delle Macchine prosegue così la sua attività nel settore, dopo l’adozione dello “Statuto etico e giuridico dell’IA”[2] e l’organizzazione della Conferenza Internazionale sullo statuto etico e giuridico dell’IA, presso la nostra Camera dei Deputati nel novembre 2019.
2. La prevedibilità e l’affidabilità dell’attività amministrativa.
L’intera attenzione dei preamboli e delle dichiarazioni programmatiche dei due firmatari del progetto è in modo espresso rivolta esclusivamente al procedimento amministrativo e all’estensione ad esso delle potenzialità tecnologiche dell’Intelligenza Artificiale.
Lo spunto è evidentemente dato dall’ingresso imperioso di quest’ultima nel procedimento amministrativo, nell’eclatante esempio della gestione algoritmica di procedure assunzionali e dei trasferimenti dei docenti, i cui risultati sono stati molto discussi.
Il giudice amministrativo ha affrontato il processo di automazione nel procedimento amministrativo in alcune fondamentali recentissime sentenze del Consiglio di Stato: la n. 881 del 4 febbraio 2020, la n. 8474 del 13 dicembre 2019 e la n. 2270 del dì 8 aprile 2019.
Non è questa la sede per affrontare la portata dei principi così affermati, qui dovendo bastare la conclusione della sostanziale accettazione dell’algoritmo nel procedimento amministrativo, a determinate condizioni.
In sostanza, sono dai supremi giudici amministrativi individuati come regolatori della materia tre basilari principi, ricavati dal diritto soprattutto sovranazionale (e, verosimilmente, dal GDPR, ovvero dal General Data Protection Regulation, cioè il Regolamento europeo per la protezione dei dati personali, n. 2016/679):
- il principio di conoscibilità;
- il principio di non esclusività della decisione algoritmica;
- il principio di non discriminazione algoritmica.
In forza del primo, ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata; in forza del secondo, quando una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato; in forza del terzo, è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori.
Si è, in buona sostanza, presa coscienza del fatto che l’impiego degli strumenti tecnologici moderni comporta in realtà una serie di scelte e di assunzioni tutt’altro che neutre: l’adozione di modelli predittivi e di criteri in base ai quali i dati sono raccolti, selezionati, sistematizzati, ordinati e raggruppati e coordinati, la loro interpretazione e la conseguente formulazione di giudizi sono tutte, benché ridotte ad operazioni automatizzate, conseguenze di precise scelte e di valori, consapevoli o inconsapevoli; da ciò consegue che tali strumenti sono chiamati ad operano una serie di scelte, le quali dipendono in gran parte dai criteri e dai dati di riferimento utilizzati, in merito ai quali si esige la necessaria trasparenza.
La “caratterizzazione multidisciplinare” dell’algoritmo è evidente in quanto la sua elaborazione non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative; una volta applicata al diritto, occorre allora che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile.
In primo luogo, occorre rendere applicabili le norme generali e tradizionali in tema di imputabilità e responsabilità, sicché va garantita la riferibilità della decisione algoritmica finale all’autorità ed all’organo competente in base alla legge attributiva del potere.
In secondo luogo, è riconosciuto alla persona il diritto di non essere sottoposta a decisioni automatizzate prive di un coinvolgimento umano e che, allo stesso tempo, producano effetti giuridici o incidano in modo analogo sull’individuo: pertanto, non può mai mancare la precisa e chiara individuazione di un centro di imputazione e di responsabilità, che sia in grado di verificare la legittimità e logicità della decisione dettata dall’algoritmo. La regola algoritmica deve essere non solo conoscibile in sé, ma anche soggetta alla piena cognizione, e al pieno sindacato, del giudice amministrativo.
Non può quindi ritenersi applicabile, in modo indiscriminato, all’attività amministrativa algoritmica tutta la legge sul procedimento amministrativo, concepita in un’epoca nella quale l’amministrazione non era investita dalla rivoluzione tecnologica, né sono condivisibili richiami letterari a scenari orwelliani: da considerarsi anzi con cautela, perché la materia merita un approccio non emotivo ma capace di delineare un nuovo equilibrio, nel lavoro, fra uomo e macchina differenziato per ogni campo di attività.
In definitiva, il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico.
Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. E tanto al fine di poter verificare che gli esiti del procedimento automatizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.
3. L’intelligenza artificiale nella giustizia all’attenzione dei legislatori sovranazionali.
Il quadro europeo, evidentemente sospinto dalla turbinosa velocità dell’evoluzione tecnologica, è in movimento, sia al livello dell’Unione europea, che a quello del Consiglio d’Europa.
Il Parlamento europeo ha approvato, in seduta plenaria, il 12 febbraio 2020, una risoluzione sui processi decisionali automatizzati[3], che segue quella del 12 febbraio 2019 sulla politica generale europea industriale sull’intelligenza artificiale e sulla robotica e quella del 16 febbraio 2017[4] sulle raccomandazioni alla Commissione su regole di diritto civile sulla robotica, per riprendere il rapporto sulla responsabilità per intelligenza artificiale ed altre tecnologie digitali emergenti (predisposto dal Gruppo di esperti su responsabilità e nuove tecnologie e pubblicato il 21 novembre 2019) ed alle Linee guida per una AI affidabile pubblicate l’8 aprile 2019; ed è in dirittura di arrivo il Piano per l’approccio europeo all’intelligenza artificiale.
L’ottica rimane certamente di impronta consumeristica: constatata la superiorità rispetto a quelle umane della precisione e della velocità degli algoritmi di apprendimento quale ragione della loro diffusione, ragione di preoccupazione sono i rischi di un’intelligenza artificiale in grado di prendere decisioni senza la supervisione umana.
Il principale rischio, visto che l’apprendimento automatico si basa sul riconoscimento di modelli all’interno di sistemi di dati, è quello della sistematizzazione dei pregiudizi e delle discriminazioni, in base alle modalità stesse di progettazione dei relativi meccanismi: sicché, per proteggere i consumatori nell’era dell’intelligenza artificiale, si è ravvisata la necessità di sviluppare strumenti per una adeguata informazione dei consumatori nel momento in cui interagiscono con l’intelligenza artificiale ed i processi decisionali automatizzati, al fine di prendere decisioni consapevoli sul loro utilizzo.
E l’auspicio è quindi quello di più incisive misure per una tutela solida dei diritti dei consumatori, garantendoli da pratiche commerciali sleali e/o discriminatorie, o da rischi derivanti da servizi commerciali di intelligenza artificiale, assicurando la maggiore trasparenza possibile in questi processi e prevedendo l’utilizzo soltanto di dati non discriminatori e di alta qualità.
Parallelamente, il Parlamento europeo, col suo Servizio Ricerche, ha adottato nell’aprile 2019 il suo rapporto per il quadro di riferimento per un’autorità per l’affidabilità e la trasparenza algoritmica[5].
Il Consiglio d’Europa ha, dal canto suo, istituito un Comitato ad hoc per l’intelligenza artificiale (CAHAI)[6], il quale, col sistema della consultazione ampliata delle parti interessate (multi-stakeholder consultations), si prefigge lo scopo di esaminare la fattibilità e gli elementi potenziali di una cornice legale per lo sviluppo, la progettazione e l’applicazione di un’intelligenza artificiale basata sugli standard del Consiglio d’Europa sui diritti umani, la democrazia e lo Stato di diritto. A questo scopo, il Comitato verificherà lo stato attuale della legislazione anche con riferimento alle tecnologie digitali, ma prenderà in considerazione gli strumenti legali sovranazionali o regionali, gli esiti dei lavori intrapresi dagli altri organismi del Consiglio d’Europa e da altre organizzazioni internazionali o regionali, con particolare attenzione alle problematiche di genere ed alla promozione di società coesive e protezione dei diritti delle persone con disabilità.
Sempre in seno al Consiglio d’Europa, la Commissione per l’efficienza nella giustizia (Commission for the Efficiency of Justice – CEPEJ) ha adottato, il 3 dicembre 2018, la prima Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari[7], individuando i seguenti principi fondamentali nella progettazione e nell’applicazione degli strumenti e servizi di intelligenza artificiale applicati alla Giustizia:
1) il principio del rispetto dei diritti fondamentali, nel senso che quegli strumenti e quei servizi siano compatibili con questi ultimi;
2) il principio di non discriminazione, a specifica prevenzione dello sviluppo o della stessa intensificazione di ogni discriminazione tra individui o gruppi di individui;
3) il principio di qualità e sicurezza: mediante l’impiego, nell’elaborazione dei dati e delle decisioni di giustizia, di fonti certificate di dati inalterabili su modelli concepiti in modalità multidisciplinare ed ambiente tecnologico sicuro;
4) il principio di trasparenza, imparzialità ed equità: assicurando l’accessibilità e la comprensibilità dei processi di acquisizione ed elaborazione dati, ammettendo revisioni esterne;
5) il principio “sotto il controllo dell’utente”: con un approccio prescrittivo e garanzia agli utenti di un ruolo di attori informati nel controllo delle loro scelte.
4. Automazione e giurisdizione.
Una prima annotazione, a caldo, per lasciare ogni approfondimento a più meditate riflessioni: impressiona lo iato tra la premessa della proclamazione dell’intervenuta sottoscrizione del Protocollo e la conclusione, visto che dopo l’enfatizzazione del suo obiettivo principale, vale a dire l’applicazione di IA ai procedimenti amministrativi, si estende, con un’aggiunta finale dall’apparenza innocente ma autentico fulmen in cauda e praticamente a sorpresa, l’ambito del progetto ai procedimenti giurisdizionali. Stando a quanto traspare dai comunicati dei due sottoscrittori, quindi, si studierà l’Intelligenza Artificiale nella giurisdizione.
Il nostro Governo, sia pure attraverso il meccanismo apparentemente neutro della collaborazione informale con un organismo formalmente privato, sia pure di grande autorevolezza quale la Fondazione Leonardo e di sostanziale riferibilità alle scelte pubbliche per la natura del suo fondatore, pare iniziare quindi a studiare come applicare IA alla Giustizia; e pare farlo sullo spunto della necessaria digitalizzazione, nel senso di “efficientamento”, della Pubblica Amministrazione, alla quale soltanto, a ben vedere, il ministro e il presidente della fondazione si erano riferiti nella descrizione del progetto.
Il tenore delle comunicazioni dei sottoscrittori del protocollo, non disponendosi il testo di questo, induce qualche riflessione.
Per la pubblica opinione, evidentemente, l’esigenza di modernizzazione della gestione dei processi decisionali si avverte come impellente ed indifferibile almeno per la corrente e quotidiana gestione della cosa pubblica, intesa come amministrazione in senso classico; dinanzi alla crescita esponenziale della mole di affari da sbrigare ed all’opacità o viscosità delle procedure, l’atavico pregiudizio culturale di diffidenza verso la neutralità e l’efficienza della pubblica amministrazione giustifica evidentemente a sufficienza l’aspirazione a metodiche di disbrigo e decisione che rispettino in modo rigoroso i principi, pur sempre costituzionalizzati, dell’art. 97 Cost.
Come si è visto, il giudice amministrativo ha già iniziato ad occuparsi della digitalizzazione, per adottare una soluzione che può definirsi di moderata o cauta apertura; ed è su questa via che potrà svilupparsi anche la linea d’azione del nostro legislatore e, verosimilmente, del gruppo di lavoro istituito dal Protocollo tra il Ministero e la Fondazione.
È però l’estensione ex abrupto ai “procedimenti giurisdizionali”, in apparenza – e sempre stando al tenore dei comunicati ufficiali – senza alcuna distinzione o specificazione, dello studio delle potenzialità applicative di IA che desta serie perplessità: è un campo che il diritto ha solo da poco iniziato a studiare[8] e che apre scenari ampi e sostanzialmente inesplorati.
È l’accesso dell’Automa al processo, civile, penale o amministrativo; un accesso in sordina, strisciante, forse inconsapevole; ma offre l’occasione di interrogarsi su quanto del processo, delle sue sequenze, dei suoi segmenti e delle attività intellettive di norma prettamente umane espletate in ciascuno di quelli si vorrà deputare o delegare o trasferire all’Automa.
Dal campo del settore penale, dove in diversi contesti l’algoritmo è già stato impiegato per la prognosi della personalità del reo perfino al fine di determinare la pena idonea[9] o per l’acquisizione di prove dal valore sostanzialmente legale, a quello del settore civile (e amministrativo, nel senso di giustiziale amministrativo), dove la possibilità di definizione di procedimenti elementari in via completamente automatizzata (generalmente in settori definibili ad alta serialità e salva la sola facoltà, disegnata come eccezionale, di successivo intervento umano) è ormai apertamente studiata, gli orizzonti si schiudono sterminati.
E da tempo oramai sono a disposizione, sempre più sofisticati, sistemi di vera e propria on line dispute resolution[10], che implicano una decisione robotica formalmente negoziale, sostanzialmente assimilata all’arbitrato.
5. L’Intelligenza Artificiale nella giurisdizione?
Il concetto è ormai recepito come giustizia predittiva[11], anche se l’espressione è obiettivamente riduttiva: infatti, non si tratta soltanto di predire o prevenire o calcolare[12] l’esito giudiziario delle situazioni conflittuali, al fine di misurare fenomeni seriali o di massa e di individuarne i costi e i rischi[13]; si tratta di scegliere quali delle attività, soprattutto intellettive oltre che materiali, inerenti al giudizio umano devolvere o delegare o deputare all’Automa.
Normalmente, il ricorso all’automa è sempre stato ricostruito come teso a liberare l’umano dal peso o dai rischi di un lavoro sempre meno sostenibili ed al contempo a fornire un risultato reputato più consono od efficace rispetto all’attività che l’umano potrebbe compiere[14]: e, se la prima delle motivazioni può già in prima approssimazione in modo accettabile riferirsi alle attività materiali di raccolta e comparazione efficienti di dati soprattutto in contenziosi seriali indotti dalla massificazione dei rapporti commerciali ed umani in generale, è chiaro che, quanto alla seconda di quelle motivazioni, molto, anzi moltissimo, può dipendere dalle scale assiologiche che si vorranno adottare, risultando ormai indifferibile intendersi su cosa si intenda per efficienza della giustizia.
Le famose leggi della robotica, elaborate dapprima in ambito letterario e poi assurte al ruolo di principi generali della materia nel diritto eurounitario[15], non soccorrono, pensate come erano per attività sostanzialmente materiali od elementari e quindi inidonee a fronteggiare l’enorme complessità del diritto e dei concetti da definire quanto alle attività in cui sostituire l’umano.
Basti pensare, tanto per incominciare, alla scissione tra giudizio di fatto e giudizio di diritto, vale a dire tra la nozione di ricostruzione del fatto – intesa come rappresentazione di eventi passati mediante strumenti di prova e pertanto estranei all’ambiente in cui sono considerati – e quella di formulazione della regola di diritto da applicare alla fattispecie concreta, ognuna sorretta da un’elaborazione di dottrina, giurisprudenza e prassi che rimonta nei secoli ed è fortemente influenzata dall’ideologia del sistema del tempo.
Occorrerà riflettere con grande attenzione e scegliere quali risultati affidare all’automa: e soprattutto in che termini declinare la certezza del diritto, nelle sue molteplici accezioni, cui orientare le decisioni del giudice e, in sua vece o in suo ausilio, del suo alter ego digitale.
Già nell’attuale momento storico è difficile ridurre la definizione di quella certezza come trattamento uguale di casi uguali: questa soluzione è reclamata dalla dilatazione globale dei traffici commerciali e giuridici come un bene essenziale, sotto il profilo della conoscibilità o calcolabilità delle decisioni di giustizia, contrapposta alla - o comunque in tensione dialettica con la - sua flessibilità per un adeguamento alle peculiarità della fattispecie; senza considerare le millenarie dispute sul ruolo del diritto in generale e, quindi, della sua funzione di mantenimento e protezione dello status quo in contrapposizione all’altra di ordinatore e propulsore di uno sviluppo e di un cambiamento anche sostanziale degli assetti correnti.
L’esigenza, dinanzi alla massificazione dei rapporti, di un trattamento uguale per casi uguali è sempre più sentita; ma la libertà e la creatività del pensiero umano, che nessun automa è per definizione – almeno finora – in grado di replicare, è un valore che si vuole continuare a ritenere irrinunciabile: e sta nel bilanciamento tra queste esigenze la chiave di volta della inarrestabile sostituzione dell’automa a segmenti sempre più estesi dell’attività non più solo materiale, ma anche intellettiva, del suo creatore per il proprio beneficio e progresso.
Quale giustizia si vuole? E quale giudice? Un giudice automa, allora, darà più garanzie di efficienza, trasparenza, neutralità, indipendenza, equità? In definitiva, la vera giustizia sarà una giustizia non umana?
Il creatore dell’automa, scegliendo cosa affidargli della giustizia, disegna così il suo proprio futuro.
[1] Per le definizioni basilari rilevanti per il giurista ci si permette un rinvio a F. De Stefano, Spunti di riflessione sulla decisione robotica negoziale, in questa Rivista, dal 06/03/2019.
[2] Reperibile all’URL https://fondazioneleonardo-cdm.com/site/assets/files/2553/fle1_booklet_conferenza_ita_ibm_111119.pdf (ultimo accesso 29/02/2020). Da segnalare la sezione dedicata agli aspetti applicativi dell’IA al settore del diritto e, soprattutto, del processo (pagine 77 e seguenti).
[3] Il testo sottoposto alla votazione è reperibile all’URL https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/IMCO/DV/2020/01-22/RE_1194746_EN.pdf (ultimo accesso 29/02/2020).
[4] Reperibile all’URL https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html#title1.
[5] Reperibile all’URL https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/EPRS_STU(2019)624262_EN.pdf (ultimo accesso 29/02/2020).
[6] Il sito istituzionale è all’URL https://www.coe.int/en/web/artificial-intelligence/cahai (ultimo accesso 29/02/2020).
[7] Reperibile all’URL https://www.coe.int/en/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment (ultimo accesso 29/02/2020)
[8] Si veda, tra gli altri, A. Carleo (a cura di), Decisione robotica, Bologna (il Mulino), 2018.
[9] È l’ormai celebre caso Loomis: la Corte Suprema del Wisconsin (State of Wisconsin v. Eric L. Loomis, 13 Luglio 2016) si è pronunciata sull’appello dell’imputato, la cui pena a sei anni di reclusione era stata comminata dal Tribunale circondariale di La Crosse: nel determinare la pena, i giudici avevano tenuto conto dei risultati elaborati dal programma COMPAS (Correctional offender management profiling for alternative sanctions) di proprietà della società Northpointe (ora Equivant), secondo cui Loomis era da identificarsi quale soggetto ad alto rischio di recidiva. La Corte suprema dello Stato ha rigettato l’appello, ma precisando che i giudici possono sì considerare i dati forniti dal software nella determinazione finale, insieme però ad altri fattori, poiché illegittimo sarebbe basare la sentenza su tali risultati, utilizzandoli quindi come fattori determinanti della decisione.
[10] Basti qui un cenno al portale dedicato dall’Unione europea, reperibile all’URL (ultimo accesso 29/02/2020) https://ec.europa.eu/consumers/odr/main/index.cfm?event=main.home2.show&lng=IT.
[11] L. Viola (a cura di), Giustizia predittiva e interpretazione della legge con modelli matematici (Atti del Convegno tenutosi presso l’Istituto dell’enciclopedia Italiana Trecccani), Milano (Dirittoavanzato), 2019. Idem, Giustizia predittiva, in www.treccani.online (all’URL http://www.treccani.it/enciclopedia/giustizia-predittiva_%28Diritto-on-line%29/, ultimo accesso 29/02/2020). L’Autore ne definisce l’oggetto nella previsione dell’esito di sentenze attraverso calcoli matematici, ne indica quale principale linfa legittimante l’art. 3 Cost. e l’art. 348 bis cod. proc. civ. e rileva come in altri Paesi sia già una realtà consolidata; e, precisato che si tratta della “possibilità di prevedere l’esito di un giudizio tramite alcuni calcoli”, avverte che “non si tratta di predire tramite formule magiche, ma di prevedere la probabile sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi”. Insomma, “il diritto può essere costruito come una scienza, che trova la sua principale ragione giustificativa nella misura in cui è garanzia di certezza: il diritto nasce per attribuire certezza alle relazioni umane, tramite una complessa attribuzione di diritti e doveri”.
[12] A. Carleo (a cura di), Calcolabilità giuridica, Bologna (Il Mulino), 2017.
[13] VIOLA (a cura di), Giustizia predittiva e interpretazione della legge con modelli matematici, Milano, DirittoAvanzato, 2019.
[14] M. Luciani, La decisione giudiziaria robotica, in Riv. Associazione italiana dei costituzionalisti, n. 3-2018, § 1, poi ripresa nel testo di cui alla nota precedente.
[15] Il riferimento è esplicito, quale punto di partenza di un’elaborazione, alle leggi della robotica elaborate da Isaac Asimov, scienziato noto soprattutto come scrittore di fantascienza, al punto “T” della risoluzione del Parlamento europeo del 16 febbraio 2017, di cui alla nota 4. Questa la loro trascrizione in quel testo:
(1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
(2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
(3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. (cfr. Isaac Asimov, Runaround [Circolo vizioso], New York, 1942)
La successiva elaborazione dello stesso Autore condusse poi alla formulazione della quarta legge, anteposta alle altre: (0) Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.