Algoritmi e intelligenza artificiale alla ricerca di una definizione: l’esegesi del Consiglio di Stato, alla luce dell’AI Act
di Federica Paolucci*
Sommario: 1. Introduzione - 2. La valutazione del giudicante - 3. Attualità della decisione: uno sguardo al dibattito Europeo - 4. Conclusioni.
1. Introduzione
Il Consiglio di Stato ha emesso in data 25 novembre 2021 una sentenza che si appunta sulla valutazione dell’offerta tecnica in una gara di appalto avente ad oggetto la fornitura di pacemaker[1]. A seguito dell’impugnazione della sentenza del TAR della Lombardia, i giudici di Palazzo Spada hanno dapprima accolto la richiesta cautelare di sospensione della sentenza de qua, ritenendo meritevole di approfondimento in sede di merito la questione della «perimetrazione tecnica della nozione di “algoritmo di trattamento” riferita ad un peacemaker di alta fascia»[2]. Tale aspetto è divenuto il thema decidendum del giudizio di merito. Ivi, in particolare, ha assunto un ruolo centrale l’interpretazione del concetto di “algoritmo automatico” e la distinzione tra algoritmo e intelligenza artificiale. La decisione del Consiglio di Stato riflette su un problema che da anni interroga tecnici, filosofi e giuristi, e, nel farlo, fornisce un’interessante distinzione dei due concetti. Sebbene tale classificazione possa apparire di mero carattere tecnico, in realtà, come si tenterà di motivare nel presente contributo, è di centrale rilevanza. La digitalizzazione cui, difatti, si sta assistendo negli ultimi anni ha visto un crescendo nell’utilizzo e nell’applicazione di strumenti automatizzati nella vita di tutti i giorni[3]. Pertanto, sia da un punto di vista giuridico sia da un punto di vista di mercato, è cruciale porre l’attenzione su cosa rientri o meno nella categoria di “mero” algoritmo, e cosa, invece, ricada all’interno dell’ombrello dell’intelligenza artificiale. Come si vedrà di seguito, si tratta di un quesito sul quale si stanno interrogando anche le istituzioni europee alla luce della proposta di Regolamento sull’Intelligenza Artificiale, attualmente in fase di discussione[4]. Pertanto, alla luce di queste premesse, ripercorrendo le considerazioni in fatto e in diritto della sentenza n. 7891/2021 del Consiglio di Stato, si cercherà di rileggere queste risultanze nel più ampio quadro della rivoluzione digitale che da tempo sta svelando tutta la complessità tecnica e sociale di uno scenario in cui il diritto a fatica si sta ricavando uno spazio.
2. Le valutazioni del giudicante
La decisione del Consiglio di Stato è figlia della c.d. “società algoritmica”, o anche nota come datacrazia, termine con cui Danaher [5] intende «un sistema in cui gli algoritmi sono utilizzati per raccogliere, collezionare e organizzare i dati su cui vengono tipicamente prese le decisioni e per assistere nel modo in cui quei dati vengono elaborati e comunicati attraverso il relativo sistema di governance». Con questi termini, si intendono una serie di considerazioni in punto di diritto che hanno delle ripercussioni sia sul mondo degli atomi sia sul mondo dei bits[6]. In particolare, la sentenza in commento mostra come vi siano ancora delle insistenti crasi nel momento in cui il mondo delle macchine e quello del diritto si incontrano, provocando l’emersione di quesiti circa la natura talvolta opaca e di difficile comprensione delle prime a scapito della necessità di certezza del secondo.
Con questi intenti, il Consiglio di Stato cerca di far chiarezza tra algoritmo e intelligenza artificiale: una distinzione da cui discende nel caso di specie, l’aggiudicazione o meno dell’appalto. Come si anticipava, i fatti di causa riguardano l’esatta perimetrazione della nozione di “algoritmo di trattamento” nell’ambito e nel contesto di una procedura nazionale di gara per la fornitura di pacemaker di alta fascia[7]. La gara d’appalto aveva previsto tra i criteri di valutazione dell’offerta tecnica, il parametro di algoritmo. In particolare, tale algoritmo doveva essere in grado di effettuare «attività di prevenzione e attività di trattamento delle tachiaritmie atriali»[8]. Dunque, la richiesta della domanda di gare era ben definita: si sarebbero assegnati 15 punti unicamente nel caso di presenza nello strumento proposto di entrambi gli algoritmi; mentre, sarebbero stati assegnati 7 punti nel caso di presenza di solo uno dei due tipi di attività.
Il giudizio del Consiglio di Stato si apre, dunque, con una ricognizione sull’interpretazione delle clausole della lex gara, intesa come una lex specialis[9], alla luce di una giurisprudenza oramai consolidata. L’interpretazione che si deve dare delle clausole in oggetto, anche da una lettura dell’art. 1362 c.c., deve preferire l’aderenza al tenore letterale delle stesse. Tale criterio è del tutto compatibile con il diritto amministrativo, attesa la natura degli atti che disciplinano le gare in quanto espressione della volontà della Pubblica Amministrazione, come anche chiarito dal Consiglio di Stato in precedenti pronunce[10].
Fatte queste considerazioni, i giudici si sono poi soffermati sull’interpretazione della clausola controversa. Difatti, sebbene il bando specificasse solamente la richiesta di dispositivi di “alta fascia”, la Commissione aveva attribuito il punteggio massimo riconoscendo la presenza sia del criterio della prevenzione sia del criterio del trattamento solo nel caso di “algoritmi automatici”[11]. Tale aspetto diveniva dapprima oggetto del ricorso dinanzi al Tar della Lombardia, i cui giudici davano ampio rilievo a una definizione di algoritmo distinta dal concetto di automatismo. Il giudice di prima cure basava il proprio giudizio su una definizione di algoritmo ancorata al concetto di «insieme di passaggi»[12], nel caso di specie, stimoli creati dal pacemaker. L’analisi prospettata dal giudice esclude, dunque, pressoché totalmente, che l’algoritmo possa avere alcuna capacità di automazione, ove si afferma che, qualora fosse questo il caso, atterrebbe a un plus, di fatto non richiesto dalla lex gara.
Entrambi gli organi giudicanti aderiscono a una definizione di algoritmo come una sequenza definita di azioni. Ed è questo effettivamente il caso, in quanto un algoritmo “basico” può essere definito come un viaggio tra un input definito e un output definito, riproducendo capacità di calcolo dietro un processo decisionale basato su una formula matematica[13]. In altre, parole, il misteriosissimo algoritmo non è altro che un set di istruzioni, piuttosto rigido, che entra in funzione quando incontra un innesco.
Il Consiglio di Stato, sulla base di queste premesse, pur abbracciando la definizione prospettata in prima battuta dal Tar, se ne discosta, osservando che tale «nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano»[14]. Nell’ottica proposta dai giudici di Palazzo Spada, la nozione tradizionale di algoritmo assume una nuova luce all’interno dell’evoluzione tecnica, assurgendo al compito di agevolatore dell’analisi umana, capace di processare con accuratezza sistemi complessi, anche tramite impulsi automatizzati.
Ad ogni buon conto, tutt’altra cosa è l’intelligenza artificiale, ove i meccanismi di machine learning creano un sistema che non si limita ad applicare e replicare serie di comandi o impulsi. Difatti, nella lettura del Consiglio di Stato, l’intelligenza artificiale va oltre la mera riproduzione di un compito delegato dall’essere umano, essendo capace, sulla base delle regole definite dal proprio programmatore, di elaborare in modo autonomo criteri di inferenza tra i dati forniti, secondo procedimenti di apprendimento sia assistititi – è il caso del supervised machine learning – sia autonomi – ed è il caso del unsupervised machine learning[15].
Dalla precisazione del Consiglio di Stato consegue, nel caso di specie, che per ottenere la fornitura di un dispositivo con elevato grado di automazione, non occorreva che l’amministrazione facesse espresso riferimento a elementi di intelligenza artificiale, essendo del tutto sufficiente il richiamo al concetto di algoritmo fatto nel bando. Difatti, come si è detto, la lex gara si era espressa nel senso di preferire strumenti che fossero in grado di riprodurre un risultato sia di prevenzione sia di trattamento del problema, contenendo già in nuce necessità ulteriori che esulano dal concetto “basico” di algoritmo. Il fatto stesso, quindi, che fosse richiesta a tale strumento una prestazione di “alta fascia” per il trattamento della patologia implicitamente rimandava al preferire pacemakers dotati di parametri programmabili e progettati «per ottimizzare la terapia di stimolazione in rapporto alle caratteristiche specifiche del paziente»[16]. Seppur sia vero che l’interpretazione delle clausole della legge di gara soggiace alle regole di interpretazione dei contratti[17], il Consiglio di Stato ha in conclusione valorizzato maggiormente le preferenze e le esigenze dell’amministrazione appaltante rispetto alle caratteristiche funzionali e tecniche del bene da reperire sul mercato. Al contrario, la stretta interpretazione letterale del Tar avrebbe escluso dalla gara degli strumenti altamente avanzati, penalizzandoli rispetto a quelli programmati sulla base di algoritmi non automatici[18].
In altre parole, il Consiglio di Stato ha ivi individuato una definizione di algoritmo “moderno”, cui, pur essendo sempre una sequenza di azioni guidate da una formula matematica, sono richieste prestazioni sempre più avanzate. Peraltro, l’automatizzazione del procedimento sembra essere una condicio sine qua non negli strumenti maggiormente performanti e, dunque, da preferirsi per ottenere risultati maggiori. Sebbene tale definizione ponga l’accento sull’evoluzione che anche il concetto stesso di algoritmo ha subito alla luce dei recenti sistemi tecnologici, capaci di ridurre l’intervento umano[19], essa crea una zona di ombra rispetto a cosa debba considerarsi intelligenza artificiale.
Quest’ultima è, difatti, un concetto ad ombrello nel quale si fanno ricadere diversi utilizzi di macchine e sistemi automatizzati decisionali, i quali, per mezzo della raccolta di grandi quantità di dati, producono un output, un risultato, che va a sostituire, ovvero affiancare l’intelligenza umana. Come si evince, il carattere dell’automatizzazione è ben presente tanto nella definizione di algoritmo “moderno”, e, appunto, automatico, di cui all’interpretazione del Consiglio di Stato, quanto nella definizione in re ipsa di intelligenza artificiale[20]. Pertanto, diviene quanto mai necessario distinguere, non solo teoricamente, ma anche nella pratica, cosa debba rientrare all’interno del grande insieme dell’intelligenza artificiale. Una categoria che, come si vedrà di seguito, è oggetto di un ampio processo di regolamentazione e investimento[21], per cui la distinzione ivi in esame su cosa sia automatico e cosa non lo sia potrebbe generare una serie di obblighi per gli operatori di mercato. L’aspetto definitorio, come si è visto, non è per nulla banale. È un punto cruciale alla luce degli obblighi che la proposta europea pone in capo ai programmatori per non generare, da un lato, un “over burden” a carico di quelle tecnologie che, seppur automatizzate, non rientrano nel cappello dell’IA, dall’altro, al contrario, per non escludere dalla regolamentazione sistemi di IA solo all’apparenza meno pericolosi, ma di fatto parimenti invasivi nei confronti dei diritti fondamentali degli individui.
3. Attualità della decisione: uno sguardo alla proposta della Commissione Europea
Come si anticipava, tale sentenza si inserisce all’interno di un dibattito alimentato dal crescente impiego dei sistemi di intelligenza artificiale. Questo, a sua volta, sta spingendo verso un cambiamento di paradigma non solo tecnologico ma anche economico e sociale quale risultato di quello che è stato definito information capitalism[22], o surveillance capitalism[23]. Talune attività come la raccomandazione automatizzata di prodotti da parte di Amazon, i suggerimenti di potenziali contatti da Facebook o Twitter, o, ancora, la segnalazione di uno smartwatch della necessità di idratarsi piuttosto che riposare, definiscono soltanto alcuni esempi in cui i sistemi di intelligenza artificiale trovano applicazione. Ciò che accomuna questi esempi consiste proprio nella versatilità applicativa di siffatte tecnologie: dal cambiamento climatico, all’assistenza medica, passando per trasporti e produzione agricola. Non sorprende quindi se la proliferazione di tecnologie di decisione automatizzata solleva interrogativi non solo dal punto di vista etico e tecnico, ma anche giuridico.
Il rispetto da parte della tecnologia di principi fondamentali quali uguaglianza e non discriminazione – menzionando solo alcuni di quelli che sono maggiormente messi in crisi dai procedimenti decisionali algoritmici – non può avvenire nell’attesa di un automatico adeguamento unilaterale da parte di coloro che programmano suddetti strumenti[24]. A contrario, la tecnologia richiede ai regolatori di sfidare lo status quo plasmando interventi normativi che tengano conto delle sfide poste ed imposte dai nuovi mezzi automatici[25]. La necessità di attaccare il tradizionale apparato di regole è data dall’elevato rischio che gli spazi lasciati vuoti dall’obsolescenza normativa vengano riempiti da altri attori, i quali, in forza di tale potere, sono in grado di fornire standard di tutela privati non vincolati al rispetto dei principi costituzionali. Per affrontare tali sfide, l’Unione ha adottato un Regolamento che mira a fornire un quadro armonizzato e dedicato all’intelligenza artificiale. Nel tentativo di agire tempestivamente e nella consapevolezza che «l’IA non è un altro strumento che ha bisogno di essere regolato una volta che sarà maturo»[26], il Regolamento avrà come inquadramento soggettivo[27]: (a) fornitori che immettono sul mercato o mettono in servizio sistemi di IA nell’Unione, indipendentemente dal fatto che tali fornitori siano stabiliti nell’Unione o in un paese terzo; (b) utenti di sistemi di IA situati nell’Unione; (c) fornitori e utenti di sistemi di IA che si trovano in un paese terzo, se l’output prodotto dal sistema è utilizzato nell’Unione. È quindi plausibile ipotizzare che queste norme avranno implicazioni di vasta portata per le principali aziende tecnologiche, tra cui Amazon, Google, Facebook e Microsoft, che hanno riversato enormi risorse nello sviluppo dell'intelligenza artificiale, producendo quei riverberi, cui si accennava precedentemente e che verranno approfonditi in seguito, sul piano globale. Nel far ciò, la Commissione ha delineato un nuovo sistema di governance che ha come obiettivo la costruzione di un quadro giuridico basato sull’istituzione di un approccio europeo in materia di intelligenza artificiale che soddisfi un elevato livello di protezione dei diritti. Alla luce di queste considerazioni, risulta chiaro come la proposta di Regolamento assuma un valore centrale nel disegnare un quadro di intervento dell’Unione Europea e dei suoi Stati Membri, nell’ottica di affermare i propri valori e principi su un mercato in espansione tramite la promozione di trasparenza e fiducia.
Tuttavia, moltissimi sono ancora gli aspetti critici della proposta. Uno di questi, come si anticipava, è la stessa definizione di IA che la Commissione ha deciso di adottare e che sta già facendo discutere alcuni commentatori[28]. Difatti, come si può apprezzare, in apertura al testo normativo e ai fini del Regolamento, per “sistema di intelligenza artificiale” si intende «un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato[29] alla proposta, per una determinata serie di obiettivi definiti dall’uomo di generare output quali contenuti, previsioni, raccomandazioni o decisioni»[30].
Sebbene non sia lo scopo di questo contributo fornire un’estensiva visuale su cosa significhi intelligenza artificiale, senza pretesa di esaustività, si tenterà di proporre una ricognizione sulla criticità della definizione proposta dalla Commissione Europea, anche alla luce della sentenza del Consiglio di Stato[31]. Sfortunatamente per il legislatore, non sembra esserci ancora una definizione ampiamente accettata di intelligenza artificiale anche tra gli esperti del settore, tanto meno una definizione operativa utile ai fini della regolamentazione. Peraltro, i problemi di definizione giacciono proprio nell’ambiguità concettuale del concetto di intelligenza[32]. Allo stato dell’arte, gli approcci più ampiamente utilizzati per definire l’IA si concentrano sulla nozione di «macchine che lavorano per raggiungere obiettivi»[33].
Tale approccio non aiuta da un punto di vista normativo. Come è stato messo in evidenza anche dalla sentenza in esame, non è sempre agevole distinguere gli obiettivi raggiunti dallo strumento, tanto più se vogliamo contraddistinguere l’algoritmo “moderno” e l’IA. Peraltro, non avendo la macchina una coscienza né tantomeno può essere espressione di un’intenzione, è difficile definire lo scopo perseguito dalla medesima in un modo che eviti i requisiti relativi all’autocoscienza e, pertanto, non è chiaro come si possa addivenire a una solida definizione dell’IA per scopi normativi attraverso la lente degli obiettivi[34].
Eppure, come si evince dalla lettera dell’articolo 3 della proposta, questo è stato l’approccio per ora perseguito della Commissione Europea. Le critiche a questa definizione non sono mancate sia dalla società civile, dalle associazioni dei consumatori e dal Consiglio europeo. In particolare, quest’ultimo nel testo compromesso, ha adottato una diversa e più restrittiva prospettiva[35]. Secondo questa definizione, il sistema deve essere in grado di «apprendere, ragionare o modellare implementato con le tecniche e gli approcci», elencati in un allegato, e che sia anche un “sistema generativo”, capace di influenzare direttamente il suo ambiente[36]. Come chiariscono alcuni critici[37], questa definizione “di compromesso”, focalizzandosi esclusivamente sui modelli generativi, un sottogruppo dei sistemi ad apprendimento automatico, renderebbe troppo facile argomentare l’esclusione di un sistema dagli obblighi posti dal Regolamento, e quindi dalla supervisione e protezione che esso intende garantire sul mercato e sui diritti fondamentali degli individui.
In altre parole, la definizione di algoritmo “moderno” automatizzato fornita dal Consiglio di Stato, alla luce della nuova formulazione europea, si applicherebbe anche a strumenti sofisticati di analisi che, non rientrando nel concetto di IA, verrebbero classificati come “algoritmi non tradizionali”, frammentando ulteriormente la programmazione e l’applicazione di tali tecnologie, in particolare ove si prevede la discrezionalità degli Stati Membri[38].
In conclusione, la proposta di Regolamento, da un lato, e la sentenza del Consiglio di Stato, dall’altro, sono testimoni di una problematica che, in un’ottica di certezza giuridica, occorre risolvere nel breve futuro, vista l’inesorabile diffusione di tali tecnologie nel mercato dell’Unione. La proposta di Regolamento sembra fornire un valore aggiunto nel panorama internazionale servendo come strumento per regolare, e non ostracizzare, una tecnologia come l’IA i cui benefici sono molteplici[39]. Pertanto, si auspica che tale processo di innovazione tenga in adeguata considerazione sia i rischi d’investimento, sia i rischi per i diritti fondamentali. Un processo di definizione dell’IA e della sua regolazione che ci si augura sia completato da una rete di collaborazione con gli Stati Membri.
4. Conclusioni
L’uso delle tecnologie algoritmiche sta portando con sé una varietà di nuove sfide alla protezione dei diritti fondamentali delle persone di fronte ad attori sia privati che pubblici. Infatti, sebbene spesso si guardi al rischio di applicazione dell’intelligenza artificiale da parte dei primi a scapito dei secondi, l’efficienza dei processi decisionali automatizzati e il valore che se ne può estrarre non sono appannaggio esclusivo del settore privato, poiché anche il pubblico sta facendo un ampio uso di strumenti tecnologici automatizzati per giungere a decisioni rapide e certe con riguardo alle questioni pubbliche. Da un lato, dunque, la sentenza del Consiglio di Stato n. 7891/2021 ha messo in luce come sia ancora un’operazione complessa definire un netto confine tra algoritmo e intelligenza artificiale; dall’altro, sembra riecheggiare quel fervente dibattito che sta impegnando le istituzioni europee. Tra una definizione estensiva e una restrittiva, occorre individuare un punto di compromesso che a sua volta non comprometta la protezione dei diritti fondamentali degli individui e non sacrifichi l’armonizzazione a vantaggio dell’autonomia degli Stati. Come ricordava il compianto Presidente Sassoli «la nostra sfida è questa: in che misura consentiamo a queste tecnologie di svilupparsi e condizionare la nostra vita. Senza regolamentazione l’intelligenza artificiale può essere un rischio che può compromettere non solo la protezione dei dati personali, ma anche accrescere il divario digitale in termini di accesso e conoscenza. Un sistema di intelligenza artificiale affidabile non deve pregiudicare i diritti fondamentali e per questo è necessario creare valutazioni di impatto preventive, promuovendo un approccio incentrato sull’uomo, l’unico che può governare consapevolmente le azioni e le decisioni prese da un sistema artificiale»[40].
*Dottoranda in European and International Law, Università Commerciale “L. Bocconi”.
[1] Sentenza Consiglio di Stato, Sez. III, n. 7891, 25 novembre 2021.
[2] Si veda punto 9 della parte “in fatto” della sentenza.
[3] Sul tema, la letteratura è vastissima. Con riguardo all’incidenza di algoritmi e la creazione di uno spazio dove sfide passate e presenti si intrecciano – aspetto che si crede essere il focus della sentenza in commento – occorre sicuramente menzionare ex multis L. Floridi, La quarta rivoluzione: come l’infosfera sta trasformando il mondo, Milano, 2017; P. Domingos, The master of Algorithm. How the quest for the ultimate learning machine will remake our world, Londra, 2017.
[4] Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain Union legislative acts, Brussels, 21 aprile 2021 COM (2021).
[5] Citazione tratta da J. Danaher, ‘The Threat of Algocracy: Reality, Resistance and Accommodation’, in Philosophy & Technology, 2016, 3, 29, pp. 245-68.
[6] Numerose sono le sentenze che recentemente hanno visto i giudici nazionali appuntarsi su questioni relative all’uso di algoritmi e la loro interazione con la società, soprattutto, ma non esclusivamente, in compatibilità con la disciplina a protezione dei dati personali. Si veda a tal proposito il commento di O. Pollicino e M. Bassini, ‘La Cassazione sul “consenso algoritmico”. Ancora un tassello nella costruzione di uno statuto giuridico composito’, in Giustizia Insieme, 21 giugno 2021.
[7] Si veda, in particolare, pagg. 4-5 della Sentenza.
[8] Ibidem.
[9] La clausola ivi applicata è la c.d. “lex gara”, ossia, come definito dal Consiglio di Stato al punto 8.1 della sentenza in commento, «un criterio di attribuzione del punteggio tecnico che costituisce chiara espressione delle preferenze dell’amministrazione rispetto alle caratteristiche funzionali e tecniche del bene da reperire sul mercato». Sul punto, i Giudici di Palazzo Spada si erano già soffermati in passato, e, in particolare, avevano chiarito come «il bando, il disciplinare di gara e il capitolato speciale d’appalto abbiano ciascuno una propria autonomia ed una propria peculiare funzione nell’economia della procedura, il primo fissando le regole della gara, il secondo disciplinando in particolare il procedimento di gara ed il terzo integrando eventualmente le disposizioni del bando, tutti insieme costituiscono la lex specialis della gara» (sul punto, si veda Consiglio di Stato, Sez. III, sent. del 03 marzo 2021, n. 1813).
[10] Oltre al precedente già citato, si fa ivi riferimento a Cons. Stato, Sez. V, 13 gennaio 2014 n. 72 e Cons. di Stato, Sez. V, 12 settembre 2017, n. 4307).
[11] Si veda punto 2 della Sentenza: «la commissione come algoritmo di trattamento automatico per X. ha considerato l’accelerazione su PAC frequenti che consente in maniera automatica di contrastare il ritmo prefibrillatorio costituito dal riconoscimento di frequenti ectopie atriale e trattato mediante riduzione/omogeneizzazione del periodo refrattari atriali. L’algoritmo denominato NIPS (Noninvasive program stimulation) e presente nel prodotto offerto da Y costituisce invece uno studio elettrofisiologico eseguito in office da un operatore specialistico».
[12] L’intera definizione di algoritmo elaborata dal Tar è la seguente: «l’algoritmo di trattamento dell’aritmia non è altro che l’insieme di passaggi (di stimoli creati dal pacemaker secondo istruzioni predefinite) necessari al trattamento del singolo tipo di aritmia. Questo concetto non include necessariamente, invece, come erroneamente ritenuto dalla stazione appaltante, che il dispositivo debba essere in grado di riconoscere in automatico l’esigenza (quindi di diagnosticare il tipo di aritmia) e somministrare in automatico la corretta terapia meccanica (trattamento)».
[13] Come evidenzia la letteratura, questo è il processo di “viaggio” di un algoritmo, sia nella sua versione “basica”, sia nella sua versione “complessa”. Nel secondo caso, ovviamente, la complessità è data dalle operazioni di calcolo. Sul punto, si fa riferimento all’analisi di Anthony Elliott, Making Sense of AI: Our Algorithmic World, New York, 2021. Si veda anche A. R. Lodder, ‘Algorithms: what, how, and particularly why?’, in LSE Law Policy Briefing 34, Maggio 2019.
[14] Si veda punto 9.1 della sentenza.
[15] Il sistema di apprendimento utilizza «the training set to build an algorithmic model: a neural network, a decision tree, a set of rules, etc. The algorithmic model is meant to capture the relevant knowledge originally embedded in the training set, namely the correlations between cases and responses. This model is then used, by a predicting algorithm, to provide hopefully correct responses to new cases, by mimicking the correlations in the training set». Dallo studio condotto per il Parlamento Europeo da G. Sartor e altri, ‘The impact of the General Data Protection Regulation (GDPR) on artificial intelligence’, 2020.
[16] Si veda punto 9.2 della sentenza.
[17] Si richiamano le note n. 9 e 10 supra.
[18] In vero, come osserva il Consiglio di Stato, tali funzionalità non sarebbero presenti nel prodotto offerto dalla seconda classificata, seppur non vi sia dubbio che anche il suo funzionamento si basi su un algoritmo.
[19] In tal senso, si richiama l’analisi del filosofo Remo Bodei in Dominio e Sottomissione, Bologna, 2019.
[20] Nella notissima Conferenza di Dartmouth del 1955, John McCarthy, informatico statunitense, coniò l’espressione “Intelligenza Artificiale” e l’ha identificata attraverso quei requisiti speciali che la rendono tale, inserendovi segnatamente l’automatizzazione: «if a machine can do a job, then an automatic calculator can be programmed to simulate the machine. The speeds and memory capacities of present computers may be insufficient to simulate many of the higher functions of the human brain, but the major obstacle is not lack of machine capacity, but our inability to write programs taking full advantage of what we have». Si veda J. McCarthy, M. L. Minsky, N. Rochester, & C. E. Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, in AI Magazine, 27(4), 12, 2006.
[21] Basti pensare in ambito nazionale alla recentissima adozione del Programma Strategico per l’Intelligenza Artificiale (IA) 2022-2024. Nel solco della Strategia Europea per la regolazione dell’Intelligenza Artificiale, l’Italia ha unito le sinergie del Ministero dell’Università e della Ricerca, del Ministero dello Sviluppo Economico e del Ministro per l’innovazione tecnologica e la transizione digitale, e, con il supporto del gruppo di lavoro sulla Strategia Nazionale per l’Intelligenza Artificiale, ha stilato un programma che delinea ventiquattro politiche da implementare nei prossimi tre anni per potenziare il sistema IA in Italia. In particolare, nel campo della sanità, le applicazioni di intelligenza artificiale stimolano l'innovazione di prodotti e processi scambiando e aggregando informazioni attualmente disperse in una moltitudine di database pubblici e ampiamente sottoutilizzati.
[22] Espressione utilizzata da J. Cohen in Between Truth and Power. The Legal Constructions of Informational Capitalism, New York, 2019.
[23] Si veda, sul punto, lo studio di S. Zuboff, in The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Cambridge MA, 2019.
[24] Nel merito, l’analisi di S. Wachter, B. Mittelstadt, C. Russell, in ‘Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI’, in Computer Law & Security Review, 2020.
[25] Sul punto, S. Ranchordas, ‘Experimental Regulations for AI: Sandboxes for Morals and Mores’, in University of Groningen Faculty of Law Research Paper, 2021 (1).
[26] Citazione tratta da L. Floridi, et al., ‘AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations’, in Minds and Machines, 28, 2018, pagg. 689-707.
[27] Si veda l’art. 2 della proposta.
[28] Sul punto accenna L. Floridi in ‘The European Legislation on AI: a Brief Analysis of its Philosophical Approach’, Philosophy & Technology, 2021 (34), 215–222.
[29] Il riferimento è all’allegato I alla proposta, ‘Annex I to the Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts’, Bruxells, 2021.
[30] Si veda l’art. 3, par. 1 lett. a) della proposta che introduce la definizione in esame di IA.
[31] Come si è visto, al punto 9.2 della sentenza i giudici di Palazzo Spada hanno distinto il concetto di algoritmo tradizionale da quello di intelligenza artificiale, definendo quest’ultimo un software le cui abilità esulano «i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico».
[32] A tal proposito, sul rapporto tra uomo, macchina e Dio si rimanda alle riflessioni di L. Floridi e F. Cabitza in Intelligenza artificiale: L'uso delle nuove macchine, Milano, 2021.
[33] Si faccia riferimento alla ricostruzione di S. J. Russel and P. Norvig, Artificial Intelligence: A Modern Approach, London, 2013. Ivi, gli autori utlizzano il concetto di agente razionale come ciò che agisce in modo da raggiungere il miglior risultato o, il miglior risultato atteso.
[34] Nel merito, si veda M. U. Scherer, ‘Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies’, in Harv. JL & Tech. 29 (2016), pag. 353 e ss.
[35] ‘Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts - Presidency compromise text’, 2021/0106(COD), 29 novembre 2021.
[36] Come evidenziano A. Chiarini e F. Giordanelli in ‘Il Regolamento sull’Intelligenza artificiale: “essere o non essere” intelligenza artificiale’, MediaLaws, 2022, «secondo la nuova definizione un sistema di intelligenza artificiale è un sistema che: (i) riceve dati e input provenienti da dispositivi e/o dall’uomo; (ii) deduce come raggiungere una serie di obiettivi definiti dall’uomo utilizzando l’apprendimento, il ragionamento o la modellizzazione attuati con le tecniche e gli approcci elencati nell’allegato I, e (iii) genera dei risultati sotto forma di contenuti (sistemi di IA generativa), previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui interagisce».
[37] J.J. Bryson, 'Europe Is in Danger of Using the Wrong Definition of AI', Wired, consultato il 4 marzo 2022, https://www.wired.com/story/artificial-intelligence-regulation-european-union/.
[38] Si veda a tal proposito G. Finocchiaro, O. Pollicino, L. Floridi in ‘Sull’intelligenza artificiale Ue indecisa tra armonizzazione e margini di libertà eccessivi’, Il Sole 24 Ore, 3 marzo 2022.
[39] Come, del resto, si richiama anche nel Cons. 2 della Proposta di Regolamento.
[40] David Sassoli, Presidente del Parlamento Europeo, Discorso tenuto in occasione del workshop “The Good algorithm? Artificial Intelligence, Law, Ethics”.