ISSN: 2974-9999
Registrazione: 5 maggio 2023 n. 68 presso il Tribunale di Roma
È compito della Repubblica. Note sul DDL Sicurezza.
Audizione presso le Commissioni Affari costituzionale e Giustizia del Senato della Repubblica, sul disegno di legge A.S. n. 1236 recante “Disposizioni in materia di sicurezza pubblica, di tutela del personale in servizio, nonché di vittime dell’usura e di ordinamento penitenziario”, martedì 22 ottobre 2024.
di Enrico Grosso
Desidero in primo luogo ringraziare questa Commissione per avermi chiamato ad interloquire sul disegno di legge A.S. n. 1236 in tema di sicurezza pubblica. Non posso che manifestare il mio apprezzamento per l’attenzione e per l’interesse mostrati, convinto che dal più ampio allargamento del dibattito possano emergere utili elementi di approfondimento in ordine ai punti più delicati o critici della proposta.
Mi concentrerò sul significato complessivo che mi sembra si possa trarre dall’analisi di alcuni specifici aspetti del disegno di legge in discussione, il quale contiene per la verità norme assai varie ed eterogenee. Alcune di quelle norme, peraltro, sembrano conferire una particolare “cifra simbolica” all’intero pacchetto. Mi riferisco in particolare:
all’art. 13, che estende i casi di applicazione della misura di prevenzione del divieto d'accesso alle aree urbane (DACUR, c.d. Daspo urbano);
all’art. 14, che reintroduce la repressione penale del c.d. “blocco stradale o ferroviario” attuato “mediante ostruzione fatta col proprio corpo”, nonché un’apposita aggravante se “il blocco stradale o ferroviario attuato con il proprio corpo è commesso da più persone riunite”;
all’art. 19, che introduce una serie di aggravanti al delitto di violenza, minaccia o resistenza a pubblico ufficiale, tra cui quella che punisce più severamente il fatto se “commesso al fine di impedire la realizzazione di un’opera pubblica o di un’infrastruttura strategica”;
all’art. 20, che introduce la nuova fattispecie di reato di lesioni personali a un ufficiale o agente di polizia giudiziaria o di pubblica sicurezza nell’atto o a causa dell’adempimento delle funzioni;
all’art. 26, che introduce una serie di misure repressive della disobbedienza all’interno degli istituti penitenziari, tra cui l’aggravante del reato di istigazione a disobbedire alle leggi se commesso dentro un carcere, o il delitto di rivolta, inteso come un complesso di atti di “resistenza” (anche passiva) all’esecuzione degli ordini impartiti, consistenti in condotte che impediscono il compimento degli atti dell’ufficio o del servizio necessari alla gestione dell’ordine e della sicurezza, con pene più gravi per i promotori;
all’art. 27, finalizzato a reprimere ogni forma di protesta da parte di gruppi di stranieri irregolari trattenuti nei centri di trattenimento ed accoglienza, ivi compresa la resistenza passiva, intesa anche in questo caso come complesso di “condotte che impediscono il compimento degli atti dell’ufficio o del servizio necessari alla gestione dell’ordine e della sicurezza”.
Ho ascoltato con molto interesse le analisi dettagliate e approfondite che altri autorevoli auditi hanno proposto, nel corso di questa e di altre sedute, in ordine al contenuto delle singole disposizioni. Su molte di quelle analisi concordo, e non vi tornerò. Proverò invece a gettare uno sguardo d’insieme sui principi ispiratori che sembrano informare il disegno di legge e ad offrirne una chiave interpretativa.
Si tratta, mi pare, di misure complessivamente ispirate dal medesimo principio ordinante: in nome di una presunta necessità di “tutela della sicurezza”, e in definitiva in nome della volontà di affermare un generale obiettivo di “mantenimento dell’ordine sociale”, si ritiene non solo concretamente possibile (in quanto non contrario ad alcun principio costituzionale), ma addirittura desiderabile, arrivare a sacrificare o comunque limitare l’esercizio di diritti fondamentali costituzionalmente garantiti. E dunque si valuta che valga la pena affrontare (e che sia ragionevole ipotizzare che si possa vincere) la sfida giuridica che inevitabilmente verrà lanciata, con la massima durezza e in tutte le possibili sedi giudiziarie, rispetto alla tenuta di quelle norme nel confronto con le disposizioni costituzionali che tali diritti garantiscono.
Sono norme di alto valore simbolico, che preconizzano e pretendono di introdurre nell’ordine sociale una nuova gerarchia dei valori di riferimento. Quei nuovi valori di riferimento vengono suggeriti alla società come il fondamento di un ordinamento diverso da quello attuale, idoneo a mettere in discussione stabilizzati assetti costituzionali e consolidati equilibri che un tempo si ritenevano anche culturalmente non più discutibili.
Dico per inciso – e non svilupperò questo punto – che resta poi da vedere se a questa enorme carica simbolica corrisponda anche una effettiva idoneità pratica a perseguire davvero gli obiettivi apparentemente posti alla base della formulazione di tali norme. Si tratta di un problema che a sua volta impatta direttamente sulla loro legittimità costituzionale: il diritto è strumento pratico, che deve servire a offrire risposte effettive a problemi concreti, e se gli specifici strumenti normativi di volta in volta escogitati, oltre a presentare problemi di compatibilità in sé con taluni principi costituzionali, sono anche inidonei a realizzare i fini che individuano, essi sono in ogni caso illegittimi in quanto sacrificano irragionevolmente i suddetti principi costituzionali in nome di un obiettivo che – se anche giustificasse in astratto la compressione di tali principi – non potrebbe essere raggiunto.
Si badi bene: non è in sé e per sé vietato porre limiti all’esercizio di un diritto fondamentale. Tutti i diritti fondamentali costituzionalmente garantiti vanno opportunamente bilanciati con altri diritti e altri principi, a loro volta costituzionalmente protetti.
Tuttavia, proprio quando si va a incidere su diritti costituzionali, ogni limitazione deve essere valutata nella sua ragionevolezza e nella sua proporzionalità. E il primo indice di irragionevolezza e di sproporzione è proprio l’eccesso di valore “simbolico”, l’attrito che si crea tra il messaggio propagandistico che si intende lanciare a partire da una determinata lettura politica della realtà e l’impatto reale che la norma implica, ossia l’effetto pratico che essa è davvero in grado di produrre.
Lo “spirito” che sembra animare l’insieme delle norme qui in discussione è la volontà di introdurre nuovi e più vasti spazi di criminalizzazione di comportamenti che si dichiara essere “minacciosi” nei confronti della sicurezza ma che, in larga parte, costituiscono mere forme di manifestazione di dissenso. Si tratta di comportamenti usualmente tenuti nell’ambito del normale esercizio di diritti costituzionali (in particolare della libertà di riunione e della libertà di manifestazione del pensiero), e rispetto ai quali, quindi, occorre misurare con grande attenzione fino a che punto la loro repressione possa ritenersi consentita dalle norme costituzionali poste a protezione di quei diritti.
Ricordo a me stesso, e lo sapete voi stessi meglio di me, che la sovranità popolare – quella che il Parlamento può legittimamente rappresentare – è solo ed esclusivamente la sovranità che si esercita, oltre che nelle forme, anche nei limiti (sostanziali) previsti dalla Costituzione. Il Parlamento, negli ordinamenti costituzionali contemporanei, è un organo per sua natura a sovranità limitata. E ciò in quanto è il popolo stesso che il Parlamento rappresenta ad essere qualificato dalla Costituzione come un soggetto a sovranità limitata. Limitata, appunto, dalla Costituzione. Limitata inoltre, oggi, anche dal contesto delle Carte e delle norme sovranazionali cui la Costituzione, esplicitamente o implicitamente, attribuisce un valore superiore a quello della legge (ossia dell’atto tipico con cui si manifesta la volontà dell’organo rappresentativo). Su questo principio si fonda il giudizio di legittimità costituzionale delle leggi. Sul medesimo principio si fonda il potere/dovere dei giudici di dare diretta applicazione al diritto dell’Unione europea, anche disapplicando le disposizioni di legge che con esso contrastino.
Quando una legge viene dichiarata incostituzionale, o viene disapplicata per contrasto con una norma sovranazionale, ciò non avviene perché la Costituzione “ce l’ha col popolo”, ma perché il concetto stesso di “popolo” è in realtà una mera finzione semplificatrice. Dietro alla parola “popolo” si manifesta la realtà di una società pluralistica, differenziata, disuguale, conflittuale e contemporaneamente aperta, democraticamente orientata al confronto, al dibattito pubblico, alla partecipazione. La Costituzione espressamente esclude che si possa accreditare un’idea di popolo come entità omogenea dal punto di vista culturale e politico. E dunque l’integrazione sociale, nei contesti di accentuato (e crescente) pluralismo che caratterizzano le società contemporanee, non può essere un dato presupposto, al massimo un obiettivo da perseguire. Per questo la “sovranità” non risiede (più) nel “popolo”, bensì nella Costituzione stessa. L’attribuzione effettiva della sovranità, cioè, è affidata anch’essa a una finzione.
Ciò significa che il dissenso, e financo il conflitto sociale, sono ampiamente e complessivamente difesi e protetti. Perché essendo la società pluralista, la Costituzione promuove e protegge ogni attività sociale che preservi e mantenga nel tempo quella struttura pluralistica. E lascia che il conflitto sociale produca da solo i suoi equilibri, salvi i limiti esterni introdotti affinché esso non degeneri in atti di violenza, producendo disgregazione sociale. Per il resto il dissenso, in qualsiasi forma espresso, e da chiunque, è non solo lecito, ma costituzionalmente garantito.
A me pare che la maggior parte delle norme del disegno di legge qui in discussione, almeno quelle che ho individuato all’inizio, minaccino ingiustificatamente libertà civili e politiche strettamente connesse alla manifestazione del dissenso. Il quale è protetto in primo luogo in quanto forma di accesso al dibattito pubblico delle richieste di emancipazione delle minoranze sociali, dalla Costituzione non solo presupposte, ma specificatamente tutelate e difese, anche (anzi soprattutto) quando si esprimono attraverso atti di protesta e contestazione.
Su questo punto è bene essere particolarmente chiari, perché si tratta della pietra angolare dello Stato costituzionale. La divergenza politica e sociale è un valore protetto. E qualunque norma repressiva che sia funzionale a rendere più difficile l’espressione della divergenza politica e sociale è contraria alle “forme” e ai “limiti” di cui parla l’art. 1.
Insomma, la Costituzione parte dal presupposto che, a partire dalla consapevolezza dell’esistenza di diseguaglianze, sia compito della Repubblica (quindi non soltanto della “politica” nel senso più ristretto della rappresentanza politica, ma della società complessivamente intesa, attraverso tutte le sue manifestazioni e articolazioni) rimuovere gli ostacoli che si frappongono all’emancipazione personale e sociale, e dunque combattere – pacificamente – affinché ciò avvenga. Le dinamiche sociali, e ogni loro manifestazione esteriore, sono in questo senso incentivate e favorite.
Invece le norme contenute nel disegno di legge qui in discussione sembrano essenzialmente dirette a reprimerle e soffocarle. A penalizzare condotte che vengono in tal modo additate come comportamenti propri di un deviante, di un avversario (se non addirittura di un “nemico”) della società, mentre costituiscono per lo più legittime forme di manifestazione del pluralismo sociale.
La Costituzione presuppone che i subalterni, i marginali, gli “ineguali” che lottano per la propria dignità e per il riconoscimento della propria autodeterminazione siano protagonisti di una società che li ricomprende, e non abusivi di un “popolo” che li espelle. E proprio il conflitto è lo strumento attraverso cui tale emancipazione può essere promossa, e auspicabilmente realizzata e riconosciuta. La Costituzione non presuppone una società statica ma una società dinamica, che rifiuta il mantenimento dello status quo, che accetta la complessità del reale, che rende vivo e vitale il pluralismo.
E questo lo fa per una ragione principale, che sembrerà forse a qualcuno paradossale ma che è la vera ragione giustificatrice dello Stato costituzionale pluralista: solo difendere un sano pluralismo conflittuale ci preserva dalla guerra civile, ossia da guai assai peggiori. Il pluralismo conflittuale preserva e alimenta la coesione sociale; la protezione securitaria di taluni valori “contro” altri la fa esplodere. Se si nega il dissenso e il conflitto e se ne reprimono le forme di manifestazione, si spingerà ogni minoranza, ogni gruppo sociale o politico che si trovi in una situazione di svantaggio sociale, a non sentirsi più legato da alcun patto sociale, a non percepire più alcuna convenienza all’integrazione. Le Costituzioni del secondo dopoguerra sono state scritte per preservare le società pluralistiche dai drammi della disgregazione e della contrapposizione violenta che avevano deflagrato in Europa spingendola sull’orlo dell’autodistruzione.
Sono molte le disposizioni contenute nel DDL n. 1236 che sembrano mettere in discussione questi capisaldi del costituzionalismo contemporaneo. Esso prevede l’introduzione di una serie di nuovi reati, nonché molte circostanze aggravanti a reati già esistenti, che vanno deliberatamente a colpire – a scopo evidentemente repressivo – l’area della manifestazione del dissenso e le sue modalità di espressione, specie nei luoghi, e tra le persone, ove più acutamente emergono disagio, diseguaglianza, povertà, e dove pertanto è più probabile che tale dissenso deflagri in pubbliche manifestazioni di protesta.
Si propone di reprimere penalmente la mera resistenza passiva, anche se pacifica e non violenta, nel corso di pubbliche manifestazioni. L’art. 14, infatti, reintroduce il reato di “blocco stradale”, che era stato in passato oggetto di depenalizzazione e di cui si prevede la ri-penalizzazione anche quando attuato “mediante ostruzione fatta col proprio corpo”. Si badi bene: Il reato di blocco stradale, introdotto nell’ordinamento penale nel 1948, si applicava solo ed esclusivamente a chi ostacolasse strade ordinarie e ferrate apponendo dei blocchi. Mai, fino ad oggi, è stata prevista una sanzione penale nei confronti dei manifestanti che si limitino ad opporre il proprio fisico al passaggio di treni o auto nel corso di una protesta. Peraltro, l’originaria fattispecie che puniva la condotta di chi abbandonasse sulle strade e sui binari oggetti atti a bloccare, era stata oggetto, fin da subito, di così aspre contestazioni per il suo carattere di per sé irragionevolmente repressivo del dissenso politico, da essere dapprima sostanzialmente depotenziata, con una lunga serie di provvedimenti di amnistia, per poi essere infine oggetto di depenalizzazione nel 1999. Tutto ciò non era affatto casuale. L’occupazione di vie pubbliche costituisce storicamente un tipico strumento utilizzato da chi manifesta dissenso, in occasione di scioperi o di cortei di protesta, specie da parte di lavoratori in lotta per la difesa del loro posto di lavoro. Essa è da tempo considerata una modalità di esercizio di diritti fondamentali, dalla libertà di riunione al diritto al lavoro (e al connesso diritto di sciopero finalizzato alla difesa della sua effettività). In tale contesto, la depenalizzazione del reato di blocco stradale del 1999 è stata univocamente interpretata come applicazione del principio del c.d. “diritto penale minimo”, che riserva le fattispecie criminose alle condotte lesive di diritti e valori primari dell’individuo. Nel 2018, del resto, il reato di blocco stradale è stato reintrodotto, ma con espressa esclusione dell’ostruzione effettuata col solo proprio corpo (per la quale è stata prevista una semplice – e già di per sé del tutto discutibile – sanzione amministrativa). Oggi, stabilendo la repressione penale della mera resistenza passiva, si pretende di colpire proprio quei comportamenti non violenti, di per sé privi di effettiva offensività nei confronti di beni primari, attraverso i quali si esprime pacificamente il conflitto sociale.
Si introduce poi una serie di aggravanti di luogo e di contesto, prevedendo che il medesimo fatto sia da considerare più grave se commesso in determinati luoghi, che sono quasi sempre quelli ove più frequentemente si consumano situazioni di disagio o di degrado: dentro un carcere, o in un centro di trattenimento per stranieri, o nelle periferie urbane, o nelle zone prospicenti le stazioni ferroviarie. Si prevede un’aggravante specifica per chi commette un fatto di resistenza “al fine di impedire la realizzazione di un’opera pubblica o di un’infrastruttura strategica”: ossia si pretende di colpire non soltanto l’atto in sé (la resistenza), ma anche – e più gravemente – la finalità dell’atto medesimo, qualificando come intrinsecamente più grave la presunta “ribellione” di una minoranza dissenziente alla decisione, assunta da parte di una maggioranza, di procedere alla realizzazione di un’opera pubblica. Il che non significa, ovviamente, che tale maggioranza politica non abbia il pieno diritto di imporre la sua decisione: ciò che appare fortemente discutibile è che a protezione di tale decisione si debba far luogo alla previsione di un più grave reato per chi dissente e tale dissenso manifesti pubblicamente.
Si prevede inoltre una nuova fattispecie delittuosa, consistente nelle “lesioni personali a un ufficiale o agente di polizia giudiziaria o di pubblica sicurezza nell’atto o a causa dell’adempimento delle funzioni”. Anche in questo caso, non è in discussione l’atto in sé ma la sua finalità: l’ufficiale di pubblica sicurezza nell’adempimento delle sue funzioni, nel corso di manifestazioni pubbliche ove si esercita la libertà di opinione delle minoranze politiche e sociali, è solitamente colui che sta eseguendo un’attività di contenimento di tali pubbliche manifestazioni per conto dell’autorità politica che sovrintende alla gestione dell’ordine pubblico, ossia del governo. La più severa punizione di tali condotte offre obiettivamente una più incisiva – e irragionevole – protezione del medesimo bene giuridico, per il solo fatto che quel bene giuridico sia stato leso in occasione di attività di repressione del dissenso.
Le norme sopracitate, nel loro complesso, sollevano dunque forti dubbi rispetto alla tenuta di fondamentali diritti posti dalla Costituzione ad espresso presidio della generale e indefettibile libertà di dissentire pubblicamente dalle decisioni di chi esercita il potere. A cominciare dalla libertà di riunione e di manifestazione sindacale e politica, nonché dalla libertà di manifestare pubblicamente il proprio pensiero e di incidere, in tal modo, sul libero sviluppo del dibattito pubblico.
La libertà di riunione, come è stato autorevolmente sottolineato, è il diritto a «stare fisicamente insieme con altri» (secondo la celebre definizione di Alessandro Pace) con lo specifico fine non soltanto di manifestare individualmente, ma soprattutto di condividere con altri e di comunicare all’opinione pubblica il proprio pensiero, contribuendo così a “costruire” il dibattito pubblico. Chi si riunisce, sottolinea Pace, ha pertanto il diritto di «contrapporsi, anche fisicamente, ai detentori del potere nella discussione dei problemi, nella elaborazione collettiva di proposte politiche, e soprattutto, nelle manifestazioni e nei cortei di protesta», proprio perché è in tal modo che, in una società pluralistica, si rispetta e si valorizza la diversità di opinioni, di idee, di punti di vista, tutelando il diritto delle minoranze di “pensarla diversamente” dalle maggioranze e di esercitare la propria legittima opposizione alle loro decisioni.
La libertà di riunione è dunque strettamente funzionale all’esercizio effettivo di altri fondamentali diritti di libertà e principi costituzionalmente protetti (dalla libertà di opinione, al pluralismo politico, sindacale, religioso, e così via). Per tale ragione, le specifiche “finalità” per le quali ci si riunisce non rilevano, e non devono rilevare, per la Costituzione, la quale si limita a richiedere un vincolo di mezzi. La previsione della forma “pacifica” di ogni riunione è funzionale a evitare, quale che sia il fine per il quale di volta in volta ci si riunisce, e quale che sia la forma che tale riunione di volta in volta assuma (il corteo, il picchetto di protesta, l’assemblea pubblica), che la riunione degeneri in disordine violento, ossia che sia concretamente ed effettivamente violato il c.d. “ordine pubblico materiale”.
Orbene, a me pare che le citate disposizioni del disegno di legge in discussione siano essenzialmente dirette a garantire non tanto la tutela dell’ordine pubblico materiale (ossia la mera assenza di violenza nello svolgimento di una riunione per altro verso in ogni caso del tutto lecita), bensì piuttosto quella di un più vago e minaccioso ordine pubblico ideale. Non si intende affatto preservare il diritto a manifestare liberamente, isolando i violenti dalla massa dei pacifici. Si intende invece impedire anche ai pacifici di manifestare (pacifici essendo, in tutta evidenza, gli atti di resistenza passiva), in nome della tutela dello status quo politico- sociale. E questo l’art. 17 della Costituzione non lo consente. Esso è posto a specifica tutela del diritto di dissentire, di protestare, di contestare quello status quo, di operare pubblicamente per cambiarlo.
Lo stesso discorso vale per la libertà di manifestazione del pensiero. Anch’essa è strettamente funzionale alla difesa del pluralismo, della partecipazione, dell’esercizio del metodo democratico, del dissenso. La sua protezione, pertanto, è strettamente connessa a quella della libertà di riunione, che costituisce una delle più efficaci modalità organizzative funzionali alla espressione collettiva e alla pubblica condivisione di opinioni alternative a quelle maggioritarie o dominanti. L’una e l’altra, così come la libertà sindacale, la libertà di associarsi in partiti e di concorrere in tal modo a determinare le singole scelte politiche, la libertà religiosa, e altre, testimoniano complessivamente di una esplicita ostilità della Costituzione nei confronti di qualsiasi politica di prevenzione e di repressione della mera disobbedienza.
Sono, in conclusione, preoccupato dell’introduzione di molte delle norme di questo pacchetto, perché mi paiono avere l’obiettivo “simbolico” di incentivare una generale delegittimazione del dissenso, attraverso un’interpretazione ampia e dilatata (e quindi incostituzionale) del limite della sicurezza e dell’ordine pubblico, non più inteso come ordine pubblico materiale bensì come ordine pubblico ideale. In altre parole, mi pare che emerga la volontà di attribuire un contenuto di intrinseca pericolosità, giustificandone così la repressione, a comportamenti che incidono non sulle modalità di esercizio delle libertà costituzionali, ma sul contenuto di queste ultime.
E si finisce così per far coincidere la difesa dell’ “ordine pubblico” con la difesa dell’ “ordine costituito” (nel senso degli assetti politici ed economici costituiti). Un ordine costituito fondato sui principi che chi esercita – pro tempore – la funzione di indirizzo politico ritiene indispensabili per la sopravvivenza del “suo” ordinamento. Salvo che l’ordinamento non è affatto “suo”. Esso è anche di tutti quei dissidenti che legittimamente lo combattono, e che aspirano a cambiarlo, perché proprio questo è il senso dello Stato costituzionale pluralista: la libera e permanente disponibilità del potere di determinazione dell’indirizzo politico.
Tutto ciò, come dicevo, rappresenta un pericolo potenziale per la tenuta della democrazia, intesa come democrazia pluralista. Senza contare che ogni restrizione di tali libertà, ogni “deriva penalistica” che reprima il dissenso, è destinata a non portare altro, con sé, che l’acutizzarsi e l’esasperarsi di quel medesimo dissenso: sarà così sempre più improbabile che esso possa essere incanalato nelle forme pacifiche che la Costituzione promuove e preserva.
La democrazia pluralistica presuppone partecipazione, non mera obbedienza. Ed esige di conseguenza un uso non violento del diritto. Anzi, la Costituzione è nata per questo, per depotenziare la carica di violenza insita nella (più antica) idea del diritto come mero strumento in mano a chi detiene il monopolio della forza legittima. Le libertà sono espressione del desiderio di promuovere, di epoca in epoca, nuovi assetti di potere, sempre rinnovabili e ridiscutibili. Anche in questo aspetto andrebbero tutelate: in quanto generatrici di dissenso, di conflitto, e pertanto garanzia permanente di conservazione del carattere eminentemente pluralistico della società, pronta in ogni occasione a cambiare i propri indirizzi politici entro un comune e condiviso quadro di principi costituzionali. Le norme su cui mi avete chiesto di soffermarmi, anche se lo facessero solo “simbolicamente”, mi pare minaccino gravemente la tenuta complessiva di questo meta-principio, presupposto indefettibile per la sopravvivenza stessa dello Stato costituzionale.
In tema di DDL Sicurezza si veda anche Il diritto penale italiano verso una pericolosa svolta securitaria e Il DDL Sicurezza e il carcere. Audizione del 22.10.2024 Commissioni riunite Affari costituzionali e Giustizia del Senato in relazione all’esame del disegno di legge n. 1236 (Disposizioni in materia di sicurezza pubblica) di Fabio Gianfilippi.
Immagine: Peter Henry Emerson, The Old Order and the New, 1886, Ada Turnbull Hertle Fund, Chicago Art Institute.
Il tempo che ci vuole
Cimentarsi in un lavoro che parli del padre, specie se pubblico e famoso, può essere rischioso. Per via di una parzialità narrativa che finisce per alterare i ruoli, dando evidenza al narratore più che al suo obiettivo e trascurando invece i risvolti più intimi, per i quali la parentela, per paradosso ma in realtà, funge da antagonista, da oggettivo diaframma di conoscenza. E ancor di più per una figlia, per la quale al mito dell’impareggiabile figura paterna si assomma il surplus d’ineguagliabilità alimentato dalla differenza di genere. Con la conseguenza di un difficile approdo ad un rapporto più vero se non per il doloroso (per entrambi) e non breve valico di un’intima demolizione della persona del padre e di tutto il suo intorno.
La Comencini tuttavia ci prova, con coraggio e con successo; e per farlo ha necessità di isolare il rapporto da implicazioni aliene – nel film, infatti, non figurano la madre e le tre sorelle – realizzandolo in un colloquio a due dall’essenza cruda e diretta, fatto di un contrappunto dinamico cadenzato nel dialogo che il percorso diacronico dei protagonisti, nelle diverse e rispettive età, stimola e suggerisce.
E tanto efficace è qui il racconto da far chiedere se forse l’apparire imperfetto agli occhi di un figlio non possa risultare pedagogicamente più utile a scongiurare pericolosi raffronti e ad esiliare angosce d’inarrivabilità.
Con felice simbologia grafica il tormentoso itinerario di crescita accanto al padre è rappresentato nel film da uno schizzo in rosso di un grosso pescecane, dalle fauci aperte e i denti in vista, che a tratti riemerge sullo schermo sfumando di volta in volta la scena; un ritorno d’immagine come incubo e ostacolo di insicurezza e di paura. Analogamente, il medesimo assillo replica la sua presenza, ancora una volta e con tocco di delicata maestria, nel rifiuto di Francesca bambina di vedere da vicino una vera balena in esposizione in un tendone di città; quella stessa balena negata che poi ricompare, a fine crescita (e a fine film), in un immaginifico transito volante – innanzi a padre e figlia, stretti per le mani e sorridenti a volteggiare insieme nel cielo.
Capovolgimento dei ruoli, si diceva, perfettamente rappresentato nell’accostamento tra l’immagine dell’iniziale cura paterna nell’avviare la figlioletta ad uno sguardo sulla vita e i suoi rischi – l’apriechiudi sulla figura di quello squalo illustrato a fauci spalancate – e quell’altra immagine, esortante e tenera, in cui questa volta è Francesca ormai adulta a spronare il padre riluttante a muoversi e a camminare spedito al suo seguito per le strade di Parigi. Adesso lei, diventata consapevole condottiera nel tempo che ci vuole, finalmente liberatasi dal travaglio di trovarsi sempre in campo – metaforicamente nel perimetro d’influenza di papà Luigi – senza alcuna capacità di uscirne.
Narrando di un grande regista, il lavoro della più giovane Comencini è anche un film nel film, sublimando nei frammenti di scene collodiane la formidabile capacità immaginifica del cinema, in grado di offrire salvifici salvacondotti esistenziali.
La magistrale interpretazione dei due attori protagonisti e in special modo di un Gifuni dalla recitazione matura, intrisa di colore espressivo e di una efficacissima anche muta gestualità, e le musiche, da Smetana a Nicola Di Bari, del tutto consone ai passaggi scenici, a loro volta coerenti col contesto sociale di riferimento, completano un prodotto d’arte cinematografica in perfetta simbiosi con la nobile tradizione familiare.
AI Act e pubblica amministrazione
La decisione amministrativa automatizzata secondo il Regolamento UE 2024/1689
di Simone Francario
Sommario: 1. Introduzione; 2. L’evoluzione della legislazione europea in materia di utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione; 3. Il Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 (“AI Act”); 4. Le soluzioni proposte dall’AI Act alle principali problematiche della materia.
1. Introduzione.
In Europa la principale fonte sovranazionale che disciplina la materia dell’intelligenza artificiale è contenuta nel Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio, adottato il 13 giugno 2024, meglio noto come AI Act[1].
L’AI Act, in particolare, disciplina i presupposti e le modalità di utilizzo dei sistemi di intelligenza artificiale tanto per i soggetti privati, quanto per la pubblica amministrazione, al fine di garantire che tali software siano utilizzati in maniera etica e nel rispetto dei principi e dei diritti fondamentali dell’Unione europea.
La questione si presenta particolarmente delicata in ambito pubblicistico. Da un lato, l’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione porta ovviamente notevoli vantaggi: si pensi, ad esempio, alla riduzione dei tempi e all’aumento dell’efficienza dell’azione amministrativa tramite l’automazione dei procedimenti amministrativi ordinari o di routine, oppure tramite l’elaborazione di grandi quantità di dati; o ancora, al fatto che l’intelligenza artificiale può essere usata dalla p.a. per analizzare grandi quantità di dati anche a scopo predittivo riducendo di gran lunga la percentuale dell’errore umano; o ancora, l’utilizzo ben noto a tutti di chatbot e assistenti virtuali per fornire risposte alle domande dei cittadini[2].
D’altro lato, come sottolineato in maniera unanime dalla dottrina[3], l’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione evidenzia anche notevoli criticità[4]. Tra queste meritano di essere segnalate, innanzitutto quelle connesse al fatto che le decisioni amministrative, finalizzate alla cura dell’interesse pubblico, siano prese soltanto da software o complessi algoritmi esautorando totalmente il coinvolgimento dell’uomo-decisore pubblico[5]; al fatto che la concentrazione dell’attività amministrativa esclusivamente in capo all’intelligenza artificiale pone problemi di “accountability” (in altre parole, chi è responsabile per le decisioni prese dall’intelligenza artificiale?); o ancora, al fatto che spesso gli algoritmi di intelligenza artificiale operano come “scatole nere” e rendono difficile o impossibile comprendere come vengono prese le decisioni, con pregiudizio del principio di trasparenza dell’azione amministrativa[6].
Intento del presente scritto è esaminare, in particolare, le norme dell’AI Act che disciplinano l’utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione[7] e valutare, se e in che modo, la normativa europea offra delle prime soluzioni alle problematiche cui si è fatto cenno.
Dopo aver riassunto, preliminarmente, nei tratti essenziali il quadro giuridico di riferimento prima dell’adozione dell’AI Act, esaminando in particolare le normative adottate in Germania e Francia nonché i principi elaborati dalla giurisprudenza italiana, si esamineranno le principali norme dell’AI Act che disciplinano l’uso dell’intelligenza artificiale da parte della pubblica amministrazione e, dopo aver sinteticamente richiamato le principali problematiche collegate all’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione, si esamineranno infine le soluzioni proposte dal legislatore comunitario con l’adozione dell’AI Act.
2. L’evoluzione della legislazione europea in materia di utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione.
Prima dell’adozione dell’AI Act, i singoli Paesi europei già avevano iniziato a regolamentare i presupposti e le modalità di utilizzo dei sistemi di intelligenza artificiale da parte della pubblica amministrazione.
In Germania, ad esempio, il legislatore tedesco ha previsto che è ammissibile l’adozione di una decisione amministrativa completamente automatizzata al ricorrere di due requisiti: i) ciò deve essere espressamente previsto da una norma di legge, e ii) solo laddove ci si trovi in presenza di una attività vincolata, ovverosia quando l’amministrazione ha già esaurito il proprio margine discrezionale[8].
Un approccio diverso, invece, è stato utilizzato in Francia dove il legislatore ha introdotto un divieto generale per la pubblica amministrazione di adottare un provvedimento che produca effetti giuridici nei confronti di una persona qualora tale provvedimento si basi unicamente sul trattamento automatizzato di dati personali[9]. Tale divieto, tuttavia, può essere derogato al ricorrere di determinati presupposti e tra i più significativi si rinvengono: i) il fatto che l’amministrazione deve comunicare all’interessato l’intenzione di adottare una decisione basata sul trattamento algoritmico di dati; ii) su richiesta dell’interessato, l’amministrazione deve fornire le regole tecniche e le caratteristiche dell’algoritmo; iii) è necessario, comunque, che l’adozione del provvedimento sia supervisionata da un operatore umano che controlli l’operato della macchina e che ne possa spiegare, in maniera chiara e precisa, l’operato[10].
In Italia l’approccio è stato ancora diverso poiché, mentre in Germania e Francia è intervenuto direttamente il legislatore, in Italia ciò non è avvenuto e il vuoto normativo è stata colmato dalla giurisprudenza amministrativa. Ci si riferisce, in particolare, alle note sentenze del Consiglio di Stato, Sez. VI, 8 aprile 2019, sent. n. 2270/2019, e Consiglio di Stato, Sez. VI, 4 aprile 2020, sent. n. 881/2020[11].
Con la sentenza n. 2270/2019[12], il Consiglio di Stato, dopo aver ricordato che l’utilizzo di algoritmi e sistemi di intelligenza artificiale porta “indiscutibili vantaggi” al processo decisionale dell’amministrazione[13], ha affermato che, per potersi considerare legittima, la decisione amministrativa automatizzata deve -ad ogni modo- rispettare le regole e i principi che governano lo svolgimento dell’attività amministrativa presenti nel nostro ordinamento.
Come si legge in sentenza, infatti, “l’utilizzo di procedure robotizzate non può, tuttavia, essere motivo di elusione dei principi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa.”[14]
Più nello specifico, la decisione amministrativa automatizzata, ovverosia adottata mediante algoritmi o sistemi di intelligenza artificiale: deve essere adottata nel rispetto dei principi di pubblicità, trasparenza, ragionevolezza e proporzionalità[15]; l’iter seguito dalla macchina deve essere conoscibile, non solo per garantire una maggiore tutela del destinatario del provvedimento, ma anche per consentire il sindacato dal giudice amministrativo[16]; infine, con questa prima pronuncia, il Consiglio di Stato ha affermato che la decisione amministrativa automatizzata può essere adottata solamente nei casi di attività amministrativa vincolata, ovverosia quando non rimangono margini di scelta in capo all’amministrazione[17].
Con la successiva sent. n. 881/2020, il Consiglio di Stato è tornato sui requisiti e sulle garanzie che devono essere rispettati qualora la p.a. intenda adottare sistemi di intelligenza artificiale nell’ambito del procedimento amministrativo[18].
Con tale sentenza, il Consiglio di Stato, da un lato, ha ribadito che la decisione amministrativa automatizzata debba pur sempre essere adottata nel rispetto dei principi generali dell’attività amministrativa presenti nell’ordinamento italiano, insistendo -in particolar modo- sul rispetto del principio di trasparenza e sulla piena e necessaria conoscibilità dell’iter seguito dall’algoritmo[19]; dall’altro ha affermato tre principi ulteriori: i) che l’intelligenza artificiale può essere utilizzata anche al di fuori dei casi di attività vincolata[20]; ii) che non si può interamente prescindere dall’intervento umano (c.d. principio di “non esclusività della decisione algoritmica”)[21]; iii) che è necessario un sistema di controlli che consenta al funzionario pubblico di adottare misure opportune per prevenire ed eliminare eventuali errori commessi dall’intelligenza artificiale[22].
3. I lineamenti fondamentali dell’AI Act
L’ultimo tassello dell’evoluzione della evoluzione della disciplina europea in materia di utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione è rappresentato, come anticipato in apertura, dal Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio, ovverosia dall’AI Act.
A livello di inquadramento sistematico, l’AI Act costituisce un regolamento. Rispetto alle fonti e alla giurisprudenza precedentemente richiamate, tale regolamento si pone come fonte sovraordinata, è obbligatorio in tutte le sue parti ed è direttamente applicabile nei confronti degli Stati membri senza che sia necessaria l’adozione di alcuna legge di recepimento[23].
La scelta del regolamento non è stata casuale: come si è visto alcuni Stati membri dell’UE avevano già cominciato ad adottare varie normative in materia di intelligenza artificiale e pubblica amministrazione mentre altri Stati, come l’Italia, erano ricorsi ad un approccio più pragmatico lasciando alla giurisprudenza l’arduo compito di stabilire i principi e le coordinate di riferimento della materia. I diversi interventi del legislatore e della giurisprudenza dei singoli Stati membri, tuttavia, non erano coordinati e/o armonizzati tra di loro e ciò avrebbe potuto creare un quadro giuridico di riferimento altamente frammentato[24].
Con l’utilizzo di una fonte di tipo regolamentare, il legislatore comunitario ha evitato tale frammentazione garantendo invece un quadro normativo europeo uniforme e armonizzato[25].
Un’altra scelta fondamentale effettuata dal legislatore comunitario nella predisposizione dell’impianto generale dell’AI Act riguarda il suo ambito di applicazione, definito dall’art. 2 del medesimo, che risulta particolarmente esteso.
L’AI Act, infatti, ha valenza generale e si applica a qualunque settore[26] in cui vengano in rilievo sistemi di intelligenza artificiale (ad eccezione di un elenco tassativo di alcuni settori esclusi[27] ai sensi dell’art. 2) ed è obbligatorio tanto per i soggetti privati quanto per la pubblica amministrazione[28].
Per quanto riguarda la disciplina sostanziale ivi contenuta, l’AI Act si presenta come un regolamento particolarmente tecnico e articolato. Si compone di 113 articoli, divisi in 13 Capi, e contiene 13 allegati.
Lo scopo del regolamento, ai sensi dell’art. 1, è quello di “migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea […].”
In altre parole, il fine ultimo è quello di garantire lo sviluppo, l’utilizzo e la commercializzazione di una intelligenza artificiale etica, sicura e affidabile e soprattutto conforme ai diritti fondamentali e ai valori dell’Unione europea.
La struttura portante dell’AI Act si basa su una classificazione dei sistemi di intelligenza artificiale sul livello di rischio.
In particolare, il regolamento individua quattro categorie di rischio:
Secondo quanto previsto dall’AI Act gran parte delle attività svolte dalla pubblica amministrazione, ad eccezione di quelle rientranti nei settori esclusi, rientrano all’interno della categoria di “rischio alto.”[29]
Tanto si ricava dall’analisi dell’allegato III del regolamento il quale contiene l’elenco, appunto, delle attività classificate a “rischio alto” e tra queste vi rientrano, ad esempio: la gestione e il funzionamento delle infrastrutture critiche; gestione della migrazione e controllo delle frontiere; gestione dei servizi pubblici essenziali; o infine, l’attività relativa all’amministrazione della giustizia.
In questi casi, per quel che più interessa, la pubblica amministrazione si deve assicurare che i sistemi di intelligenza artificiale utilizzati rispettino i requisiti contenuti nella sezione II, Capo III del regolamento[30].
Particolarmente significativo è l’art. 13 che impone vari obblighi di trasparenza[31]. In particolare, è previsto che i sistemi di i.a. ad alto rischio che la p.a. intenda utilizzare, devono essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente in modo da consentire all’utilizzatore di interpretare l’output del sistema ed utilizzarlo adeguatamente[32].
Ancora, l’art. 13 prevede che tali sistemi di i.a. debbano essere accompagnati anche da istruzioni per l’uso che riportino informazioni complete, corrette e chiare (ad esempio, devono indicare espressamente le caratteristiche del software, le capacità, i limiti delle prestazioni, le finalità previste e i livelli di accuratezza che ci si può ragionevolmente attendere) in maniera tale da fornire all’amministrazione tutte le informazioni e le nozioni necessarie per utilizzare al meglio e in maniera legittima il relativo software.
Altra norma fondamentale contenuta nell’AI Act è l’art. 14 che impone un obbligo specifico di sorveglianza umana: i sistemi di i.a. ad alto rischio utilizzati dall’amministrazione debbono essere supervisionati, per tutto il periodo in cui sono in uso, da uno o più operatori umani adeguatamente qualificati.
In particolare, nel disciplinare il rapporto uomo-macchina, anche in applicazione degli obblighi di trasparenza appena esaminati, l’AI Act prevede che l’operatore umano (in questo caso il funzionario pubblico) deve essere pienamente in grado di conoscere il funzionamento e l’iter seguito dall’i.a.
Non solo, il controllo che l’operatore umano deve esercitare sul sistema di intelligenza artificiale deve essere sostanziale, ovverosia, deve essere in grado di decidere, in qualsiasi situazione, di non usare il sistema di intelligenza artificiale, di ignorare o ribaltare la decisione del software e di intervenire sul funzionamento del sistema di intelligenza artificiale in qualsiasi momento e di interromperlo in condizioni di sicurezza.
Come ulteriore requisito, i sistemi di intelligenza artificiale ad alto rischio utilizzati dall’amministrazione devono essere dotati di un adeguato livello di accuratezza, robustezza e cybersicurezza durante tutto il loro ciclo di vita. (art. 15)
4. Le soluzioni proposte dall’AI Act alle principali problematiche della materia
Il quadro normativo tracciato rende evidente che il regolamento UE cerca di offrire delle prime importanti risposte ai principali problemi dell’utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione.
Sotto questo profilo si può osservare una sostanziale consonanza con i principi già affermati dalla giurisprudenza amministrativa nazionale.
È evidente infatti che il regolamento UE si preoccupa di garantire che l’utilizzo dell’intelligenza artificiale da parte della p.a. non metta in crisi i principi fondamentali dell’azione amministrativa, in particolar modo il principio di trasparenza che, come è noto, impone alla p.a. di rendere ben conoscibile all’esterno l’iter logico e motivazionale alla base del provvedimento amministrativo (ciò tanto al fine di tutelare l’interesse legittimo del destinatario, quanto al fine di consentire un effettivo controllo giurisdizionale sull’atto.) Come è stato evidenziato anche in maniera unanime dalla dottrina, spesso gli algoritmi di intelligenza artificiale operano come “scatole nere” e rendono difficile o impossibile comprendere come vengono prese le decisioni, ciò a chiaro discapito dei diritti fondamentali degli individui-destinatari del provvedimento finale. Sotto questo profilo, l’AI Act, come si è visto, all’art. 13 impone vari obblighi di trasparenza in capo alla pubblica amministrazione, in particolare il funzionario pubblico che utilizza la macchina deve essere in grado di comprendere appieno l’iter seguito dall’intelligenza artificiale; in questo modo, di riflesso, sarà più agevole rendere noto all’esterno (si pensi al destinatario del provvedimento amministrativo o al giudice) quali sono le motivazioni di fatto e di diritto alla base del provvedimento adottato. Il Consiglio di Stato arriva a conclusioni pressoché identiche facendo riferimento ai principi fondamentali che regolano l’azione amministrativa nell’ordinamento italiano: la legge e la costituzione prevedono che l’attività amministrativa debba rispettare il principio di trasparenza e tale principio deve essere necessariamente rispettato anche quando vengono utilizzati sistemi di intelligenza artificiale.
In secondo luogo il Regolamento UE si preoccupa di garantire che le decisioni amministrative, finalizzate per natura alla cura dell’interesse pubblico, non siano prese soltanto da software o complessi algoritmi esautorando totalmente il coinvolgimento dell’uomo-decisore pubblico. Anche sotto questo profilo, l’AI Act e la giurisprudenza amministrativa sembrano condividere la medesima impostazione.
L’art. 14 dell’AI Act sul punto è molto chiaro: l’essere umano-pubblico funzionario deve controllare le attività svolte dalla macchina per tutta la sua durata e laddove rinvenga degli errori deve essere in grado di poter intervenire e correggerli.
Anche il Consiglio di Stato condivide tale impostazione: non pare seriamente ammissibile un procedimento amministrativo completamente automatizzato che prescinda dall’essere umano; l’essere umano-pubblico decisore deve essere presente, a garanzia dell’interesse legittimo dei cittadini e del buon andamento della p.a., per controllare l’operato dell’intelligenza artificiale, nonché per correggerne gli eventuali errori.
È evidente quindi che sotto molteplici profili le soluzioni anticipate dal Consiglio di Stato convergano con quelle da ultimo prospettate dall’AI Act per garantire un utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione che sia rispettoso dei principi fondamentali dell’azione amministrativa e che tuteli i diritti e le libertà dei cittadini garantiti dal diritto europeo.
In conclusione, l’AI Act si pone come un punto di riferimento certo per regolamentare il fenomeno dell’intelligenza artificiale nell’ambito del procedimento amministrativo in quanto tiene in considerazione le principali problematiche sottese alla materia e tenta di offrire una prima importante risposta.
Inoltre, il Regolamento europeo è di recentissima adozione e le sue varie parti entreranno in vigore in maniera scaglionata nel corso del tempo (per intenderci, al termine dei prossimi due anni l’AI Act dovrebbe essere pienamente in vigore in tutte le sue parti), il che rende sicuramente prematuro un giudizio sulla concreta efficacia delle misure proposte dal legislatore comunitario.
[1] Tra i primi commentatori dell’AI Act o della proposta di regolamento alla base dell’AI Act, si rinvia ex multis a: G. FINOCCHIARO, La regolazione dell’intelligenza artificiale, in Rivista trimestrale di diritto pubblico, IV, dicembre 2022, pp. 1085 e ss.; C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, in Rivista italiana di diritto pubblico comunitario, II-III, Aprile 2022, pp. 265 e ss.; S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, in Diritto Amministrativo, III, settembre 2023, pp. 515 e ss.; S. CAL, Il quadro normativo vigente in materia di ia nella pubblica amministrazione (CAD, GDPR, IA ACT), in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione, principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 31 e ss.; M. IASELLI (a cura di), AI ACT. Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024, Rimini, Maggioli, 2024; B. MARCHETTI, Intelligenza artificiale, poteri pubblici e rule of law, in Riv. It. Dir. Publ. Com., I, 2024, pp. 49 e ss.
[2] Per questi profili v. in ptcl. R. CAVALLO PERIN, D.U. GALETTA (a cura di), Il diritto dell'amministrazione pubblica digitale, Giappichelli, Torino, 2020.
Per una visione più generale sull’utilizzo dei sistemi di intelligenza artificiale nell’ambito del procedimento amministrativo si rinvia a G. PESCE, Intelligenza artificiale e blockchain, Napoli, Editoriale Scientifica, 2021; A. LALLI (a cura di), La regolazione pubblica delle tecnologie digitali e dell’intelligenza artificiale, Torino, Giappichelli, 2024.
[3] Per tutti v. L. TORCHIA, Lo Stato digitale. Una introduzione, Bologna, Il Mulino, 2023; L. CASINI, Lo stato (im)mortale. I pubblici poteri tra globalizzazione ed era digitale, Milano, Mondadori, 2022, p. 63 e ss., con riferimento in particolare ai principi stabiliti dalla giurisprudenza amministrativa nazionale per regolamentare l’uso dell’intelligenza artificiale all’interno del procedimento amministrativo (per i quali v. infra par. 2).
[4] Per una interessante esemplificazione v. L. G. e E. M. BARTOLAZZI MENCHETTI, Sillogismi, inferenze e illogicità̀ argomentative, nella prospettiva di sviluppo della discrezionalità̀ tecnica nell’epoca dell’intelligenza artificiale. Nota a T.A.R. Lazio, sez. Quarta Ter, Ordinanza 27 luglio 2023, n. 4567 in GiustiziaInsieme.it, 2024.
[5] Come evidenziato da autorevole dottrina, la necessità di assicurare la conservazione di un ruolo decisivo della figura umana nell’ambito di procedimenti amministrativi automatizzati assume rilevanza fondamentale. Secondo la teoria della “riserva di umanità” la conservazione della centralità del ruolo umano nell’ambito del procedimento amministrativo automatizzato è necessaria poiché garantisce un tipo di ponderazione tra gli interessi che solo l’attività umana è in grado di offrire, garantisce una decisione etica, salvaguarda i principi fondamentali dell’uomo tra cui la dignità umana, garantisce il rispetto dei principi fondamentali dell’attività amministrativa ed elimina il rischio di una eccessiva “opacità” del procedimento decisionale qualora sia affidato interamente ad un software o ad un algoritmo. Per questi profili si rinvia per tutti a G. GALLONE, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo, Cedam, Padova, 2023.
[6] Per questi profili v. in ptcl. G. AVANZINI, Decisioni amministrative e algoritmi informatici. Predeterminazione analisi predittiva e nuove forme di intelligibilità, Editoriale scientifica, Napoli, 2019.
[7] Per i profili problematici dell’impiego dell’i.a. con specifico riferimento all’esercizio della funzione giurisdizionale per tutti v. M. LUCIANI, La decisione giudiziaria robotica, in Rivista AIC, III, 2018, pp. 872 e ss.; A. SIMONCINI, La dimensione costituzionale della giustizia predittiva: riflessioni sull’intelligenza artificiale e processo, in Riv. Dir. Proc., II, 2024.
[8] Attraverso l’introduzione del §35 nella legge generale sul procedimento amministrativo Verwaltungsverfahrensgesetz, o VwVfG. Sul punto si rinvia a C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit. Come sottolineato dall’A. “Il §35a VwVfG consente l’adozione di una decisione amministrativa completamente automatizzata nel momento in cui ciò sia previsto da una norma di legge (sofern dies durch Rechtsvorschrift zugelassen). La disposizione ha un’evidente funzione di garanzia, in quanto impedisce che la decisione di adottare provvedimenti completamente automatizzati sia presa discrezionalmente dall’amministrazione. […] La norma prevede un altro limite all’automazione completa del procedimento amministrativo: essa è ammessa solo in presenza di attività vincolata o meglio, parafrasando il dato normativo, ‘in assenza di discrezionalità o di un margine di valutazione’ in capo all’amministrazione (‘und weder ein Ermessen noch ein Beurteilungsspielraum besteht’).”
[9] C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit., la quale fa riferimento, in particolare, alla Loi n. 78-17 du 6 janvier 1978, e ss. modifiche, meglio nota come “Information e Libertés”.
[10] C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit.
[11] Cfr. S. CIVITARESE MATTEUCCI, “umano troppo umano”. Decisioni amministrative automatizzate e principio di legalità, in Dir. Pubbl., I, 2019, pp. 5 e ss.; D.U. GALETTA e J.C. CORVALAN, Intelligenza artificiale per una pubblica amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in Federalismi, III, 2019; R. FERRARA, Il giudice amministrativo e gli algoritmi. Note estemporanee a margine di un recente dibattito giurisprudenziale, in Dir. Amm., IV, 2019, pp. 773 e ss.; M. FERRARI, L’uso degli algoritmi nella attività amministrativa discrezionale, in Il diritto degli affari, I, 2020; E. CARLONI, I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudicato amministrativo, in Dir. Amm., II, 2020, pp. 281 e ss.; P. OTRANTO, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, in Federalismi, VII, 2021; M. CORRADINO, Intelligenza artificiale e pubblica amministrazione: sfide concrete e prospettive future, in giustiziamministrativa.it, 2021; G. CARULLO, Decisione amministrativa e intelligenza artificiale, in Dir. Inf. Inform., III, 2021; G. LO SAPIO, La trasparenza sul banco di prova dei modelli algoritmici, in federalismi, 11/2021; L. PARONA, Poteri tecnico-discrezionali e machine learning: verso nuovi paradigmi dell’azione amministrativa, in A. PAJNO, F. DONATI, A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, Bologna, Il Mulino, 2022, pp. 131 e ss.; E. LONGO, I processi decisionali automatizzati e il diritto alla spiegazione, in A. PAJNO, F. DONATI, A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?,Bologna, Il Mulino, 2022, pp. 348 e ss; A. FERRARA e M. RAMAJOLI, La giustizia amministrativa nell’era della digitalizzazione dialogo tra informatica e diritto, in M. RAMAJOLI (a cura di), Una giustizia amministrativa digitale?, 2022, pp. 178 e ss; A. POLICE, Scelta discrezionale e decisione algoritmica, in R. GIORDANO, A. PANZAROLA, A. POLICE, S. PREZIOSI, M. PROTO (a cura di), Il diritto nell’era digitale, Milano, 2022, pp. 496 e ss.; L. CARBONE, L’algoritmo e il suo giudice, in giustiziamministrativa.it, 10 gennaio 2023; T. COCCHI, La partecipazione procedimentale, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 133 e ss.; A. CORRADO, Discrezionalità algoritmica e sindacato del giudice amministrativo, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 173 e ss.; A.M. LABOCCETTA, La decisione amministrativa algoritmica tra efficienza e garanzie, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 99 e ss.; E. BELISARIO e F. RICCIULLI, Legalità algoritmica e vizi procedimentali, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 149 e ss.; E. CARLONI, La trasparenza amministrativa e gli algoritmi, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 219 e ss.
[12] La nota vicenda riguarda la valutazione delle domande di trasferimento dei docenti nell’ambito del sistema scolastico nazionale. Al fine di semplificare il processo di valutazione e gestire l’elevato numero di domande, il Ministero dell’Istruzione ha deciso di utilizzare un algoritmo per elaborare le richieste di trasferimento attribuendo automaticamente le sedi agli insegnanti in base a determinati criteri. Al termine della procedura, tuttavia, numerosi insegnati sono stati nominati in classi di concorso in cui non avevano mai lavorato e sono stati trasferiti in sedi molto più lontane rispetto a quelle di provenienza senza tenere in considerazione le preferenze espresse in sede di concorso. Successivamente, un gruppo di insegnanti ha impugnato le decisioni di trasferimento lamentando, in particolare, la totale assenza del controllo umano nell’adozione della decisione amministrativa algoritmica, la mancanza di trasparenza nel processo decisionale nonché l’applicazione erronea ed arbitraria dei criteri di selezione. Il giudizio, istaurato presso il TAR Lazio, si è concluso con sentenza n. 12026 del 2016 di rigetto del ricorso. In appello, invece, con la pronuncia ora in esame, il Consiglio di Stato ha ritenuto meritevoli di accoglimento le doglianze degli insegnanti riformulando la sentenza di primo grado.
[13] Soprattutto se ciò avviene per gestire procedimenti seriali o standardizzati che coinvolgono un numero elevato di dati. Come si legge in sentenza “devono sottolinearsi gli indiscutibili vantaggi derivanti dalla automazione del processo decisionale dell’amministrazione mediante ’utilizzo di una procedura digitale ed attraverso un “algoritmo” – ovvero di una sequenza ordinata di operazioni di calcolo–che in via informatica sia in grado di valutare e graduare una moltitudine di domande. L’utilità di tale modalità̀ operativa di gestione dell’interesse pubblico è particolarmente evidente con riferimento a procedure seriali o standardizzate, implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale. Ciò̀ è, invero, conforme ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 l. 241/90), i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il conseguimento dei propri fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale.”
[14] Consiglio di Stato, Sez. VI, 8 aprile 2019, sent. n. 2270/2019, par. 8.2.
[15] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.2, ove si legge che la regola algoritmica “deve soggiacere ai principi generali dell’attività amministrativa, quali quelli di pubblicità e trasparenza (art. 1 l. 241/90), di ragionevolezza, di proporzionalità, etc.”
[16] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.3 ove si legge che “in primo luogo, come già messo in luce dalla dottrina più autorevole, il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.”
[17] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.2, ove si legge che la regola algoritmica “non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale.”
[18] Anche nel caso in esame il Ministero dell’Istruzione aveva indetto una procedura straordinaria di mobilità del personale docente affidando in via esclusiva ad un algoritmo l’attività di valutazione ed esame dei titoli dei partecipanti per la formazione della graduatoria finale. All’esito della procedura alcuni docenti venivano trasferiti in ambiti territoriali non richiesti o richiesti solo in via residuale senza tuttavia essere in grado di conoscere l’iter logico e motivazionale seguito dalla macchina. Questi ultimi allora impugnavano gli esiti della procedura dinanzi al TAR Lazio lamentando, in particolare, il fatto che l’intera attività di valutazione fosse stata demandata ad un algoritmo senza il coinvolgimento dell’essere umano, la violazione del principio di trasparenza e la violazione del diritto alla comprensibilità delle decisioni amministrative. Accolto il ricorso in primo grado, l’amministrazione ha impugnato la sentenza di prime cure (TAR Lazio, sent. breve n. 6607/2019) dinanzi al Consiglio di Stato che con la pronuncia in oggetto ha respinto l’appello.
[19] Consiglio di Stato, Sez. VI, 4 aprile 2020, sent. n. 881/2020, par. 11.1.
[20] Consiglio di Stato, sent. n. 881/2020, cit., par. 8, ove si legge che “Né vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale, entrambe espressione di attività autoritativa svolta nel perseguimento del pubblico interesse. In disparte la stessa sostenibilità a monte dell’attualità di una tale distinzione, atteso che ogni attività autoritativa comporta una fase quantomeno di accertamento e di verifica della scelta ai fini attribuiti dalla legge, se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla c.d. attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità.
Piuttosto, se nel caso dell’attività vincolata ben più rilevante, sia in termini quantitativi che qualitativi, potrà essere il ricorso a strumenti di automazione della raccolta e valutazione dei dati, anche l’esercizio di attività discrezionale, in specie tecnica, può in astratto beneficiare delle efficienze e, più in generale, dei vantaggi offerti dagli strumenti stessi.”
[21] Consiglio di Stato, sent. n. 881/2020, cit., par. 11.2, ove si legge che “’altro principio del diritto europeo rilevante in materia (ma di rilievo anche globale in quanto ad esempio utilizzato nella nota decisione Loomis vs. Wisconsin), è definibile come il principio di non esclusività della decisione algoritmica. Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.”
[22] Consiglio di Stato, sent. n. 881/2020, cit., par. 11.2 e 11.3.
[23] Sulle caratteristiche essenziali dei regolamenti si rinvia per tutti a P. MENGOZZI e C. MORVIDUCCI, Istituzioni di diritto dell’Unione europea, Wolters Kluwer, Milano, 2019, pp. 120 e ss.
Nell’ampia giurisprudenza della Corte di Giustizia dell’Unione Europea, sul tema, si rinvia a Corte di Giustizia 17 settembre 2002, C-253/00, Antonio Munoz et al., Racc. I-7289, EU:C:2002:497.
[24] Regolamento UE 2024/1689, considerando n. 3 ove si legge che “Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'IA sia affidabile e sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano, importano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione al fine di conseguire un'IA affidabile, mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione, l'innovazione, la diffusione e l'adozione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE).”
[25] Regolamento UE 2024/1689, considerando n. 3.
[26] Cfr. G. FINOCCHIARO, La regolazione dell’intelligenza artificiale, op. cit.
In particolare, l’A. -riferendosi al testo contenuto nella proposta iniziale di regolamento e poi confluito nel testo definitivo dell’AI Act- ha osservato che tale approccio se da un lato ha il pregio di fornire un quadro normativo unitario e armonizzato, può presentare alcune limitazioni: “L'approccio adottato dal legislatore europeo alla regolazione dell'intelligenza artificiale è, come si è accennato, un approccio orizzontale. Il limite intrinsecamente connesso a questo approccio è che, dal momento che le norme non sono indirizzate a risolvere specifici problemi o a colmare determinate lacune dell'ordinamento, esse devono necessariamente essere applicabili a qualunque settore, così in ambito sanitario, come in ambito finanziario. Dunque, non norme ad hoc per risolvere un problema particolare o rimuovere degli ostacoli giuridici, ma disposizioni generali per delineare un quadro complessivo, un contesto di riferimento nel quale opereranno i sistemi di intelligenza artificiale, anche quelli ancora da venire.”
[27] Ferma restando la valenza generale dell’AI Act, lo stesso art. 2 prevede che una serie di settori siano esplicitamente esclusi dal suo ambito di applicazione. Più nello specifico, è previsto che l’AI Act non si applichi: ai settori che non rientrano nell’ambito di applicazione del diritto dell’Unione europea (art. 2, co. 3); ai sistemi di i.a. che abbiano esclusivamente scopi militari, di difesa, di sicurezza nazionale (art. 2, co. 3), di ricerca e sviluppo scientifico (art. 2, co. 6); alle autorità pubbliche di un Paese terzo o organizzazioni internazionali (art. 2, co. 4); alle persone fisiche che utilizzano sistemi di i.a. nel corso di un’attività non professionale puramente personale (art. 2, co. 10); ai sistemi di i.a. rilasciati con licenza libera e open source, a meno che non siano immessi sul mercato o messi in servizio come sistemi di i.a. ad alto rischio (art. 2, co. 12).
[28] Anche l’ambito di applicazione soggettivo dell’AI Act risulta particolarmente esteso. Più nel dettaglio l’art. 2, co. 1, prevede che l’AI Act si applichi, senza distinzione tra soggetti pubblici e privati, a: a) fornitori che immettono sul mercato o mettono in servizio sistemi di IA o immettono sul mercato modelli di IA per finalità generali nell'Unione, indipendentemente dal fatto che siano stabiliti o ubicati nell'Unione o in un paese terzo; b) deployer dei sistemi di IA che hanno il loro luogo di stabilimento o sono situati all'interno dell'Unione; c) fornitori e ai deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l'output prodotto dal sistema di IA sia utilizzato nell'Unione; d) importatori e distributori di sistemi di IA; e) fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio; f) rappresentanti autorizzati di fornitori, non stabiliti nell'Unione; g) persone interessate che si trovano nell'Unione.
L’analisi completa della disposizione evidenzia un’altra particolarità dell’AI Act. Diversamente dai regolamenti di stampo classico adottati da parte dell’Unione Europea che si rivolgono e trovano applicazione esclusivamente nei confronti di soggetti appartenenti ai Paesi membri, l’AI Act trova applicazione anche nei confronti di soggetti extra-UE e/o di sistemi di intelligenza artificiale utilizzati al di fuori dell’Unione Europea. Al fine di tutelare efficacemente i diritti e i valori garantiti dal diritto dell’UE, il legislatore comunitario ha ritenuto necessario applicare il predetto regolamento anche ai soggetti che producono, importano o utilizzano sistemi di intelligenza artificiale nel territorio dell’Unione europea pur essendo situati in Paesi terzi, e dunque al di fuori dell’UE, evitando in tal modo che l’AI Act venga disapplicato tramite l’interposizione di soggetti extra-UE nella commercializzazione e/o circolazione dei sistemi di intelligenza artificiale. In aggiunta, come ribadito esplicitamente nel considerando n. 22, l’AI Act dovrebbe essere applicato anche nei confronti di quei sistemi di intelligenza artificiale -rientranti nella categoria di “rischio alto”- che sebbene non formalmente utilizzati nel territorio dell’UE possano comunque raccogliere dati presenti nell’Unione europea.
[29] Cfr. S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit.; C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit.
[30] Cfr. M. FRANCAVIGLIA, L’intelligenza artificiale nell’attività amministrativa: principi e garanzie costituzionali nel passaggio dalla regula agendi alla regola algoritmica, in Federalismi, luglio 2024.
[31] In generale, sul rapporto tra sistemi di intelligenza artificiale e trasparenza nel procedimento amministrativo si rinvia, ex multis, a S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit.; E. LONGO, I processi decisionali automatizzati e il diritto alla spiegazione, op. cit.
[32] La formulazione dell’art. 13 dell’AI Act, che impone l’obbligo di trasparenza per i sistemi di intelligenza artificiale ad alto rischio, è stata tuttavia criticata dalla dottrina che ne ha riscontrato alcune problematiche interpretative. In particolare, S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit., ha evidenziato che “La trasparenza deve essere sufficiente a “interpretare” l'output generato dal sistema: la necessità di un'attività interpretativa esclude dunque la chiarezza e il carattere univoco e inequivoco dello stesso risultato, posto che in claris non fit interpretatio. A meno di intendere l'interpretazione come attività «dianoetica» che, in quanto tale, è connotata da immanenti profili di soggettività e quindi implica necessariamente l'intervento umano, come ricordano alcune pronunce del giudice amministrativo. Verosimilmente la disposizione dev'essere intesa nel senso che la sufficienza di cui si è detto deve essere correlata all'adeguatezza di utilizzo: il principio di adeguatezza del risultato (output) dell'IA implica che lo stesso sia chiaro ai destinatari e, soprattutto, compatibile e adattato al contesto nel quale è applicato, a pena di viziare l'atto giuridico che scaturisce, come si vedrà.”
Recensione a “Uno come tanti” di Ennio Tomaselli
di Costantino De Robbio
Mi aspettavo che fosse il solito romanzo scritto da un magistrato, come ce ne sono ormai diversi: siamo una categoria che si diletta a scrivere, forse perché vive di parole, e le parole le sa usare.
Così, quando dobbiamo cercare un hobby, spesso finiamo con lo scegliere di usare quella tecnica o quel talento: manovrare le parole.
Rivendichiamo la nostra libertà rispetto al lavoro in questo modo: scegliendo noi cosa scrivere e di che, anziché parlare di abusi edilizi o legati in conto di legittima… ma finiamo, il più delle volte, fatalmente con usare questa libertà che ci siamo presi per romanzare ciò che abbiamo conosciuto: il lavoro di magistrati, la nostra vita, il perché abbiamo fatto questo strano mestiere e quanto sia, come spesso ci diciamo tra noi, "il mestiere più bello del mondo".
E invece Ennio Tomaselli è riuscito a prendermi in contropiede, partendo da un punto di vista che più originale non poteva essere: la magistratura non come ideale di vita ma come maledizione, qualcosa che ti capita quasi senza che tu lo voglia e che puó stravolgere la vita tua e di tutti quelli che ti stanno attorno, come una specie di malattia.
Sin dalle prime righe l'autore ci accompagna in questo strano mondo alla rovescia, dove il protagonista è un giovane che sta preparando il concorso in magistratura a dispetto della madre, che sembra odiarlo per questo.
Lo stesso Fabrizio, il protagonista, sembra consapevole di essersi incamminato per una via maledetta, lasciando la strada tracciata per lui (ereditare lo studio legale dei genitori, o meglio di quelli che crede essere i suoi genitori) per arrampicarsi su un sentiero impervio e tutto sommato incomprensibile… ma, come presto scopriremo, è il richiamo del sangue a guidarlo, anche se inconsapevole.
Non a caso, la prova di ingresso in questo mondo - i tre giorni degli scritti del concorso - coincide con la scoperta che il suo vero padre non era quello con cui aveva vissuto fino a quel momento ma un magistrato, scomparso misteriosamente prima che lui nascesse e vittima della maledizione di quel mondo che aveva scelto.
Il giovane inizierà così una ricerca delle tracce del padre, nel tentativo di capire le ragioni della sua scomparsa, imbattendosi non di rado in personaggi (la zia Nilde) che continuano a ripetergli che il mondo in cui sta per entrare è una malattia, non un lavoro.
Man mano che il romanzo prosegue disvelando il mistero del magistrato scomparso e della sua vita, l’autore porta il suo giovane protagonista– attraverso non pochi colpi di scena che qui non si sveleranno – alla consapevolezza che il passaggio alla vita adulta è simile al biblico albero della conoscenza: sta a ciascuno di noi, ci suggerisce Tomaselli, scegliere se ignorarlo o mangiarne i frutti, sapendo che, se si sceglie questa alternativa, la conoscenza comporta perdita di innocenza, dolorosa consapevolezza.
È questa, in fondo, la maledizione: ci sono persone che non possono fare a meno di allungare la mano e cogliere questo frutto… per curiosità intellettuale, idealismo, voglia di capire e dare un senso a tutto.
E per questo tipo di persone, ci avverte l’autore, entrare in magistratura (ma forse vale per qualsiasi universo che si vive da adulto) può diventare insopportabile, perché la verità è troppo dura da digerire per un idealista: o si sceglie di ignorare il frutto dell’albero della conoscenza, o si alza la testa, e se ne paga tutto il salato prezzo
Nel romanzo abbiamo dunque un amaro e disilluso spaccato della magistratura e dei suoi componenti, che sembrano divenire sempre più opachi e lasciarsi andare a calcolo e mediocrità man mano che avanzano in età (e carriera).
Al protagonista, guidato da alcuni “Virgilio” di cui non è opportuno qui svelare l’identità, Tomaselli assegna il compito “eroico” di vedere in anticipo come potrebbe o non potrebbe diventare, l'alternativa tra mantenersi puri (e il suo prezzo) e cedere alla disillusione. Il padre per mantenersi puro ha abbandonato la partita e la magistratura… riuscirà il figlio nel compito sovrumano di rimanere in campo senza rinnegare i propri ideali?
Riuscirà a vivere il proprio mestiere in modo “utile alla gente”, che vuol dire, secondo le parole con cui l’autore consegna il romanzo ai suoi lettori, essere scomodi, farsi domande, non essere burocrati ma non cedere alle ambizioni personali, consapevoli di essere parte di un gioco in cui deve prevalere la logica del collettivo, orgogliosi dunque di essere “uno come tanti”?
Ennio Tomaselli, "Uno come tanti", Manni, 2024.
Dovendo decidere ai sensi dell’art. 35-bis, comma 4, D.L.vo 25/2008 in via interlocutoria e urgente (entro il termine di 5 giorni dalla sua presentazione) su una istanza di sospensione del provvedimento che dichiarava la manifesta infondatezza della domanda di protezione internazionale presentata da un cittadino del Bangladesh, il tribunale di Bologna con ordinanza del 29 ottobre 2024 ha proposto rinvio pregiudiziale alla Corte di Giustizia dell’Unione Europea, ravvisando la necessità di risolvere alcuni contrasti interpretativi in relazione alla disciplina rilevante contenuta nella Direttiva n. 2013/32/UE e, più in generale, alla regolazione dei rapporti fra il diritto dell’Unione Europea e il diritto nazionale.
La rilevanza della questione, e un certo clamore mediatico, deriva non soltanto dalla necessità di verificare se, nel caso di specie, ricorrano o meno i presupposti legali della deroga al principio sancito dalla Direttiva 2013/32/UE (cd. procedure recast) per cui in caso di ricorso giurisdizionale vi è il diritto di rimanere sul territorio del paese ospitante sino all’esito del ricorso, quanto dai più generali riflessi della questione. La definizione dei presupposti legali della designazione di un paese terzo come “paese di origine sicuro” e dei poteri del giudice ordinario di disapplicazione dell’atto di designazione ha invero potenti conseguenze sulle attuali politiche governative in materia di protezione internazionale, posto che il noto accordo fra Italia e Albania, che prevede il trasferimento coatto dei richiedenti asilo sul territorio albanese sino alla decisione della Commissione territoriale sulla sua domanda, poiché comporta il trattenimento della persona è applicabile -in forza della stessa direttiva- soltanto nei confronti di chi proviene da un paese sicuro.
Com’è noto, dopo alcuni provvedimenti del Tribunale di Roma del 18 ottobre 2024, che hanno affermato la illegittimità della designazione come “paesi di origine sicuri” dei paesi di provenienza -Bangladesh ed Egitto- dei richiedenti asilo coattivamente trasferiti in Albania, il Governo in data 23 ottobre 2024 ha emesso il decreto-legge n. 158 con cui ha confermato la designazione di 19 paesi, fra cui il Bangladesh.
Dovendosi applicare -per la prima volta- in virtù del principio del cd. tempus regit actum, tale nuova disposizione di natura processuale, in vigore dal 24 ottobre 2024, il Tribunale di Bologna ha dunque ritenuto di proporre alla Corte europea due quesiti:
Nell’ordinanza viene sottolineato con forza come la necessità di chiedere un chiarimento della Corte di Giustizia non sia fondata tanto su un effettivo dubbio interpretativo del giudice remittente, il quale chiarisce con nettezza il proprio orientamento, quanto sulla necessità di assicurare l’applicazione uniforme del diritto dell’Unione, nel momento in cui le differenti opzioni esegetiche hanno condotto ad un vero e proprio conflitto istituzionale con riguardo alla nozione di “paese di origine sicuro”, ai rapporti fra diritto europeo e diritto interno e ai poteri del giudice ordinario.
Il Tribunale evidenzia infatti che “il Collegio ha una precisa opinione in ordine alla corretta soluzione interpretativa” ma ritiene necessario che “la Corte di Giustizia sia invocata quando occorra dissipare gravissime divergenze interpretative del diritto europeo, manifestatesi nel caso di specie in modo obiettivo e virulento in seguito ad alcuni provvedimenti giurisdizionali sino alla decretazione d’urgenza di cui al D.L. n. 158/2024”. Rileva il tribunale che “in presenza di un gravissimo contrasto interpretativo del diritto dell’Unione, qual è quello che attualmente attraversa l’ordinamento istituzionale italiano, il rinvio alla Corte è opportuno al fine di conseguire un chiarimento sui principi del diritto europeo che governano la materia”.
Riguardo al primo quesito, che attiene ai presupposti legali che consentono la designazione di un paese terzo come “paese di origine sicuro”, il tribunale rileva che “quando era stata immaginata la redazione di una lista devoluta al Consiglio dell’Unione europea, la discussione sulle possibili designazioni era limitata ai paesi europei per cui risultava pendente una domanda di adesione all’Unione” tant’è che la Commissione Europea aveva suggerito di includere soltanto l’Albania, la Bosnia ed Erzegovina, la Macedonia, il Kosovo, il Montenegro, la Serbia e la Turchia. La competenza attribuita ai paesi aderenti ha condotto invece ad una progressiva estensione, da parte di alcuni paesi, fra cui l’Italia, “anche a paesi extraeuropei per cui le condizioni di sicurezza sono spesso assai dubbie”.
Tale esito è stato determinato da una “linea interpretativa che ha condotto ad estendere la lista nazionale italiana dei paesi di origine sicuri alla gran parte dei paesi da cui provengono coloro che chiedono asilo in Italia (con l’eccezione, fra quelli più rilevanti, del Pakistan e, adesso, dei tre paesi che presentano conflitti interni), predisponendo per gli stessi un apposito apparato normativo conseguente ad accordi intervenuti con la Repubblica di Albania”.
Il Collegio ha ritenuto a tale proposito necessario “sgombrare innanzitutto il campo da un equivoco di fondo, quello per cui potrebbe definirsi sicuro un paese in cui la generalità, o maggioranza, della popolazione viva in condizioni di sicurezza”.
Il tribunale ha osservato al riguardo che “il sistema della protezione internazionale è, per sua natura, sistema giuridico di garanzia per le minoranze esposte a rischi provenienti da agenti persecutori, statuali o meno. Salvo casi eccezionali (lo sono stati, forse, i casi limite della Romania durante il regime di Ceausescu o della Cambogia di Pol Pot), la persecuzione è sempre esercitata da una maggioranza contro alcune minoranze, a volte molto ridotte. Si potrebbe dire, paradossalmente, che la Germania sotto il regime nazista era un paese estremamente sicuro per la stragrande maggioranza della popolazione tedesca: fatti salvi gli ebrei, gli omosessuali, gli oppositori politici, le persone di etnia rom ed altri gruppi minoritari, oltre 60 milioni di tedeschi vantavano una condizione di sicurezza invidiabile. Lo stesso può dirsi dell’Italia sotto il regime fascista. Se si dovesse ritenere sicuro un paese quando la sicurezza è garantita alla generalità della popolazione, la nozione giuridica di Paese di origine sicuro si potrebbe applicare a pressoché tutti i paesi del mondo, e sarebbe, dunque, una nozione priva di qualsiasi consistenza giuridica”.
Vengono rammentati due autorevolissimi precedenti delle due massime Autorità giudiziarie francese e inglese, il Conseil d'État e la High Court, che hanno entrambe dichiarato illegittima la designazione di tre paesi (Senegal, Gambia; Giamaica) in ragione della persecuzione dei (soli) appartenenti alla comunità lgbtqia+. La nozione di sicurezza non è stata riferita, dunque, alla maggioranza della popolazione, ma in ragione della persecuzione delle (sole) persone lgbtqia+, è stato negato che il paese possa essere incluso nella lista nazionale dei paesi di origine sicuri.
Sono interessanti al riguardo le notazioni del tribunale bolognese per cui sarebbe irragionevole “pretendere che una persona appena giunta nel paese ospitante sia subito in grado di chiarire in che termini sia attinta da rischi persecutori sistematicamente e ordinariamente presenti nel proprio paese. Ne sono esempi evidenti l’ipotesi di donne provenienti da paesi in cui vi siano endemici fenomeni di tratta di esseri umani, le quali sono sovente ancora oggetto di tratta al momento dell’arrivo, e l’ipotesi di donne o persone lgbtqia+ provenienti da paesi con fenomeni endemici di violenza di genere, matrimoni imposti, mutilazioni genitali o persecuzioni per l’orientamento sessuale o l’identità di genere, che possono non essere in grado di narrare immediatamente il proprio vissuto, in ragione della necessità di sottrarsi alla soggezione culturale dovuta al contesto di provenienza”.
I giudici emiliani hanno rilevato pure come “in ipotesi di fenomeni sistematici di persecuzione o esposizione a danno grave di minoranze, tutta la popolazione appaia in qualche modo esposta a un rischio persecutorio, atteso che raramente una minoranza è segnata da confini netti e facilmente identificabili e che quando vi è persecuzione di un gruppo minoritario la stessa tende a colpire anche chi, pur non appartenendo al gruppo minoritario, sia entrato comunque per varie ragioni in relazione con appartenenti allo stesso”.
Il tribunale ha osservato, quindi, una vistosa contraddizione logica fra gli atti interlocutori e il provvedimento finale in relazione al Bangladesh, atteso che nelle conclusioni della stessa “scheda paese” preparata dal Ministero si suggerisce che “il Bangladesh può essere considerato come un Paese sicuro (…) ad eccezione delle fattispecie indicate al punto n. 6” (dove sono indicati gli appartenenti “alla comunità LGBTQI+, alle vittime di violenza di genere, incluse le mutilazioni genitali femminili, alle minoranze etniche e religiose, alle persone accusate di crimini di natura politica e ai condannati a morte. Si segnala anche il crescente fenomeno degli sfollati “climatici”, costretti ad abbandonare le proprie case a seguito di eventi climatici estremi”) senza che di tale diffusa insicurezza si tenga conto nella decisione finale adottata. Tale “incongruenza logica”, secondo il Tribunale, “è spiegabile soltanto seguendo lo schema interpretativo, che evidentemente sottende anche al D.L. n. 158/2024 promosso dal Governo italiano, per cui la Direttiva 2013/32/UE consentirebbe la designazione se comunque la maggioranza della popolazione è in condizioni di sicurezza o per cui la designazione avrebbe in ogni caso natura giuridica di “atto politico”, determinata da superiori esigenze di governo del fenomeno migratorio e di difesa dei confini nazionali, prescindendo dalle informazioni e dai giudizi espressi dai competenti uffici ministeriali in ordine alle condizioni di sicurezza del paese designando”.
Il secondo quesito riguarda il dovere del giudice di disapplicare le disposizioni nazionali che contrastino con il diritto europeo.
Tale potere-dovere è stato affermato da oltre quattro decenni in una consolidata e monolitica giurisprudenza della Corte di Giustizia (ex multis cfr. sentenza 15 luglio 1964, causa 6/64, Costa c. E.N.E.L. e sentenza del 9 marzo 1978, causa 106/77, Amministrazione delle finanze dello Stato c. SpA Simmenthal. L’esigenza di tornare ancora una volta su questo avanti ai giudici di Lussemburgo, nonostante “l’intima e ferma convinzione giuridica del Collegio” che tale dovere sussista, deriva ancora una volta dalla necessità di dipanare il “gravissimo contrasto fra le diverse Autorità chiamate a interpretare e applicare il diritto dell’Unione”.
Nel riportare il contenuto del provvedimento, la stampa ha evidenziato un preteso intento “impugnatorio” del recente dl del 23 ottobre 2024 (“i giudici mandano il dl davanti la Corte”) ed ha sottolineato un passaggio ad effetto sulle condizioni di sicurezza durante regime nazista (“seguendo il governo sarebbe sicuro anche la Germania nazista”). Alcuni esponenti politici, i ministri degli esteri e dell’interno, chiamati a commentare l’ordinanza in un momento in cui il testo non era ancora pubblico, hanno criticato una pretesa fuga dagli stretti limiti della giurisdizione.
In verità, la lettura dell’ordinanza attesta la chiara volontà, dato atto di un conflitto interpretativo innegabile, di trovare una soluzione razionale a tale conflitto attraverso il ricorso alla Autorità istituzionalmente preposta ad assicurare uniformità di interpretazione del diritto europeo.
È noto che la Corte di giustizia ha competenza esclusivamente sulla interpretazione del diritto europeo, con decisioni che sono vincolanti e inderogabili per tutte le autorità dei paesi aderenti all’Unione, giudiziarie e non, ma non ha invece alcuna competenza sulla legittimità degli atti nazionali (nonostante l’evoluzione giurisprudenziale della Corte abbia via via esteso il controllo, attraverso la tecnica decisoria per cui il diritto europeo, correttamente interpretato, può “ostare” a che i legislatori nazionali adottino determinate misure). È dunque errato leggere nella richiesta di chiarimenti sul diritto europeo una sorta di “impugnazione” del dl italiano.
La ricerca di una soluzione definitiva è, invece, precisamente nel solco del recente invito del Capo dello Stato ad abbassare i toni e a trovare soluzioni tecniche al conflitto e alle divergenze di opinione in atto. Seguendo le indicazioni delle linee guida per la redazione dei rinvii pregiudiziali, il tribunale di Bologna ha espresso in modo chiaro il punto di vista dell’Autorità remittente. Il Governo italiano, che (a differenza di quelli tedesco e olandese, intervenuti con orientamenti opposti fra loro) non era intervenuto nel procedimento che ha condotto alla sentenza del 4 ottobre, menzionata nel preambolo del dl e in qualche modo “contestata” dal governo italiano, ha adesso modo di presentare il proprio punto di vista, peraltro obiettivamente e precisamente rappresentato nella stessa ordinanza bolognese, depositando le proprie osservazioni.
Non resta dunque che attendere la decisione della Corte.
Sul tema si vedano anche Corte di giustizia: l’Egitto non è un paese sicuro e Paesi sicuri e categorie di persone “insicure”: un binomio possibile? Il Tribunale di Firenze propone rinvio pregiudiziale alla Corte di giustizia UE di Cecilia Siccardi.
To install this Web App in your iPhone/iPad press icon.
And then Add to Home Screen.