ISSN: 2974-9999
Registrazione: 5 maggio 2023 n. 68 presso il Tribunale di Roma
Il tempo che ci vuole
Cimentarsi in un lavoro che parli del padre, specie se pubblico e famoso, può essere rischioso. Per via di una parzialità narrativa che finisce per alterare i ruoli, dando evidenza al narratore più che al suo obiettivo e trascurando invece i risvolti più intimi, per i quali la parentela, per paradosso ma in realtà, funge da antagonista, da oggettivo diaframma di conoscenza. E ancor di più per una figlia, per la quale al mito dell’impareggiabile figura paterna si assomma il surplus d’ineguagliabilità alimentato dalla differenza di genere. Con la conseguenza di un difficile approdo ad un rapporto più vero se non per il doloroso (per entrambi) e non breve valico di un’intima demolizione della persona del padre e di tutto il suo intorno.
La Comencini tuttavia ci prova, con coraggio e con successo; e per farlo ha necessità di isolare il rapporto da implicazioni aliene – nel film, infatti, non figurano la madre e le tre sorelle – realizzandolo in un colloquio a due dall’essenza cruda e diretta, fatto di un contrappunto dinamico cadenzato nel dialogo che il percorso diacronico dei protagonisti, nelle diverse e rispettive età, stimola e suggerisce.
E tanto efficace è qui il racconto da far chiedere se forse l’apparire imperfetto agli occhi di un figlio non possa risultare pedagogicamente più utile a scongiurare pericolosi raffronti e ad esiliare angosce d’inarrivabilità.
Con felice simbologia grafica il tormentoso itinerario di crescita accanto al padre è rappresentato nel film da uno schizzo in rosso di un grosso pescecane, dalle fauci aperte e i denti in vista, che a tratti riemerge sullo schermo sfumando di volta in volta la scena; un ritorno d’immagine come incubo e ostacolo di insicurezza e di paura. Analogamente, il medesimo assillo replica la sua presenza, ancora una volta e con tocco di delicata maestria, nel rifiuto di Francesca bambina di vedere da vicino una vera balena in esposizione in un tendone di città; quella stessa balena negata che poi ricompare, a fine crescita (e a fine film), in un immaginifico transito volante – innanzi a padre e figlia, stretti per le mani e sorridenti a volteggiare insieme nel cielo.
Capovolgimento dei ruoli, si diceva, perfettamente rappresentato nell’accostamento tra l’immagine dell’iniziale cura paterna nell’avviare la figlioletta ad uno sguardo sulla vita e i suoi rischi – l’apriechiudi sulla figura di quello squalo illustrato a fauci spalancate – e quell’altra immagine, esortante e tenera, in cui questa volta è Francesca ormai adulta a spronare il padre riluttante a muoversi e a camminare spedito al suo seguito per le strade di Parigi. Adesso lei, diventata consapevole condottiera nel tempo che ci vuole, finalmente liberatasi dal travaglio di trovarsi sempre in campo – metaforicamente nel perimetro d’influenza di papà Luigi – senza alcuna capacità di uscirne.
Narrando di un grande regista, il lavoro della più giovane Comencini è anche un film nel film, sublimando nei frammenti di scene collodiane la formidabile capacità immaginifica del cinema, in grado di offrire salvifici salvacondotti esistenziali.
La magistrale interpretazione dei due attori protagonisti e in special modo di un Gifuni dalla recitazione matura, intrisa di colore espressivo e di una efficacissima anche muta gestualità, e le musiche, da Smetana a Nicola Di Bari, del tutto consone ai passaggi scenici, a loro volta coerenti col contesto sociale di riferimento, completano un prodotto d’arte cinematografica in perfetta simbiosi con la nobile tradizione familiare.
AI Act e pubblica amministrazione
La decisione amministrativa automatizzata secondo il Regolamento UE 2024/1689
di Simone Francario
Sommario: 1. Introduzione; 2. L’evoluzione della legislazione europea in materia di utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione; 3. Il Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 (“AI Act”); 4. Le soluzioni proposte dall’AI Act alle principali problematiche della materia.
1. Introduzione.
In Europa la principale fonte sovranazionale che disciplina la materia dell’intelligenza artificiale è contenuta nel Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio, adottato il 13 giugno 2024, meglio noto come AI Act[1].
L’AI Act, in particolare, disciplina i presupposti e le modalità di utilizzo dei sistemi di intelligenza artificiale tanto per i soggetti privati, quanto per la pubblica amministrazione, al fine di garantire che tali software siano utilizzati in maniera etica e nel rispetto dei principi e dei diritti fondamentali dell’Unione europea.
La questione si presenta particolarmente delicata in ambito pubblicistico. Da un lato, l’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione porta ovviamente notevoli vantaggi: si pensi, ad esempio, alla riduzione dei tempi e all’aumento dell’efficienza dell’azione amministrativa tramite l’automazione dei procedimenti amministrativi ordinari o di routine, oppure tramite l’elaborazione di grandi quantità di dati; o ancora, al fatto che l’intelligenza artificiale può essere usata dalla p.a. per analizzare grandi quantità di dati anche a scopo predittivo riducendo di gran lunga la percentuale dell’errore umano; o ancora, l’utilizzo ben noto a tutti di chatbot e assistenti virtuali per fornire risposte alle domande dei cittadini[2].
D’altro lato, come sottolineato in maniera unanime dalla dottrina[3], l’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione evidenzia anche notevoli criticità[4]. Tra queste meritano di essere segnalate, innanzitutto quelle connesse al fatto che le decisioni amministrative, finalizzate alla cura dell’interesse pubblico, siano prese soltanto da software o complessi algoritmi esautorando totalmente il coinvolgimento dell’uomo-decisore pubblico[5]; al fatto che la concentrazione dell’attività amministrativa esclusivamente in capo all’intelligenza artificiale pone problemi di “accountability” (in altre parole, chi è responsabile per le decisioni prese dall’intelligenza artificiale?); o ancora, al fatto che spesso gli algoritmi di intelligenza artificiale operano come “scatole nere” e rendono difficile o impossibile comprendere come vengono prese le decisioni, con pregiudizio del principio di trasparenza dell’azione amministrativa[6].
Intento del presente scritto è esaminare, in particolare, le norme dell’AI Act che disciplinano l’utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione[7] e valutare, se e in che modo, la normativa europea offra delle prime soluzioni alle problematiche cui si è fatto cenno.
Dopo aver riassunto, preliminarmente, nei tratti essenziali il quadro giuridico di riferimento prima dell’adozione dell’AI Act, esaminando in particolare le normative adottate in Germania e Francia nonché i principi elaborati dalla giurisprudenza italiana, si esamineranno le principali norme dell’AI Act che disciplinano l’uso dell’intelligenza artificiale da parte della pubblica amministrazione e, dopo aver sinteticamente richiamato le principali problematiche collegate all’utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione, si esamineranno infine le soluzioni proposte dal legislatore comunitario con l’adozione dell’AI Act.
2. L’evoluzione della legislazione europea in materia di utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione.
Prima dell’adozione dell’AI Act, i singoli Paesi europei già avevano iniziato a regolamentare i presupposti e le modalità di utilizzo dei sistemi di intelligenza artificiale da parte della pubblica amministrazione.
In Germania, ad esempio, il legislatore tedesco ha previsto che è ammissibile l’adozione di una decisione amministrativa completamente automatizzata al ricorrere di due requisiti: i) ciò deve essere espressamente previsto da una norma di legge, e ii) solo laddove ci si trovi in presenza di una attività vincolata, ovverosia quando l’amministrazione ha già esaurito il proprio margine discrezionale[8].
Un approccio diverso, invece, è stato utilizzato in Francia dove il legislatore ha introdotto un divieto generale per la pubblica amministrazione di adottare un provvedimento che produca effetti giuridici nei confronti di una persona qualora tale provvedimento si basi unicamente sul trattamento automatizzato di dati personali[9]. Tale divieto, tuttavia, può essere derogato al ricorrere di determinati presupposti e tra i più significativi si rinvengono: i) il fatto che l’amministrazione deve comunicare all’interessato l’intenzione di adottare una decisione basata sul trattamento algoritmico di dati; ii) su richiesta dell’interessato, l’amministrazione deve fornire le regole tecniche e le caratteristiche dell’algoritmo; iii) è necessario, comunque, che l’adozione del provvedimento sia supervisionata da un operatore umano che controlli l’operato della macchina e che ne possa spiegare, in maniera chiara e precisa, l’operato[10].
In Italia l’approccio è stato ancora diverso poiché, mentre in Germania e Francia è intervenuto direttamente il legislatore, in Italia ciò non è avvenuto e il vuoto normativo è stata colmato dalla giurisprudenza amministrativa. Ci si riferisce, in particolare, alle note sentenze del Consiglio di Stato, Sez. VI, 8 aprile 2019, sent. n. 2270/2019, e Consiglio di Stato, Sez. VI, 4 aprile 2020, sent. n. 881/2020[11].
Con la sentenza n. 2270/2019[12], il Consiglio di Stato, dopo aver ricordato che l’utilizzo di algoritmi e sistemi di intelligenza artificiale porta “indiscutibili vantaggi” al processo decisionale dell’amministrazione[13], ha affermato che, per potersi considerare legittima, la decisione amministrativa automatizzata deve -ad ogni modo- rispettare le regole e i principi che governano lo svolgimento dell’attività amministrativa presenti nel nostro ordinamento.
Come si legge in sentenza, infatti, “l’utilizzo di procedure robotizzate non può, tuttavia, essere motivo di elusione dei principi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa.”[14]
Più nello specifico, la decisione amministrativa automatizzata, ovverosia adottata mediante algoritmi o sistemi di intelligenza artificiale: deve essere adottata nel rispetto dei principi di pubblicità, trasparenza, ragionevolezza e proporzionalità[15]; l’iter seguito dalla macchina deve essere conoscibile, non solo per garantire una maggiore tutela del destinatario del provvedimento, ma anche per consentire il sindacato dal giudice amministrativo[16]; infine, con questa prima pronuncia, il Consiglio di Stato ha affermato che la decisione amministrativa automatizzata può essere adottata solamente nei casi di attività amministrativa vincolata, ovverosia quando non rimangono margini di scelta in capo all’amministrazione[17].
Con la successiva sent. n. 881/2020, il Consiglio di Stato è tornato sui requisiti e sulle garanzie che devono essere rispettati qualora la p.a. intenda adottare sistemi di intelligenza artificiale nell’ambito del procedimento amministrativo[18].
Con tale sentenza, il Consiglio di Stato, da un lato, ha ribadito che la decisione amministrativa automatizzata debba pur sempre essere adottata nel rispetto dei principi generali dell’attività amministrativa presenti nell’ordinamento italiano, insistendo -in particolar modo- sul rispetto del principio di trasparenza e sulla piena e necessaria conoscibilità dell’iter seguito dall’algoritmo[19]; dall’altro ha affermato tre principi ulteriori: i) che l’intelligenza artificiale può essere utilizzata anche al di fuori dei casi di attività vincolata[20]; ii) che non si può interamente prescindere dall’intervento umano (c.d. principio di “non esclusività della decisione algoritmica”)[21]; iii) che è necessario un sistema di controlli che consenta al funzionario pubblico di adottare misure opportune per prevenire ed eliminare eventuali errori commessi dall’intelligenza artificiale[22].
3. I lineamenti fondamentali dell’AI Act
L’ultimo tassello dell’evoluzione della evoluzione della disciplina europea in materia di utilizzo di sistemi di intelligenza artificiale da parte della pubblica amministrazione è rappresentato, come anticipato in apertura, dal Regolamento UE 2024/1689 del Parlamento europeo e del Consiglio, ovverosia dall’AI Act.
A livello di inquadramento sistematico, l’AI Act costituisce un regolamento. Rispetto alle fonti e alla giurisprudenza precedentemente richiamate, tale regolamento si pone come fonte sovraordinata, è obbligatorio in tutte le sue parti ed è direttamente applicabile nei confronti degli Stati membri senza che sia necessaria l’adozione di alcuna legge di recepimento[23].
La scelta del regolamento non è stata casuale: come si è visto alcuni Stati membri dell’UE avevano già cominciato ad adottare varie normative in materia di intelligenza artificiale e pubblica amministrazione mentre altri Stati, come l’Italia, erano ricorsi ad un approccio più pragmatico lasciando alla giurisprudenza l’arduo compito di stabilire i principi e le coordinate di riferimento della materia. I diversi interventi del legislatore e della giurisprudenza dei singoli Stati membri, tuttavia, non erano coordinati e/o armonizzati tra di loro e ciò avrebbe potuto creare un quadro giuridico di riferimento altamente frammentato[24].
Con l’utilizzo di una fonte di tipo regolamentare, il legislatore comunitario ha evitato tale frammentazione garantendo invece un quadro normativo europeo uniforme e armonizzato[25].
Un’altra scelta fondamentale effettuata dal legislatore comunitario nella predisposizione dell’impianto generale dell’AI Act riguarda il suo ambito di applicazione, definito dall’art. 2 del medesimo, che risulta particolarmente esteso.
L’AI Act, infatti, ha valenza generale e si applica a qualunque settore[26] in cui vengano in rilievo sistemi di intelligenza artificiale (ad eccezione di un elenco tassativo di alcuni settori esclusi[27] ai sensi dell’art. 2) ed è obbligatorio tanto per i soggetti privati quanto per la pubblica amministrazione[28].
Per quanto riguarda la disciplina sostanziale ivi contenuta, l’AI Act si presenta come un regolamento particolarmente tecnico e articolato. Si compone di 113 articoli, divisi in 13 Capi, e contiene 13 allegati.
Lo scopo del regolamento, ai sensi dell’art. 1, è quello di “migliorare il funzionamento del mercato interno e promuovere la diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile, garantendo nel contempo un livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea […].”
In altre parole, il fine ultimo è quello di garantire lo sviluppo, l’utilizzo e la commercializzazione di una intelligenza artificiale etica, sicura e affidabile e soprattutto conforme ai diritti fondamentali e ai valori dell’Unione europea.
La struttura portante dell’AI Act si basa su una classificazione dei sistemi di intelligenza artificiale sul livello di rischio.
In particolare, il regolamento individua quattro categorie di rischio:
Secondo quanto previsto dall’AI Act gran parte delle attività svolte dalla pubblica amministrazione, ad eccezione di quelle rientranti nei settori esclusi, rientrano all’interno della categoria di “rischio alto.”[29]
Tanto si ricava dall’analisi dell’allegato III del regolamento il quale contiene l’elenco, appunto, delle attività classificate a “rischio alto” e tra queste vi rientrano, ad esempio: la gestione e il funzionamento delle infrastrutture critiche; gestione della migrazione e controllo delle frontiere; gestione dei servizi pubblici essenziali; o infine, l’attività relativa all’amministrazione della giustizia.
In questi casi, per quel che più interessa, la pubblica amministrazione si deve assicurare che i sistemi di intelligenza artificiale utilizzati rispettino i requisiti contenuti nella sezione II, Capo III del regolamento[30].
Particolarmente significativo è l’art. 13 che impone vari obblighi di trasparenza[31]. In particolare, è previsto che i sistemi di i.a. ad alto rischio che la p.a. intenda utilizzare, devono essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente in modo da consentire all’utilizzatore di interpretare l’output del sistema ed utilizzarlo adeguatamente[32].
Ancora, l’art. 13 prevede che tali sistemi di i.a. debbano essere accompagnati anche da istruzioni per l’uso che riportino informazioni complete, corrette e chiare (ad esempio, devono indicare espressamente le caratteristiche del software, le capacità, i limiti delle prestazioni, le finalità previste e i livelli di accuratezza che ci si può ragionevolmente attendere) in maniera tale da fornire all’amministrazione tutte le informazioni e le nozioni necessarie per utilizzare al meglio e in maniera legittima il relativo software.
Altra norma fondamentale contenuta nell’AI Act è l’art. 14 che impone un obbligo specifico di sorveglianza umana: i sistemi di i.a. ad alto rischio utilizzati dall’amministrazione debbono essere supervisionati, per tutto il periodo in cui sono in uso, da uno o più operatori umani adeguatamente qualificati.
In particolare, nel disciplinare il rapporto uomo-macchina, anche in applicazione degli obblighi di trasparenza appena esaminati, l’AI Act prevede che l’operatore umano (in questo caso il funzionario pubblico) deve essere pienamente in grado di conoscere il funzionamento e l’iter seguito dall’i.a.
Non solo, il controllo che l’operatore umano deve esercitare sul sistema di intelligenza artificiale deve essere sostanziale, ovverosia, deve essere in grado di decidere, in qualsiasi situazione, di non usare il sistema di intelligenza artificiale, di ignorare o ribaltare la decisione del software e di intervenire sul funzionamento del sistema di intelligenza artificiale in qualsiasi momento e di interromperlo in condizioni di sicurezza.
Come ulteriore requisito, i sistemi di intelligenza artificiale ad alto rischio utilizzati dall’amministrazione devono essere dotati di un adeguato livello di accuratezza, robustezza e cybersicurezza durante tutto il loro ciclo di vita. (art. 15)
4. Le soluzioni proposte dall’AI Act alle principali problematiche della materia
Il quadro normativo tracciato rende evidente che il regolamento UE cerca di offrire delle prime importanti risposte ai principali problemi dell’utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione.
Sotto questo profilo si può osservare una sostanziale consonanza con i principi già affermati dalla giurisprudenza amministrativa nazionale.
È evidente infatti che il regolamento UE si preoccupa di garantire che l’utilizzo dell’intelligenza artificiale da parte della p.a. non metta in crisi i principi fondamentali dell’azione amministrativa, in particolar modo il principio di trasparenza che, come è noto, impone alla p.a. di rendere ben conoscibile all’esterno l’iter logico e motivazionale alla base del provvedimento amministrativo (ciò tanto al fine di tutelare l’interesse legittimo del destinatario, quanto al fine di consentire un effettivo controllo giurisdizionale sull’atto.) Come è stato evidenziato anche in maniera unanime dalla dottrina, spesso gli algoritmi di intelligenza artificiale operano come “scatole nere” e rendono difficile o impossibile comprendere come vengono prese le decisioni, ciò a chiaro discapito dei diritti fondamentali degli individui-destinatari del provvedimento finale. Sotto questo profilo, l’AI Act, come si è visto, all’art. 13 impone vari obblighi di trasparenza in capo alla pubblica amministrazione, in particolare il funzionario pubblico che utilizza la macchina deve essere in grado di comprendere appieno l’iter seguito dall’intelligenza artificiale; in questo modo, di riflesso, sarà più agevole rendere noto all’esterno (si pensi al destinatario del provvedimento amministrativo o al giudice) quali sono le motivazioni di fatto e di diritto alla base del provvedimento adottato. Il Consiglio di Stato arriva a conclusioni pressoché identiche facendo riferimento ai principi fondamentali che regolano l’azione amministrativa nell’ordinamento italiano: la legge e la costituzione prevedono che l’attività amministrativa debba rispettare il principio di trasparenza e tale principio deve essere necessariamente rispettato anche quando vengono utilizzati sistemi di intelligenza artificiale.
In secondo luogo il Regolamento UE si preoccupa di garantire che le decisioni amministrative, finalizzate per natura alla cura dell’interesse pubblico, non siano prese soltanto da software o complessi algoritmi esautorando totalmente il coinvolgimento dell’uomo-decisore pubblico. Anche sotto questo profilo, l’AI Act e la giurisprudenza amministrativa sembrano condividere la medesima impostazione.
L’art. 14 dell’AI Act sul punto è molto chiaro: l’essere umano-pubblico funzionario deve controllare le attività svolte dalla macchina per tutta la sua durata e laddove rinvenga degli errori deve essere in grado di poter intervenire e correggerli.
Anche il Consiglio di Stato condivide tale impostazione: non pare seriamente ammissibile un procedimento amministrativo completamente automatizzato che prescinda dall’essere umano; l’essere umano-pubblico decisore deve essere presente, a garanzia dell’interesse legittimo dei cittadini e del buon andamento della p.a., per controllare l’operato dell’intelligenza artificiale, nonché per correggerne gli eventuali errori.
È evidente quindi che sotto molteplici profili le soluzioni anticipate dal Consiglio di Stato convergano con quelle da ultimo prospettate dall’AI Act per garantire un utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione che sia rispettoso dei principi fondamentali dell’azione amministrativa e che tuteli i diritti e le libertà dei cittadini garantiti dal diritto europeo.
In conclusione, l’AI Act si pone come un punto di riferimento certo per regolamentare il fenomeno dell’intelligenza artificiale nell’ambito del procedimento amministrativo in quanto tiene in considerazione le principali problematiche sottese alla materia e tenta di offrire una prima importante risposta.
Inoltre, il Regolamento europeo è di recentissima adozione e le sue varie parti entreranno in vigore in maniera scaglionata nel corso del tempo (per intenderci, al termine dei prossimi due anni l’AI Act dovrebbe essere pienamente in vigore in tutte le sue parti), il che rende sicuramente prematuro un giudizio sulla concreta efficacia delle misure proposte dal legislatore comunitario.
[1] Tra i primi commentatori dell’AI Act o della proposta di regolamento alla base dell’AI Act, si rinvia ex multis a: G. FINOCCHIARO, La regolazione dell’intelligenza artificiale, in Rivista trimestrale di diritto pubblico, IV, dicembre 2022, pp. 1085 e ss.; C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, in Rivista italiana di diritto pubblico comunitario, II-III, Aprile 2022, pp. 265 e ss.; S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, in Diritto Amministrativo, III, settembre 2023, pp. 515 e ss.; S. CAL, Il quadro normativo vigente in materia di ia nella pubblica amministrazione (CAD, GDPR, IA ACT), in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione, principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 31 e ss.; M. IASELLI (a cura di), AI ACT. Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024, Rimini, Maggioli, 2024; B. MARCHETTI, Intelligenza artificiale, poteri pubblici e rule of law, in Riv. It. Dir. Publ. Com., I, 2024, pp. 49 e ss.
[2] Per questi profili v. in ptcl. R. CAVALLO PERIN, D.U. GALETTA (a cura di), Il diritto dell'amministrazione pubblica digitale, Giappichelli, Torino, 2020.
Per una visione più generale sull’utilizzo dei sistemi di intelligenza artificiale nell’ambito del procedimento amministrativo si rinvia a G. PESCE, Intelligenza artificiale e blockchain, Napoli, Editoriale Scientifica, 2021; A. LALLI (a cura di), La regolazione pubblica delle tecnologie digitali e dell’intelligenza artificiale, Torino, Giappichelli, 2024.
[3] Per tutti v. L. TORCHIA, Lo Stato digitale. Una introduzione, Bologna, Il Mulino, 2023; L. CASINI, Lo stato (im)mortale. I pubblici poteri tra globalizzazione ed era digitale, Milano, Mondadori, 2022, p. 63 e ss., con riferimento in particolare ai principi stabiliti dalla giurisprudenza amministrativa nazionale per regolamentare l’uso dell’intelligenza artificiale all’interno del procedimento amministrativo (per i quali v. infra par. 2).
[4] Per una interessante esemplificazione v. L. G. e E. M. BARTOLAZZI MENCHETTI, Sillogismi, inferenze e illogicità̀ argomentative, nella prospettiva di sviluppo della discrezionalità̀ tecnica nell’epoca dell’intelligenza artificiale. Nota a T.A.R. Lazio, sez. Quarta Ter, Ordinanza 27 luglio 2023, n. 4567 in GiustiziaInsieme.it, 2024.
[5] Come evidenziato da autorevole dottrina, la necessità di assicurare la conservazione di un ruolo decisivo della figura umana nell’ambito di procedimenti amministrativi automatizzati assume rilevanza fondamentale. Secondo la teoria della “riserva di umanità” la conservazione della centralità del ruolo umano nell’ambito del procedimento amministrativo automatizzato è necessaria poiché garantisce un tipo di ponderazione tra gli interessi che solo l’attività umana è in grado di offrire, garantisce una decisione etica, salvaguarda i principi fondamentali dell’uomo tra cui la dignità umana, garantisce il rispetto dei principi fondamentali dell’attività amministrativa ed elimina il rischio di una eccessiva “opacità” del procedimento decisionale qualora sia affidato interamente ad un software o ad un algoritmo. Per questi profili si rinvia per tutti a G. GALLONE, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo, Cedam, Padova, 2023.
[6] Per questi profili v. in ptcl. G. AVANZINI, Decisioni amministrative e algoritmi informatici. Predeterminazione analisi predittiva e nuove forme di intelligibilità, Editoriale scientifica, Napoli, 2019.
[7] Per i profili problematici dell’impiego dell’i.a. con specifico riferimento all’esercizio della funzione giurisdizionale per tutti v. M. LUCIANI, La decisione giudiziaria robotica, in Rivista AIC, III, 2018, pp. 872 e ss.; A. SIMONCINI, La dimensione costituzionale della giustizia predittiva: riflessioni sull’intelligenza artificiale e processo, in Riv. Dir. Proc., II, 2024.
[8] Attraverso l’introduzione del §35 nella legge generale sul procedimento amministrativo Verwaltungsverfahrensgesetz, o VwVfG. Sul punto si rinvia a C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit. Come sottolineato dall’A. “Il §35a VwVfG consente l’adozione di una decisione amministrativa completamente automatizzata nel momento in cui ciò sia previsto da una norma di legge (sofern dies durch Rechtsvorschrift zugelassen). La disposizione ha un’evidente funzione di garanzia, in quanto impedisce che la decisione di adottare provvedimenti completamente automatizzati sia presa discrezionalmente dall’amministrazione. […] La norma prevede un altro limite all’automazione completa del procedimento amministrativo: essa è ammessa solo in presenza di attività vincolata o meglio, parafrasando il dato normativo, ‘in assenza di discrezionalità o di un margine di valutazione’ in capo all’amministrazione (‘und weder ein Ermessen noch ein Beurteilungsspielraum besteht’).”
[9] C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit., la quale fa riferimento, in particolare, alla Loi n. 78-17 du 6 janvier 1978, e ss. modifiche, meglio nota come “Information e Libertés”.
[10] C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit.
[11] Cfr. S. CIVITARESE MATTEUCCI, “umano troppo umano”. Decisioni amministrative automatizzate e principio di legalità, in Dir. Pubbl., I, 2019, pp. 5 e ss.; D.U. GALETTA e J.C. CORVALAN, Intelligenza artificiale per una pubblica amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in Federalismi, III, 2019; R. FERRARA, Il giudice amministrativo e gli algoritmi. Note estemporanee a margine di un recente dibattito giurisprudenziale, in Dir. Amm., IV, 2019, pp. 773 e ss.; M. FERRARI, L’uso degli algoritmi nella attività amministrativa discrezionale, in Il diritto degli affari, I, 2020; E. CARLONI, I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudicato amministrativo, in Dir. Amm., II, 2020, pp. 281 e ss.; P. OTRANTO, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, in Federalismi, VII, 2021; M. CORRADINO, Intelligenza artificiale e pubblica amministrazione: sfide concrete e prospettive future, in giustiziamministrativa.it, 2021; G. CARULLO, Decisione amministrativa e intelligenza artificiale, in Dir. Inf. Inform., III, 2021; G. LO SAPIO, La trasparenza sul banco di prova dei modelli algoritmici, in federalismi, 11/2021; L. PARONA, Poteri tecnico-discrezionali e machine learning: verso nuovi paradigmi dell’azione amministrativa, in A. PAJNO, F. DONATI, A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, Bologna, Il Mulino, 2022, pp. 131 e ss.; E. LONGO, I processi decisionali automatizzati e il diritto alla spiegazione, in A. PAJNO, F. DONATI, A. PERRUCCI (a cura di), Intelligenza artificiale e diritto: una rivoluzione?,Bologna, Il Mulino, 2022, pp. 348 e ss; A. FERRARA e M. RAMAJOLI, La giustizia amministrativa nell’era della digitalizzazione dialogo tra informatica e diritto, in M. RAMAJOLI (a cura di), Una giustizia amministrativa digitale?, 2022, pp. 178 e ss; A. POLICE, Scelta discrezionale e decisione algoritmica, in R. GIORDANO, A. PANZAROLA, A. POLICE, S. PREZIOSI, M. PROTO (a cura di), Il diritto nell’era digitale, Milano, 2022, pp. 496 e ss.; L. CARBONE, L’algoritmo e il suo giudice, in giustiziamministrativa.it, 10 gennaio 2023; T. COCCHI, La partecipazione procedimentale, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 133 e ss.; A. CORRADO, Discrezionalità algoritmica e sindacato del giudice amministrativo, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 173 e ss.; A.M. LABOCCETTA, La decisione amministrativa algoritmica tra efficienza e garanzie, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 99 e ss.; E. BELISARIO e F. RICCIULLI, Legalità algoritmica e vizi procedimentali, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 149 e ss.; E. CARLONI, La trasparenza amministrativa e gli algoritmi, in E. BELISARIO e G. CASSANO (a cura di), Intelligenza artificiale per la pubblica amministrazione. Principi e regole del procedimento amministrativo algoritmico, Pisa, Pacini Editore, 2023, pp. 219 e ss.
[12] La nota vicenda riguarda la valutazione delle domande di trasferimento dei docenti nell’ambito del sistema scolastico nazionale. Al fine di semplificare il processo di valutazione e gestire l’elevato numero di domande, il Ministero dell’Istruzione ha deciso di utilizzare un algoritmo per elaborare le richieste di trasferimento attribuendo automaticamente le sedi agli insegnanti in base a determinati criteri. Al termine della procedura, tuttavia, numerosi insegnati sono stati nominati in classi di concorso in cui non avevano mai lavorato e sono stati trasferiti in sedi molto più lontane rispetto a quelle di provenienza senza tenere in considerazione le preferenze espresse in sede di concorso. Successivamente, un gruppo di insegnanti ha impugnato le decisioni di trasferimento lamentando, in particolare, la totale assenza del controllo umano nell’adozione della decisione amministrativa algoritmica, la mancanza di trasparenza nel processo decisionale nonché l’applicazione erronea ed arbitraria dei criteri di selezione. Il giudizio, istaurato presso il TAR Lazio, si è concluso con sentenza n. 12026 del 2016 di rigetto del ricorso. In appello, invece, con la pronuncia ora in esame, il Consiglio di Stato ha ritenuto meritevoli di accoglimento le doglianze degli insegnanti riformulando la sentenza di primo grado.
[13] Soprattutto se ciò avviene per gestire procedimenti seriali o standardizzati che coinvolgono un numero elevato di dati. Come si legge in sentenza “devono sottolinearsi gli indiscutibili vantaggi derivanti dalla automazione del processo decisionale dell’amministrazione mediante ’utilizzo di una procedura digitale ed attraverso un “algoritmo” – ovvero di una sequenza ordinata di operazioni di calcolo–che in via informatica sia in grado di valutare e graduare una moltitudine di domande. L’utilità di tale modalità̀ operativa di gestione dell’interesse pubblico è particolarmente evidente con riferimento a procedure seriali o standardizzate, implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale. Ciò̀ è, invero, conforme ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 l. 241/90), i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il conseguimento dei propri fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale.”
[14] Consiglio di Stato, Sez. VI, 8 aprile 2019, sent. n. 2270/2019, par. 8.2.
[15] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.2, ove si legge che la regola algoritmica “deve soggiacere ai principi generali dell’attività amministrativa, quali quelli di pubblicità e trasparenza (art. 1 l. 241/90), di ragionevolezza, di proporzionalità, etc.”
[16] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.3 ove si legge che “in primo luogo, come già messo in luce dalla dottrina più autorevole, il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.”
[17] Consiglio di Stato, sent. n. 2270/2019, cit., par. 8.2, ove si legge che la regola algoritmica “non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale.”
[18] Anche nel caso in esame il Ministero dell’Istruzione aveva indetto una procedura straordinaria di mobilità del personale docente affidando in via esclusiva ad un algoritmo l’attività di valutazione ed esame dei titoli dei partecipanti per la formazione della graduatoria finale. All’esito della procedura alcuni docenti venivano trasferiti in ambiti territoriali non richiesti o richiesti solo in via residuale senza tuttavia essere in grado di conoscere l’iter logico e motivazionale seguito dalla macchina. Questi ultimi allora impugnavano gli esiti della procedura dinanzi al TAR Lazio lamentando, in particolare, il fatto che l’intera attività di valutazione fosse stata demandata ad un algoritmo senza il coinvolgimento dell’essere umano, la violazione del principio di trasparenza e la violazione del diritto alla comprensibilità delle decisioni amministrative. Accolto il ricorso in primo grado, l’amministrazione ha impugnato la sentenza di prime cure (TAR Lazio, sent. breve n. 6607/2019) dinanzi al Consiglio di Stato che con la pronuncia in oggetto ha respinto l’appello.
[19] Consiglio di Stato, Sez. VI, 4 aprile 2020, sent. n. 881/2020, par. 11.1.
[20] Consiglio di Stato, sent. n. 881/2020, cit., par. 8, ove si legge che “Né vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale, entrambe espressione di attività autoritativa svolta nel perseguimento del pubblico interesse. In disparte la stessa sostenibilità a monte dell’attualità di una tale distinzione, atteso che ogni attività autoritativa comporta una fase quantomeno di accertamento e di verifica della scelta ai fini attribuiti dalla legge, se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla c.d. attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità.
Piuttosto, se nel caso dell’attività vincolata ben più rilevante, sia in termini quantitativi che qualitativi, potrà essere il ricorso a strumenti di automazione della raccolta e valutazione dei dati, anche l’esercizio di attività discrezionale, in specie tecnica, può in astratto beneficiare delle efficienze e, più in generale, dei vantaggi offerti dagli strumenti stessi.”
[21] Consiglio di Stato, sent. n. 881/2020, cit., par. 11.2, ove si legge che “’altro principio del diritto europeo rilevante in materia (ma di rilievo anche globale in quanto ad esempio utilizzato nella nota decisione Loomis vs. Wisconsin), è definibile come il principio di non esclusività della decisione algoritmica. Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.”
[22] Consiglio di Stato, sent. n. 881/2020, cit., par. 11.2 e 11.3.
[23] Sulle caratteristiche essenziali dei regolamenti si rinvia per tutti a P. MENGOZZI e C. MORVIDUCCI, Istituzioni di diritto dell’Unione europea, Wolters Kluwer, Milano, 2019, pp. 120 e ss.
Nell’ampia giurisprudenza della Corte di Giustizia dell’Unione Europea, sul tema, si rinvia a Corte di Giustizia 17 settembre 2002, C-253/00, Antonio Munoz et al., Racc. I-7289, EU:C:2002:497.
[24] Regolamento UE 2024/1689, considerando n. 3 ove si legge che “Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'IA sia affidabile e sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano, importano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione al fine di conseguire un'IA affidabile, mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione, l'innovazione, la diffusione e l'adozione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE).”
[25] Regolamento UE 2024/1689, considerando n. 3.
[26] Cfr. G. FINOCCHIARO, La regolazione dell’intelligenza artificiale, op. cit.
In particolare, l’A. -riferendosi al testo contenuto nella proposta iniziale di regolamento e poi confluito nel testo definitivo dell’AI Act- ha osservato che tale approccio se da un lato ha il pregio di fornire un quadro normativo unitario e armonizzato, può presentare alcune limitazioni: “L'approccio adottato dal legislatore europeo alla regolazione dell'intelligenza artificiale è, come si è accennato, un approccio orizzontale. Il limite intrinsecamente connesso a questo approccio è che, dal momento che le norme non sono indirizzate a risolvere specifici problemi o a colmare determinate lacune dell'ordinamento, esse devono necessariamente essere applicabili a qualunque settore, così in ambito sanitario, come in ambito finanziario. Dunque, non norme ad hoc per risolvere un problema particolare o rimuovere degli ostacoli giuridici, ma disposizioni generali per delineare un quadro complessivo, un contesto di riferimento nel quale opereranno i sistemi di intelligenza artificiale, anche quelli ancora da venire.”
[27] Ferma restando la valenza generale dell’AI Act, lo stesso art. 2 prevede che una serie di settori siano esplicitamente esclusi dal suo ambito di applicazione. Più nello specifico, è previsto che l’AI Act non si applichi: ai settori che non rientrano nell’ambito di applicazione del diritto dell’Unione europea (art. 2, co. 3); ai sistemi di i.a. che abbiano esclusivamente scopi militari, di difesa, di sicurezza nazionale (art. 2, co. 3), di ricerca e sviluppo scientifico (art. 2, co. 6); alle autorità pubbliche di un Paese terzo o organizzazioni internazionali (art. 2, co. 4); alle persone fisiche che utilizzano sistemi di i.a. nel corso di un’attività non professionale puramente personale (art. 2, co. 10); ai sistemi di i.a. rilasciati con licenza libera e open source, a meno che non siano immessi sul mercato o messi in servizio come sistemi di i.a. ad alto rischio (art. 2, co. 12).
[28] Anche l’ambito di applicazione soggettivo dell’AI Act risulta particolarmente esteso. Più nel dettaglio l’art. 2, co. 1, prevede che l’AI Act si applichi, senza distinzione tra soggetti pubblici e privati, a: a) fornitori che immettono sul mercato o mettono in servizio sistemi di IA o immettono sul mercato modelli di IA per finalità generali nell'Unione, indipendentemente dal fatto che siano stabiliti o ubicati nell'Unione o in un paese terzo; b) deployer dei sistemi di IA che hanno il loro luogo di stabilimento o sono situati all'interno dell'Unione; c) fornitori e ai deployer di sistemi di IA che hanno il loro luogo di stabilimento o sono situati in un paese terzo, laddove l'output prodotto dal sistema di IA sia utilizzato nell'Unione; d) importatori e distributori di sistemi di IA; e) fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio; f) rappresentanti autorizzati di fornitori, non stabiliti nell'Unione; g) persone interessate che si trovano nell'Unione.
L’analisi completa della disposizione evidenzia un’altra particolarità dell’AI Act. Diversamente dai regolamenti di stampo classico adottati da parte dell’Unione Europea che si rivolgono e trovano applicazione esclusivamente nei confronti di soggetti appartenenti ai Paesi membri, l’AI Act trova applicazione anche nei confronti di soggetti extra-UE e/o di sistemi di intelligenza artificiale utilizzati al di fuori dell’Unione Europea. Al fine di tutelare efficacemente i diritti e i valori garantiti dal diritto dell’UE, il legislatore comunitario ha ritenuto necessario applicare il predetto regolamento anche ai soggetti che producono, importano o utilizzano sistemi di intelligenza artificiale nel territorio dell’Unione europea pur essendo situati in Paesi terzi, e dunque al di fuori dell’UE, evitando in tal modo che l’AI Act venga disapplicato tramite l’interposizione di soggetti extra-UE nella commercializzazione e/o circolazione dei sistemi di intelligenza artificiale. In aggiunta, come ribadito esplicitamente nel considerando n. 22, l’AI Act dovrebbe essere applicato anche nei confronti di quei sistemi di intelligenza artificiale -rientranti nella categoria di “rischio alto”- che sebbene non formalmente utilizzati nel territorio dell’UE possano comunque raccogliere dati presenti nell’Unione europea.
[29] Cfr. S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit.; C. SILVANO, Prospettive di regolazione della decisione amministrativa algoritmica: un’analisi comparata, op. cit.
[30] Cfr. M. FRANCAVIGLIA, L’intelligenza artificiale nell’attività amministrativa: principi e garanzie costituzionali nel passaggio dalla regula agendi alla regola algoritmica, in Federalismi, luglio 2024.
[31] In generale, sul rapporto tra sistemi di intelligenza artificiale e trasparenza nel procedimento amministrativo si rinvia, ex multis, a S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit.; E. LONGO, I processi decisionali automatizzati e il diritto alla spiegazione, op. cit.
[32] La formulazione dell’art. 13 dell’AI Act, che impone l’obbligo di trasparenza per i sistemi di intelligenza artificiale ad alto rischio, è stata tuttavia criticata dalla dottrina che ne ha riscontrato alcune problematiche interpretative. In particolare, S. FOÀ, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, op. cit., ha evidenziato che “La trasparenza deve essere sufficiente a “interpretare” l'output generato dal sistema: la necessità di un'attività interpretativa esclude dunque la chiarezza e il carattere univoco e inequivoco dello stesso risultato, posto che in claris non fit interpretatio. A meno di intendere l'interpretazione come attività «dianoetica» che, in quanto tale, è connotata da immanenti profili di soggettività e quindi implica necessariamente l'intervento umano, come ricordano alcune pronunce del giudice amministrativo. Verosimilmente la disposizione dev'essere intesa nel senso che la sufficienza di cui si è detto deve essere correlata all'adeguatezza di utilizzo: il principio di adeguatezza del risultato (output) dell'IA implica che lo stesso sia chiaro ai destinatari e, soprattutto, compatibile e adattato al contesto nel quale è applicato, a pena di viziare l'atto giuridico che scaturisce, come si vedrà.”
Recensione a “Uno come tanti” di Ennio Tomaselli
di Costantino De Robbio
Mi aspettavo che fosse il solito romanzo scritto da un magistrato, come ce ne sono ormai diversi: siamo una categoria che si diletta a scrivere, forse perché vive di parole, e le parole le sa usare.
Così, quando dobbiamo cercare un hobby, spesso finiamo con lo scegliere di usare quella tecnica o quel talento: manovrare le parole.
Rivendichiamo la nostra libertà rispetto al lavoro in questo modo: scegliendo noi cosa scrivere e di che, anziché parlare di abusi edilizi o legati in conto di legittima… ma finiamo, il più delle volte, fatalmente con usare questa libertà che ci siamo presi per romanzare ciò che abbiamo conosciuto: il lavoro di magistrati, la nostra vita, il perché abbiamo fatto questo strano mestiere e quanto sia, come spesso ci diciamo tra noi, "il mestiere più bello del mondo".
E invece Ennio Tomaselli è riuscito a prendermi in contropiede, partendo da un punto di vista che più originale non poteva essere: la magistratura non come ideale di vita ma come maledizione, qualcosa che ti capita quasi senza che tu lo voglia e che puó stravolgere la vita tua e di tutti quelli che ti stanno attorno, come una specie di malattia.
Sin dalle prime righe l'autore ci accompagna in questo strano mondo alla rovescia, dove il protagonista è un giovane che sta preparando il concorso in magistratura a dispetto della madre, che sembra odiarlo per questo.
Lo stesso Fabrizio, il protagonista, sembra consapevole di essersi incamminato per una via maledetta, lasciando la strada tracciata per lui (ereditare lo studio legale dei genitori, o meglio di quelli che crede essere i suoi genitori) per arrampicarsi su un sentiero impervio e tutto sommato incomprensibile… ma, come presto scopriremo, è il richiamo del sangue a guidarlo, anche se inconsapevole.
Non a caso, la prova di ingresso in questo mondo - i tre giorni degli scritti del concorso - coincide con la scoperta che il suo vero padre non era quello con cui aveva vissuto fino a quel momento ma un magistrato, scomparso misteriosamente prima che lui nascesse e vittima della maledizione di quel mondo che aveva scelto.
Il giovane inizierà così una ricerca delle tracce del padre, nel tentativo di capire le ragioni della sua scomparsa, imbattendosi non di rado in personaggi (la zia Nilde) che continuano a ripetergli che il mondo in cui sta per entrare è una malattia, non un lavoro.
Man mano che il romanzo prosegue disvelando il mistero del magistrato scomparso e della sua vita, l’autore porta il suo giovane protagonista– attraverso non pochi colpi di scena che qui non si sveleranno – alla consapevolezza che il passaggio alla vita adulta è simile al biblico albero della conoscenza: sta a ciascuno di noi, ci suggerisce Tomaselli, scegliere se ignorarlo o mangiarne i frutti, sapendo che, se si sceglie questa alternativa, la conoscenza comporta perdita di innocenza, dolorosa consapevolezza.
È questa, in fondo, la maledizione: ci sono persone che non possono fare a meno di allungare la mano e cogliere questo frutto… per curiosità intellettuale, idealismo, voglia di capire e dare un senso a tutto.
E per questo tipo di persone, ci avverte l’autore, entrare in magistratura (ma forse vale per qualsiasi universo che si vive da adulto) può diventare insopportabile, perché la verità è troppo dura da digerire per un idealista: o si sceglie di ignorare il frutto dell’albero della conoscenza, o si alza la testa, e se ne paga tutto il salato prezzo
Nel romanzo abbiamo dunque un amaro e disilluso spaccato della magistratura e dei suoi componenti, che sembrano divenire sempre più opachi e lasciarsi andare a calcolo e mediocrità man mano che avanzano in età (e carriera).
Al protagonista, guidato da alcuni “Virgilio” di cui non è opportuno qui svelare l’identità, Tomaselli assegna il compito “eroico” di vedere in anticipo come potrebbe o non potrebbe diventare, l'alternativa tra mantenersi puri (e il suo prezzo) e cedere alla disillusione. Il padre per mantenersi puro ha abbandonato la partita e la magistratura… riuscirà il figlio nel compito sovrumano di rimanere in campo senza rinnegare i propri ideali?
Riuscirà a vivere il proprio mestiere in modo “utile alla gente”, che vuol dire, secondo le parole con cui l’autore consegna il romanzo ai suoi lettori, essere scomodi, farsi domande, non essere burocrati ma non cedere alle ambizioni personali, consapevoli di essere parte di un gioco in cui deve prevalere la logica del collettivo, orgogliosi dunque di essere “uno come tanti”?
Ennio Tomaselli, "Uno come tanti", Manni, 2024.
Dovendo decidere ai sensi dell’art. 35-bis, comma 4, D.L.vo 25/2008 in via interlocutoria e urgente (entro il termine di 5 giorni dalla sua presentazione) su una istanza di sospensione del provvedimento che dichiarava la manifesta infondatezza della domanda di protezione internazionale presentata da un cittadino del Bangladesh, il tribunale di Bologna con ordinanza del 29 ottobre 2024 ha proposto rinvio pregiudiziale alla Corte di Giustizia dell’Unione Europea, ravvisando la necessità di risolvere alcuni contrasti interpretativi in relazione alla disciplina rilevante contenuta nella Direttiva n. 2013/32/UE e, più in generale, alla regolazione dei rapporti fra il diritto dell’Unione Europea e il diritto nazionale.
La rilevanza della questione, e un certo clamore mediatico, deriva non soltanto dalla necessità di verificare se, nel caso di specie, ricorrano o meno i presupposti legali della deroga al principio sancito dalla Direttiva 2013/32/UE (cd. procedure recast) per cui in caso di ricorso giurisdizionale vi è il diritto di rimanere sul territorio del paese ospitante sino all’esito del ricorso, quanto dai più generali riflessi della questione. La definizione dei presupposti legali della designazione di un paese terzo come “paese di origine sicuro” e dei poteri del giudice ordinario di disapplicazione dell’atto di designazione ha invero potenti conseguenze sulle attuali politiche governative in materia di protezione internazionale, posto che il noto accordo fra Italia e Albania, che prevede il trasferimento coatto dei richiedenti asilo sul territorio albanese sino alla decisione della Commissione territoriale sulla sua domanda, poiché comporta il trattenimento della persona è applicabile -in forza della stessa direttiva- soltanto nei confronti di chi proviene da un paese sicuro.
Com’è noto, dopo alcuni provvedimenti del Tribunale di Roma del 18 ottobre 2024, che hanno affermato la illegittimità della designazione come “paesi di origine sicuri” dei paesi di provenienza -Bangladesh ed Egitto- dei richiedenti asilo coattivamente trasferiti in Albania, il Governo in data 23 ottobre 2024 ha emesso il decreto-legge n. 158 con cui ha confermato la designazione di 19 paesi, fra cui il Bangladesh.
Dovendosi applicare -per la prima volta- in virtù del principio del cd. tempus regit actum, tale nuova disposizione di natura processuale, in vigore dal 24 ottobre 2024, il Tribunale di Bologna ha dunque ritenuto di proporre alla Corte europea due quesiti:
Nell’ordinanza viene sottolineato con forza come la necessità di chiedere un chiarimento della Corte di Giustizia non sia fondata tanto su un effettivo dubbio interpretativo del giudice remittente, il quale chiarisce con nettezza il proprio orientamento, quanto sulla necessità di assicurare l’applicazione uniforme del diritto dell’Unione, nel momento in cui le differenti opzioni esegetiche hanno condotto ad un vero e proprio conflitto istituzionale con riguardo alla nozione di “paese di origine sicuro”, ai rapporti fra diritto europeo e diritto interno e ai poteri del giudice ordinario.
Il Tribunale evidenzia infatti che “il Collegio ha una precisa opinione in ordine alla corretta soluzione interpretativa” ma ritiene necessario che “la Corte di Giustizia sia invocata quando occorra dissipare gravissime divergenze interpretative del diritto europeo, manifestatesi nel caso di specie in modo obiettivo e virulento in seguito ad alcuni provvedimenti giurisdizionali sino alla decretazione d’urgenza di cui al D.L. n. 158/2024”. Rileva il tribunale che “in presenza di un gravissimo contrasto interpretativo del diritto dell’Unione, qual è quello che attualmente attraversa l’ordinamento istituzionale italiano, il rinvio alla Corte è opportuno al fine di conseguire un chiarimento sui principi del diritto europeo che governano la materia”.
Riguardo al primo quesito, che attiene ai presupposti legali che consentono la designazione di un paese terzo come “paese di origine sicuro”, il tribunale rileva che “quando era stata immaginata la redazione di una lista devoluta al Consiglio dell’Unione europea, la discussione sulle possibili designazioni era limitata ai paesi europei per cui risultava pendente una domanda di adesione all’Unione” tant’è che la Commissione Europea aveva suggerito di includere soltanto l’Albania, la Bosnia ed Erzegovina, la Macedonia, il Kosovo, il Montenegro, la Serbia e la Turchia. La competenza attribuita ai paesi aderenti ha condotto invece ad una progressiva estensione, da parte di alcuni paesi, fra cui l’Italia, “anche a paesi extraeuropei per cui le condizioni di sicurezza sono spesso assai dubbie”.
Tale esito è stato determinato da una “linea interpretativa che ha condotto ad estendere la lista nazionale italiana dei paesi di origine sicuri alla gran parte dei paesi da cui provengono coloro che chiedono asilo in Italia (con l’eccezione, fra quelli più rilevanti, del Pakistan e, adesso, dei tre paesi che presentano conflitti interni), predisponendo per gli stessi un apposito apparato normativo conseguente ad accordi intervenuti con la Repubblica di Albania”.
Il Collegio ha ritenuto a tale proposito necessario “sgombrare innanzitutto il campo da un equivoco di fondo, quello per cui potrebbe definirsi sicuro un paese in cui la generalità, o maggioranza, della popolazione viva in condizioni di sicurezza”.
Il tribunale ha osservato al riguardo che “il sistema della protezione internazionale è, per sua natura, sistema giuridico di garanzia per le minoranze esposte a rischi provenienti da agenti persecutori, statuali o meno. Salvo casi eccezionali (lo sono stati, forse, i casi limite della Romania durante il regime di Ceausescu o della Cambogia di Pol Pot), la persecuzione è sempre esercitata da una maggioranza contro alcune minoranze, a volte molto ridotte. Si potrebbe dire, paradossalmente, che la Germania sotto il regime nazista era un paese estremamente sicuro per la stragrande maggioranza della popolazione tedesca: fatti salvi gli ebrei, gli omosessuali, gli oppositori politici, le persone di etnia rom ed altri gruppi minoritari, oltre 60 milioni di tedeschi vantavano una condizione di sicurezza invidiabile. Lo stesso può dirsi dell’Italia sotto il regime fascista. Se si dovesse ritenere sicuro un paese quando la sicurezza è garantita alla generalità della popolazione, la nozione giuridica di Paese di origine sicuro si potrebbe applicare a pressoché tutti i paesi del mondo, e sarebbe, dunque, una nozione priva di qualsiasi consistenza giuridica”.
Vengono rammentati due autorevolissimi precedenti delle due massime Autorità giudiziarie francese e inglese, il Conseil d'État e la High Court, che hanno entrambe dichiarato illegittima la designazione di tre paesi (Senegal, Gambia; Giamaica) in ragione della persecuzione dei (soli) appartenenti alla comunità lgbtqia+. La nozione di sicurezza non è stata riferita, dunque, alla maggioranza della popolazione, ma in ragione della persecuzione delle (sole) persone lgbtqia+, è stato negato che il paese possa essere incluso nella lista nazionale dei paesi di origine sicuri.
Sono interessanti al riguardo le notazioni del tribunale bolognese per cui sarebbe irragionevole “pretendere che una persona appena giunta nel paese ospitante sia subito in grado di chiarire in che termini sia attinta da rischi persecutori sistematicamente e ordinariamente presenti nel proprio paese. Ne sono esempi evidenti l’ipotesi di donne provenienti da paesi in cui vi siano endemici fenomeni di tratta di esseri umani, le quali sono sovente ancora oggetto di tratta al momento dell’arrivo, e l’ipotesi di donne o persone lgbtqia+ provenienti da paesi con fenomeni endemici di violenza di genere, matrimoni imposti, mutilazioni genitali o persecuzioni per l’orientamento sessuale o l’identità di genere, che possono non essere in grado di narrare immediatamente il proprio vissuto, in ragione della necessità di sottrarsi alla soggezione culturale dovuta al contesto di provenienza”.
I giudici emiliani hanno rilevato pure come “in ipotesi di fenomeni sistematici di persecuzione o esposizione a danno grave di minoranze, tutta la popolazione appaia in qualche modo esposta a un rischio persecutorio, atteso che raramente una minoranza è segnata da confini netti e facilmente identificabili e che quando vi è persecuzione di un gruppo minoritario la stessa tende a colpire anche chi, pur non appartenendo al gruppo minoritario, sia entrato comunque per varie ragioni in relazione con appartenenti allo stesso”.
Il tribunale ha osservato, quindi, una vistosa contraddizione logica fra gli atti interlocutori e il provvedimento finale in relazione al Bangladesh, atteso che nelle conclusioni della stessa “scheda paese” preparata dal Ministero si suggerisce che “il Bangladesh può essere considerato come un Paese sicuro (…) ad eccezione delle fattispecie indicate al punto n. 6” (dove sono indicati gli appartenenti “alla comunità LGBTQI+, alle vittime di violenza di genere, incluse le mutilazioni genitali femminili, alle minoranze etniche e religiose, alle persone accusate di crimini di natura politica e ai condannati a morte. Si segnala anche il crescente fenomeno degli sfollati “climatici”, costretti ad abbandonare le proprie case a seguito di eventi climatici estremi”) senza che di tale diffusa insicurezza si tenga conto nella decisione finale adottata. Tale “incongruenza logica”, secondo il Tribunale, “è spiegabile soltanto seguendo lo schema interpretativo, che evidentemente sottende anche al D.L. n. 158/2024 promosso dal Governo italiano, per cui la Direttiva 2013/32/UE consentirebbe la designazione se comunque la maggioranza della popolazione è in condizioni di sicurezza o per cui la designazione avrebbe in ogni caso natura giuridica di “atto politico”, determinata da superiori esigenze di governo del fenomeno migratorio e di difesa dei confini nazionali, prescindendo dalle informazioni e dai giudizi espressi dai competenti uffici ministeriali in ordine alle condizioni di sicurezza del paese designando”.
Il secondo quesito riguarda il dovere del giudice di disapplicare le disposizioni nazionali che contrastino con il diritto europeo.
Tale potere-dovere è stato affermato da oltre quattro decenni in una consolidata e monolitica giurisprudenza della Corte di Giustizia (ex multis cfr. sentenza 15 luglio 1964, causa 6/64, Costa c. E.N.E.L. e sentenza del 9 marzo 1978, causa 106/77, Amministrazione delle finanze dello Stato c. SpA Simmenthal. L’esigenza di tornare ancora una volta su questo avanti ai giudici di Lussemburgo, nonostante “l’intima e ferma convinzione giuridica del Collegio” che tale dovere sussista, deriva ancora una volta dalla necessità di dipanare il “gravissimo contrasto fra le diverse Autorità chiamate a interpretare e applicare il diritto dell’Unione”.
Nel riportare il contenuto del provvedimento, la stampa ha evidenziato un preteso intento “impugnatorio” del recente dl del 23 ottobre 2024 (“i giudici mandano il dl davanti la Corte”) ed ha sottolineato un passaggio ad effetto sulle condizioni di sicurezza durante regime nazista (“seguendo il governo sarebbe sicuro anche la Germania nazista”). Alcuni esponenti politici, i ministri degli esteri e dell’interno, chiamati a commentare l’ordinanza in un momento in cui il testo non era ancora pubblico, hanno criticato una pretesa fuga dagli stretti limiti della giurisdizione.
In verità, la lettura dell’ordinanza attesta la chiara volontà, dato atto di un conflitto interpretativo innegabile, di trovare una soluzione razionale a tale conflitto attraverso il ricorso alla Autorità istituzionalmente preposta ad assicurare uniformità di interpretazione del diritto europeo.
È noto che la Corte di giustizia ha competenza esclusivamente sulla interpretazione del diritto europeo, con decisioni che sono vincolanti e inderogabili per tutte le autorità dei paesi aderenti all’Unione, giudiziarie e non, ma non ha invece alcuna competenza sulla legittimità degli atti nazionali (nonostante l’evoluzione giurisprudenziale della Corte abbia via via esteso il controllo, attraverso la tecnica decisoria per cui il diritto europeo, correttamente interpretato, può “ostare” a che i legislatori nazionali adottino determinate misure). È dunque errato leggere nella richiesta di chiarimenti sul diritto europeo una sorta di “impugnazione” del dl italiano.
La ricerca di una soluzione definitiva è, invece, precisamente nel solco del recente invito del Capo dello Stato ad abbassare i toni e a trovare soluzioni tecniche al conflitto e alle divergenze di opinione in atto. Seguendo le indicazioni delle linee guida per la redazione dei rinvii pregiudiziali, il tribunale di Bologna ha espresso in modo chiaro il punto di vista dell’Autorità remittente. Il Governo italiano, che (a differenza di quelli tedesco e olandese, intervenuti con orientamenti opposti fra loro) non era intervenuto nel procedimento che ha condotto alla sentenza del 4 ottobre, menzionata nel preambolo del dl e in qualche modo “contestata” dal governo italiano, ha adesso modo di presentare il proprio punto di vista, peraltro obiettivamente e precisamente rappresentato nella stessa ordinanza bolognese, depositando le proprie osservazioni.
Non resta dunque che attendere la decisione della Corte.
Sul tema si vedano anche Corte di giustizia: l’Egitto non è un paese sicuro e Paesi sicuri e categorie di persone “insicure”: un binomio possibile? Il Tribunale di Firenze propone rinvio pregiudiziale alla Corte di giustizia UE di Cecilia Siccardi.
Le comunicazioni conservate sulle chat sono da considerare corrispondenza. Problematiche attuali e prospettive de iure condendo.
Sommario: 1. La sentenza n.170/2023 della Corte costituzionale 2. Il mutamento della giurisprudenza penale: da documento a corrispondenza - 3. La tutela dell’art. 15 Cost. e l’inosservanza delle regole processuali - 4. Problematiche attuali e prospettive de iure condendo.
1. La sentenza n.170/2023 della Corte costituzionale
Come è noto a tutti, le comunicazioni tra le persone non si svolgono quasi più tramite la corrispondenza tradizionale, ossia con la lettera in busta chiusa ed inviata a mezzo posta, ma avvengono tramite telefono oppure, sempre più di frequente, attraverso dispositivi elettronici e informatici, come e-mail, messaggi SMS, o con applicativo WhatsApp e simili. Tali comunicazioni, una volta ricevute dal destinatario, rimangono conservate nella memoria dello strumento elettronico, sia esso un computer, uno smartphone o un tablet. Sono dati ormai statici, ovvero cd. “freddi” secondo il linguaggio informatico, perché il flusso della comunicazione elettronica è già avvenuto; per tale ragione la giurisprudenza della Corte di Cassazione, in misura pressoché unanime, aveva sempre escluso che in ordine a tali comunicazioni potesse trovare applicazione la disciplina sulle intercettazioni, facendo, invece, richiamo alle norme sui documenti (art. 234 cod. proc. pen.) oppure quella sui documenti informatici (art. 234-bis cod. proc. pen.).
La svolta interpretativa, certamente, è stata data soprattutto dalla sentenza n.170 del 22 giugno 2023 della Corte costituzionale (cosiddetta sentenza Renzi, perché aveva ad oggetto l’acquisizione di plurime comunicazioni, con messaggi elettronici, del Senatore Matteo Renzi disposte dalla Procura di Firenze senza la previa autorizzazione da parte del Senato), che ha affermato una serie di principi, tra cui, per quanto qui di interesse, quello relativo alla definizione di corrispondenza, rilevante ai fini della tutela dell’art. 15 della Costituzione. Sul sito della Corte cost., si trovano pubblicate le seguenti massime:
“Il discrimen tra le intercettazioni di comunicazioni o conversazioni e i sequestri di corrispondenza non è dato principalmente dalla forma della comunicazione, giacché le intercettazioni possono avere ad oggetto anche flussi di comunicazioni non orali (informatiche o telematiche). Affinché si abbia intercettazione debbono invece ricorrere due condizioni: la prima, di ordine temporale, è che la comunicazione deve essere in corso nel momento della sua captazione da parte dell’extraneus, e va dunque colta nel suo momento “dinamico”, con conseguente estraneità al concetto dell’acquisizione del supporto fisico che reca memoria di una comunicazione già avvenuta (dunque, nel suo momento “statico”); la seconda condizione attiene alle modalità di esecuzione: l’apprensione del messaggio comunicativo da parte del terzo deve avvenire in modo occulto, ossia all’insaputa dei soggetti tra i quali la comunicazione intercorre.
Il concetto di «corrispondenza» è ampiamente comprensivo, atto ad abbracciare ogni comunicazione di pensiero umano (idee, propositi, sentimenti, dati, notizie) tra due o più persone determinate, attuata in modo diverso dalla conversazione in presenza; in linea generale, pertanto, lo scambio di messaggi elettronici – e-mail, SMS, WhatsApp e simili – rappresenta, di per sé, una forma di corrispondenza agli effetti degli artt. 15 e 68, terzo comma, Cost.
La tutela accordata dall’art. 15 Cost. – anche ove si guardi alla prerogativa parlamentare prevista dall’art. 68, terzo comma, Cost. – prescinde dalle caratteristiche del mezzo tecnico utilizzato ai fini della trasmissione del pensiero, aprendo così il testo costituzionale alla possibile emersione di nuovi mezzi e forme della comunicazione riservata. La garanzia si estende, quindi, ad ogni strumento che l’evoluzione tecnologica mette a disposizione a fini comunicativi, compresi quelli elettronici e informatici, ignoti al momento del varo della Carta costituzionale. Posta elettronica e messaggi inviati tramite l’applicazione WhatsApp (appartenente ai sistemi di c.d. messaggistica istantanea) rientrano, dunque, a pieno titolo nella sfera di protezione dell’art. 15 Cost., apparendo del tutto assimilabili a lettere o biglietti chiusi. La riservatezza della comunicazione, che nella tradizionale corrispondenza epistolare è garantita dall’inserimento del plico cartaceo o del biglietto in una busta chiusa, è qui assicurata dal fatto che la posta elettronica viene inviata a una specifica casella di posta, accessibile solo al destinatario tramite procedure che prevedono l’utilizzo di codici personali; mentre il messaggio WhatsApp, spedito tramite tecniche che assicurano la riservatezza, è accessibile solo al soggetto che abbia la disponibilità del dispositivo elettronico di destinazione, normalmente protetto anch’esso da codici di accesso o altri meccanismi di identificazione. (Precedenti: S. 2/2023 - mass. 45265; S. 20/2017 - mass. 39645; S. 81/1993 - mass. 19295; S. 1030/1988).
La garanzia apprestata dall’art. 15 Cost. si estende anche ai dati esteriori delle comunicazioni (quelli, cioè, che consentono di accertare il fatto storico che una comunicazione vi è stata e di identificarne autore, tempo e luogo), come ad esempio i tabulati telefonici, contenenti l’elenco delle chiamate in partenza o in arrivo da una determinata utenza e che possono aprire squarci di conoscenza sui rapporti di un parlamentare, specialmente istituzionali. La stretta attinenza della libertà e della segretezza della comunicazione al nucleo essenziale dei valori della personalità – attinenza che induce a qualificare il corrispondente diritto come parte necessaria di quello spazio vitale che circonda la persona e senza il quale questa non può esistere e svilupparsi in armonia con i postulati della dignità umana – comporta infatti un particolare vincolo interpretativo, diretto a conferire a quella libertà, per quanto possibile, un significato espansivo. (Precedenti: S. 38/2019 - mass. 42192; S. 188/2010 - mass. 34690; S. 372/2006 - mass. 30769; S. 281/1998 - mass. 24085; S. 81/1993 - mass. 19295; S. 366/1991 - mass. 17448). (Nel caso di specie, è dichiarato che non spettava alla Procura della Repubblica presso il Tribunale di Firenze acquisire agli atti del procedimento penale iscritto al n. 3745/2019 R.G.N.R., sulla base di decreti di perquisizione e sequestro emessi il 20 novembre 2019, corrispondenza riguardante il sen. Matteo Renzi, costituita da messaggi di testo scambiati tramite l’applicazione WhatsApp tra il sen. Renzi e V. U. M. nei giorni 3 e 4 giugno 2018, e tra il sen. Renzi e M. C. nel periodo 12 agosto 2018-15 ottobre 2019, nonché da posta elettronica intercorsa fra quest’ultimo e il senatore Renzi, nel numero di quattro missive, tra il 1° e il 10 agosto 2018; ed è annullato, per l’effetto, il sequestro dei messaggi di testo scambiati tra il sen. Matteo Renzi e V. U. M. nei giorni 3 e 4 giugno 2018, per i quali, a differenza di altri, non è nel frattempo intervenuto provvedimento di annullamento della Cassazione. Degradare la comunicazione a mero documento quando non più in itinere, è soluzione che, se confina in ambiti angusti la tutela costituzionale prefigurata dall’art. 15 Cost. nei casi, sempre più ridotti, di corrispondenza cartacea, finisce addirittura per azzerarla, di fatto, rispetto alle comunicazioni operate tramite posta elettronica e altri servizi di messaggistica istantanea, in cui all’invio segue immediatamente – o, comunque sia, senza uno iato temporale apprezzabile – la ricezione. Una simile conclusione si impone a maggior ragione allorché non si tratti solo di stabilire cosa sia corrispondenza per la generalità dei consociati, ma di delimitare specificamente l’area della corrispondenza di e con un parlamentare, per il cui sequestro l’art. 68, terzo comma, Cost. richiede l’autorizzazione della Camera di appartenenza. Limitare la citata prerogativa alle sole comunicazioni in corso di svolgimento e non già concluse significherebbe darne una interpretazione così restrittiva da vanificarne la portata: condizionamenti e pressioni sulla libera esplicazione del mandato parlamentare possono bene derivare, infatti, anche dalla presa di conoscenza dei contenuti di messaggi già pervenuti al destinatario. Se, dunque, l’acquisizione dei dati esteriori di comunicazioni già avvenute, quali quelli memorizzati in un tabulato, gode delle tutele accordate dagli artt. 15 e 68, terzo comma, Cost., è impensabile che non ne fruisca, invece, il sequestro di messaggi elettronici, anche se già recapitati al destinatario: operazione che consente di venire a conoscenza non soltanto dei dati identificativi estrinseci delle comunicazioni, ma anche del loro contenuto, e dunque di attitudine intrusiva tendenzialmente maggiore). (Precedenti: S. 157/2023 - mass. 45658; S. 38/2019 - mass. 42192; S. 113/2010 - mass. 34488; S. 390/2007 - mass. 31839)”[1].
Alla decisione appena analizzata, è seguita dopo poco altra pronuncia, la sentenza n. 227 del 2023, in cui la Consulta ha risolto un altro conflitto di attribuzione tra poteri dello Stato sollevato dal Senato della Repubblica, dichiarando che non spettava all’autorità giudiziaria procedente disporre, effettuare e utilizzare le intercettazioni che avevano coinvolto un senatore della Repubblica, nel periodo in cui questi ricopriva l’incarico, e acquisire, quali elementi di prova documentale, i messaggi WhatsApp scambiati tra il predetto e un terzo imputato, prelevati tramite copia forense dei dati contenuti nello smartphone in uso a quest’ultimo nell’ambito di un procedimento penale, pena la violazione degli artt. 4 e 6, legge n. 140 del 2003.
2. Il mutamento della giurisprudenza penale: da documento a corrispondenza
A distanza di meno di un anno sono, poi, intervenute le due sentenze “gemelle” delle Sezioni Unite, n.23755 (Gjuzi Ermal - Rv.286573) e n.23756 (Giorgi - Rv.286589) del 29 febbraio 2024, dep. 14/06/2024[2], in tema di acquisizione tramite Ordine europeo di indagine (da cui l’acronimo O.E.I) di comunicazioni svolte su piattaforma criptata e su cd. criptofonini che l’autorità giudiziaria francese aveva già captato e decriptato. Le due decisioni del massimo consesso hanno affermato in motivazione, con espresso richiamo della giurisprudenza costituzionale, che “…quando la prova documentale ha ad oggetto comunicazioni scambiate in modo riservato tra un numero determinato di persone, indipendentemente dal mezzo tecnico impiegato a tal fine, occorre assicurare la tutela prevista dall’art. 15 Cost. in materia di «corrispondenza». Come infatti precisato dalla giurisprudenza costituzionale, «quello di “corrispondenza” è concetto ampiamente comprensivo, atto ad abbracciare ogni comunicazione di pensiero umano (idee, propositi, sentimenti, dati, notizie) tra due o più persone determinate, attuata in modo diverso dalla conversazione in presenza», il quale «prescinde dalle caratteristiche del mezzo tecnico utilizzato», e si estende, perciò, anche alla posta elettronica ed ai messaggi inviati tramite l’applicativo WhatsApp, o s.m.s. o sistemi simili, «del tutto assimilabili a lettere o biglietti chiusi» perché accessibili solo mediante l’uso di codici di accesso o altri meccanismi di identificazione (così Corte cost., sent. n. 170 del 2023; nello stesso senso, Corte cost., sent. n. 227 del 2023 e Corte cost., sent. n. 2 del 2023). Di conseguenza, indipendentemente dalla modalità utilizzata, trova applicazione «la tutela accordata dall’art. 15 Cost. – che assicura a tutti i consociati la libertà e la segretezza «della corrispondenza e di ogni altra forma di comunicazione», consentendone la limitazione «soltanto per atto motivato dell’autorità giudiziaria con le garanzie stabilite dalla legge – […]» (cfr., ancora, testualmente, Corte cost., sent. n. 170 del 2023). La tutela prevista dall’art. 15 Cost., tuttavia, non richiede, per la limitazione della libertà e della segretezza della corrispondenza, e, quindi, per l’acquisizione di essa ad un procedimento penale, la necessità di un provvedimento del giudice. Invero, l’art. 15 Cost. impiega il sintagma «autorità giudiziaria», il quale indica una categoria nella quale sono inclusi sia il giudice, sia il pubblico ministero (per l’inclusione del pubblico ministero nella nozione di “autorità giudiziaria” anche nel diritto euro-unitario, cfr., proprio con riferimento alla Direttiva 2014/41/UE, Corte giustizia, 08/12/2020, Staatsanwaltschaft Wien, C-584/19). E questa conclusione trova conferma nella disciplina del codice di rito. L’art. 254 cod. proc. pen. prevede che il sequestro di corrispondenza è disposto della «autorità giudiziaria», senza fare alcun riferimento alla necessità dell’intervento del giudice, invece espressamente richiesto, ad esempio, in relazione al sequestro da eseguire negli uffici dei difensori (art. 103 cod. proc. pen.). A sua volta, l’art. 353 cod. proc. pen. statuisce, in modo testuale, che l’acquisizione di plichi chiusi e di corrispondenza, anche in forma elettronica o inoltrata per via telematica, è autorizzata, nel corso delle indagini, dal «pubblico ministero», il quale è titolare del potere di disporne il sequestro”. Le Sezioni Unite, perciò, hanno fatto propria la definizione di corrispondenza che la Corte costituzionale ha dato delle comunicazioni già avvenute con posta elettronica, oppure con i messaggi inviati tramite l’applicativo WhatsApp, o s.m.s. o sistemi simili, e conservati nella memoria dei dispositivi mobili. Si tratta, quindi, di ius receptum, malgrado in giurisprudenza permane qualche voce dissenziente[3].
Nelle motivazioni vi è stato poi il richiamo alla disciplina specifica del sequestro di corrispondenza ex art. 254 cod. proc. pen.; in particolare, la norma prevede, al comma 2, che: “Quando al sequestro procede un ufficiale di polizia giudiziaria, questi deve consegnare all'autorità giudiziaria gli oggetti di corrispondenza sequestrati, senza aprirli o alterarli e senza prenderne altrimenti conoscenza del loro contenuto”. Norma chiara se riferita alla corrispondenza per così dire tradizionale, ossia quella cartacea, a mezzo una busta chiusa inviata tramite il servizio postale. La probabile ratio della previsione normativa va ravvisata nell’esigenza che il contenuto della corrispondenza non debba essere conosciuto da soggetti diversi dall’autorità giudiziaria prima che il destinatario abbia ricevuto il plico con la corrispondenza poi sequestrata. Le Sezioni Unite, pertanto, hanno affermato che le chat costituiscono non mera documentazione acquisibile ex articolo 234 cod. proc. pen., ma “corrispondenza informatica” che quindi deve essere acquisita attraverso un provvedimento di sequestro ai sensi dell'articolo 254 cod. proc. pen., così disattendo la granitica giurisprudenza di legittimità che fino a quel momento aveva, invece, sostenuto trattarsi di mero documento acquisibile ex art. 234 ovvero ex art. 234-bis cod. proc. pen., ove qualificato come documento informatico[4]. Si può osservare che, a legislazione vigente, in entrambi i casi, sia che la messaggistica di una chat venga considerata mero documento (oppure documento informatico) sia che, invece, sia definita corrispondenza, il sequestro probatorio dei messaggi contenuti nell’archivio di un device può essere disposto direttamente dal pubblico ministero, senza alcuna previa autorizzazione del giudice. Del resto, l’art. 15 Cost., che prevede, a tutela della corrispondenza e di ogni altra forma di comunicazione, la doppia riserva di giurisdizione e di legge[5], fa riferimento all’endiadi autorità giudiziaria, che comprende, come è noto, anche il pubblico ministero, il quale gode nel nostro ordinamento delle stesse guarentigie di indipendenza ed autonomia del giudice. Tale assunto, però, non può celare le profonde differenze di disciplina processuale che conseguono all’affermazione di una definizione anziché dell’altra, sia dal punto di vista teorico sia per quanto riguarda aspetti per così dire pratici.
3. La tutela dell’art. 15 Cost. e l’inosservanza delle regole processuali
Partendo da un profilo teorico si ritiene che considerare come corrispondenza lo scambio di comunicazioni avvenuto con la posta elettronica, oppure con i messaggi inviati tramite l’applicativo WhatsApp, o s.m.s., involga la tutela di un diritto, quello della riservatezza delle comunicazioni, a copertura costituzionale ai sensi dell’art. 15 Cost. La violazione delle norme processuali sull’acquisizione della corrispondenza porta all’inutilizzabilità cosiddetta patologica di quanto sequestrato dal P.M., come di recente sostenuto dalla Suprema Corte (Sez. 6, n.31180 del 21/05/2024, Donnarumma, Rv.286773-01), che in motivazione ha affermato sul punto che “ Si è da tempo affermato che rientrano nella categoria delle prove sanzionate dall'inutilizzabilità, non solo le prove oggettivamente vietate, ma anche quelle formate o acquisite in violazione dei diritti soggettivi tutelati dalla legge e, a maggior ragione, come in precedenza detto, quelle acquisite in violazione dei diritti tutelati in modo specifico dalla Costituzione. La Corte costituzionale con la sentenza numero 34 del 1973 ha ravvisato l'esistenza di divieti probatori ricavabili in modo diretto dal dettato costituzionale, enunciando il principio per cui attività compiute in dispregio dei diritti fondamentali del cittadino non possono essere assunte di per sé a giustificazione e fondamento di atti processuali a carico di chi quelle attività costituzionalmente illegittime abbia subito. Il suddetto principio - come già detto - ha consentito l'elaborazione della categoria delle prove cosiddette incostituzionali, cioè di prove ottenute attraverso modalità, metodi e comportamenti realizzati in violazione dei fondamentali diritti del cittadino garantiti dalla Costituzione, da considerarsi perciò inutilizzabili nel processo”[6]. In precedenza, mutatis mutandis, la Suprema Corte ha sostenuto, sempre in tema di prove assunte in violazioni di precetti costituzionali, che “ In tema di acquisizione di dati contenuti in tabulati telefonici, non sono utilizzabili nel giudizio abbreviato i dati di geolocalizzazione relativi a utenze telefoniche o telematiche, contenuti nei tabulati acquisiti dalla polizia giudiziaria in assenza del decreto di autorizzazione dell'Autorità giudiziaria, in violazione dell'art. 132, comma 3, d.lgs. 30 giugno 2003, n. 196, in quanto prove lesive del diritto alla segretezza delle comunicazioni costituzionalmente tutelato e, pertanto, affette da inutilizzabilità patologica, non sanata dalla richiesta di definizione del giudizio con le forme del rito alternativo” (così Sez.6, n.15836 del 11/01/2023, Berera, Rv.284590-01)[7]. Tale ultima decisione, si segnala anche perché ha escluso in maniera netta che possa argomentarsi in senso contrario, facendo leva, ad esempio, sulla disciplina della cosiddetta prova innominata di cui all'articolo 189 cod. proc. pen; tale norma consente certamente l'ingresso processuale della prova atipica, ma solo qualora essa presenti cumulativamente due caratteristiche: la prima, positiva, si sostanzia nella sua idoneità all'accertamento del thema probandum; la seconda, di segno negativo, consiste nel limite per il quale essa non possa presentarsi come lesiva della libertà morale della persona. Essa, però, ricorda la Corte contempla solo le prove atipiche che non rechino vulnus alle esigenze costituzionalmente tutelate e, dunque, non richiedono una disciplina legislativa espressa, come deve, invece, sussistere in tutti i casi in cui sono in gioco i diritti tutelati dalla previsione dell'articolo 15 Cost. In altri termini, l’inosservanza delle norme codicistiche conduce all’inutilizzabilità patologica della prova raccolta in tal modo, né può utilizzarsi in tale ambito lo strumento della prova atipica per il limite intrinseco del citato art. 189.
4. Problematiche attuali e prospettive de iure condendo
Orbene, se il quadro teorico derivante dall’affermazione che le comunicazioni avvenute su chat sono corrispondenza appare più che sufficientemente delineato, molto meno chiare sono implicazioni dal punto di vista per così dire pratico. Come già evidenziato, il richiamo alla disciplina di cui all’art. 254 cod. proc. pen. (rubricato “Sequestro di corrispondenza”), comporta che la polizia giudiziaria non possa prendere conoscenza del contenuto della corrispondenza presente nel dispositivo sequestrato. Tale limite, facilmente osservabile per la corrispondenza cartacea, risulta di difficile ottemperanza in caso di comunicazioni digitali/informatiche. All’interno di un computer o di un telefono cellulare si trova, di regola, tutta “la vita” di una persona, come sinteticamente è stato affermato in termini giornalistici: messaggi, fotografie, registrazioni vocali, appunti ecc.ecc., che possono risalire fino ad alcuni anni addietro rispetto al momento del sequestro a seconda della memoria del dispositivo. Va sottolineato, peraltro, che è ormai consolidata la giurisprudenza di legittimità, a partire dalla decisione Sez. 6, n.6623 del 9/12/2020, (dep.19/02/2021), Pessotto, Rv. 280838-01, che ha enunciato il seguente principio: “È illegittimo per violazione del principio di proporzionalità ed adeguatezza il sequestro a fini probatori di un dispositivo elettronico che conduca, in difetto di specifiche ragioni, alla indiscriminata apprensione di una massa di dati informatici, senza alcuna previa selezione di essi e comunque senza l'indicazione degli eventuali criteri di selezione (Fattispecie relativa a sequestro di un telefono cellulare e di un tablet)”[8]. Ne consegue, perciò, che quando viene sequestrato, ad esempio, uno smartphone, gli inquirenti devono selezionare le comunicazioni archiviate che sono pertinenti al reato per cui si procede, fatto salvo, ovviamente, il caso, in cui lo stesso smartphone è corpo di reato (ad esempio nei casi di diffusione o detenzione di materiale pedopornografico di cui agli artt. 600-ter e 600-quater cod. pen.). Come può, in concreto, svolgersi tale ricerca e selezione se la polizia giudiziaria non può prendere conoscenza del contenuto della corrispondenza presente sul device, in forza del limite indicato dall’art. 254, comma 2, cod. proc. pen.? La questione è stato oggetto di una recente sentenza della Suprema Corte (Sez. 2, n.25549 del 15/05/2024, Tundo, Rv.286467-01), che ha affermato in massima il seguente principio: “In tema di mezzi di prova, i messaggi di posta elettronica, i messaggi "whatsapp" e gli sms custoditi nella memoria di un dispositivo elettronico conservano natura giuridica di corrispondenza anche dopo la ricezione da parte del destinatario, sicché la loro acquisizione deve avvenire secondo le forme previste dall'art. 254 cod. proc. pen. per il sequestro della corrispondenza, salvo che, per il decorso del tempo o altra causa, essi non perdano ogni carattere di attualità, in rapporto all'interesse alla riservatezza, trasformandosi in un mero documento "storico". (Fattispecie in cui la Corte ha ritenuto che non si fosse determinata alcuna violazione del disposto dell'art. 254 cod. proc. pen. sul rilievo che la polizia giudiziaria si era limitata a sequestrare il telefono cellullare, mentre l'accesso al contenuto della corrispondenza era avvenuto successivamente ad opera del pubblico ministero con il proprio consulente)”. A sommesso avviso dello scrivente, la sentenza citata appare, dal punto di vista del rigore logico/giuridico della motivazione, ineccepibile nella decisione finale perché fa propria la ricostruzione sistematica compiuta dalla Corte costituzionale con la citata sentenza n.170/2023, e coerentemente ha ritenuto applicabile al sequestro dello smartphone la disciplina dell’art. 254 cod. proc. pen., che, nel caso di specie, non era stata violata solo perché la polizia giudiziaria si era limitata al sequestro del cellulare senza accedere al suo contenuto e subito dopo lo aveva consegnato al P.M. procedente. Questi, successivamente, tramite un consulente tecnico sua longa manus, aveva ricercato i messaggi di interesse investigativo. Tuttavia, appare evidente che l’utilizzo di un consulente tecnico diverso dalla P.G., in termini generali, allunga i tempi dell’attività investigativa, nonché aumenta in maniera esorbitante i suoi costi. Del resto, come già evidenziato, l’art. 254 cod. proc. pen. è una norma “costruita” in relazione alla corrispondenza cartacea, che mal si adatta alle comunicazioni elettroniche e informatiche per le ragioni esposte. In molti uffici di Procura si è cercato di trovare alcune soluzioni pratiche, diverse dall’applicazione dell’art. 254 cod. proc. pen., che consentano di salvaguardare in maniera sostanziale da un lato la tutela della riservatezza dei dati, contenuti nei dispositivi elettronici, ulteriori rispetto a quelli pertinenti al reato per cui si procede e dall’altro la necessaria speditezza delle attività di indagine. Per ragioni di spazio editoriale non è possibile descriverle e commentarle, ma si tratta, come è facile intuire, di sforzi interpretativi di adattamento rispetto ad una evidente lacuna normativa che è emersa solo dopo la sentenza della Corte costituzionale.
Accanto all’attività interpretativa della magistratura italiana, vi è però la concreta possibilità di un intervento legislativo che, prendendo atto della giurisprudenza costituzionale, modifichi la disciplina del sequestro dei device. Il disegno di legge n.806 del 19/07/2023, approvato dal Senato e in attesa dell’approvazione della Camera, introdurrebbe, dopo l’art. 254-bis cod. proc. pen., l’art.254-ter (Sequestro di dispositivi e sistemi informatici, smartphone e memorie digitali), con significative novità, prima fra tutte la necessità di un preventivo controllo del giudice sulla richiesta di sequestro del pubblico ministero[9].
Infine, si dovrà valutare l’impatto sull’ordinamento interno della recentissima sentenza della Corte di Giustizia U.E., Grande Camera, del 4 ottobre 2024, C-548/21, che riguarda proprio i messaggi contenuti nel telefono cellulare, già ricevuti e letti dal destinatario, ritenuti anche dalla C.G.U.E. come dati personali e segreti, che possono essere acquisiti nell’ambito di specifici procedimenti penali, nel rispetto del principio di proporzionalità e, di regola, a seguito di un provvedimento di autorizzazione del giudice o di un’autorità amministrativa indipendente[10].
[1] La Consulta nella sentenza ha sottolineato che tale orientamento trova, peraltro, conforto nella giurisprudenza della Corte europea dei diritti dell'uomo che non ha avuto esitazioni nel ricondurre nell'alveo della «corrispondenza» tutelata dall'art. 8 CEDU anche i messaggi informatico-telematici nella loro dimensione "statica", ossia già inviati e ricevuti dal destinatario (con riguardo alla posta elettronica, Corte EDU, sentenza Copland, paragrafo 44; con riguardo alla messaggistica istantanea, Corte EDU, sentenza Barbulescu, paragrafo 74; con riguardo a dati memorizzati in floppy disk, Corte EDU, sezione quinta, sentenza 22 maggio 2008, Iliya Stefanov contro Bulgaria, paragrafo 42). Indirizzo, questo, recentemente ribadito anche in relazione [...] al sequestro dei dati di uno smartphone, che comprendevano anche SMS e messaggi di posta elettronica (Corte EDU, sentenza Saber, paragrafo 48).
[2] Si veda per un primo commento su questa rivista, in data 20 giugno2024, G.Spangher, Criptofonini: le sentenze delle Sezioni Unite.
[3] Si veda al riguardo la recente sentenza Cass., Sez. 6, n.31180 del 21/05/2024, Donnarumma, in cui si legge che “non può condividersi l'osservazione del procuratore generale secondo il quale il principio affermato dalla Corte costituzionale non avrebbe portata generale ma si riferirebbe esclusivamente all'ambito applicativo delle guarentigie apprestate dall'articolo 68 Cost. in favore del parlamentare”.
[4] Si veda a titolo di esempio, tra le tante, Sez.6 n. 22417 del 16/03/2022, Sgromo, Rv.283319-01, che ha affermato in massima il seguente principio: “In tema di mezzi di prova, i messaggi "whatsapp" e gli sms conservati nella memoria di un telefono cellulare hanno natura di documenti ai sensi dell'art. 234 cod. proc. pen., sicché è legittima la loro acquisizione mediante mera riproduzione fotografica, non trovando applicazione né la disciplina delle intercettazioni, né quella relativa all'acquisizione di corrispondenza di cui all'art. 254 cod. proc. pen. (Fattispecie relativa a dati - allegati in copia cartacea o trasfusi nelle informative di polizia giudiziaria - acquisiti in separato procedimento, in cui la Corte ha precisato che non è indispensabile, ai fini della loro autonoma valutabilità, l'acquisizione della copia forense effettuata nel procedimento di provenienza, né dell'atto autorizzativo dell'eventuale perquisizione)”. In precedenza, si veda anche Sez.3, n.29426 del 16/04/2019, Moliterno, Rv.276358-01, secondo cui: “I messaggi di posta elettronica allocati nella memoria di un dispositivo dell'utente o nel server del gestore del servizio hanno natura di prova documentale sicché la loro acquisizione processuale non costituisce attività di intercettazione disciplinata dall'art. 266-bis cod. proc. pen. - atteso che quest'ultima esige la captazione di un flusso comunicativo in atto - ma presuppone l'adozione di un provvedimento di sequestro. (In motivazione, la Corte ha precisato che non è comunque applicabile la disciplina del sequestro di corrispondenza di cui all'art. 254 cod. proc. pen., la cui nozione implica un'attività di spedizione in corso o almeno avviata dal mittente mediante consegna a terzi per il recapito)”. In dottrina si vedano, tra i vari approfondimenti sul punto, le considerazioni di: W. Nocerino, L’acquisizione della messaggistica su sistemi criptati: intercettazioni o prova documentale? in Cass. pen., 2023, 9, 2786 ss., che, pur condividendo gli approcci della giurisprudenza maggioritaria quanto all’utilizzo dell’art. 234-bis cod. proc. pen., sollecita, però, il legislatore ad introdurre un nuovo mezzo di ricerca della prova che consenta, in maniera tipizzata e con le dovute garanzie, agli investigatori di accedere ed acquisire i cd. big data nei nuovi spazi virtuali, nonché P. Corvi, Le modalità di acquisizione dei dati informatici trasmessi mediante posta elettronica e applicativi di chatting: un rebus non ancora del tutto risolto, in Proc. pen. e giust., 2023, 1, 216 ss.
[5] Una parte della dottrina ritiene che la tutela della riservatezza delle comunicazioni necessiti di un controllo giurisdizionale in senso stretto, ossia da parte del giudice, in quanto il pubblico ministero non avrebbe nel processo la terzietà del giudice, essendo parte processuale, come ricavabile dall’art. 111, comma 2, Cost. In tal senso si veda F.R. Dinacci, I modi acquisitivi della messaggistica chat o e-mail: verso letture rispettose dei principi, in Arch. Pen. Web, 1, 2024.
[6] Sul concetto di prova incostituzionale si veda in dottrina G.M. Baccari – C. Conti, La corsa tecnologica tra Costituzione, codice di rito e norme sulla privacy: uno sguardo d'insieme, in Dir.Pen.Proc., 2021, n.6, pag. 711 ss., che affronta funditus il tema dell’inutilizzabilità della prova che va a ledere diritti fondamentali della Costituzione, tra cui rientrano quelli tutelati dall’art. 15 Cost.
[7] Edita su Cass. pen., 2023, n.7-8, p.2279 ss., con nota di C.Marinelli, Non sono utilizzabili neppure in sede di giudizio abbreviato i dati di geolocalizzazione relativi a cellulari, contenuti in tabulati telefonici, acquisiti dalla polizia giudiziaria in assenza del decreto di autorizzazione dell’autorità giudiziaria.
[8] Di recente Conf. Sez.6, n.17312 del 15/02/2024, Corsico, Rv. 286358-03, che evidenzia il contenuto che dovrebbe avere la motivazione del decreto di sequestro probatorio del pubblico ministero per osservare i criteri di proporzionalità della misura sia nella fase genetica sia in quella esecutiva.
[9] Per approfondimenti sul DdL n.806/2023 si veda C.Parodi, Signori, si cambia: la nuova disciplina sul sequestro di PC e device, in IUS del 13 marzo 2024.
[10] Per un primo commento si veda L. Filippi, La CGUE mette i paletti all’accesso ai dati del cellulare, in Il Quotidiano Giuridico, del 10 marzo 2024; C.Parodi, Accesso ai dati presenti sul cellulare: quando, come e perché, in Il diritto vivente, del 11 ottobre 2024; F.Agnino, Accesso ai dati del cellulare, da parte della polizia, in IUS del 15 ottobre 2024.
Immagine: Patrick Caulfield, La lettera, 1967, serigrafia, cm 48×76, Tate, Londra
To install this Web App in your iPhone/iPad press icon.
And then Add to Home Screen.