Il documento analizza l’introduzione dell’Intelligenza Artificiale (IA) nel processo amministrativo italiano da parte del Consiglio di Stato. Viene chiarito che l’IA non verrà impiegata per la redazione di sentenze e ordinanze. Invece, sarà utilizzata per attività come l’analisi dei fascicoli, la ricerca di precedenti e la distribuzione dei carichi di lavoro. Tuttavia, si teme che l’attività di profilazione dei fascicoli e delle controversie, resa possibile dall’IA, possa fornire indicatori e dati che potrebbero essere trasmessi ad altre istituzioni e amministrazioni per finalità estranee al processo. Inoltre, la profilazione potrebbe consentire di monitorare le condotte processuali dei difensori, le eccezioni proposte, gli esiti degli appelli, creando una sorta di “punteggio sociale” dei legali. Allo stesso modo, l’analisi dei ricorsi potrebbe generare report riservati al giudice, sottraendoli al contraddittorio delle parti. Viene sollevata la mancanza di trasparenza sul progetto e la necessità di un ampio dibattito pubblico.

[nota: l’abstract è stato ottenuto sottoponendo lo studio all’analisi dell’Intelligenza Artificiale Lucrez-IA® dell’Università degli Studi di Padova, che a sua volta si basa su architettura Claude Sonnet 3.5® di Anthropic®]

 

Guardando al concetto sostanziale, e non strettamente normativo, di Intelligenza Artificiale, ben pochi, tra noi giuristi, riescono a immaginare che cosa sia un sistema capace di costruire valutazioni e decisioni in modo autonomo.

Ancor meno sono coloro che sanno come questi sistemi potrebbero essere utilizzati.

Inoltre, è immaginifico pensare che le intelligenze artificiali siano applicabili a un processo, in cui la componente valutativa umana è tanto importante: l’idea che una macchina sia capace di scrivere una sentenza al posto del giudice non è neppure concepibile e altrettanto difficile è ipotizzare che una macchina possa predire l’esito di una controversia.

Dopo tutto, habent sua sidera lites e in quei loro universi neanche la più raffinata mente algoritmica sembra poter penetrare.

Eppure, l’Intelligenza Artificiale sta inaspettatamente entrando di gran lena nel processo amministrativo.

Anche a futura memoria di come si sono svolti i fatti, nel novembre 2023 il Consiglio di Stato aderisce a un contratto-quadro della Consip ai fini dell’acquisizione di un ausilio informatico basato sull’Intelligenza Artificiale per l’espletamento del processo amministrativo telematico.

Nello stesso periodo sono sottoscritti altri importanti contratti per il trasferimento definitivo del S.I.G.A. su vari cloud esterni.

Il 12 settembre 2024, secondo quanto è previsto dall’art. 13 dell’all. II al codice di rito, il Consiglio di Stato comunica alle organizzazioni forensi maggiormente rappresentative il progetto di riforma del processo amministrativo telematico.

Si tratta di una riforma piuttosto consistente, stando a quello che si evince dall’articolato, giacché si prevedono nuove modalità di autenticazione sui portali e nuove forme di deposito delle memorie e dei documenti, mettendo, verosimilmente, in pensione i pericolosi moduli di deposito attualmente in uso.

Ma ancora più interessante dell’articolato è la relazione che lo accompagna: “L’uniformità dei format potrà costituire un fattore importante per consentire una efficace e affidabile introduzione di tecnologie altamente evolute e, segnatamente, di quelle basate sulla IA, oggetto di ulteriori progetti in corso di attuazione da parte del Servizio per l’Informatica della GA”.

Si ipotizza così, in un futuro piuttosto prossimo, l’introduzione di modelli o formati di file. Solo questi modelli potranno essere utilizzati per redigere e depositare le memorie di parte. Per le vie brevi, si è appreso che tali modelli prevederebbero la suddivisione delle memorie secondo inderogabili componenti formali, come, ad esempio, la compilazione di un sommario, sì da suggerire che il processo amministrativo stia declinando verso una concezione formulare, assai più formalistica del raffinato precedente in uso nel diritto romano, repubblicano e imperiale.

Arriviamo così al 4 ottobre 2024, quando viene diffuso un Documento del Segretariato Generale del Consiglio di Stato, dal quale emerge che, dando esecuzione ai contratti Consip di cui ho fatto cenno, sarebbe in fase piuttosto avanzata un’attività di implementazione della Intelligenza Artificiale nel processo amministrativo.

È così del tutto chiaro che la riforma del p.a.t. è solo un tassello (forse neppure quello più importante) di una iniziativa più ampia, la cui gestazione viene resa pubblica solo in quel momento.

Su tutto questo incombe, nel frattempo, il regolamento del Consiglio UE 1689/2024, approvato il 29 giugno 2024, il quale disciplina le pratiche di utilizzo delle intelligenze artificiali e la cui entrata in vigore è subordinata a varie tappe, la più importante delle quali è data dal 2 febbraio 2025.

Il Regolamento (al suo allegato 3) classifica come sistemi di Intelligenza Artificiale a alto rischio anche quelli “destinati a essere usati da un’autorità giudiziaria o (…) per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti”.

Tutto questo comporta che la loro diffusione, commercializzazione e utilizzo siano sottoposti ad alcune cautele, che, per la verità, non sono neppure troppo rigide: una gestione del sistema, concentrata nella formazione di un documento di analisi del rischio; la sottoposizione del sistema a un organismo di vigilanza (cioè a un soggetto privato preventivamente qualificato, chiamato a apporre un visto di conformità); una registrazione in una banca dati a accesso pubblico (in cui viene dichiarato a che cosa la IA dovrebbe servire).

Non vengono, tuttavia, resi di pubblica conoscibilità alcuni dati importanti, come ad esempio il codice sorgente, cosicché non sarà certo se la singola IA iscritta nel registro potrà fare qualcos’altro, oltre a quello che viene dichiarato.

Inoltre, la conservazione dei log dei sistemi di Intelligenza Artificiale a alto rischio potrà essere limitata a soli sei mesi, vale a dire un periodo che potrebbe rivelarsi troppo ristretto, a fronte dei tempi di emersione di un utilizzo improprio.

La potenziale riconducibilità delle IA legate al processo nel novero dei sistemi a alto rischio, benché nota a chi sta sviluppando la IA per il processo amministrativo italiano, non è stata ritenuta, tuttavia, di particolare rilievo.

Il Documento del 4 ottobre ha contestato, infatti, che il sistema, per come è costruita la sua architettura, debba considerarsi a alto rischio, di talché esso verrebbe a sottrarsi alla più rigida disciplina europea.

Per verificare la correttezza dell’assunto, si tratta, dunque, di capire che cosa l’Intelligenza Artificiale farà davvero nel nostro processo.

I campi di applicazione che il Documento del 4 ottobre indica sono essenzialmente tre.

Due di essi, pur importanti, sono di minor rilievo per la generalità, benché il Documento vi dedichi molte pagine a dimostrazione del fatto che il maggior sforzo è stato concentrato su di essi. Si tratta di quelli relativi alla anonimizzazione dei provvedimenti del giudice, per i casi in cui essa sia necessaria, e alla cybersicurezza del sistema.

Una minore attenzione, invece, è dedicata dal Documento al tema forse più importante, che è proprio quello dell’impiego dell’Intelligenza Artificiale nella produttività del giudice.

Sul punto, il documento rassicura circa una questione determinante: non s’intende usare l’Intelligenza Artificiale per la redazione automatica di sentenze e di ordinanze.

Il dato è, appunto, rassicurante, ma, in un certo senso, è anche scontato.

Come ho detto, a un tale utilizzo si oppongono ancora problemi di linguaggio e di logica giuridica, che appaiono irresolubili con il metodo di accostamento stocastico delle parole di cui questi sistemi funsi servono.

Si oppongono pure a un tale utilizzo della IA altri problemi legati alla c.d. riserva di umanità e al principio del giudice naturale precostituito per legge.

Infine, secondo una prospettiva più ampia e, per così dire, di politica dell’apparato, ci si permette di dubitare che un tale impiego, se pure fosse concretamente possibile, sarebbe gradito all’organo giudicante, il quale vedrebbe, così, indebolito il kern della sua funzione e anche delle sue prerogative.

Del resto, e per quel che vale, l’attuale disegno di legge all’esame delle Camere (n. 1146 – Senato, XIX legislatura), che vorrebbe dare delega al Governo nella suddetta materia, prevede al suo art. 14 che “i sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale (…). È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”.

Sembra, così, che anche il giudice amministrativo si contenti di meno di quel che la IA potrebbe forse offrire.

Ma non è affatto detto che questo meno sia del tutto esente da pericoli.

In effetti, chi non appartiene all’apparato giurisdizionale tende a trascurare una serie di attività che per i magistrati hanno un rilievo per niente secondario.

Tra queste rientrano l’individuazione delle cause pendenti, il loro oggetto, l’esistenza di liti simili.

Si tratta, cioè, di quella attività di gestione del contenzioso, per lo più svolta dai presidenti di Sezione e dai segretari delle stesse, la quale implica una ricerca e una preliminare conoscenza dei singoli fascicoli.

Un primo obiettivo della IA applicata al processo amministrativo sarebbe dunque quello di ottimizzare l’analisi dei fascicoli, anche al fine di distribuire i carichi di lavoro e soprattutto di radunare le liti consimili nella stessa udienza.

Altri scopi, resi noti dal Documento, andrebbero individuati nella ricerca dei precedenti giurisprudenziali o dei riferimenti normativi attraverso metodologie più affidabili di quelle che si fondono sulla c.d. parola-chiave. Essi dovrebbero essere incorporati nel sistema di I.A. della giustizia amministrativa, che non potrebbe, in tal modo, alimentarsi da fonti esterne.

Trascurando questi ultimi profili, che a me pare poco importino e che, forse, neppure consentirebbero di ottenere un effettivo guadagno, in termini di efficienza, rispetto a quanto le ordinarie banche dati commerciali possono offrire, sembra così che l’Intelligenza Artificiale sarà utilizzata per compiere uno screening delle liti pendenti.

Sul punto, il Documento è probabilmente un po’ sbrigativo e, fatti salvi gli esempi di utilizzo già citati, null’altro aggiunge.

Eppure, gli utilizzi potrebbero essere più vasti e, per così dire, più preoccupanti, una volta che si sia deciso di razionalizzare in dati complessi tutto quello che è depositato nei database del S.I.G.A., giacché si apre, a questo punto, la prospettiva di una generale profilazione delle controversie e del loro contenuto, nonché delle parti e dei difensori.

Ad esempio, si potrebbe chiedere alla macchina d’indicare tutto il contenzioso avviato o resistito da una determinata parte o da un determinato difensore; di valutare le condotte processuali di quest’ultimo, le eccezioni che sia solito proporre, eventuali episodi processuali che lo riguardino, l’affidabilità dei suoi rilievi nella esposizione dei fatti di causa, la sua puntigliosità o, al contrario, la sua bonarietà nell’atteggiamento in lite. Si potrebbe verificare se il difensore presenti spesso appelli e con che esiti. Più in generale, si potrebbe verificare il suo score di cause vinte e perse e, in definitiva, il suo punteggio sociale nel contesto del processo amministrativo, a voler usare un’espressione infelice, ma significativa, che compare nello stesso regolamento 1689/2024 (art. 5) a titolo di esempio di come le intelligenze artificiali possono essere applicate.

Allo stesso modo, lo screening dei ricorsi – tanto più perché agevolato dall’utilizzo di format predefiniti, nei quali potrebbe essere fatto obbligo anche di determinati marcatori digitali che, essendo rilevabili dalla IA, rendano facilmente identificabili, ad esempio, l’oggetto e il contenuto della lite, i fatti di causa, o le disposizioni normative di cui viene chiesta l’applicazione – può fornire accurati, ma sintetici, report circa la singola controversia, sui quali un domani si potrebbe concentrare e, soprattutto, limitare la valutazione operata dal giudice o, peggio, da un suo ausiliario.

Perché, incidentalmente, anche questo non va escluso: vale a dire che, al momento, il giudice amministrativo neppure avverta l’esigenza di servirsi dell’Intelligenza Artificiale per redigere le sentenze. Egli, infatti, dispone già, e con larghezza, di più affidabili intelligenze, ausiliarie e umanissime, le quali vestono i panni dei tirocinanti o degli addetti all’Ufficio per il Processo e alle quali potrebbe essere eventualmente affidato il compito di redigere l’atto che poi lo stesso giudice sottoscriverebbe.

Il combinato utilizzo dei report desumibili dai fascicoli telematici con le intelligenze ausiliarie (utilizzo esso stesso troppo umano, perché comodo e meno faticoso) potrebbe, così, far perdere al giudice la cognizione del fascicolo nella sua integralità, anche a non voler considerare che un report che analizzi la lite, se maneggiato acriticamente, finirebbe per esprimere esso stesso una sorta di sostanziale embrione della decisione finale.

Soprattutto, però, questa complessiva attività di profilazione del contenzioso amministrativo pendente appare preoccupante, se si deve dare rilievo a quanto dichiarato in un recentissimo convegno da chi è stato concretamente incaricato di curare l’implementazione della IA nel processo amministrativo[1].

Ripetendo pressoché testualmente quanto affermato in quella sede, “le prospettive di un tale sistema di monitoraggio delle liti presentano potenzialità che travalicano il settore della giustizia amministrativa, perché il contenzioso della giustizia amministrativa è un contenzioso che consente di captare fenomeni economici e sociali caratteristici delle singole realtà e quindi di [fornire] indicatori (…) di queste caratteristiche territoriali che possono risultare utili a altri fini, a altre istituzioni e a altre amministrazioni”.

Il tutto quasi a suggerire un possibile impiego dei dati raccolti in occasione del sindacato giurisdizionale a diversi, e estranei, scopi di amministrazione attiva, sì da alimentare la confusione tra le funzioni delle due autorità e sì da trasformare il giudice in un soggetto chiamato a svolgere anche attività di sostanziale istruttoria amministrativa (o anche legislativa), peraltro attingendo a fonti che non dovrebbero essere utilizzabili al di fuori del processo, forse neppure sotto la forma di dati aggregati. Né si vogliono qui neppure ipotizzare ancora più fosche previsioni circa la possibilità che tali dati, una volta ottenuti dall’apparato della giustizia amministrativa, possano essere commercializzati nel libero mercato e a favore di imprenditori privati.

Sul punto vorrei essere chiaro: non predico affatto che questo sia l’orizzonte davanti a noi.

Sostengo, però, che questo è uno degli orizzonti possibili, perché quel che è attualmente a nostra conoscenza non lo esclude e nulla ci rassicura sul fatto che non sarà così.

Quel Documento del 4 ottobre, in effetti, dice troppo poco, se valutato al netto delle lodevoli dichiarazioni di principio.

Residuano, inoltre, dei dubbi – in parte giuridici, in parte fattuali – dei quali è bene fare cenno.

Non sono certo, in primo luogo, che sia del tutto corretta la tesi secondo la quale questa IA non dovrebbe rientrare tra quelle definite a alto rischio dal Regolamento europeo.

È vero che la IA, così come descritta, non sarà utilizzata per scrivere le sentenze e che quindi essa non formerà una vera e propria decisione. Del resto, si è visto come questo, attualmente, non sia considerato neppure possibile.

Tuttavia, è indubbio che questa attività di screening e di selezione dei precedenti è strumentale alla decisione del giudice sì che a me pare che essa debba rientrare a pieno titolo in quella attività di assistenza della autorità giudiziaria a cui il regolamento dell’Unione accenna, quando parla, appunto, di intelligenze a alto rischio.

In via di fatto, poi, non è noto come concretamente la IA funzionerà e quali saranno le metodologie interpretative dei fatti e dei documenti di cui essa si servirà.

Quali che siano dette metodologie, una cosa, tuttavia, è certa: una macchina è potenzialmente in grado di leggere un documento in modo diverso da come lo leggerebbe un umano.

Intendo dire, con questo, che la macchina è in grado di ricavare informazioni, che noi non siamo in grado di cogliere.

Mi chiedo, dunque, se sarà possibile inserire nei documenti depositati in giudizio, attraverso pratiche di steganografia che, ad esempio, incidano sui metadati dei file o sul contenuto non visibile degli stessi, informazioni che in tal modo verrebbero sottratte al contraddittorio tra le parti, ma che sarebbero ugualmente capaci di alterare o d’influenzare il sistema della IA e quindi, indirettamente, d’influenzare anche il giudice che ne riceve gli output.

Sarà possibile, ad esempio, oscurare o diluire il fatto che quel particolare ricorso appartiene al contenzioso “sul soccorso istruttorio”, in modo da disorientare la macchina e da non far chiamare la lite a una udienza in cui saranno trattate altre cento cause consimili? Sarà possibile introdurre un’eccezione di tardività del ricorso o di nullità della notifica, in modo che la macchina possa leggerla e poi ne faccia un report riservato al giudice, senza che il ricorrente ne sia a conoscenza?

Anche a riguardo di questi profili (che, senza dubbio, sono stati presi in considerazione da chi ha sviluppato il progetto) si conosce troppo poco.

Perché, in definitiva, la critica più grave che ritengo di muovere verso questa brusca accelerazione sul fronte della Intelligenza Artificiale è proprio questa: l’iniziativa è stata avviata e sviluppata senza una effettiva trasparenza e oggi ne veniamo a conoscenza a cose fatte o quasi fatte[2], forse con l’intento di mettere a regime il sistema prima dell’entrata in vigore del Regolamento europeo.

Quando invece, secondo quello che a me pare, una iniziativa di questo genere avrebbe dovuto essere condivisa e precisata almeno con tutti gli operatori del settore, se non addirittura attraverso forme di partecipazione politica più estese.

Il tutto protesto perché la questione sembra riguardare un tema di cui dovrebbe occuparsi, almeno nelle sue linee principali, una fonte primaria: esso esorbita dai compiti di regolamentazione del processo telematico che l’art. 13 dell’all. II al c.p.a. ha pure, incautamente, consegnato al Presidente del Consiglio di Stato.

Infine, una notazione, a volte trascurata.

Una decisione automatica del ricorso, affidata integralmente alla macchina e su cui il giudice non interviene, esiste già, da quando è stato introdotto, nel 2017, il p.a.t.

Essa va ravvisata in quella mail di mancato deposito del ricorso, per il caso in cui questo non rispetti i requisiti formali richiesti dalla disciplina tecnica del processo telematico.

Quella mail è, a tutti gli effetti, una sorta di sentenza di reiezione in rito del ricorso per irritualità del deposito. Ma è una sentenza assunta dall’elaboratore, senza alcun intervento umano. Essa potrebbe avere anche conseguenze definitive, se non vi fosse più un margine di tempo per individuare l’errore e per rinnovare l’incombente.

Eppure, non è previsto alcun rimedio a suo riguardo.

Già questo esempio dovrebbe indurci a scrutinare con spirito critico ogni iniziativa in questa materia. Tanto più se questa non fosse compiutamente spiegata e chiarita in ogni suo singolo dettaglio.

Francesco Volpe

 

*Lo studio riproduce, con gli opportuni adattamenti, il testo dell’intervento tenuto al congresso giuridico su L’evoluzione del diritto. Stile, forma e linguaggio, in Treviso, 25 ottobre 2024.

 

[1] B. Bruno, intervento su Le prospettive evolutive della giustizia amministrativa nell’era della I. A., al Secondo Congresso nazionale dei giudici amministrativi italiani – I 50 anni di funzionamento dei Tribunali amministrativi regionali, in Roma, 18 ottobre 2024. https://vimeo.com/event/4638736.

[2] Intervento del Cons. B. Bruno, cit.: “La macchina c’è e adesso dobbiamo metterla in pista”.

image_pdfStampa in PDF