L’irruzione dell’intelligenza artificiale nella giustizia è inevitabile, dobbiamo conoscerla, utilizzarla e governarla per non subirla.
di Claudio Castelli
L’intelligenza artificiale (IA) non è solo una tecnologia, ma rappresenta un approccio nuovo e dirompente alla gestione delle organizzazioni, ed è in grado di trasformarle profondamente.
Succederà anche per l’organizzazione giudiziaria. Sul come, dipende (anche) da noi.
Bisogna innanzitutto comprendere cosa sia questa tecnologia e quindi capire come trasformare gli obiettivi in azioni concrete e realizzabili.
Il nostro primo compito è comprendere le diverse implicazioni dell’intelligenza artificiale: tecnica, etica ed applicativa.
La natura tecnica: comprendere come funziona questa tecnologia rivoluzionaria.
La natura filosofica ed etica: individuare i rischi legati all’uso di questa tecnologia.
La natura applicativa: capire come l’IA potrebbe essere e già viene usata nell’amministrazione della giustizia, sia in maniera ufficiale che ufficiosa.
Occorre avere chiari i rischi che l’IA comporta, con la consapevolezza che la giustizia ricade nell’alto rischio, ma non per gli aspetti organizzativi.
Occorre avere sempre presenti i nuovi problemi etici che dobbiamo affrontare e prevenire per le applicazioni di IA.
Ma prima di tutto dobbiamo capire le enormi potenzialità e l’autentica rivoluzione lavorativa e organizzativa che l’IA può comportare con l’idea di utilizzarla e governarla.
Abbiamo a che fare con sistemi che non si limitano più a basarsi su sistemi esperti che fondandosi su regole seguono programmi specifici o sistemi di apprendimento automatico o che apprendono dai dati di addestramento e inferiscono regole per prevedere risultati specifici, ma con sistemi che combinano questi vantaggi, aggiungendo la capacità di rispondere al contesto e fornire spiegazioni sul processo decisionale.
Sistemi che “apprendono” man mano che analizzano i dati, distinguendosi dall’apprendimento umano, e che hanno bisogno di moltissimi dati, dati che devono essere affidabili e di qualità.
Stiamo ora assistendo ad un fortissimo salto di qualità con un’evoluzione rapidissima.
Già oggi nel mondo a livello giudiziario l’I.A. viene ampiamente utilizzata, anche se manca un’adeguata informazione e consapevolezza. È stata condotta, sia pure su di un campione molto limitato una ricerca da parte dell’UNESCO denominata “Global Judge’s Iniziative” da cui risulta che il 44 % di chi ha risposto usa chatbox, ma solo il 9 % ha ricevuto formazione o linee guida istituzionali. E l’Europa è in indubbio ritardo.
Il nostro Governo con il Disegno di legge n.1156 ha provato a confrontarsi con l’avvento della IA e quanto alla giustizia con l’art.14 ha scelto un’ottica conservativa a mio avviso perdente.
Disegno di legge n.1146 “Disposizioni e delega al Governo in materia di intelligenza artificiale”.
Art.14 (Uso dell’intelligenza artificiale nell’attività giudiziaria)
1. I sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale. Il Ministero della giustizia disciplina l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari. Per le altre giurisdizioni l’impiego è disciplinato in conformità ai rispettivi ordinamenti.
2. È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento.
Il disegno di legge governativo in tema di regolamentazione dell’intelligenza artificiale sulla giustizia limita il suo utilizzo “esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale”, riservando sempre “al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimenti.”
Normativa ancora ambigua ed insufficiente: le dizioni utilizzate sono quanto mai generiche e (fortunatamente) non risolutive. Inoltre tra quanto consentito e quanto vietato vi è un’amplissima zona grigia che non viene regolamentata, ad esempio per individuare le cause mediabili, per sistematizzare tipologie e punti cruciali dei procedimenti, per riassumere e scrivere il fatto. Non solo, ma non si interviene sull’ampio campo che può davvero rappresentare un rischio per la professione di avvocato, ma ancor più per l’informazione ed i diritti dei cittadini, delle consulenze legali online nelle quali occorrerebbe vietare quelle selvagge ed imporre una certificazione e completezza dei dati sulle quali si basano.
Le possibilità di applicazione dell’IA per gli uffici giudiziari oggi investono tre campi.
Amministrativo-gestionale che interessa la gestione dei Palazzi di giustizia, la digitalizzazione degli edifici e della loro manutenzione, il controllo di gestione, il recupero crediti e le spese di giustizia.
Analitico-gestionale dell’attività giudiziaria: strumenti di lettura della litigiosità, del tipo di contenzioso, dei valori economici, delle scelte di organizzazione del processo, delle norme citate, dei trend decisionali, delle correlazioni tra materie diverse, indici di mediabilità, pesatura dei procedimenti, monitoraggio, conoscenza e predittività degli orientamenti, rapporto tra realtà territoriale e giustizia.
Processuale, che invece investe direttamente la giurisdizione con la gestione del processo telematico, il supporto del lavoro del magistrato, dell’avvocato e di qualsiasi operatore giuridico, le banche dati anche locali e l’estrazione automatica dei precedenti.
Sono da curare tre pilastri:
La qualità dei dati (vero e proprio carburante dell’AI).
L’addestramento della macchina e la formazione non solo di chi costruisce i sistemi, ma in primo luogo di chi formula gli obiettivi e di chi utilizza i sistemi.
Il controllo (data set control).
Abbiamo enormi potenzialità che vanno governate. La nostra direzione deve essere di sfruttare queste enormi potenzialità, di regolare il fenomeno e di mettere sempre l’essere umano al centro. Avendo ben presente che l’intelligenza artificiale generativa è già tra noi.
Già oggi ci sono programmi integrati su banche dati (non a caso forniti da privati) che sintetizzano il testo, analizzano le conclusioni del giudice, estraggono i riferimenti normativi principali e individuano la rilevanza giuridica delle decisioni.
E il Ministero, con scarsa condivisione, sta lavorando per la creazione di un data lake, da interrogare poi con i moderni strumenti di AI, previa anonimizzazione o pseudo anonimizzazione dei dati, col fine di estrarre conoscenza dal patrimonio informativo del Ministero della Giustizia sotto forma di dati, documenti e processi al fine di supportare l’Amministrazione nelle scelte strategiche.
Inoltre grazie alla collaborazione con l’Università nell’ambito del PON Governance sono emerse molte possibilità di applicazioni concrete dell’AI che potrebbero dimostrarsi utilissime, automatizzando attività a basso valore aggiunto, realizzando un controllo di gestione degli uffici ad ampio spettro e consentendo una costante visione e monitoraggio di ruoli, pendenze e tempi, con la creazione di cruscotti quali quantititativi.
Occorre formarsi, comprendere, essere in grado di dare indicazioni su di cosa abbiamo bisogno e come possa essere governato. A chi ha dubbi e coltiva ottiche conservative va sempre ricordato da un lato che i processi tecnologici sono inarrestabili e che la scelta è sempre tra subirli o governarli e dall’altro che la capacità di adattamento e collaborazione attiva già dimostrata da tutti gli operatori della giustizia con il PCT è stata enorme e sorprendente, sempre che l’innovazione sia comprensibile, condivisa, chiara negli obiettivi e porti ad un lavoro più comodo e di qualità.
Abbiamo bisogno di una AI in house per l’uso giudiziario, alimentata con dati affidabili, e utilizzata da soggetti consapevoli e addestrati.
Oggi manca un’iniziativa in positivo, in parallelo alle pur indispensabili regolamentazioni, per sottolineare e far emergere le grandi potenzialità delle varie intelligenze artificiali, per valorizzare le possibili applicazioni per le professioni giuridiche e supportare il lavoro degli operatori, per realizzare una loro formazione a tappeto. Occorrerebbe un laboratorio nazionale sull’utilizzo dell’IA generativa nella giustizia chiamando i migliori cervelli dall’università, dalla magistratura, dall’avvocatura, dalla dirigenza e dal personale giudiziario. Senza questo saremo sempre ad arrancare dietro i progressi tecnologici che o vengono governati o, al di là dei divieti formali, prevarranno.
Il problema che oggi abbiamo, e che temo sarà quello determinante per il futuro, è la debolezza ed inadeguatezza della Governance della digitalizzazione della giustizia.
Debolezza tanto più preoccupante dato che l’art. 14 del DDL prima citato affida al Ministero della Giustizia “(del)la disciplina dell’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari.”
Monopolio ministeriale oggi non più giustificato a livello costituzionale, inefficace a livello tecnico ed incapace di rapportarsi proficuamente con i diversi operatori.
Il monopolio dell’informatica giudiziaria era inevitabile fino a quando l’informatica era un semplice supporto, ma non è più giustificabile da quando la digitalizzazione è diventata sempre più formante e cardine della giurisdizione, componente essenziale della stessa gestione di tutti gli aspetti dei Palazzi di giustizia. Oggi la prospettiva è molto più intrinseca alla giurisdizione e richiede quindi apporti e interlocuzioni con altri soggetti. Il C.S.M. in primis, chiamato dalla Costituzione a tutelare la giurisdizione, ma anche l’avvocatura chiamata dall’art. 24 della Costituzione alla tutela dei diritti. Interlocuzione e collaborazione che è dovuta a livello costituzionale, ma che si rende necessaria anche a livello funzionale.
Oggi vi sono problemi di metodo, di gestione, ma anche di impostazione complessiva.
Di metodo perché manca la trasparenza sulle progettualità e soffre una lontananza dagli uffici giudiziari e dall’avvocatura, con una forte autoreferenzialità ministeriale e senza una previa analisi di organizzazione sulle esigenze dei diversi soggetti che vi operano.
Di gestione perché mancano tecnici informatici ed il Ministero non riesce neppure ad assumerne, dato che le retribuzioni offerte sono del tutto fuori mercato. È un problema non solo del Ministero della Giustizia, dato che veniamo da un lungo percorso di indebolimento e di de-professionalizzazione della Pubblica Amministrazione, ma che per il Ministero della Giustizia, dato il suo ruolo strategico, è particolarmente grave. La prospettiva già in corso è di una crescente privatizzazione senza controlli.
Di impostazione in quanto il Ministero nel settore non ha più un’indispensabile unitarietà, con una gestione frazionata in due Dipartimenti e in due Direzioni Generali, con difficoltà di dialogo e di comunità di intenti. Con conseguente irrazionalità, frammentazione di competenze, sprechi e difficoltà di sinergia.
La creazione di un laboratorio per le applicazioni di intelligenza artificiale nella giustizia può essere l’occasione per fare un salto di qualità superando e coinvolgendo le due Direzioni ministeriali, costruendo una nuova governance efficiente e partecipata, con la partecipazione di tutti i soggetti istituzionali interessati.
La prospettiva che da tempo sostengo è la creazione di un’Agenzia, sempre controllata al 100 % dal Ministero della Giustizia, ma con un Consiglio di Amministrazione nominato di concerto dal Ministero e dal C.S.M. e sentito il C.N.F. che possa garantire agilità e stipendi adeguati e concorrenziali con dipendenti capaci e fidelizzati. Risposta che secondo me si impone da un lato per garantire una condivisione delle scelte in quello che ormai è diventato il terreno determinante per la giurisdizione e dall’altro di avere tecnici di alto livello che lavorano per il servizio.
Può darsi ci possano essere risposte diverse. Quanto credo sia chiaro è che l’attuale gestione, come dimostra la triste storia di APP, è totalmente inadeguata e richiede una profonda scossa.
Questo contributo costituisce l’introduzione di Claudio Castelli al Convegno “Intelligenza Artificiale e riserva di umanità” organizzato da Area DG a Torino il 15 novembre 2024. Molti dei contenuti sono ripresi da sollecitazioni di Claudia Morelli e Antonella Ciriello che l’Autore ringrazia.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link