Il tema dell’intelligenza artificiale nei Tribunali non è più soltanto una prospettiva futura, ma una realtà che solleva interrogativi urgenti. Trasparenza dei contratti con i fornitori di tecnologia e formazione congiunta per avvocati e magistrati sono le due richieste principali emerse dall’XVII assemblea nazionale degli Osservatori della Giustizia civile, tenutasi a Bologna.
La riflessione apre un dibattito su come l’Italia stia affrontando l’ingresso dell’IA nel sistema giudiziario e su quali regole manchino ancora per garantire un utilizzo sicuro ed equo.
Indice dei contenuti
Trasparenza nei contratti e sperimentazioni sotto osservazione
Le conclusioni del gruppo di lavoro “IA e diritto”, fatte proprie dagli Osservatori, chiedono al Ministero della Giustizia di rendere pubbliche e facilmente accessibili le clausole contrattuali dei sistemi di IA già in uso nei Tribunali. Si invoca maggiore chiarezza sugli accordi di fornitura e sul percorso di sperimentazione, che coinvolge anche strumenti general purpose come Copilot di Microsoft, partner istituzionale per le udienze da remoto.
Ad oggi, però, la mancanza di informazioni ufficiali rende difficile valutare su quali basi legali e contrattuali si stiano muovendo le istituzioni.
Formazione e AI literacy per magistrati e avvocati
Il secondo punto cruciale riguarda la formazione comune. L’articolo 4 dell’AI Act introduce il dovere di AI literacy per chi utilizza sistemi di intelligenza artificiale. Gli Osservatori chiedono che questo obbligo si traduca in un programma condiviso di formazione tra magistrati e avvocati, con l’obiettivo di elaborare linee guida operative e creare una cultura giuridica comune nell’uso dell’IA.
Il confronto con l’Europa
La mancanza di linee guida nazionali stride con quanto avviene in altri Paesi. In Francia, la Corte di cassazione ha definito un percorso chiaro con principi di trasparenza e controllo umano. In Olanda è stato predisposto un registro pubblico degli algoritmi, mentre in Spagna e Germania sono già stati avviati piani e strategie comuni per l’uso responsabile dell’IA nella giustizia. Anche la Corte di giustizia dell’Unione europea e il Consiglio d’Europa hanno fissato standard etici e strategici che potrebbero rappresentare un modello per l’Italia.
AI Act e attività ad alto rischio
Il nodo resta l’individuazione delle attività giudiziarie ad alto rischio, così come definite dall’AI Act. L’articolo 6 e l’allegato III includono i sistemi di IA destinati ad assistere i giudici nella ricerca dei fatti e del diritto, ma prevedono anche deroghe per i compiti procedurali limitati o di supporto. Una zona grigia che rischia di lasciare ampio margine di incertezza su quando e come un sistema di intelligenza artificiale debba essere sottoposto a regole più stringenti.
Un’urgenza non più rinviabile
La riflessione emersa a Bologna evidenzia come l’Italia stia ancora muovendo i primi passi verso un quadro di governance chiaro. Senza trasparenza contrattuale e senza linee guida nazionali, l’uso dell’intelligenza artificiale nei Tribunali rischia di procedere in maniera frammentata, con effetti poco prevedibili sulla tutela dei diritti fondamentali.