Giustizia, l’intelligenza artificiale nei Tribunali: trasparenza e regole ancora mancanti

AI nei Tribunali italiani: servono regole chiare, trasparenza contrattuale e linee guida per un uso responsabile della tecnologia nella Giustizia.

Il tema dell’intelligenza artificiale nei Tribunali non è più soltanto una prospettiva futura, ma una realtà che solleva interrogativi urgenti. Trasparenza dei contratti con i fornitori di tecnologia e formazione congiunta per avvocati e magistrati sono le due richieste principali emerse dall’XVII assemblea nazionale degli Osservatori della Giustizia civile, tenutasi a Bologna.

La riflessione apre un dibattito su come l’Italia stia affrontando l’ingresso dell’IA nel sistema giudiziario e su quali regole manchino ancora per garantire un utilizzo sicuro ed equo.

Trasparenza nei contratti e sperimentazioni sotto osservazione

Le conclusioni del gruppo di lavoro “IA e diritto”, fatte proprie dagli Osservatori, chiedono al Ministero della Giustizia di rendere pubbliche e facilmente accessibili le clausole contrattuali dei sistemi di IA già in uso nei Tribunali. Si invoca maggiore chiarezza sugli accordi di fornitura e sul percorso di sperimentazione, che coinvolge anche strumenti general purpose come Copilot di Microsoft, partner istituzionale per le udienze da remoto.

Ad oggi, però, la mancanza di informazioni ufficiali rende difficile valutare su quali basi legali e contrattuali si stiano muovendo le istituzioni.

Formazione e AI literacy per magistrati e avvocati

Il secondo punto cruciale riguarda la formazione comune. L’articolo 4 dell’AI Act introduce il dovere di AI literacy per chi utilizza sistemi di intelligenza artificiale. Gli Osservatori chiedono che questo obbligo si traduca in un programma condiviso di formazione tra magistrati e avvocati, con l’obiettivo di elaborare linee guida operative e creare una cultura giuridica comune nell’uso dell’IA.

Il confronto con l’Europa

La mancanza di linee guida nazionali stride con quanto avviene in altri Paesi. In Francia, la Corte di cassazione ha definito un percorso chiaro con principi di trasparenza e controllo umano. In Olanda è stato predisposto un registro pubblico degli algoritmi, mentre in Spagna e Germania sono già stati avviati piani e strategie comuni per l’uso responsabile dell’IA nella giustizia. Anche la Corte di giustizia dell’Unione europea e il Consiglio d’Europa hanno fissato standard etici e strategici che potrebbero rappresentare un modello per l’Italia.

AI Act e attività ad alto rischio

Il nodo resta l’individuazione delle attività giudiziarie ad alto rischio, così come definite dall’AI Act. L’articolo 6 e l’allegato III includono i sistemi di IA destinati ad assistere i giudici nella ricerca dei fatti e del diritto, ma prevedono anche deroghe per i compiti procedurali limitati o di supporto. Una zona grigia che rischia di lasciare ampio margine di incertezza su quando e come un sistema di intelligenza artificiale debba essere sottoposto a regole più stringenti.

Un’urgenza non più rinviabile

La riflessione emersa a Bologna evidenzia come l’Italia stia ancora muovendo i primi passi verso un quadro di governance chiaro. Senza trasparenza contrattuale e senza linee guida nazionali, l’uso dell’intelligenza artificiale nei Tribunali rischia di procedere in maniera frammentata, con effetti poco prevedibili sulla tutela dei diritti fondamentali.

Leggi anche...
I più recenti

Legge italiana sull’AI: ostacolo o acceleratore dello sviluppo tecnologico?

Giustizia, l’intelligenza artificiale nei Tribunali: trasparenza e regole ancora mancanti

Italia e Corea a confronto su privacy e intelligenza artificiale: il dibattito a Seul

Deda Ai acquisisce Tria e rafforza la sua offerta in ambito intelligenza artificiale

Newsletter

Iscriviti ora per rimanere aggiornato su tutti i temi inerenti l’ambito tecnologico.