L'ANM è l'associazione cui aderisce il 96% circa
dei magistrati italiani. Tutela i valori costituzionali, l'indipendenza e l'autonomia della magistratura.

12 luglio 2025

Deliberato su convenzione Liguria Digitale


  1. L’evoluzione dei sistemi di Intelligenza Artificiale pone nuove sfide agli attori del sistema giustizia, nonché pesanti interrogativi su come possa incidere sullo Stato di diritto e sul ruolo della magistratura, ma anche dell’avvocatura e degli altri operatori del diritto e su quali possano essere i benefici derivanti dal suo utilizzo, nonché i limiti nella sua applicazione al diritto; analoga sfida si presenta agli operatori del mondo dell’informatica nel progettare e realizzare tali sistemi.

  2. Nell’affrontare il tema dell’IA non si può assumere solo una posizione difensiva, invocando regole ed etica, ma occorre proporsi un obiettivo e stabilire un percorso, valutando i benefici e stabilendo in tale sede le regole di ingaggio rispetto all’obiettivo previsto. Occorre,  infatti, essere consci della reale ed incredibile portata della trasformazione digitale in atto particolarmente per effetto dell’IA: sussistono problemi ma esistono anche benefici e, soprattutto, l’IA è una realtà con cui occorre fare i conti.

  3. L’introduzione dell’IA nell’ambito della giustizia determinerà sicuramente cambiamenti nelle varie professioni, nel modo di lavorare, nello stesso modo di approcciarsi alle questioni giuridiche. Non è una tecnologia neutra in quanto, tra tutte le tecnologie, è quella che probabilmente risente della forma sociale e del contesto sociale ed umano in cui nasce e si sviluppa: gli stessi bias che l’IA porta con sé sono frutto di bias che la realtà umana conosce e di fatto riproduce fornendo il materiale con cui addestrare l’IA.

  4. Appare quindi necessario un approccio transdisciplinare ed occorre avviare delle specifiche sperimentazioni, contestualizzate nell’ambito delle attività giudiziarie, al fine di studiare e comprendere benefici e limiti dell’uso dell’IA nel mondo giudiziario, anche tenuto conto che si tratta di un settore in costante e dinamica evoluzione.

  5. Va ricordato a tale proposito che l’Unione Europea ha varato il Regolamento (UE) con delibera 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 (Regolamento sull’Intelligenza Artificiale o AI Act), nel quale sono state stabilite regole armonizzate sull’Intelligenza Artificiale; il regolamento introduce un primo quadro giuridico globale sull’Intelligenza Artificiale, con particolare attenzione all’impatto sui diritti fondamentali e sulla sicurezza dei cittadini europei. L’ambito della giustizia viene considerato nel regolamento uno dei settori più rilevanti in tema di regolamentazione delle tecnologie emergenti, considerati la delicatezza delle funzioni svolte e l’impatto diretto sui diritti fondamentali dei cittadini;

  6. L’AI Act adotta un approccio basato sul rischio, che classifica i sistemi di Intelligenza Artificiale in diverse categorie: sistemi a rischio inaccettabile (vietati), sistemi ad alto rischio, sistemi a basso rischio e sistemi a rischio minimo. L’articolo 6 paragrafo 2 dell’AI Act, rinviando all’allegato III, considera ad alto rischio i sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie.

  7. Il Considerando 40 del regolamento chiarisce ulteriormente che “È in particolare opportuno, […] classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti”.  Il Considerando 40 prevede, poi, che “L’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana“. Questo principio trova ulteriore specificazione nell’articolo 14 dell’AI Act, che disciplina la “sorveglianza umana” dei sistemi ad alto rischio.

  8. Peraltro il medesimo Considerando 40 contiene un’importante distinzione dal momento che precisa come non sia “opportuno estendere la classificazione dei sistemi di IA come ad alto rischio ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi“. L’articolo 6 paragrafo 3 traduce normativamente questo principio, stabilendo che “un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale“. Inoltre, l’articolo 6 par. 3 lett. d) dell’AI Act prevede che un sistema non è considerato ad alto rischio quando svolge un compito preparatorio per la valutazione pertinente.

  9. Dall’impianto normativo dell’AI Act si può ritenere legittimo l’impiego dell’Intelligenza Artificiale:




    • per attività di supporto amministrativo e organizzativo (anche in senso lato), come ad esempio quella di gestione delle tabelle di assegnazione dei procedimenti, gestione dei flussi di lavoro, regolamentazione delle udienze e gestione degli spazi organizzativi del tribunale;

    • per l’implementazione di strumenti di redazione degli atti, tra cui gli atti preparatori finalizzati ad una migliore comprensione degli atti processuali (scheda del processo, verifica dei tempi di fissazione delle udienze, verifica delle prescrizioni, verifica della completezza dei documenti prodotti, analisi preliminare delle notifiche etc.);

    • per la ricerca giurisprudenziale, con l’utilizzo di sistemi per l’identificazione di precedenti e l’analisi della giurisprudenza consolidata, laddove il controllo e la paternità della decisionale finale devono rimanere sempre di competenza esclusiva del magistrato.




  1. Si deve quindi ritenere che l’utilizzo dell’IA nel sistema giustizia non sia vietato, ma occorre distinguere tra funzioni di IA proprie di un sistema ad alto rischio  e funzioni di IA che non fanno qualificare il sistema in tali termini; inoltre, in ogni caso, devono essere rispettati  gli obblighi imposti dal Regolamento in tema di gestione della qualità, documentazione tecnica, registrazione degli eventi che accadono durante il suo funzionamento, garanzia di livelli appropriati di accuratezza, robustezza e cybersicurezza. Tali sistemi, prima della loro immissione sul mercato, devono essere soggetti a valutazione d’ impatto sui diritti fondamentali (cd FRIA).

  2. L’ANM ritiene, quindi, necessario avviare una sperimentazione dell’utilizzo dell’IA nell’ambito della giustizia, al fine di fornire un contributo scientifico alla conoscenza di tale tecnologia attraverso ricerche e test puntuali e specifici per ogni settore giudiziario.

  3. In tale sperimentazione delle varie potenzialità dell’IA va individuato il confine tra sistemi che sono ad alto rischio e sistemi che non lo sono, definendo il dominio delle cc.dd. attività preparatorie, che costituiscono buona parte dell’attività giurisdizionale, nonché verificando se e come l’uso dell’IA in tale dominio incida sulla fase decisoria che deve restare riservata al giudice; tale sperimentazione appare necessaria anche ai fini delle eventuali valutazioni di impatto in quanto può permettere di descrivere i processi in cui il deployer utilizzerà il sistema di IA, il periodo di tempo e la frequenza di utilizzo, le categorie di persone fisiche e gruppi verosimilmente interessati dal suo uso nel contesto specifico ed i conseguenti rischi specifici di danno, nonché le misure da adottare qualora tali rischi si concretizzino, comprese le disposizioni relative alla governance interna e ai meccanismi di reclamo. A tale fine, nell’ambito dell’attività di sperimentazione, devono essere valutate anche le esigenze di trasparenza nell’uso dell’IA, di conoscibilità di tale utilizzo e l’incidenza sul diritto di difesa e sul diritto al contradditorio delle parti.

  4. Ai fini della sperimentazione appare opportuno stipulare una convenzione con la società Liguria Digitale, società di proprietà pubblica Liguria Digitale, partecipata dalla Regione Liguria e dagli Enti territoriali liguri, che sta realizzando un progetto di Private IA che garantisce la proprietà dei dati e la riservatezza degli stessi ed evita che tali informazioni siano utilizzate dai sistemi di IA dei grandi fornitori per l’addestramento dei loro sistemi. Dai contatti già avviati con Liguria Digitale (LD) è emerso il comune interesse dell’ANM e di LD ad avviare delle attività di sperimentazione dell’IA in ambito giudiziario al fine di fornire a tutti gli stackholders del mondo giustizia degli strumenti di valutazione di ciò che l’IA può fare e di quali attività è opportuno o inopportuno siano svolte tramite tale sistema.

  5. Di conseguenza il CDC delega la Giunta esecutiva a concludere una convenzione con LD, che non preveda oneri economici per l’ANM, al fine di avviare forme di sperimentazione dell’IA in ambito giudiziario secondo un programma dettagliato che verrà seguito dalla Commissione "Innovazione Tecnologica e organizzativa, Transizione Digitale, Informatica e Intelligenza artificiale” e che verrà sottoposto alla discussione con i magistrati, nonché con gli avvocati e la rete degli osservatori della giustizia civile.


 



stampa
Stampa

Cerca documenti per...

Data

ANM risponde

Le domande e le curiosità sul funzionamento e gli scopi dell'ANM

Poni la tua domanda


Iscriviti alla newsletter

Resta aggiornato su notizie ed eventi dell'Associazione Nazionale Magistrati