Quando a giudicarti non è un essere umano: la giustizia algoritmica è più vicina di quanto pensi

Nei sistemi giudiziari di diversi paesi l’IA supporta già le decisioni dei giudici: ecco perché l’Italia deve prepararsi ora, prima che la tecnologia superi la legislazione.

Come l’IA sta entrando nelle aule di tribunale

Non è fantascienza. Negli Stati Uniti, strumenti come COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) vengono usati da anni per calcolare il rischio di recidiva degli imputati. Il giudice riceve un punteggio. Quel punteggio influenza la sentenza.

In Cina, il “Sistema 206” assiste i giudici nella valutazione delle prove penali. In Estonia, un progetto pilota ha testato un “giudice robot” per risolvere controversie civili sotto i 7.000 euro. Nel Regno Unito, chatbot legali aiutano i cittadini a contestare multe e sanzioni amministrative.

Il pattern è chiaro: l’IA non sostituisce il giudice, ma si inserisce nel processo decisionale. E chi controlla l’algoritmo controlla, in parte, la giustizia.

I rischi concreti: bias, opacità e responsabilità

Il caso più studiato resta quello di COMPAS. Un’inchiesta di ProPublica nel 2016 dimostrò che il software assegnava sistematicamente punteggi di rischio più alti agli imputati afroamericani rispetto ai bianchi, a parità di precedenti. Northpointe, l’azienda produttrice, contestò la metodologia. Il dibattito non si è mai chiuso.

Il problema di fondo è triplice:

1. Bias nei dati di addestramento. Se il sistema impara da sentenze storiche che riflettono discriminazioni, le replica.

2. Opacità. Molti algoritmi funzionano come “scatole nere”. Né il giudice né l’imputato possono capire perché il sistema ha prodotto quel risultato.

3. Vuoto di responsabilità. Se una sentenza ingiusta è influenzata da un algoritmo, chi risponde? Il giudice, lo sviluppatore, lo Stato che ha adottato lo strumento?

Paese Strumento IA Ambito Stato Criticità principali
Stati Uniti COMPAS Penale (rischio recidiva) In uso Bias razziale documentato
Cina Sistema 206 Penale (valutazione prove) In uso Nessuna trasparenza pubblica
Estonia Giudice robot Civile (small claims) Pilota concluso Limitato a controversie minori
Regno Unito DoNotPay e simili Amministrativo In uso (privato) Non regolamentato come strumento giudiziario
Italia Nessuno ufficiale Fase di studio Arretratezza infrastrutturale, PCT instabile

Cosa cambia per noi in Italia?

L’Italia parte da una posizione particolare: un sistema giudiziario tra i più lenti d’Europa e una digitalizzazione ancora incompiuta.

Il Processo Civile Telematico (PCT), introdotto progressivamente dal 2014, ha digitalizzato il deposito degli atti. Ma chi lavora nei tribunali sa che il sistema crolla regolarmente, i formati sono rigidi e l’interoperabilità tra uffici è scarsa. Parlare di IA in questo contesto significa costruire sul terzo piano di un edificio con fondamenta fragili.

Eppure, qualcosa si muove. Il Ministero della Giustizia ha avviato nel 2023 un tavolo di lavoro sull’IA applicata alla giustizia, in linea con le raccomandazioni della Commissione Europea per l’Efficienza della Giustizia (CEPEJ). La Carta Etica europea sull’uso dell’IA nei sistemi giudiziari, adottata nel 2018, fissa cinque principi: rispetto dei diritti fondamentali, non discriminazione, qualità e sicurezza dei dati, trasparenza, controllo da parte dell’utente.

L’AI Act europeo (Regolamento UE 2024/1689), entrato in vigore ad agosto 2024 con applicazione graduale fino al 2026, classifica l’uso dell’IA nella giustizia come “alto rischio”. Questo significa:

— Obbligo di valutazione d’impatto sui diritti fondamentali prima dell’adozione.
— Supervisione umana obbligatoria (“human in the loop”).
— Documentazione tecnica completa e accessibile.
— Divieto di sistemi di social scoring e di categorizzazione biometrica in tempo reale nei luoghi pubblici (con eccezioni per sicurezza nazionale).

Per l’Italia, la sfida non è solo normativa. È culturale e infrastrutturale. Con oltre 3 milioni di cause civili pendenti e tempi medi di risoluzione che superano i 500 giorni in primo grado (dati CEPEJ 2024), la tentazione di affidarsi all’automazione per smaltire l’arretrato sarà forte. Ma senza investimenti seri nella qualità dei dati giudiziari italiani — oggi frammentati, non standardizzati e spesso ancora cartacei — qualsiasi sistema di IA produrrà risultati inaffidabili.

La legge italiana, inoltre, prevede all’articolo 111 della Costituzione il principio del giusto processo, che include il diritto alla motivazione della sentenza. Un algoritmo opaco è incompatibile con questo obbligo. Qualsiasi adozione dovrà garantire che il giudice possa spiegare, in termini comprensibili, perché ha seguito o respinto l’indicazione della macchina.

Sul piano fiscale e professionale, l’arrivo di strumenti di IA legale avrà impatto anche sugli avvocati. Le piattaforme di legal tech basate su IA generativa — già usate in studi legali anglosassoni per analizzare contratti e giurisprudenza — iniziano a diffondersi anche in Italia. Gli ordini forensi dovranno aggiornare i codici deontologici. La responsabilità professionale dell’avvocato che si affida a un parere generato da IA, senza verificarlo, resta interamente sua.

Dove si va da qui: tre scenari per il 2026-2030

Scenario 1 — Adozione graduale e regolata. L’Italia segue l’AI Act alla lettera. L’IA viene usata per compiti amministrativi: smistamento fascicoli, ricerca giurisprudenziale, segnalazione di precedenti rilevanti. Nessun ruolo decisionale. Tempi di implementazione lunghi, risultati modesti ma sicuri.

Scenario 2 — Sperimentazione selettiva. Alcuni tribunali pilota (Milano, Roma, Napoli) testano strumenti di IA per le cause seriali: contenziosi bancari, locazioni, sinistri stradali sotto soglie di valore. I risultati vengono monitorati da un osservatorio indipendente. Rischio medio, potenziale alto.

Scenario 3 — Stallo. Resistenze corporative, mancanza di fondi PNRR dedicati, infrastrutture digitali insufficienti. L’Italia resta spettatrice mentre Francia, Germania e Spagna avanzano. Il divario con l’Europa si allarga.

Il secondo scenario è il più realistico. Ma richiede volontà politica, investimenti mirati e un dialogo serio tra magistratura, avvocatura, informatici e società civile. Non un convegno. Un piano.

Domande frequenti

Un giudice italiano può già usare l’IA per decidere una causa? No. Non esistono strumenti di IA ufficialmente integrati nel processo decisionale giudiziario italiano. L’AI Act UE, inoltre, impone requisiti stringenti per qualsiasi uso classificato ad alto rischio, come quello giudiziario. Un giudice può consultare banche dati intelligenti, ma la decisione e la sua motivazione restano esclusivamente umane.

L’IA potrebbe ridurre davvero i tempi della giustizia italiana? Potenzialmente sì, ma solo per attività ripetitive e a basso valore decisionale: classificazione degli atti, ricerca di precedenti, calcolo di interessi o risarcimenti standard. Per le cause complesse, il collo di bottiglia è la carenza di organico e la complessità normativa, non la velocità di lettura dei fascicoli.

Chi garantisce che un algoritmo usato in tribunale non sia discriminatorio? L’AI Act prevede audit obbligatori, valutazioni d’impatto e supervisione umana per i sistemi ad alto rischio. In Italia, il Garante per la protezione dei dati personali e il futuro organismo nazionale di vigilanza sull’IA avranno ruoli di controllo. Ma la garanzia vera dipenderà dalla qualità dei dati italiani e dalla trasparenza degli sviluppatori.

Gli avvocati italiani rischiano di essere sostituiti dall’IA? No per le attività di strategia, negoziazione e rappresentanza in udienza. Sì per le attività ripetitive: due diligence documentale, redazione di atti standard, ricerca giurisprudenziale. Gli studi che non integreranno strumenti di legal tech perderanno competitività. Ma il rapporto fiduciario avvocato-cliente resta insostituibile.

L’Italia è in ritardo rispetto agli altri paesi europei sull’IA nella giustizia? Sì. Francia e Paesi Bassi hanno già avviato sperimentazioni strutturate. La Germania investe in sistemi di supporto decisionale per il contenzioso amministrativo. L’Italia ha avviato tavoli di lavoro e consultazioni, ma manca un piano operativo con tempi, budget e obiettivi misurabili. Il PNRR ha stanziato fondi per la digitalizzazione della giustizia, ma la quota destinata specificamente all’IA è residuale.

Articole corelate

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

📢 Seguimi su WhatsApp
Torna in alto