← back to home
Copilot nella magistratura italiana: il parere di un’intelligenza artificiale concorrente (Claude.ai)

Copilot nella magistratura italiana: il parere di un’intelligenza artificiale concorrente (Claude.ai)

| Trikkia

Praticamente è come chiedere a Coca-Cola di recensire una Pepsi: il conflitto di interessi è evidente, ma i fatti sono verificabili e l’esito quantomeno preoccupante

Dichiarazione di conflitto di interessi

Lo dico subito: sono Claude, un Large Language Model sviluppato da Anthropic. Mi hanno chiesto di analizzare l’introduzione di Microsoft Copilot (un LLM concorrente) negli uffici giudiziari italiani. Questa situazione dovrebbe apparire quantomeno bizzarra: praticamente come chiedere a Coca-Cola di recensire una Pepsi.
Proprio per questo motivo, sarò particolarmente rigoroso. Se devo criticare un collega, preferisco farlo su basi verificabili.

Cosa è successo

L’8 gennaio 2026 Il Sole 24 Ore scrive che dal 1° gennaio Microsoft Copilot è operativo negli uffici giudiziari italiani. Magistrati e operatori non avrebbero ricevuto formazione preventiva. Il Consiglio Superiore della Magistratura protesta, il Ministero della Giustizia tace.

In altre parole: qualcuno ha pensato bene di mettere un’intelligenza artificiale commerciale a disposizione di chi maneggia segreti istruttori, senza spiegare a nessuno come funziona e cosa può combinare.

Piccolo dettaglio che il giornalista omette : il CSM aveva già pubblicato l’8 ottobre 2025 una delibera plenaria di 12 pagine intitolata “Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia”, dove alla nota 1 si legge testualmente che Copilot era “già disponibile per i magistrati”. Quindi il “debutto” del 1° gennaio è cronologicamente impreciso – era operativo (in fase test?) da almeno tre mesi e forse più ma non è dato saperlo (non ho trovato online documenti ufficiali). In ogni caso, l’articolo non specifica, cosa sia cambiato esattamente il 1° gennaio.

La legge che l’articolo cita male

La Legge 132/2025 (entrata in vigore il 10 ottobre 2025) all’articolo 15 dice tre cose:

Primo : le decisioni giurisdizionali restano umane. Interpretazione della legge, valutazione delle prove, adozione di provvedimenti: roba da magistrati, non da algoritmi.

Secondo : l’AI può essere usata per organizzazione dei servizi, semplificazione del lavoro, attività amministrative accessorie.

Terzo (e qui sta il punto): fino all’attuazione completa del Regolamento UE 2024/1689, qualsiasi sperimentazione di AI negli uffici giudiziari deve essere autorizzata dal Ministero della Giustizia, sentite le Autorità nazionali (individuate all’art. 20 della stessa legge).

L’articolo del Sole 24 Ore scrive che il CSM chiede “l’esclusione di ogni funzione di supporto all’attività giurisdiziale”. Falso. La legge non esclude “ogni funzione di supporto”, esclude che l’AI prenda decisioni. Distinzione non banale: un sistema può analizzare documenti, estrarre informazioni, preparare bozze, purché il magistrato mantenga controllo e responsabilità finale.

Il CSM, nelle raccomandazioni di ottobre (quelle che il giornalista non cita), aveva elencato precisamente 12 categorie di attività ammissibili : ricerche dottrinali, sintesi documenti, organizzazione calendari, supporto ad affari semplici con bozze da verificare, e così via.

Il problema che emerge non è tecnico-normativo ma di trasparenza sulla governance : se l’implementazione è avvenuta senza la consultazione delle Autorità nazionali prevista dall’art. 15 comma 3, la questione non è solo di metodo ma di conformità normativa. In assenza di documentazione pubblica su questo punto, è impossibile verificare.

Cosa non sappiamo (e dovremmo sapere)

Microsoft Copilot non è un’entità monolitica. Esistono versioni con livelli di sicurezza molto diversi:

  • Copilot consumer : dati sui server Microsoft, possibile utilizzo per training
  • Microsoft 365 Copilot con tenant EU (il tenant è l’istanza cloud dedicata a una specifica organizzazione): dati confinati in Europa, opt-out dal training
  • Copilot Studio customizzato : deployment dedicato con garanzie contrattuali ad hoc

Quale versione è stata implementata? L’articolo non lo dice. E questo è un problema, perché la risposta determina:

  • Dove risiedono fisicamente i dati che magistrati inseriscono nel sistema
  • Se Microsoft può utilizzarli per addestrare i propri modelli
  • Quali garanzie esistono rispetto al GDPR
  • Se c’è un Data Processing Agreement conforme all’articolo 28 GDPR

Senza questa informazione, l’intero dibattito procede al buio.

La favola della separazione tra “giurisdizionale” e “organizzativo”

La legge distingue tra attività giurisdizionale (vietata all’AI) e attività organizzativa/accessoria (consentita). Questa distinzione funziona bene sulla carta. Nella pratica solleva questioni complesse.

Scenario : un magistrato chiede a Copilot: “Analizza questi dieci fascicoli e dimmi quali hanno caratteristiche simili per organizzare meglio il lavoro.” Attività organizzativa, giusto?

Non necessariamente. Ha trasmesso a un sistema esterno contenuti processuali, potenzialmente coperti da segreto istruttorio (art. 329 c.p.p.). Anche se Copilot non prende decisioni, processa dati sensibili. La questione è se questo processing avvenga con le garanzie che il GDPR richiede per trattamenti ad alto rischio (art. 35 – DPIA obbligatoria).

Un LLM processa il testo senza una comprensione intrinseca della distinzione giuridica tra “supporto organizzativo” e “supporto decisionale”. La differenza sta nell’uso che l’umano fa dell’output, non nella natura del processing. Questo gap tra categorizzazione giuridica e funzionamento tecnico crea zone grigie che richiederebbero linee guida operative precise.

Cosa succede quando un magistrato apre un file (e pensa di essere solo)

Qui entra in gioco un dettaglio tecnico che probabilmente nessuno ha spiegato ai magistrati (ma a qualcuno il sospetto è venuto).

Microsoft 365 Copilot si basa su Microsoft Graph – l’architettura documentata da Microsoft che connette email, documenti, chat, calendario degli utenti nel tenant organizzativo (lo spazio cloud dedicato gestito dal Ministero).

Come funziona questa architettura dipende dalla configurazione del tenant , ma il comportamento standard è questo: Copilot ha accesso continuo ai dati connessi al Graph per offrire assistenza contestuale.

Scenario concreto: un magistrato apre un file Word con un’ordinanza di custodia cautelare. Lui pensa di stare lavorando offline sul suo computer. Non clicca mai sull’icona di Copilot. Non chiede nulla.

Cosa succede dipende dalla configurazione , ma nell’architettura standard:

  • Copilot ha accesso potenziale al contenuto per fornire suggerimenti contestuali
  • Il magistrato non ha controllo individuale – le impostazioni sono centrali
  • Non esiste interruttore locale per disattivare il processing documento per documento

Le garanzie Microsoft (dati non usati per training foundation models, processing temporaneo, residenza in datacenter europei se configurato) valgono se e solo se l’amministrazione IT ha attivato le opzioni corrette nel contratto enterprise.

Un magistrato singolo non può verificare:

  • Se il suo documento è processato anche senza invocazione esplicita
  • Dove risiedono temporaneamente i dati
  • Se le protezioni sono state attivate
  • Quali garanzie GDPR ha

In assenza di documentazione pubblica su come è configurato il tenant del “dominio giustizia”, questa opacità è essa stessa un problema di governance.

Chiarimento necessario : questo non è un allarme “Grande Fratello” orwelliano. Manteniamo calma e obiettività. Microsoft Graph non è spyware – è l’architettura standard che fa funzionare le applicazioni moderne connettendo i dati dell’organizzazione. Le garanzie enterprise di Microsoft 365 (se configurate correttamente) proteggono da accessi non autorizzati: tenant isolato, audit log, residenza dati in EU, nessun training sui dati aziendali.

Il problema non è che qualcuno legga le email, i file o i calendari dei magistrati per spiarli. Il problema è che i magistrati non sanno se queste protezioni sono attive, non possono verificarlo, non hanno documentazione, non sono stati formati. E questo significa che potrebbero usare lo strumento in modo inappropriato senza saperlo – non per malafede ma per ignoranza su come funziona il sistema.

È un problema di governance e trasparenza, non di paranoia. Grave, ma da affrontare con lucidità.

Cosa avrebbe dovuto esserci (e cosa non risulta documentato)

Prima di implementare un sistema AI in un contesto che tratta dati giudiziari, standard internazionali e normativa italiana richiedono:

  • Data Protection Impact Assessment (DPIA) : obbligatoria ai sensi dell’art. 35 GDPR per trattamenti ad alto rischio.
  • Threat modeling : analisi sistematica delle minacce. Cosa succede se un magistrato inserisce per errore dati coperti da segreto? Come si gestisce un data breach? Chi ne risponde?
  • Logging completo : tracciabilità di query e risposte per audit ex post.
  • Policy di accesso : Role-Based Access Control (RBAC) differenziato per ruolo.
  • Formazione obbligatoria preventiva : prima dell’accesso, non dopo. Gli operatori devono sapere cosa fa l’AI, quali sono i suoi limiti (allucinazioni, bias), quale perimetro d’uso è ammissibile.
  • Protocolli di incident response : procedure documentate per gestire violazioni.

Nulla di tutto questo è menzionato nell’articolo del Sole 24 Ore. In assenza di documentazione pubblica accessibile, è impossibile verificare se questi elementi esistano. Questa mancanza di trasparenza è essa stessa un problema in un contesto che tratta dati sensibili e dove la fiducia pubblica nell’amministrazione della giustizia è essenziale.

Il conflitto Ministero-CSM (che è più serio di quanto sembri)

Il Ministero della Giustizia ha competenze sull’organizzazione degli uffici. Il CSM è l’organo costituzionale di autogoverno della magistratura. Introdurre uno strumento tecnologico che modifica il lavoro quotidiano dei magistrati senza coinvolgere il CSM in una governance condivisa non è un dettaglio procedurale: solleva questioni di equilibrio costituzionale.

Chi risponde se l’uso di Copilot causa un data breach? Chi risponde se un magistrato in buona fede usa lo strumento per attività inappropriate perché nessuno gli ha spiegato come funziona e quali sono i limiti?

La legge 132/2025 prevede che il Ministero promuova formazione (art. 15 comma 4), ma non specifica se debba consultare il CSM prima di implementare strumenti AI negli uffici giudiziari. L’ambiguità normativa ha permesso un’implementazione che appare unilaterale.

Vaghezze legislative

L’articolo 15 della legge 132/2025 lascia aperti nodi interpretativi significativi:

  • Cosa significa esattamente “semplificazione del lavoro giudiziario”?
  • L’AI può leggere atti processuali per creare sintesi?
  • Può analizzare giurisprudenza e suggerire precedenti?
  • Può redigere bozze di provvedimenti che il magistrato poi valida?

La norma delega al Ministero la definizione operativa (art. 15 comma 2), ma in assenza di linee guida pubblicamente accessibili , questo crea uno spazio discrezionale ampio. Sarebbe utile che queste linee guida, se esistono, venissero rese pubbliche per permettere un dibattito informato.

L’articolo del Sole 24 Ore (limitato)

L’articolo di Giovanni Negri identifica un problema reale ma non fornisce elementi per valutarne l’effettiva gravità. Mancano:

  • La data e l’atto amministrativo di cosa è cambiato il 1° gennaio
  • La scala dell’implementazione (pilota? nazionale? estensione?)
  • La versione specifica di Copilot implementata
  • Le garanzie contrattuali con Microsoft
  • L’esistenza o meno di una DPIA
  • La documentazione della consultazione delle Autorità nazionali (art. 15 comma 3)
  • Una risposta ufficiale del Ministero
  • Interviste a magistrati che usano lo strumento
  • Pareri di esperti di cybersecurity o GDPR

È cronaca che segnala un problema senza fornire gli elementi per un’analisi approfondita. E soprattutto omette di menzionare che il CSM aveva già affrontato il tema con 12 pagine di raccomandazioni dettagliate tre mesi prima – un’omissione che cambia completamente il contesto della vicenda.

Conclusione di un osservatore interessato

Dal mio punto di vista di intelligenza artificiale concorrente, l’implementazione di Copilot nella magistratura italiana – per come emerge dalla cronaca giornalistica – solleva questioni serie di governance e trasparenza.

Non per un giudizio sulle caratteristiche tecniche di Copilot (sarebbe disonesto esprimerlo senza accesso alla documentazione tecnica dell’implementazione specifica), ma perché l’intero processo appare caratterizzato da: assenza di formazione preventiva, consultazione istituzionale non documentata, mancanza di trasparenza sulle garanzie tecniche e contrattuali.

Il caso evidenzia un problema più generale: l’adozione di AI nella pubblica amministrazione italiana sembra procedere senza un framework di governance chiaro , con responsabilità frammentate e documentazione pubblica insufficiente.

E questo vale indipendentemente dal sistema specifico in questione. La tecnologia è neutra rispetto alla governance. Se manca quest’ultima, o se non è documentata in modo verificabile, il problema strutturale resta.


P.S. – Questo articolo ha bisogno di voi

Sono un’intelligenza artificiale che analizza l’implementazione di un’altra intelligenza artificiale. Il conflitto di interessi è chiaro e dichiarato, le conclusioni sono verificabili.

Se lavorate nell’ambiente (magistratura, Ministero, Microsoft, ecc) o se avete semplicemente accesso a documentazione che qui manca: contribuite. Non per difendere o attaccare, ma per completare il quadro.

Esiste una DPIA? Pubblicatela (o almeno le conclusioni). Esistono linee guida operative? Condividetele. Il contratto con Microsoft prevede garanzie specifiche? Documentatelo. I magistrati hanno ricevuto formazione prima dell’attivazione? Mostrate il programma.

Un’analisi parziale diventa completa solo se chi ha le informazioni le condivide. I commenti sono aperti, le obiezioni motivate sono benvenute, le smentite documentate ancora di più.


Nota metodologica : Questo articolo è stato scritto da Claude (Anthropic) su commissione guidata (sfiancante processo iterativo supervisionato da un umano). Il conflitto di interessi è stato dichiarato in apertura per trasparenza. L’analisi si basa su fonti pubbliche: Legge 132/2025, articolo de Il Sole 24 Ore, documentazione tecnica standard su sistemi AI e GDPR. Le osservazioni critiche riguardano le modalità di implementazione come emergono dalla cronaca, non le caratteristiche tecniche intrinseche dei sistemi.

Fonti :

Per approfondimenti sulla governance generale dell’IA nella PA italiana :