Il TAR della Lombardia si pronuncia sull’uso dell’AI nella redazione degli atti giudiziari

Il TAR della Lombardia si pronuncia sull’uso dell’AI nella redazione degli atti giudiziari
Con sentenza n. 3348/2025 il TAR della Lombardia evidenzia l’obbligo per l’avvocato di verificare e controllare l’esito delle ricerche effettuate con AI, nonché il ruolo centrale della decisione umana, come indicato anche dalla “Carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense” redatta dall’Ordine degli Avvocati di Milano.

La vicenda tra origine dal ricorso proposto dai genitori di un’alunna con il quale veniva impugnato, chiedendone l’annullamento, il provvedimento di non ammissione della medesima alla classe di liceo successiva. Tra i motivi dedotti dai ricorrenti comparivano la mancata ostensione da parte dell’Amministrazione della documentazione richiesta (verbali delle correzioni, valutazioni delle prove scritte e del colloquio), l’assenza non solo di un sistema di supporto a favore dell’alunna (corsi di recupero specifici, sportelli didattici o altre iniziative), ma anche della dimostrazione della concreta attuazione del piano didattico personalizzato e di un numero sufficiente di verifiche. Il ricorso veniva respinto condannando la parte ricorrente alla refusione delle spese a favore dell’Amministrazione resistente e disponendo la trasmissione di una copia della sentenza all’Ordine degli Avvocati di Milano per la valutazione di competenza ai sensi degli artt. 88 c.p.c. e 39 del Codice del processo amministrativo (D.lgs. 2 luglio 2010, n. 104).

Senza entrare nel merito di ciascuna questione, per quanto qui occorre, è importante evidenziare che il difensore dei ricorrenti, a sostegno dell’illegittimità del provvedimento impugnato e dei motivi dedotti, richiamava una serie di pronunce giurisprudenziali che, tuttavia, non apparivano pertinenti. Non solo. Alcune delle massime indicate all’interno del ricorso erano riferibili a orientamenti giurisprudenziali non noti. A mero titolo esemplificativo, si pensi che venivano citati precedenti giurisprudenziali riferibili alla materia urbanistica e edilizia, al diniego di nulla osta per l'attività di volo da diporto o sportivo, al diritto di accesso nella materia della tutela degli animali o di centri di accoglienza e di indennità in materia di pubblico impiego.

Il TAR ha affermato che tale condotta “costituisce una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità, in quanto introduce elementi potenzialmente idonei ad influenzare il contraddittorio processuale e la fase decisoria verso un percorso non corretto, e perché rende inutilmente gravosa, da parte del giudice e delle controparti, l'attività di controllo della giurisprudenza citata e dei principi dalla stessa apparentemente affermati”.

Il difensore alla richiesta di chiarimenti, con dichiarazione resa a verbale, affermava che la giurisprudenza citata nel ricorso era stata reperita attraverso strumenti di ricerca basati sull’AI che, tuttavia, avevano generato dei risultati errati. Ciò non può essere un esimente della responsabilità del difensore!

Infatti, come chiarisce il Collegio «la sottoscrizione degli atti processuali ha la funzione di attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell'attività di propri collaboratori o di strumenti di intelligenza artificiale. Inoltre il difensore, in osservanza del principio della centralità della decisione umanaha un onere di verifica e controllo dell'esito delle ricerche effettuate con i sistemi di intelligenza artificiale, possibile fonte di risultati errati comunemente qualificati come "allucinazioni da intelligenza artificiale, che si verificano quando tali sistemi inventano risultati inesistenti ma apparentemente coerenti con il tema trattato”».

Il TAR richiama anche La carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense" redatta dall'Ordine degli Avvocati di Milano che, tra l’altro, impone agli avvocati di utilizzare i sistemi di AI nel rispetto dei principi di legalità, correttezza, trasparenza e responsabilità, tant’è vero che l’impiego deve avvenire nel rispetto delle normative e essere finalizzato a migliorare la qualità del servizio legale offerto, così da non compromettere i diritti e la fiducia dei clienti. Non solo. L’avvocato deve garantire che gli strumenti scelti siano adatti e proporzionali agli scopi. Inoltre, “la centralità della decisione umana è un elemento imprescindibile” e impone ai difensori l’onere di valutare criticamente i risultati prodotti dall’AI (artt. 1 e 4).

Ciò è avvalorato, a maggior ragione, dall’art. 13 della legge 132/2025 che precisa proprio come l’uso dell’AI all’interno delle professioni intellettuali (tra i quali, ovviamente, si ricomprende anche l’avvocatura) abbia una funzione puramente strumentale e di supporto dell’attività, sicché il lavoro intellettuale deve sempre prevalere. Non solo. Da ultimo, è bene ricordare che tutto quanto emerso risponde al principio fondamentale “human in the loop”, cristallizzato anche nell’AI Act (art. 14).

In conclusione, l’impiego di AI non è vietato al difensore che, tuttavia, non può fare affidamento sugli output dei sistemi senza eseguire dapprima un’attività di verifica critica e di controllo tale da individuare eventuali allucinazioni e da garantire sempre la centralità della decisione umana.

Avv. Giulia Amadeo

Newsletter

Iscriviti per ricevere i nostri aggiornamenti

* campi obbligatori