L'intelligenza artificiale entra anche nel processo: dai giudici robot in Cina alle prospettive italiane. Anche la giustizia cambia, ma serve cautela

L’uso dell’intelligenza artificiale si sta ormai espandendo in tutti i settori, compreso quello fiscale e processuale.
L’obiettivo di tale utilizzo è quello di semplificare le operazioni di analisi dei dati, anche attraverso modelli statistici, in un’ottica previsionale.
Il tema è senz’altro di grande rilievo, e, quanto appunto al processo, riguarderà (rectius: riguarda già oggi) anche l’evoluzione di una vera e propria giustizia “predittiva”, laddove, attraverso piattaforme ad hoc, i professionisti e i cittadini possano appunto valutare autonomamente i possibili esiti di un giudizio, e i giudici avere un supporto per pronunce (potenzialmente) caratterizzate da maggior equità ed uguaglianza.
In Cina i magistrati robot: l’intelligenza artificiale entra nel processo
In Cina la sperimentazione nel settore ha visto addirittura l’introduzione di un giudice robot, ideato dal laboratorio di big data e gestione della conoscenza dell’Accademia cinese di scienze.
Si tratta, in sostanza, di un algoritmo di intelligenza artificiale che entra direttamente nel processo decisionale dell’accusa ed è in grado di rilevare diverse tipologie di reati, tra cui anche quelli di natura fiscale.
Un vero e proprio magistrato-robot capace di formulare un’accusa formale per 8 diversi tipi di reato e con una precisione che può avvicinarsi al 97 per cento.
Intelligenza artificiale e processo: cosa succede in Italia?
Come si può ben intuire, una vera e propria rivoluzione copernicana. Rivoluzione arrivata anche in Italia, laddove il progetto Prodigit, curato dal Ministero dell’Economia e delle Finanze con il Consiglio di Presidenza della Giustizia Tributaria, ha lavorato alla creazione di un software in grado di predire l’esito di eventuali ricorsi tributari.
L’utilizzo di forme di intelligenza artificiale anche nel processo tributario non è del resto solo questione scientifica, ma implica anche una valutazione, anche sul piano giuridico, circa lo “scontro” tra interesse fiscale e interesse alla tutela dei diritti del contribuente.
Le domande a cui rispondere sono allora in tal caso in particolare le seguenti:
- l’utilizzo di forme di intelligenza artificiale potrebbe agevolare un “giusto” processo?
- potrebbe assicurare condizioni di effettiva “parità” tra le parti?
- potrebbe aiutare il giudice ad essere “terzo ed imparziale”?
- potrebbe assicurare la “ragionevole durata” del processo?
A tutte queste domande sembra di poter dare risposta positiva.
Più precisamente, comunque, quando si parla di utilizzo dell’intelligenza artificiale nel processo tributario, più che di giustizia predittiva bisognerebbe parlare di giurimetria, intesa come applicazione dell’’informatica al diritto, anche considerato che è, al momento (e si spera per sempre), esclusa la possibilità di affidare ad un algoritmo la decisione giudiziale tout court, in luogo del giudice umano (anche se negli USA tutto questo sembra essere già realtà, laddove il software Public Safety Assessment viene utilizzato dai giudici penali nelle decisioni predibattimentali, come il rilascio su cauzione o la carcerazione preventiva).
IA e processo: errare è umano, ma anche artificiale
Tali principi però devono poi essere calati nella realtà quotidiana e un primo flash di cosa, in concreto, l’utilizzo dell’intelligenza può (anche) determinare lo si può ricavare dall’analisi di una recente pronuncia del Tribunale di Firenze, che, con Ordinanza del 14 marzo 2025, ha trattato un reclamo presentato contro il sequestro di merce contraffatta.
Il reclamante aveva nella specie richiesto la condanna della società soccombente per responsabilità aggravata, sostenendo che quest’ultima, nelle proprie memorie difensive, avesse riportato riferimenti giurisprudenziali errati, risultanti da una ricerca effettuata appunto con l’intelligenza artificiale.
Secondo il difensore della società convenuta i riferimenti giurisprudenziali erano stati effettivamente inseriti per errore da una collaboratrice dello studio, la quale aveva utilizzato ChatGPT per condurre la ricerca.
Tali riferimenti, sebbene apparentemente verosimili, non corrispondevano però alla realtà e nulla avevano a che fare con l’argomento oggetto di giudizio, ossia, come detto, la contraffazione di merce.
Il reclamante aveva tuttavia sostenuto che l’inserimento di tali riferimenti errati fosse indice di mala fede e di un utilizzo abusivo dello strumento processuale, chiedendo così la condanna per lite temeraria.
Tanto premesso, uno degli aspetti centrali della vicenda richiamata riguardava dunque il fenomeno delle cosiddette “allucinazioni” dell’intelligenza artificiale, ossia l’elaborazione di informazioni inesistenti, ma presentate dalla stessa intelligenza artificiale come veritiere.
In pratica, nell’ambito di tale fenomeno, l’IA può generare riferimenti giuridici inesistenti e persino confermarli in seguito a nuove interrogazioni.
IA nel processo: uno strumento da usare con cautela
Nel caso in questione, ChatGPT aveva appunto inventato numeri riferibili a presunte sentenze della Corte di Cassazione relative all’acquisto soggettivo di merce contraffatta, senza però che le stesse corrispondessero ad alcun reale precedente.
Il Tribunale di Firenze, nella specie, ha comunque escluso l’applicabilità dell’art. 96 c.p.c., per responsabilità aggravata per lite temeraria, poiché, affermano i giudici, non era stata dimostrata la mala fede della parte soccombente.
I giudici hanno inoltre rilevato come i riferimenti giurisprudenziali errati, al di là della loro inesistenza, fossero stati comunque riportati a sostegno di una strategia processuale che era già nota ed immutata sin dal primo grado e su cui dunque lo stesso richiamo non aveva influito.
Al di là dello specifico caso processuale, si ricorda in ogni caso, in termini più generali, che l’uso dell’intelligenza artificiale ai fini dell’effettuazione di una ricerca giurisprudenziale è stata disciplinata anche da parte del disegno di legge in materia al vaglio del Parlamento, che, con riguardo all’utilizzo di tale tecnologia da parte dei professionisti - all’articolo 13 primo comma -, ha previsto la seguente disposizione: “L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera”.
La “Carta dei Principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense”, recentemente adottata da parte dell’Ordine degli Avvocati di Milano, sul punto, ha peraltro prescritto il dovere di competenza ed il principio della centralità della decisione umana, e, con riguardo al dovere di competenza, ha precisato che “È essenziale comprendere le funzionalità e i limiti dei sistemi di AI utilizzati, per garantire che i risultati siano accurati e appropriati al contesto legale”, aggiungendo anche che “Gli avvocati devono essere capaci di identificare e gestire i rischi associati all’uso dell’AI evitando una dipendenza da risultati automatizzati”.
La Carta dei Principi richiama poi anche un ulteriore importante dovere: “Gli avvocati hanno il compito di intervenire attivamente per valutare criticamente i risultati prodotti dalle tecnologie di AI, assicurandosi che il processo di elaborazione non sia negativamente condizionato dagli algoritmi. Ogni risultato generato dall’AI deve essere sottoposto a un esame umano per garantire la sua adeguatezza, accuratezza e conformità ai principi etici e legali”.
Insomma, si conferma che l’intelligenza artificiale è uno strumento da trattare con molta cautela; soprattutto nell’ambito del processo.
Articolo originale pubblicato su Informazione Fiscale qui: Dai giudici robot alle allucinazioni: l’intelligenza artificiale entra nel processo