Il motore di ricerca delle riviste Pacini Giuridica.
Visita il Portale

La funzione giurisdizionale tra decisione umana e algoritmica

Elena Gabellini Anticipazione del fascicolo n. 1/2026

* Lo scritto rappresenta lo sviluppo della relazione svolta al seminario di dottorato dell’Università di Firenze in data 28 gennaio 2026 su «L’intelligenza artificiale nell’istruttoria e nella decisione».

Sommario: 1. Lo stato attuale del dibattito. – 2. La definizione di decisione algoritmica e il quadro normativo di riferimento. – 3. La decisione algoritmica nel prisma della nuova regolamentazione; – 3.1. La decisione algoritmica prodotta dai sistemi LLM. – 4. Osservazioni conclusive: il valore dell’esperienza giuridica.

1.Lo stato attuale del dibattito.

Il tema che si affronta in questa sede, ovvero quello della decisione algoritmica, può essere ritenuto un topic oramai «classico» nel dibattito, seppure recente, fiorito in seno all’intelligenza artificiale ([1]).

Alcuni interpreti, mettendo in luce i rischi della commistione tra l’intelligenza artificiale (d’ora innanzi IA) e la funzione giurisdizionale, giungono ad affermare che la prima dovrebbe essere bandita dal «santuario dello ius dicere», almeno fino a quando i numerosi dubbi che essa solleva non siano stati risolti ([2]).

Questi ultimi riguardano diversi profili: quello dell’opacità dell’algoritmo, della sua attitudine a generare errori o distorsioni e, infine, quello concernente la sua incapacità di essere imparziale ([3]).

Sennonché, volgendo lo sguardo al presente, l’applicazione pratica, ovviamente, non si arresta.

È di questi giorni la notizia dell’avvio della sperimentazione presso gli uffici giudiziari del sistema Microsoft Copilot ([4]).

La nota informativa, indirizzata dal Ministero della giustizia il 9 gennaio scorso a tutti i magistrati, precisa che si tratta di un’iniziativa da collocarsi nell’ambito del supporto all’attività del magistrato. Si enuncia che la sperimentazione ha una mera finalità conoscitiva e pratica, non influenzando in alcun modo gli aspetti decisori dell’esercizio della funzione giurisdizionale, che resta integralmente rimessa alla responsabilità e all’autonomia del singolo magistrato ([5]). L’utilizzo di questo strumento è inoltre subordinato alla scelta del singolo giudice, che può rifiutarne l’uso, ma, in tal caso, deve dichiararlo per iscritto.

La nota precisa che l’applicativo può essere «utilizzato solo in ambito giustizia, limitando le interazioni ai contenuti presenti nell’ecosistema ministeriale, oppure, su scelta consapevole dell’utente, anche con funzionalità di consultazione esterna». Questa opzione, come è intuibile, può aprire molteplici scenari.

Il documento, infine, indica che resta nella piena disponibilità del magistrato decidere se, come e quando utilizzare lo strumento.

Questa comunicazione, la quale accoglie l’auspicio espresso nelle «Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia» redatte dal Consiglio superiore della magistratura (d’ora innanzi CSM) lo scorso ottobre ([6]), su cui si dirà a breve, sdogana probabilmente un uso che già i magistrati esercitavano attraverso tools privati.

Ne è una chiara dimostrazione la recente notizia dell’inchiesta avviata dal Ministro Nordio in merito al sollevato sospetto che alcuni giudici di una Corte d’appello abbiano fatto ricorso a ChatGpt, per motivare, con riferimenti giurisprudenziali rivelatesi poi inesistenti, una decisione di condanna in materia di evasione fiscale ([7]). Una vicenda similare, in verità, era già emersa al di fuori dei nostri confini, nell’ordinamento brasiliano ([8]).

Si tratta di un problema che, invece, nel nostro sistema giuridico ha già interessato parte dell’avvocatura.

Il Tribunale di Firenze ha recentemente affrontato la questione dell’applicabilità della disciplina dettata dall’art. 96 c.p.c. nell’ipotesi di citazioni di precedenti  giurisprudenziali risultati poi inesistenti. In quel caso, con una decisione che desta un po’ di perplessità, soprattutto alla luce delle osservazioni che si svolgeranno in sede conclusiva, il tribunale ha rigettato detta opzione esegetica, ritenendo che la citazione di pronunce giurisprudenziali inesistenti da parte dell’avvocato non fosse finalizzata ad influenzare il collegio giudicante, poiché essa si poneva a fondamento di una tesi difensiva già conclamata ([9]). Tutt’altro approccio è stato, invece, abbracciato da un giudice di New York, il quale, in un caso analogo, aveva condannato gli avvocati al pagamento di una cospicua multa ([10]).

È indubbio che dal punto di vista degli operatori pratici l’IA, e la decisione algoritmica che ne costituisce il suo diretto frutto, rappresenti una indiscutibile attrattiva, poiché su di essa si concentrano molteplici speranze. Essa, infatti, viene considerata un prezioso antidoto contro l’arretrato che attanaglia i tribunali, oltre che uno strumento idoneo a rispondere a quell’esigenza di certezza giuridica, che la nostra società sempre più complessa pone in crisi ([11]).

Tale ultimo principio, peraltro, è inseguito, seppure avendo di mira una mera finalità deflattiva, anche dal nostro legislatore, come dimostrano le recenti modifiche del processo civile ([12]).

Muovendosi, invece, da una prospettiva di più ampio respiro, si deve osservare che la disgregazione del vecchio modello delle fonti, che lascia spazio a un sistema multilivello derivante dall’intreccio di norme nazionali e sovranazionali e l’ampio ricorso a un diritto che si affida a princìpi e clausole generali a contenuto altamente flessibile ed espansivo, rendono instabile l’agire dell’interprete e l’attività del giudicare ([13]). Quest’ultima, come pone in luce Giovanni Verde, tende sempre più a non «attuare “i diritti” ma a realizzare “il diritto”» ([14]).

D’altro canto, però, l’interprete, trovandosi nel crocevia di molteplici fonti normative e di una produzione giurisprudenziale quasi si potrebbe dire sconfinata e contradditoria, anche all’interno dello stesso tribunale, si sente inevitabilmente smarrito nell’assumere una decisione, come comprovano anche prassi che si sono sviluppate oltralpe ([15]).

Peraltro, si deve ricordare che da sempre si considera che il tempo dedicato a redigere una sentenza costituisca una delle principali cause della crisi della giustizia civile, tanto da essere oggetto di molteplici interventi legislativi ([16]).

Traslando le parole di Francesco Carnelutti espresse con riguardo alle massime giurisprudenziali, l’IA può offrire un importante aiuto per affrontare questa fatica e al contempo per garantire l’erogazione di prestazioni più efficienti ([17]).

Si tratta di profili ampliamente sviscerati da tutti gli interpreti che hanno affrontato il problema dell’IA all’interno del processo. Tuttavia, anche chi ha manifestato maggiore entusiasmo per essa – in verità ben pochi – evidenzia che l’IA, se, da un lato, può apportare evidenti benefici, dall’altro non può essere considerata la panacea di tutti i mali del sistema giustizia ([18]).

Le riflessioni susseguitesi nel tempo e su cui si porrà l’attenzione nel presente scritto, devono oggigiorno confrontarsi con un quadro normativo che, seppure in divenire, delinea chiaramente delle direttrici.

È necessario, dunque, enucleare se ed eventualmente entro quali spazi si possa oggigiorno discorrere di decisione algoritmica, ricordando, come ammonisce Natalino Irti, che essa «non è un fenomeno anti-umano, un miracolo o una catastrofe. È una decisione “umana” che appartiene alla storia integrale dell’uomo» ([19]).

 

  1. La definizione di decisione algoritmica e il quadro normativo di riferimento.

Gli interpreti sono soliti ricomprendere all’interno del concetto di decisione algoritmica una molteplicità di fenomeni ([20]).

Vi sono le ipotesi, variamente formulate, in cui viene prefigurata la sostituzione completa del giudice umano con la macchina e, conseguentemente, la creazione di procedure di carattere giurisdizionale, interamente automatizzate o comunque costituite esclusivamente da apparati e sistemi tecnologici. Un esempio sono le sperimentazioni sviluppatesi nella Repubblica Popolare Cinese ([21]).

Vi sono, poi, le ipotesi, rientranti nella più ampia definizione di giustizia predittiva, in cui l’algoritmo è volto a prevedere la decisione di un giudice, prima che questo si pronunci, sulla base dei suoi – ovvero altrui – precedenti. Simbolo di tale caso è il noto algoritmo finalizzato a predire l’esito finale del processo con riguardo alle liti concernenti le violazioni della Convenzione europea dei Diritti dell’Uomo ([22]).

Rientrano, inoltre, in questa accezione anche i casi in cui il giudice utilizza gli algoritmi come supporto per lo svolgimento di parti della propria attività decisionale, così come è avvenuto nel celebre caso, conosciuto tramite il nome dell’applicativo utilizzato, Compas ([23]).

Questi meccanismi operano non seguendo una logica aristotelica, deduttiva, matematica, ma tramite associazioni di tipo statistico e probabilistico.

In questo scenario irrompe, però, nel 2022 il ciclone ChatGpt (a cui si sono aggiunti, nel tempo, i suoi vari competitors): si tratta, come è noto, di una forma IA generativa che, in parole semplici, cerca di simulare i processi di apprendimento del cervello umano. Essa, infatti, attraverso sofisticate tecniche di c.d. machine learning, apprende dai dati con i quali viene addestrata e a sua volta ne crea dei nuovi ([24]).

Tale strumento e, in generale tutti quelli rientranti nella qualificazione di Large Language Models (LLM), operano  su una base potenzialmente illimitata di dati. Infatti, essi sono «cresciuti» ed è «educati» attraverso il mondo di Internet e delle banche dati disponibili sul web, nonché, mediante le conversazioni o i documenti scambiati nelle piattaforme dei social media.

Anche in questo caso l’algoritmo opera attraverso un meccanismo di natura statistica e l’IA generativa è in grado di assorbire l’intero processo decisionale e di generare direttamente la decisione.

Questi sistemi, però, manifestano un grosso problema: essi sono in grado di generare le c.d. allucinazioni, ovvero affermazioni plausibili ma false. La plausibilità deriva dal fatto che detti errori vengono espressi dalla macchina attraverso un tono coerente e sicuro ([25]).

Per fare un concreto esempio, si potrebbe ricordare la vicenda di un professore della Georgetown University, il quale è stato incluso in una lista di docenti accusati di avances sessuali nei confronti dei propri studenti per una pura invenzione di ChatGpt ([26]).

Oggi, inoltre, è giusto anche porre l’attenzione sul fatto che sono ancora tutte da scoprire, almeno in capo giudiziario, le potenzialità applicative dei c.d. agenti IA, i quali non rispondono semplicemente a un quesito posto, come i primi chatbot, ma costituiscono vere e proprie entità operatrici capaci di analizzare l’ambiente, apprendere dai dati e agire in modo autonomo. Essi hanno trovato, per il momento, ampia applicazione nell’ambito dell’organizzazione dei viaggi e nelle attività aziendali.

In questo scenario, lo scorso settembre il nostro Parlamento ha adottato il primo provvedimento attuativo del regolamento europeo sull’IA (reg. UE 2024/1689, c.d. IA Act), il cui apparato normativo trae ispirazione dai principi espressi, già nel 2018, nella «Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi», redatta dalla Commissione europea per l’efficienza delle giustizia (Cepej) ed approvata dal Consiglio d’Europa.

Si tratta della l. n. 132 del 2025 in materia di intelligenza artificiale, la quale, all’art. 1,  comma 1 precisa che detto apparato normativo «reca principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale […]». Nel secondo comma è prescritto che «le disposizioni della presente legge si interpretano e si applicano conformemente al reg. UE 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024» ([27]).

Quest’ultimo ([28]), a sua volta, ha un bacino applicativo molto esteso e si connota per qualificare l’IA come una parte di un «prodotto» in grado di generare, a seconda dell’ambiente in cui si trova ad operare e della funzione svolta, diversi generi di rischio. Il legislatore europeo definisce i diversi «gradi di rischio», valutando il tipo di compromissione che il prodotto genera con riguardo ai diritti fondamentali e alle libertà riconosciute e tutelate a livello europeo ([29]).

Per quanto interessa in questa sede, sono considerati «ad alto rischio» anche i sistemi di IA destinati ad essere «usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie» ([30]).

Si tratta ovviamente di quei strumenti impiegati per fare le veci di quello che è il ragionamento inferenziale dell’autorità giudiziaria, che poi culmina nella decisione finale. Diversamente, non rientrano in questa categoria, i sistemi di IA destinati ad attività puramente accessorie rispetto al ruolo dell’autorità giudiziaria.

La classificazione del sistema come ad «alto rischio» comporta che, prima della sua immissione sul mercato UE e della sua utilizzazione, esso debba ottenere una positiva valutazione di conformità e debba essere iscritto in una apposita banca dati dell’UE. Qualora tale sistema ottenga tale certificazione, esso può essere utilizzato ([31]).

Al contempo, però, l’art. 6, par. 3, dell’IA Act stabilisce che non devono operare gli obblighi delineati per i «sistemi ad alto rischio» nell’ipotesi in cui l’attività svolta: a) sia limitata a compiti procedurali; b) migliori il risultato di un’attività umana già completata; c) rilevi schemi o deviazione senza sostituire il giudizio umano d); prepari un’attività valutativa da svolgersi con supervisione umana.

Come è stato evidenziato, detta previsione consente l’emersione di una zona grigia tra attività propriamente giudiziarie e attività organizzative, ritenute devolvibili ai sistemi algoritmici e rispetto alle quali l’utilizzo dell’IA può essere compatibile con l’ordinamento vigente ([32]).

Dal canto suo, invece, l’art. 15 della l. n. 132 del 2025 afferma, in primis, che «nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti», e, in secundis, che «il Ministero della giustizia disciplina gli impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie».

In questo scenario, le ricordate Raccomandazioni del CSM dello scorso ottobre evidenzia che, sino alla data di entrata in vigore dell’intero sistema delineato dal regolamento UE, potranno essere utilizzati tutti i sistemi autorizzati dal Ministero, ai sensi dell’art. 15, comma 2, l. n. 132 del 2025, non essendo sicuri quelli reperibili on-line.

Al contempo, inoltre, alla luce della previsione di cui all’art. 6, par. 3, AI Act, le Raccomandazioni elencano una serie di attività (elencazione peraltro non esaustiva) sempre ammissibili, poiché non ritenute in grado di comportare un rischio significativo di danno e di influenzare materialmente l’esito del processo decisionale ([33]).

All’interno di tale elenco, che comprende per lo più attività non strettamente collegate solo al mondo giurisdizionale (si pensi all’attività di traduzione) o tutt’al più a mere attività organizzative che incidono non direttamente su questa dimensione, emerge la possibilità che l’IA svolga un ruolo «d’ausilio nelle attività seriali e a bassa complessità giuridica con la redazione di bozze standardizzate da adattare poi al caso specifico dal magistrato o dai suoi collaboratori».

Si tratta di una previsione suscettibile di aprire a molteplici scenari applicativi, poiché sarebbe riduttivo ritenere che essa si riferisca esclusivamente alla mera predisposizione di schemi o bozze standardizzate (rectius: ad esempio, la mera bozza di un decreto ingiuntivo), già da tempo, in verità, in uso presso i singoli tribunali.

Peraltro, è opportuno evidenziare che, oggigiorno, già il nostro legislatore ha ritenuto ammissibile esternalizzare questo genere di attività, delegandola agli addetti per l’ufficio per il processo. Infatti, nei monitoraggi svolti con riguardo alle mansioni svolte da questi ultimi emerge che la loro attività «preponderante» riguarda la predisposizione di bozze di provvedimenti, talvolta relativi a decisioni seriali o di complessità medio-bassa, talaltra anche bozze di provvedimenti complessi ([34]).

Non vi è dubbio, però, che ritenere ammissibile il ricorso all’algoritmo in questo ambito imponga anche una inevitabile riflessione sul futuro di questo organismo.

Diversamente, le Raccomandazioni reputano necessaria una valutazione più articolata con riguardo al tema delle ricerche sulle banche dati giurisprudenziali.

Infatti, il CSM sostiene che l’utilizzo dell’IA per tale finalità si colloca in un ambito che, sebbene riconducibile a compiti procedurali, può presentare profili di rischio elevati qualora l’output generato venga utilizzato come base esclusiva o prevalente nella formazione del convincimento del giudice. Il CSM, infatti, ricorda che «l’automazione della ricerca non può sostituire la sensibilità giuridica necessaria alla contestualizzazione del precedente».

 

  1. La decisione algoritmica nel prisma della nuova regolamentazione.

Si può affermare che, in linea generale, le fonti normative sopra illustrate restituiscono la centralità della sorveglianza umana sull’algoritmo, facendo assolutamente tramontare quelle idee, definite già da alcuna letteratura fantascientifiche ([35]), di decisioni totalmente devolute all’algoritmo ([36]).

Il processo decisionale finale deve rimanere un’attività a guida umana, così come conferma anche il Considerando 61 dell’IA Act ([37]).

Tuttavia, sussiste una palese differenza tra l’approccio europeo e quello che sembra emergere dalla normativa interna ([38]).

Quest’ultima abbraccia una metodologia restrittiva con riguardo all’uso dell’IA ([39]): infatti, viene delineata una riserva in capo al magistrato in merito ad ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti.

Dunque, si esclude che l’algoritmo possa svolgere i compiti connotanti l’essenza del potere giurisdizionale e comunemente racchiusi nell’antitesi giudizio di fatto e giudizio di diritto ([40]).

Più permissivo è, invece, il testo europeo, il quale annovera le attività giurisdizionali nella categoria delle attività ad alto rischio. Inoltre, come è stato osservato, la disciplina delineata dall’IA Act non consente solo l’utilizzo degli algoritmi per mere finalità di ricognizione degli orientamenti dottrinali e giurisprudenziali, ma mira a creare una vera e propria cooperazione tra l’intelligenza umana e quella artificiale, seppure costantemente supervisionata dalla prima ([41]).

All’interno di dettati normativi in apparenza distanti, è opportuno ricordare che quello italiano – naturalmente – deve essere applicato e letto conformemente al reg. UE, come ribadiscono anche le Raccomandazioni del CSM.

Se ne deduce che se, da un lato, non è possibile delegare in via autonoma all’algoritmo le fasi qualificanti l’attività in cui si compone il giudizio del magistrato, che come già insegnava Michele Taruffo ([42]), è un complesso procedimento logico, psicologico, conoscitivo e valutativo mediante il quale il giudicante sceglie e definisce la decisione-risultato, dall’altro lato, nulla esclude che gli algoritmi possano compiere quelle attività preparatorie ed accessorie a quelle valutative che si compiono all’interno del giudizio giuridico ([43]). Peraltro, come già ricordato, molti di questi compiti sono oggigiorno già condivisi dal giudice con gli addetti per l’ufficio per il processo ([44]).

In questa direzione sembrano muoversi anche le Raccomandazioni del CSM, la quale, pur avendo accolto una lettura restrittiva dell’art. 6, par. 3, reg. UE, come ricordato, paiono individuare comunque degli spiragli, consentendo, da una parte, all’IA di offrire supporto nelle attività seriali e a bassa complessità giuridica con la redazione di bozze standardizzate, dall’altra di reputare che l’elenco offerto non sia tassativo.

Alla luce delle osservazioni svolte, si deve ritenere che sia confermata la prospettiva, già evidenziata da molti interpreti, di un uso ausiliario dell’IA nelle attività che il giudice deve compiere all’interno del giudizio ([45]). Infatti, l’IA può seguire più da vicino le operazioni prodromiche alla decisione, migliorandone anche l’efficacia. Al contrario, essa non può essere utilizzata per valutare la correttezza dei risultati decisionali umani, poiché è sempre l’uomo che deve controllare l’attività della macchina e non viceversa.

È, però, naturale chiedersi come tale obbligo (rectius: il controllo del deployer) possa essere concretamente realizzato, alla luce della conclamata opacità degli algoritmi e dell’assenza di una adeguata formazione in capo ad esso.

Il reg. UE sembrerebbe superare detti problemi, da un lato, prevedendo che i «sistemi di IA ad alto rischio» debbano essere progettati con strumenti in interfaccia uomo-macchina che ne consentano un’efficace supervisione da parte delle persone fisiche (art. 14) e, dall’altro lato, prescrivendo che «i deployer affidino la sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e dell’autorità necessarie nonché del sostegno necessario» (art. 26, comma 2).

Come è ovvio, garantire la trasparenza dell’algoritmo costituisce un elemento imprescindibile affinché possa trovare attuazione l’obbligo motivazionale, imposto dal dettato costituzionale: esso, infatti, non rappresenta solo una garanzia per le parti in vista dei possibili necessari controlli del provvedimento, ma costituisce anche un segnale per tutti i cittadini, che attraverso la motivazione possono rendersi conto se il provvedimento si informa ai princìpi di legalità e giustizia.

Dunque, alla luce del criterio individuato, si potrebbe ritenere ammissibile il ricorso all’intelligenza artificiale in materia di nomina del consulente tecnico, purché l’algoritmo rispetti i criteri previsti dalla legge per la scelta di tale soggetto ([46]). Peraltro, già in campo arbitrale si sta andando in questa direzione: oltre all’esperienza dell’Arbitrator Intelligence, in questa ottica si pone la piattaforma Arbitrator Research Tool (ART), un software che raccoglie, organizza e rende disponibile alle parti informazioni circa gli arbitri e i lodi da loro emessi ([47]).

L’algoritmo, inoltre, potrebbe aiutare il giudice in sede di ammissione dei capitoli di prova: si pensi alla possibilità di chiedere alla macchina di individuare i c.d. capitoli negativi. Tale valutazione non richiede neppure una attività valutativa da parte del giudice, ma una mera analisi linguistica di un enunciato.

Al contempo, l’IA potrebbe agevolare anche il compito del giudice nell’individuazione delle c.d. clausole vessatorie in sede di emissione del decreto ingiuntivo ([48]). Si tratta di un ampio settore di contenzioso, che, alla luce delle indicazioni euro-unitarie ([49]), impone un alacre lavoro da parte magistrato.

A tale proposito, è opportuno ricordare che già esiste un sistema di IA che è in grado di svolgere una simile ricerca: è il sistema Claudette, che ha come obiettivo l’applicazione di metodi di apprendimento automatico per l’analisi giuridica di contratti on line e informative privacy, identificando e classificando le clausole potenzialmente abusive ed illegali, contenute in tali documenti ([50]).

Nell’economia delle riflessioni che si stanno svolgendo, inoltre, è naturale chiedersi, alla luce della definizione offerta in apertura di decisione algoritmica, quale spazio, oggi, vi sia per la giustizia c.d. predittiva.

Come è noto, già da tempo, gli interpreti evidenziano i pericoli e i limiti di essa, trattandosi di una giustizia che trova fondamento su come altri abbiano già deciso ([51]).

Dunque, la sua efficacia è direttamente funzionale al «patrimonio giuridico» che si intende e si può inserire all’interno del software ([52]).

Nonostante le numerose sperimentazioni che si stanno compiendo, proliferate anche grazie ai fondi PNRR ([53]), ancora oggi rimane d’attualità il problema della reperibilità di una giurisprudenza affidabile, specialmente con riguardo a quella di merito, e alla possibilità per la macchina di creare una gerarchia al suo interno.

Inoltre, nel nostro ordinamento si pone la questione di cosa si debba introdurre all’interno dell’algoritmo: il testo integrale della sentenza, il precedente, la massima o eventualmente il principio di diritto ([54]).

Si tratta di concetti, benché diversi, che spesso vengono sovrapposti ([55]).

A prescindere da questo evidente problema pratico, occorre osservare che le applicazioni concrete (si pensi, in particolare, a quelle svolte con riguardo alle pronunce della Corte EDU) hanno dimostrato che la prevedibilità della decisione dipende soprattutto dai fatti narrati. Come è noto, invece, molto spesso le pronunce della Corte di cassazione sono dissertazioni teoriche ([56]).

Inoltre, non si può discorrere di prevedibilità qualora entrino in gioco valutazioni che presuppongono l’applicazione di concetti elastici o clausole generali o ancora impongano il ricorso a giudizi tramite valori ([57]).

Se in questo ultimo caso non è possibile affidarsi a un mero calcolo probabilistico, nelle residue ipotesi esso è solo in apparenza possibile poiché, come ha rilevato più volte la suprema Corte ([58]), è necessario valutare l’applicazione di tali istituti con i valori dell’ordinamento e, quindi, in continuo cambiamento.

Se la centralità di tale assunto era stata già messa in luce con straordinaria chiarezza da Piero Calamandrei nel celebre scritto Giustizia e politica: sentenza e sentimento, essa emerge nuovamente, in tutta la sua portata, anche nel ritratto di Ludovico Mortara giudice.

Carmelo Sgroi, nel tratteggiare il giudice Ludovico Mortara, evidenzia la sua libertà e umanità nel giudicare, qualità che gli hanno consentito, seppure sempre nel rispetto dei tradizionali criteri interpretativi, di «sapere deviare il corso naturale delle cose» ([59]).

Infatti, Sgroi ricorda come Ludovico Mortara, nella sua veste di presidente della Corte d’appello di Ancona, attraverso un ineccepibile percorso giuridico, fondato su una lettura coordinata delle disposizioni normative, ma illuminata dalle nuove sensibilità che prendevano corpo nel tessuto sociale, è stato in grado di dare un formidabile contributo al riconoscimento del voto politico delle donne, benché in quel tempo operasse una consuetudine di stampo diverso ([60]).

L’algoritmo non è ovviamente in grado di compiere simili letture: le correlazioni informatiche basate su affinità casistiche appaiono prive della capacità di deviare la linea tracciata, quando ciò debba avvenire ([61]); e il diritto – come è stato affermato – non aspira ad essere una linea retta ([62]).

Inoltre, non si può neppure dimenticare che la giustizia predittiva pone in pericolo diversi principi costituzionali, tra cui quello della soggezione del giudice alla legge (e non alla giurisprudenza) ([63]).

Alla luce di tali osservazioni, con l’entrata in vigore della legge sull’IA, i già angusti spazi applicativi della giustizia predittiva tendono ad essere quasi integralmente erosi.

Essa, in verità, potrebbe operare solo come ausilio per il giudicante al fine di individuare un’interpretazione giudiziale o un possibile orientamento del giudizio. Diversamente – ma già in passato era una finalità alquanto discussa alla luce del bacino applicativo su cui la stessa giustizia predittiva agisce – non è configurabile l’ipotesi che essa possa «preconfezionare» una decisione.

Anche le Raccomandazioni del CSM, come già ricordato, sembrano reputare ammissibile una simile lettura, ma rilevano che qualora si faccia uso di strumenti volti «a suggerire orientamenti interpretativi prevalenti o per generare schemi motivazionali basati su pattern ricorrenti» sia necessario porre in essere una vigilanza che si sviluppa su tre piani: a) la natura e l’architettura dei sistemi analizzati; b) la trasparenza degli algoritmi di selezione e classificazione; c) il ruolo attivo e critico del magistrato nel vaglio dei risultati.

Seguendo questo approccio ci si può chiedere se, allo stato attuale, sia possibile fare ricorso all’IA per vagliare i ricorsi ex art. 363-bis c.p.c. ([64]).

Si pensi, ad esempio, alla possibilità di utilizzare l’algoritmo per  verificare se la questione proposta non abbia trovato ancora una soluzione innanzi alla Corte di cassazione.

 

3.1. La decisione algoritmica prodotta dai sistemi LLM.

I confini delineati impongono anche di riflettere su come gli strumenti, quali ChatGpt e simili (es. Gemini, ecc.), rientranti nella più ampia definizione di Large Language Models (LLM) ([65]), possono allo stato attuale operare, avendo presente, come già ricordato, che attualmente ai magistrati è stata offerta la possibilità di accedere a Microsoft Copilot.

Alla luce di quanto sino ad ora osservato detti modelli potrebbero operare; tuttavia, come nel caso della giustizia predittiva, bisogna essere consapevoli del loro effettivo perimetro attuativo, quello che una dottrina ha definito «dominio» ([66]). Quest’ultima, infatti, osserva, correttamente, che non è solo la semplicità della lite a determinare la possibilità di accedere all’IA, ma soprattutto il fatto che essa sia in grado di compiere l’attività richiesta.

Ne consegue che, alla luce della capacità dell’algoritmo di operare mediante un meccanismo probabilistico/statistico, ad esso non è possibile devolvere operazioni che fuoriescono dall’ambito del «più probabile che non» ([67]).

Al contempo, vi è pure da chiedersi se nel nostro ordinamento sia ammissibile per il giudice poter far ricorso a ChatGpt (o tools similari), nella medesima modalità con cui esso è stato usato dal collega colombiano, nel noto caso balzato agli onori delle cronache ([68]).

Quest’ultimo, infatti, aveva fatto ricorso a ChatGpt per determinare, con riguardo a un minore affetto da disturbo dello spettro autistico, se talune spese sopportate dalla famiglia dovessero essere prese in carico dal sistema sanitario.

In tal caso il ricorso a ChatGpt, affermava il giudice colombiano, aveva trovato giustificazione alla luce del fatto che l’utilizzo dell’intelligenza artificiale era solo volto ad aggiungere argomenti a quelli già sviluppati. In questo senso, il giudice precisava che il proposito non era in alcun modo quello di sostituire la decisione del giudice, ma solo quello di ottimizzare i tempi necessari alla redazione della sentenza, previa verifica delle informazioni offerte dal sistema di IA.

Con le dovute precisazioni, una simile prospettiva si ritiene che possa operare anche nel nostro ordinamento, alla luce del fatto che il ricorso a ChatGpt non è volto a sostituire la decisione umana, ma a migliorarla.

Non si può nascondere, però, che la ritenuta ammissibilità tragga fondamento dalla riconosciuta veridicità di quanto meramente dichiarato dal giudice, su cui si potrebbero legittimamente sollevare delle perplessità.

 

  1. Osservazioni conclusive: il valore dell’esperienza giuridica.

Il quadro tratteggiato induce a dover svolgere alcune osservazioni conclusive.

Nonostante vi sia un apparente dettato normativo interno dal quale traspare una evidente cautela (se non vera e propria preoccupazione) nei riguardi dell’uso dell’IA applicata alla funzione giurisdizionale, non si può non essere d’accordo con quanto evidenziato nelle Raccomandazioni del CSM, le quali rilevano che, una volta data compiuta attuazione a tutte le regole europee, l’utilizzo dell’IA sia ineludibile anche in questo ambito ([69]).

In siffatta dimensione acquista centralità il monito di Riccardo Orestano, il quale già avvertiva che «il giurista non può mai astenersi né estraniarsi dalla vita e dalla sua conoscenza» ([70]).

Benché oggigiorno emergano soprattutto reazioni alquanto sdegnate con riguardo all’utilizzo dell’IA all’interno dei nostri processi, come dimostra anche la recente cronaca, è legittimo il configurarsi del fondato sospetto che molti magistrati, sommersi da arretrati molto pensanti, nel segreto dei propri uffici, possano utilizzare detti strumenti anche al di fuori delle attuali previsioni normative ([71]).

Infatti, la «forza pratica» dell’algoritmo rende incerta la previsione di un impegno limitato o non esclusivo dell’IA.

Questa preoccupazione impone meditazioni di più ampio respiro.

Il regolamento europeo reputa che, qualora venga garantita la sicurezza del «prodotto», non si configurino ostacoli al suo utilizzo.

Sennonché, come ha dimostrato già l’ingresso dell’informatica nel processo (si pensi solo, ad esempio, a come oggi si redigono gli atti e le sentenze) ([72]), l’attività di ausilio della macchina inevitabilmente influenza il modo di lavorare dei giudici e soprattutto il loro ragionamento ([73]).

Già gli studi sulla giustizia predittiva hanno evidenziato che, anche in seno ad essa, opera il c.d. «effetto Heisenberg» ([74]), ossia «l’atto della misurazione condiziona l’evolversi dei fenomeni quantistici misurati», tanto che «la disponibilità di una previsione di eventi futuri, condiziona il comportamento del giudice» ([75]).

Anche la risposta che immediatamente gli strumenti di IA offrono agli utenti, ivi compreso il giudice, può influenzare la sua attività valutativa finale. Infatti, il giudice potrebbe adeguarsi al dato statistico, scegliendo di conformarsi all’interpretazione più accolta, senza neppure svolgere quell’attività critica imposta dalle norme di legge ([76]).

Al contempo, essi incidono anche sulla percezione che la società, la quale, come affermava Vittorio Denti, del processo «non è spettatrice, ma indiretta protagonista», matura nei riguardi del lavoro del magistrato ([77]).

Ora, l’art. 13, l. n. 132 del 2025 prescrive l’obbligo per i professionisti intellettuali di rilasciare al cliente un’informativa in merito all’uso dei sistemi di IA. Tale obbligo dovrebbe essere esteso anche ai magistrati, quali attori della funzione giurisdizionale.

Il principio di trasparenza, che trova ampia tutela nel regolamento europeo con riguardo alla conoscibilità dell’algoritmo, dovrebbe declinarsi anche all’interno dell’attività compiuta dei suoi utilizzatori, ivi incluso il magistrato ([78]).

In questa prospettiva, si è giustamente parlato di un vero e proprio principio di «lealtà digitale», che dovrebbe operare all’interno del processo ([79]).

A prescindere dai testi normativi che potranno, se lo vorranno, definire con maggiore o minore forza questo valore, la sua effettiva realizzazione presuppone innanzitutto l’acquisizione di competenze e di educazione nell’impiego di questi strumenti.

Alla luce di tali osservazioni, è evidente che l’iniziativa promossa dal Ministero della giustizia, ricordata in apertura, non affronti seriamente il c.d. tema del «digital divide» che connota la maggior parte dei magistrati del nostro paese (e non solo) ([80]).

In estrema sintesi.

Come è stato acutamente osservato ([81]), nell’affrontare le attuali sfide dell’IA diviene fondamentale innanzitutto riflettere sul concetto di «esperienza giuridica», la quale deve essere intesa come «quell’atteggiamento metodologico che (ri)conosce il diritto e l’ordinamento giuridico, innanzitutto come una forma di organizzazione» «dell’attività pratica» con cui gli individui, come già sosteneva Giuseppe Capograssi, «esplicano i loro fini di vita» ([82]).

Abstract: Il presente contributo, alla luce dell’attuale disciplina normativa e delle recenti Raccomandazioni del CSM, analizza gli spazi applicativi della decisione algoritmica, evidenziando i limiti e le potenzialità attuative. Tali considerazioni portano l’autrice ad osservare che, nonostante i limiti normativi, gli operatori pratici difficilmente possono sottrarsi alla «forza pratica» dell’algoritmo, tanto che, in tale dimensione, diviene cruciale riflettere sull’importanza dell’esperienza giuridica e, in particolare, sul principio di «lealtà digitale», valore che deve operare tra tutti gli attori della funzione giurisdizionale.

Abstract: In light of the current regulatory framework and the recent recommendations of the High Council of the Judiciary (CSM), this contribution analyses the areas of application of algorithmic decision-making, highlighting its limits and potential. These considerations lead the author to point out that, notwithstanding existing regulatory constraints, legal practitioners can hardly avoid the “practical force” of algorithms. In this context, it is fundamental to reflect on the importance of legal experience, particularly the principle of “digital loyalty,” which must govern all actors involved in the exercise of the judicial function.

(*) Lo scritto rappresenta lo sviluppo della relazione svolta al seminario di dottorato dell’Università di Firenze in data 28 gennaio 2026 su «L’intelligenza artificiale nell’istruttoria e nella decisione».

([1]) Ex multis, A. Carratta, Decisione robotica e valori del processo, in Riv. dir. proc., 2020, 491 ss.; E. Fabiani, Prevedibilità delle decisioni giudiziarie, giudizio di diritto, intelligenza artificiale e intelligenza aumentata, in AI Law, 2025, 57 ss., Id., Intelligenza artificiale e accertamento dei fatti nel processo civile, in Giusto proc. civ., 2021, 45 ss.; A. Graziosi, Giurisdizione civile e nuove tecnologie, in La riforma della giustizia civile fra regole della giurisdizione e organizzazione. Atti del XXXIV Convegno nazionale, Napoli, 22-23 settembre 2023, Bologna, 2025, 113 ss.; M. Gradi, Burocrazia giudiziaria, in Riv. trim. dir. proc. civ., 2024, 751 ss.; A. Punzi, La decisione giudiziaria nell’IA Act, in Giur. it., 2025, 448 ss.; A. Simonicini, La dimensione costituzionale della giustizia predittiva. Riflessioni su intelligenza artificiale e processo, in Riv. dir. proc., 2024, 389 ss.; F. Auletta, Accertamento del fatto e intelligenza artificiale nel processo civile, in DPCIeC, 2024, 922 ss.; C. Gamba, Sintetiche riflessioni sulla «decisione giusta»: ius dicere e digitalizzazione della giustizia, ivi, 2023, 819 ss.; Id., Ius dicere e lex technologica, Torino, 2023; F. Santagada, Intelligenza artificiale e processo civile, in Judicium, 2020, 467 ss.; M. Stella, Artificial reason e intelligenza artificiale nel diritto processuale, in DPCIeC, 2025, 18 ss.; J. Nieva-Fenoll, Intelligenza artificiale e processo, a cura di P. Comoglio, Torino, 2019; M.G. Civinini, Nuove tecnologie e giustizia, in Quest. giust., 19.12.2023; G. Fanelli, L’impiego dell’intelligenza artificiale nei processi decisori del giudice, tra la disciplina europea e quella del processo civile, in Il diritto nell’era digitale, R. Giordano – A. Panzarola – A. Police – S. Preziosi – M. Proto (a cura di), Milano, 2022, 975 ss.; A. Baldassare, Diritto ex machina? L’intelligenza artificiale e l’attività giurisdizionale, ivi, 461 ss.; Aa.Vv., La decisione nel prisma dell’intelligenza artificiale, a cura di E. Calzolaio, Milano, 2020; si vis, E. Gabellini, La « comodità nel giudicare »: la decisione robotica, in Riv. trim. dir. proc. civ., 2019, 1305 ss.; Id., Algoritmi decisionali e processo civile: limiti e prospettive, ivi, 2021, 59 ss.

([2]) Cosi sostiene, F. De Santis di Nicola, Diffusione dell’intelligenza artificiale (in specie generativa) e trasfigurazione dello ius dicere, in DPCIeC, 2025, 261.

([3]) Per l’analisi di questi profili mi permetto di rinviare a E. Gabellini, La « comodità nel giudicare »: la decisione robotica, cit., 1316 ss.

([4])La nota è rinvenibile al seguente indirizzo https://pst.giustizia.it/PST/resources/cms/documents/Nota_informativa_sperimentazione_Copilot_signed.pdf (ultima consultazione, 3 febbraio 2026).

([5]) La nota, altresì, precisa che seguiranno delle sessioni didattiche.

([6]) «Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia» (Delibera plenaria dell’8.10.2025), consultabili in https://www.csm.it/portale/web/csm-internet/intelligenza-artificiale (ultima consultazione, 3 febbraio 2026).

([7]) Come si legge sul sito de «Il Sole 24 ORE», 17 gennaio 2026 «Giudice a rischio sanzione disciplinare se usa l’Ai in modo irresponsabile» (G. Negri) e sul sito di «Repubblica», 17 gennaio 2026 «Sentenza scritta con l’intelligenza artificiale: Nordio avvia un’inchiesta sui giudici di Torino» (F. Gottardo).

([8]) Come ricorda V. Capasso, Usi e abusi di ChatGpt come law e fact finder, in DPCIeC, 2025, 54, nota 64.

([9]) Trib. Firenze, 14 marzo 2025, in Dejure. La pronuncia trae origine da un’articolata questione relativa alla violazione di alcuni diritti di proprietà industriale. Un soggetto, titolare di un marchio e di un domain name, lamentava la violazione dei propri diritti di privativa, in particolare relativamente a una serie di vignette, riprodotte senza autorizzazione su capi di abbigliamento; il reclamante segnalava che nella comparsa di costituzione della controparte erano presenti vari riferimenti giurisprudenziali del tutto inesistenti. Il difensore della società costituita ammetteva che il noto sistema ChatGpt aveva inventato di sana pianta una serie di riferimenti giurisprudenziali, non verificati in sede di redazione dell’atto giudiziario. Il procuratore del soggetto reclamato riconosceva l’omesso controllo sui dati forniti dal sistema di IA e giungeva a chiedere lo stralcio di tali riferimenti, ritenendo già sufficientemente fondata la propria linea difensiva. Contra, tra gli altri: Trib. Torino, 16 settembre 2025, in Onelegale, che ha riconosciuto l’applicazione dell’art. 96, commi 3 e 4, c.p.c.

([10]) Si tratta del caso Mata v. Avianca, Inc., 2023 U.S. Dist. Lexis 108263, *1, F.Supp.3d, 2023 WL 4114965 (S.D.N.Y. June 22, 2023), in cui l’avvocato è stato sanzionato per avere citato dei precedenti giurisprudenziali che erano stati inventati da ChatGpt. Infatti, il giudice, pur ritenendo ammissibile il ricorso all’intelligenza artificiale nell’attività di redazione delle memorie difensive, reputa che sia dovere dell’avvocato verificare sempre la correttezza del contenuto degli atti che deposita.

([11]) M. Luciani, La decisione giudiziaria robotica, in Riv. AIC, 2018, 873 ss.; A. Graziosi, op. cit., 333 ss.; A. Carratta, op. cit., 495 ss.; M. Francaviglia, IA e funzioni giurisdizionali: alcune questioni preliminari alla luce del quadro costituzionale, in Riv. it. infor. dir., 2025, 14 ss.

([12]) P. Biavati, La riforma del processo civile: limiti e prospettive, in Riv. trim. dir. proc. civ.,  2022, 45 ss.

([13]) F.M. Ghirga, La giustizia «piovuta» dal cielo, Torino, 2021, 134 ss.; N. Lipari, Il diritto civile dalle fonti ai principi, in Riv. trim. dir. proc. civ., 2018, 5 ss.; Id., A partire da «l’invenzione del diritto» di Paolo Grossi, in Riv. dir. civ., 2018, 349 ss.; B. Pastore, Le fonti e la rete. Il principio di legalità rivisitato, in Il diritto costituzionale come regola e limite al potere. Scritti in memoria di Carlassare, a cura di G. Brunelli – A. Pugiotti – P. Veronesi, tomo, I, Napoli, 2009, 279.

([14]) G. Verde, L’effettività, in Giustizia, politica, democrazia, Soveria Mannelli, 2021, 104; sul punto si veda anche D. Dalfino, Giurisprudenza «creativa» e prevedibilità del «diritto giurisprudenziale», in Giusto proc. civ., 2017, 1023 ss.; P. Grossi, Mitologie giuridiche della modernità, Milano, 2001, 55 ss. e 71 ss., 80 e 123, secondo il quale, in considerazione della «rapidità del mutamento sociale nella civiltà contemporanea», della «complessità della civiltà contemporanea» e della «tensione alla universalizzazione», al codice rimarrebbe «il ruolo di offrire una sorta di grande cornice» (ivi, 116 ss.); Id., L’identità del giurista, oggi, in Riv. trim. dir. proc. civ., 2010, 1089 ss., ove l’A., dopo aver posto l’accento sul superamento del «vecchio legalismo statalista» in favore di «un accentuato pluralismo giuridico» e di una «riscoperta fattualità del diritto», afferma che «oggi, se v’è una tensione scoperta, è verso il ruolo sempre più imprescindibile della interpretazione/applicazione». Per l’effetto, si assisterebbe ad una sorta di «rivoluzione copernicana» in ordine ai «rapporti fra norma e interpretazione/applicazione», consistente «nel non separare il momento di produzione della norma dal momento della interpretazione/applicazione, nel ritenere quest’ultima non la spiegazione di un testo conchiuso e indisponibile ma l’intermediazione necessaria e vitale fra la proposizione astratta della norma e la ineludibile concretezza storica che l’interprete ha di fronte», così che si opererebbe «un cospicuo spostamento di attenzione dal momento di produzione e dalla volontà consegnata e sigillata nel testo […] alla vita della norma nel tempo e nello spazio».

([15]) E. Lazega – L. Mounier, Quête de statut social, partage des compétences et néo-corporatisme chez les juges du Tribunal de Commerce de Paris, in La justice au risque des profanes, H. Michel – L. Willemez,  Amiens, 2007, 91 ss. Sul punto, ampiamente V. Capasso, op. cit., 53 ss.

([16]) C. Rasia, La crisi della motivazione nel processo, Bologna, 2016, 81 ss.

([17]) Ex multis, F. Carnelutti, Giurisprudenza consolidata (ovvero della comodità del giudicare), in Riv. dir. proc., 1949, 41.

([18])  A. Carratta, op. cit., 510 ss.; A. Pajno, L’uso dell’intelligenza artificiale nel processo tra problemi nuovi e questioni antiche, in BioLaw Journal, 2022, 205 ss. Interessanti a tali proposito sono le osservazioni di Panzarola (A. Panzarola, Il processo civile e la rivoluzione tecnologica all’alba dell’era dell’Intelligenza Artificiale (considerazioni generali), in Il diritto nell’era digitale, cit., 810 ss. e in una dimensione di più ampio respiro, Id., Processo, procedimento e iudicium (brevissime osservazioni a margine di una celebre dottrina), in Procedimento e processo, a cura di R. Martino – A. Panzarola – M. Abbamonte, Milano, 2022, 411 ss.) che evidenzia, qualora si accolga la dimensione «procedimentale» del processo, il tema dell’IA e della sua compatibilità con il giudizio perde tutta la sua dimensione problematica. In modo similare, R. Caponi, Oralità e scrittura del diritto, intelligenza artificiale, in Riv. trim. dir. proc. civ., 2024, 392 ss.

([19]) N. Irti, Il tessitore di Goethe (per la decisione robotica), in Decisione robotica, a cura di A. Carleo, Bologna, 2019, 21.

([20]) Come già illustrato in  E. Gabellini,  Algoritmi decisionali e processo civile: limiti e prospettive, cit., 63 ss.; A. Simonicini, op. cit., 394 ss., anche se la catalogazione prende come punto di riferimento il concetto di giustizia predittiva. Per una visione ancora più estesa: M. Libertini – M.R. Maugeri – E. Vincenti, Intelligenza artificiale e giurisdizione ordinaria. Una ricognizione delle esperienze in corso, in Intelligenza artificiale e diritto: una rivoluzione?, a cura di A. Pajno – F. Donati –  A. Perrucci, tomo, II, Bologna 2021, 483 ss.

([21]) T. Vasdani, Robot justice: China’s use of Internet courts, in https://www.lexisnexis.ca/en-ca/ihc/2020-02/robot-justice chinas-use-of-internet-courts.page; A. Zhabina, How China’s AI is automating the legal system, in https://www.dw.com/en/how-chinas-ai-is-automating-the-legal-system/a 64465988. Diversamente, è stata negata dal Ministero della Giustizia, una analoga sperimentazione in Estonia con riguardo alle cause di minore entità.

([22]) N. Aletras – D. Tsarapatsanis – D. Preotiuc-Pietro – V. Lampos, Predicting judical decisions of the European Court of Human Rights: a Natural Language Processing perspective, in PeerJ Computer Science, 2016, 1 ss.; M. Medvedeva – M. Vols – M. Wieling, Using machine learning to predict decisions of the European Court of Human Rights, in Artificial Intelligence Law, 2020, reperibile in https://link.springer.com/article/10.1007/s10506-019-09255-y.

([23]) Wisconsin Supreme Court, 13 luglio 2016, State vs. Loomis, case n. 2015AP157CR, 881 N.W. 2d 749 ss. (www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690). Loomis, 35 anni, è stato arrestato nel 2013 in ragione del suo coinvolgimento in una sparatoria nello Stato del Wisconsin. Benché non fosse stato ferito alcuno, il sig. Loomis venne condannato a diversi anni di prigione in virtù di una serie di capi di imputazione, tra cui la guida di un veicolo rubato. Il giudice di primo grado lo condannava a una pena detentiva alquanto elevata, fondando detta decisione, in parte, sull’elevato rischio di recidiva calcolato dal sistema Compas.

([24]) Per la programmazione di ChatGpt, come si legge nel sito ufficiale, sono state utilizzate varie tecnologie di Artificial Intelligence avanzate, quali: Machine Learning (ML), ossia un sistema di apprendimento automatico, che permette alle macchine di «imparare dall’esperienza»; Deep Learning, una branca del Machine Learning che, simulando i processi di apprendimento del cervello umano, utilizza reti neurali artificiali stratificate per analizzare dati e trarre proprie conclusioni, consentendo alle macchine di apprendere autonomamente; Natural Language Processing (NLP) che, attraverso tecniche e algoritmi, permettono di analizzare parole chiave, contesto e strutture sintattiche; Bidirectional Encoder Representations from Transformers (BERT), un language models «transformer» basato sul Machine Learning che consente alle macchine di elaborare risposte con un linguaggio naturale, simile a quello dell’utente. Sul punto si veda, A. Simonicini, op. cit., 398 ss.

([25]) A tale proposito è interessate la spiegazione offerta da una nota informativa di OpenAI, consultabile a https://openai.com/it-IT/index/why-language-models-hallucinate/.

([26]) Come ricorda, G. Finocchiaro, L’intelligenza artificiale nell’àmbito giudiziario, in Riv. trim. dir. proc. civ., 2024, 429, alla quale si rimanda anche per ulteriori applicazioni.

([27]) F. Costantino, Ambito di applicazione e principi generali della Legge 23 settembre 2025, n. 132, recante «Disposizioni in materia di intelligenza artificiale», in Dir. internet, 2026, 17 ss.

([28]) Per un’analisi generale: C. Casonato – B. Marchetti, Prime osservazioni sulla proposta di regolamento dell’Unione Europea in materia di intelligenza artificiale, in BioLaw Journal, 2021, 415 ss.; F. Donati, La protezione dei diritti fondamentali nel regolamento sull’intelligenza artificiale, Riv. AIC, 2025, 1 ss. È opportuno precisare che il legislatore europeo sta valutando, in un intervento di più ampio respiro, già di introdurre delle modifiche all’IA Act. Sul punto, E.M. Tripodi, Il «Digital Omnibus»: semplificazione (o deregolamentazione) del contesto digitale europeo?, in Dir. internet, 2026, 3 ss.

([29]) S. Dalla Bontà, Dalle ODR alle AI-DR alla luce dell’EU AI ACT. Le sfide di una mediazione «a trazione artificiale»: panacea o anatema?, in Giustizia consensuale, 2025, 475 ss., la quale analizza nel dettaglio le varie categorie di rischio, declinandole, poi, nel contesto delle Adr; C. Pinelli, L’IA Act: gestione del rischio e tutela dei diritti, in Giur. it., 2025, 452 ss.

([30]) Allegato III, n. 8, a).

([31]) G. Finocchiaro, op. cit., 436 ss.

([32])  M. Fabri, Intelligenza artificiale e amministrazione della giustizia, in LavoroDirittiEuropa, 20 marzo 2025; F. De Vita, La delega alla macchina delle attività processuali binarie, in DPCIeC, 2026, 39 ss.

([33])  Si tratta delle attività di: «1) ricerche dottrinali: assistenza nella consultazione di banche dati e nella costruzione di stringhe di ricerca finalizzate all’individuazione di dottrina pertinente; 2) sintesi di provvedimenti ostensibili e contributi dottrinali: creazione di abstract per la classificazione e l’archiviazione tematica di decisioni e saggi, anche in vista dell’elaborazione di banche dati giurisprudenziali interne all’ufficio; 3) organizzazione del lavoro giudiziario: supporto nella redazione di report statistici sull’andamento dell’ufficio; analisi di conformità tra programmi di gestione e dati di registro; comparazione automatizzata di documenti; redazione di bozze di relazioni o pareri su incarichi direttivi e semidirettivi; gestione dei calendari d’udienza sulla base di carichi e scadenze; 4) supporto agli uffici c.d. “affari semplici”: ausilio nelle attività seriali e a bassa complessità giuridica con la redazione di bozze standardizzate da adattare poi al caso specifico dal magistrato o dai suoi collaboratori; 5) supporto ad attività giurisdizionali gestionali attraverso il controllo della documentazione (soprattutto contabile nonché delle certificazioni) prodotta in atti ove opportunamente anonimizzata; 6) confronto tra soluzioni tecniche per la gestione fascicoli: comparazione automatizzata di pratiche e prassi organizzative, anche tra diversi uffici, per individuare criticità o buone pratiche replicabili; 7) generazione automatica di presentazioni (slides): creazione di materiali illustrativi a partire da documenti giuridici o relazioni, per attività formative o divulgative;  8) produzione di tabelle e grafici: estrazione di dati dai registri, organizzazione in tabelle, analisi comparativa e rappresentazione grafica per fini organizzativi o conoscitivi; 9) revisione linguistica e stilistica di testi: rilettura di bozze per verificarne la coerenza sintattica, ortografica e la chiarezza espositiva; 10) catalogazione e archiviazione per materia dei quesiti ai consulenti tecnici d’ufficio: organizzazione delle richieste per parola chiave o categoria tematica per facilitarne la consultazione e il riuso; 11) predisposizione di calendari d’udienza: generazione automatizzata degli orari e dell’agenda sulla base dei criteri predefiniti e dei carichi di lavoro; 12) traduzione assistita: uso dell’IA per traduzioni preliminari di testi giuridici, da sottoporre sempre a verifica umana».

([34]) R. Martino, L’ufficio per il processo ai tempi del PNRR: una panacèa per la giustizia civile?, in questa Rivista, 2025, 23 ss., il quale, peraltro, evidenza come delegare una simile attività agli addetti dell’ufficio per il processo ponga problemi di rilevanza costituzionale. In generale sull’ufficio per il processo si veda: S. Boccagna, La nuova organizzazione del processo, in Riv. dir. proc., 2023, 1341 ss.; D. Dalfino – A. Nisio – B. Carapella – G. Vita, L’ufficio per il processo nel prisma della giustizia civile sostenibile, Bari, 2023; M.F. Ghirga, L’ufficio per il processo: una sfida, in Riv. dir. proc., 2022, 177 ss.

([35]) A. Simoncini, op. cit., 392.

([36]) A. Punzi, op. cit., 449 ss. Peraltro, è giusto ricordare che una simile conclusione si può dedurre già dal GDPR, il quale, all’art. 22, prevede che «l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significazione sulla sua persona». Benché non si tratti di una norma ad hoc per il processo, ma, riguardando le decisioni automatizzate, può anche applicarsi al processo, come osserva G. Finocchiaro, op. cit., 433.

([37])  Esso, infatti, prescrive che «[…]l’utilizzo di strumenti di IA può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana».

([38]) Come già poneva in luce Punzi (A. Punzi, op. cit., 448 e 452) paragonando l’IA Act rispetto al progetto di legge italiano.

([39]) M. Morgese, L’intelligenza artificiale nella giustizia civile tra esigenze di accelerazione e principio antropocentrico, in Judicium.it, 17, la quale afferma «[…] la human oversight dialoga con il sistema di IA, assolvendo ad una funzione di contrappeso rispetto alla sua possibile deriva – sostanzialmente rimettendone la «governance» alla persona umana –, a livello interno il principio antropocentrico, nel settore della giustizia, si estrinseca, sì, sotto forma di non vincolatività delle risultanze che seguono all’interrogazione dell’algoritmo, ma passa anche e soprattutto attraverso il divieto di demandare all’algoritmo compiti sostitutivi dell’autorità giudiziaria. In fin dei conti, se il principio in esame fosse inteso soltanto come controllo e non vincolatività dell’output, allora qualsiasi attività potrebbe essere demandata al sistema di IA».

([40]) Sul punto, C. Punzi, Giudizio di fatto e giudizio di diritto, Milano, 2022.

([41]) Come osserva A. Punzi, op. cit., 449, il quale, ricordando che l’IA Act trae fondamento dalla Carta etica, critica il c.d. antropocentrismo chiuso che connotano le appendici della stessa.

([42])  M. Taruffo, Giudizio (teoria generale), in Enc. giur., vol. XV, Roma, 1989, 1 ss.

([43])  F. Auletta, op. cit., 923, discorre di «attività ausiliaria».

([44]) Oggigiorno, mi pare che si ripropongano con riguardo all’IA analoghi problemi applicativi che erano sorti in precedenza con riguardo all’ambito attuativo delle funzioni delegabili agli addetti per l’ufficio per il processo. Sul punto, S. Boccagna, op. cit., 1382, il quale osserva «[…] vi è il rischio che l’attività dell’UPP si trasformi in una sorta di diaframma tra il giudice e la causa, e che il giudice finisca per conoscere una realtà filtrata dall’assistente, rimanendo pesantemente condizionato, nell’esercizio dei suoi poteri, dall’operato di quest’ultimo» ed ancora « Ed invero, da un lato, mediante la redazione di schede riassuntive (delle domande e allegazioni delle parti, delle richieste istruttorie, dei risultati dell’assunzione probatoria, ecc.), l’assistente opera inevitabilmente una selezione del materiale, in base al quale il giudice forma le sue valutazioni. Dall’altro lato, ove sia chiamato ad occuparsi anche dello studio del fascicolo e della predisposizione di bozze di provvedimenti (da quelli meramente interlocutori fino alla decisione finale), l’assistente finisce per compiere egli stesso le valutazioni che spetterebbero al giudice, al quale resta riservato un ruolo di mero «controllore». In entrambi i casi il pericolo è che il giudice tenda a confidare eccessivamente nell’operato dell’assistente – secondo quello che è stato efficacemente definito come «anchoring effect» –, lasciando di fatto a quest’ultimo il ruolo di dominus della causa. Un simile scenario potrà apparire eccessivamente pessimistico a chi osservi che nella maggior parte dei casi il giudice utilizzerà correttamente il nuovo strumento che il legislatore gli consegna, esercitando un costante controllo sull’operato dell’assistente; che d’altra parte il rischio di imbattersi in un giudice superficiale o neghittoso sussisteva anche prima dell’avvento dell’UPP; che, infine, la possibilità di delegare un certo numero di attività è connaturata al modello di lavoro in team, sicché in definitiva si tratta soltanto di una questione di misura (e di serietà)». G. Reali, L’ufficio per il processo, in LavoroDirittiEuropa 1˚ settembre 2021, par. 6.

([45]) Cfr. nota 1.

([46])  J. Nieva Fenoll, op. cit., 83 ss.; E. Fabiani, Intelligenza artificiale e accertamento dei fatti nel processo civile, cit., 66 ss.

([47]) K. Paisley – E. Sussman, Artificial Intelligence Challenges and Opportunities for International Arbitration, in New York Dispute Resolution Lawyer, 2018, 35 ss., in part. 38, in https://sussmanadr.com/wp-content/uploads/2018/12/artificial-intelligence-in-arbitration-NYSBA-spring-2018-Sussman.pdf.

([48]) G. De Cesare,  Small claims e intelligenza artificiale: una proposta efficientista, in DPCIeC, 2025, 56 ss.

([49]) Si allude alle coeve sentenze della Grande Sezione, Corte Giust. UE, 17 maggio 2022, causa C-600/19, Ibercaja Banco; Corte Giust. UE, 17 maggio 2022, causa C-725/19, Impuls Leasing Romania; Corte Giust. UE, 17 maggio 2022, causa C-869/19, Unicaja Banco; Corte Giust., UE 17 maggio 2022, cause riunite C-693/19 e C-831/19, SPV Project 1503 Srl e Banco di Desio e della Brianza SpA, in www.curia.eu. Si tratta di pronunce ampliamente commentate dalla dottrina italiana, ex multis: E. D’alessandro, Il decreto ingiuntivo non opposto emesso nei confronti del consumatore dopo Corte di giustizia, grande sezione, 17 maggio 2022 (cause riunite C-693/19 e C-831/19, causa C-725/19, causa C-600/19 e causa C869/19): in attesa delle Sezioni Unite, in Judicium.it, 2 novembre 2022; C. Rasia, Giudicato, tutela del consumatore, ruolo del giudice in sede monitoria ed esecutiva, in Riv. trim. dir. proc. civ., 2023, 63 ss.; F. De Stefano, La Corte di Giustizia sceglie tra tutela del consumatore e certezza del diritto. Riflessione sulle sentenze del 17 maggio 2022 della Grande Camera della CGUE, in www.giustiziainsieme.it, 27 settembre 2022; G. Costantino, «Certezza» del diritto risultante dal titolo esecutivo, «accertamento con prevalente funzione esecutiva», «normativa senza giudizio», «preclusione pro judicato» e clausole vessatorie, in www.inexecutivis.it, 12-2-2023, 3; L. Baccaglini, Nullità di protezione, decreto ingiuntivo non opposto e giudicato implicito, in Riv. dir. banc., 2023, 57 ss.; A. Giussani, Decreto ingiuntivo non opposto dal consumatore: la lettura della Corte di Giustizia, in Riv. dir. proc., 2023,  291 ss.; D. Micali, Le ricadute sul sistema processuale italiano delle pronunce della Corte di giustizia Ue 16 maggio 2022, in Judicium.it, 28 febbraio 2023. Detta sentenza ha, poi, condotto alla nota pronuncia delle sezioni unite, Cass., Sez. Un., 6 aprile 2023, n. 9479, in Riv. esec. forzata, 2023, 336 ss., con nota di A. Carratta, Le Sezioni Unite della Cassazione tra nomofilachia e nomopoiesi. A proposito della sentenza n. 9479 del 2023; in Giur. it., 2023, 1053 ss., con nota di C. Consolo, Istruttoria monitoria «ricarburata» e, residualmente, opposizione tardiva consumeristica ‘‘rimaneggiata’’ (specie) su invito del g.e.; G. Scarselli, La tutela del consumatore secondo la Cgue e le sezioni unite, e lo Stato di diritto secondo la civil law, in Judicium.it, 12 aprile 2023.

([50])  F. Marina, L’intelligenza artificiale alla prova: i diritti dei consumatori e il programma Claudette, in Dir. inform., 2022, 63 ss.

([51]) Sui profili ambigui di questa forma di giustizia, cfr. E. Fabiani, Prevedibilità delle decisioni giudiziarie, giudizio di diritto, intelligenza artificiale e intelligenza aumentata, cit., 84 ss.; G. Zaccaria, Postdiritto, Bologna, 2022, 64 ss.; F. Savino, Riflessioni sul rapporto tra intelligenza artificiale e giustizia predittiva, in DPCIeC, 2025, 220 ss.

([52]) Peraltro, non sempre una mole di dati consente di ottenere ottimi risultati, come osserva P. Comoglio, Nuove tecnologie e disponibilità della prova, Torino, 2018, 235 e 286 ss.

([53]) Per un’ampia ricostruzione si veda E. Fabiani, op. cit., 74 ss.

([54]) Si veda con riguardo alla sovrapposizione di massime e precedenti, V. Andrioli, Massime consolidate della Corte di cassazione, in Riv. dir. proc., 1948, 249 ss.

([55]) Ampliamente, L. Passanante, Il precedente impossibile. Contributo allo studio del diritto giurisprudenziale nel processo civile, Torino, 2018, 146 ss.; E. Fabiani, op. cit., 109 ss.

([56])  Tale elemento è emerso nello studio riguardante le cause inerenti alla violazione dell’European Convention on Human Right. N. Aletras – D. Tsarapatsanis – D. Preotiuc-Pietro – V. Lampos, op. cit., 10 ss., osservano che la poca accuratezza data dal parametro «law» deriva anche dal fatto che la parte in diritto manca tutte le volte in cui la Corte europea dei diritti dell’uomo conclude per la non violazione delle menzionate norme. Dall’analisi del materiale emerge che le parti non contestano tanto l’esistenza dei fatti, ma la sussunzione di essi nelle norme giuridiche.

([57]) Come osserva E. Fabiani, op. cit., 100 ss.

([58]) Ex multis, Cass., 20 maggio 2019, n. 13534 in Dejure; Cass., 23 marzo 2018, n. 7305, ivi; sul punto si rimanda anche a A. Carratta, op. cit., 502 e nota 44.

([59]) C. Sgroi, La «missione» del magistrato nella concezione di Ludovico Mortara, in Riv. dir. proc., 2019, 1172 ss. e in part. 1191 ss.

([60]) Il caso citato era il seguente. La Corte d’appello di Ancona, respingendo un ricorso del Procuratore del Re, ammette all’elettorato attivo dieci insegnanti, spezzando la regola della esclusione delle donne sino ad allora – e poi in seguito, fino al voto referendario e per l’Assemblea costituente – negato in base a una regola non scritta, consuetudinaria. Come viene posto in evidenza (C. Sgroi, op. cit., 1186) «[…]il metodo, asciutto, oggi ineccepibile, della decisione esprime a tutto tondo le coordinate del pensiero di Mortara: la fonte costituzionale – lo Statuto – afferma che i cittadini (i «regnicoli») sono uguali davanti alla legge e godono egualmente dei diritti civili e politici (art. 24) e inoltre il successivo art. 25 ribadisce che essi contribuiscono indistintamente ai carichi dello Stato, ovverosia pagano le tasse, in proporzione alla loro ricchezza».

([61]) M. Lupoi, Giuscibernertica, informatica giuridica. Problema per il giurista, in Raccolta di saggi sulla giurisprudenza, 1970, 30.

([62])  P. Perlingeri, Il diritto civile nella legalità costituzionale secondo il sistema italo-comunitario delle fonti, Napoli 2006, il quale parla di «principio di legalità costituzionale».

([63])  D. Bifulco, Il giudice è soggetto soltanto al «diritto», Napoli, 2008, 117 ss. e le parole di P. Grossi, Il ritorno al diritto, Roma-Bari, 2015, 841 ss., in part. 843, che propone una personale definizione della soggezione del giudice alla legge. Egli ritiene che l’obbligo per il magistrato di seguire le disposizioni di legge debba essere inteso come la sua capacità di trovare «la disciplina più efficace nel contesto della questione controversa».

([64]) Si vis, E. Gabellini, Note sul rinvio pregiudiziale in cassazione: tra esigenze di sostenibilità ed efficienza, in Riv. trim. dir. proc. civ., 2025, 486 ss.

([65]) Oltre i nostri confini, numerose, in verità, sono già gli usi documentati: J.D. Gutiérrez, Critical appraisal of large language models in judicial decision-making, in R. Paul – E. Carmel – J. Cobbe (eds.), Handbook on public policy and artificial intelligence, Cheltenham, 2024, 323 ss.; H. Farah, Court of appeals judge praises ‘jolly useful’ ChatGpt after asking it for legal summary, in The Guardian, 15 settembre 2023, disponibile all’indirizzo https://www.theguardian.com/technology/2023/sep/15/court-of-appeal-judge-praises-jolly-useful-chatgpt-after-asking-it-for-legal-summary, il quale documenta il fatto che un giudice della Corte d’appello ha utilizzato ChatGpt per avere un riepilogo di un ambito del diritto, di cui egli era già esperto, definendo il chatbot basato sull’intelligenza artificiale «straordinariamente utile».

([66])  E. Fabiani, op. cit., 63.

([67]) Come evidenzia anche V. Capasso, op. cit., 40 ss., commentando una pronuncia di un tribunale olandese, che aveva fatto ricorso a ChatGpt  per la risoluzione di una controversia tra vicini riguardanti dei panelli solari. Accantonando il problema – di non poco rilievo, per quanto riguarda i limiti entro cui il giudice possa ricercare autonomamente informazioni su Internet per la ricostruzione dei fatti – in quel caso risultava sbagliato il metodo applicato, poiché si era ritenuto che il ricorso a un dato statistico fosse in grado di determinare un dato (la durata di «vita» residua dei pannelli solari) che imponeva una valutazione in concreto. Sull’effettiva portata di questo standard di prova è necessario tenere conto delle osservazioni di R. Poli, La logica nel giudizio di fatto, in La prova nel diritto e nel processo, Torino, 2023, 32 ss. e in part. 37 ss. Diversamente, sull’ambito applicativo dell’IA nel giudizio di fatto, F. Auletta, op. cit., 922 ss.

([68]) Rama judicial de Colombia. Juzgado 1º Laboral del Circuito Cartagena, 30 enero 2023, no. 32, Salvador Espitia Chávez v Salud Total EPS (Radicado No. 13001410500420220045901). Si veda il commento di A.F. Otálora Gómez, El uso de ChatGPT para la formulación de argumentos en unaprovidencia judicial. Estudio de una sentencia de tutela en Colombia, in Rev. iberoam. arg., 2023, 42 ss.

([69]) R. Tiscini, Il ruolo del giudice e degli avvocati nella gestione delle controversie civili, Napoli, 2023, 211, la quale ricorda che «quello dell’IA è uno spettro che pervade il processo in ogni sua fase, dalla redazione degli atti introduttivi (costruiti da una macchina che elabora informazioni che la mente umana si limita ad immettere), allo svolgimento dell’istruttoria (con il fiorire di nuovi mezzi di prova, dopo tanto osteggiare l’ammissibilità di prove atipiche), alla decisione (resa sulla base di un algoritmo i cui criteri di calcolo sfuggono al giudice più scrupoloso)». R. Caponi, op. cit., 394, il quale compie un parallelismo tra lo stupore che accompagnò l’avvicendarsi della visione eliocentrica alla geocentrica e quello che ora domina nelle discussioni relative alla decisione robotica.

([70]) R. Orestano, Introduzione allo studio del diritto romano, Bologna, 1987, 335.

([71])  Come osserva altresì A. Simonicini, op. cit., 403.

([72])  E. Zucconi Galli Fonseca, L’incontro tra informatica e processo, in Riv. trim. dir. proc. civ, 2015, 1185 ss.; Aa. Vv., Il processo telematico, a cura di G. Ruffini, Milano, 2019.

([73]) F. Galli, L’analisi automatica delle decisioni giudiziali, Torino, 2025, 268 ss., il quale evidenzia come i sistemi di IA conducano a una nuova declinazione dell’ermeneutica.

([74]) N. Lettieri, Contro la previsione. Tre argomenti per una critica del calcolo predittivo e del suo uso in ambito giuridico, in Ars interpretandi, 2021, 90 ss.

([75]) E. Fabiani, op. cit., 91 ss.

([76]) M. R. Ferrarese, Giustizia e digitalizzazione: verso una dialettica servo-padrone?, in Politica del diritto, 2024, 347 ss., la quale osserva «[…] il rischio è che la ratio giuridica del processo resti schiacciata dal prevalere della ratio tecnologica, che travolge col suo determinismo i piani e le strategie del «padrone», che sono profondamente umane, e che dovrebbero restare legate a ideali di giustizia intesa nel senso più nobile della parola. D’altra parte, è difficile ipotizzare che la giustizia, così come i tanti altri settori in cui vi è uso di tecnologie digitali, si tratti di medicina, di astrologia, di agricoltura o di finanza, possano fare a meno degli enormi apporti oggi offerti dall’intelligenza artificiale. E i continui avanzamenti che questa consegue, anche a seguito di massicci finanziamenti nella ricerca, fanno apparire il suo ruolo sempre più capace di affermazione o addirittura irrinunciabile, senza che intervengano bilanciamenti a favore del giuridico […]». Peraltro, una simile tendenza viene posta in evidenza anche con riguardo alla bozza predisposta dagli addetti dell’ufficio per il processo. Sul punto, R. Martino, op. cit., 42, il quale osserva «[…]con riguardo alla bozza del provvedimento finale predisposta dall’UPP si profila il rischio concreto che il giudice possa essere talvolta indotto ad adottare la bozza medesima senza adeguato controllo e ponderazione. Egli, sulla scorta del lavoro già fatto dal suo staff, potrebbe ritenere sufficiente una lettura degli atti di causa più superficiale di quella che solitamente fa quando opera da solo: in primis, perché tende naturalmente a fidarsi del lavoro compiuto da personale che, in molti casi, lui stesso ha formato; o, ancora, perché una lettura approfondita del fascicolo rappresenterebbe una inutile duplicazione delle attività «decisorie» (i.e.: necessarie per la decisione della causa); o, magari, semplicemente perché disattento o disinteressato alla causa (specialmente nel caso di controversie non particolarmente complesse); ovvero, perché spinto dall’urgenza di provvedere in tempi brevi al fine di smaltire l’arretrato ed evitare possibili azioni ex legge Pinto ed eventuali, conseguenti, strascichi di carattere disciplinare; o, infine, perché mal guidato dalla scheda del processo che lo staff ha via via predisposto ed aggiornato».

([77]) V. Denti, La difesa come diritto e garanzia, in Il problema dell’autodifesa nel processo penale, a cura di V. Grevi, Bologna, 1977, 56. Sul punto si veda, A. Garapon, La despazializzazione della giustizia, Milano, 2021, 128, che mette in evidenza che il processo in un’aula di giustizia «esorbita la sfera giuridica» e «permette di contemplare la tragicità della condizione umana e i tentativi culturali di superarla». Sulla crisi della funzione sociale del processo si veda: A. Dondi, Inattualità di una visione sociale del processo civile, in questa Rivista, 2025, 853.

([78])  L. De Propris, Studi sull’etica giudiziaria (parte I: Alle origini del codice etico dei magistrati), in Etica e giustizia, 2025, 595 ss.

([79]) A. Simonicini, op. cit., 407.

([80]) L. Breggia, Sprigionare l’umanità del diritto. Una riflessione in tempi disumani, in Riv. trim. dir. proc. civ., 2025, 948 ss., la quale individua una correlazione tra il concetto di trasparenza dell’algoritmo e l’educazione civica digitale.

([81])  A. Simonicini, op. cit., 422.

([82]) G. Capograssi, L’esperienza giuridica vista prima della elaborazione della scienza, in Opere, a cura di G. Capograssi, tomo II, Milano 1959, 418, ricordato anche da A. Simonicini, op. cit., 422.

Scarica il pdf