HomeDottrinaFiscalità, tecnologie emergenti e uso del dato pubblico*

Fiscalità, tecnologie emergenti e uso del dato pubblico*

di Fernanda Fraioli**

  1.  

Introduzione al tema.

Sul sito della Corte dei conti, ad uso interno, nello scorso mese di settembre è stato pubblicato un link al relativo portale che contiene una serie di utilissimi approfondimenti in materia di IA offerti dal servizio DGISIA  (Direzione Generale Sistemi Informativi Automatizzati) che notoriamente si occupa dello sviluppo, gestione e mantenimento dei sistemi informatici a supporto dell’attività dell’intero Istituto, finalizzato ad un migliore svolgimento del nostro lavoro, ma anche – molto più banalmente – ad alfabetizzare chi pur conoscendo poco o male della materia, sarà tenuto ad usufruirne comunque, atteso che la velocità con la quale il mondo si evolve non consente a nessuno di rimanerne fuori.

Nella prima pagina testualmente si leggono delle precisazioni che fungono, quasi, da avvertimento.

In disparte, infatti, la descrizione dell’IA dove viene puntualizzato che è “non solo una questione tecnica: sta cambiando il modo in cui lavoriamo, prendiamo decisioni e viviamo”, e che “questa pagina ti guida tra i concetti fondamentali per capire cos’è davvero l’IA, come funziona e perché è importante anche per chi non si occupa di tecnologia”, ne dà la definizione come “l’insieme di tecnologie che permettono alle macchine di svolgere compiti che richiederebbero intelligenza se fossero svolti da esseri umani”.

Per poi passare ad indicare “Cosa NON è l’Intelligenza Artificiale”, con il seguente decalogo:

👉 Non è una mente autonoma o cosciente.

L’IA non pensa, non ha emozioni, né consapevolezza di sé. Esegue istruzioni e produce risposte in base ai dati.

👉 Non è infallibile.

Può commettere errori, dare risposte imprecise o inappropriate, soprattutto se i dati di partenza sono incompleti o errati.

👉 Non sostituisce il giudizio umano.

L’IA supporta le decisioni, ma la responsabilità finale rimane sempre alle persone.

👉 Non comprende come un essere umano.

Risponde in modo coerente grazie a regole statistiche, ma non capisce veramente il significato profondo di ciò che elabora.

👉 Non è magia.

L’IA si basa su algoritmi e grandi quantità di dati, non su capacità sovrannaturali o intuitive.

Tanto premesso, è tempo di chiederci in che modo l’IA è applicabile al lavoro che quotidianamente svolgiamo da tempo con i metodi tradizionali del giudice, posto che, per espresso disposto normativo[1] essa consiste “in una famiglia di tecnologie in rapida evoluzione che contribuisce al conseguimento di un’ampia gamma di benefici a livello economico, ambientale e sociale nell’intero spettro delle attività industriali e sociali” il cui uso garantisce un miglioramento delle previsioni, l’ottimizzazione delle operazioni e dell’assegnazione delle risorse, fornendo vantaggi competitivi fondamentali alle imprese a condurre risultati vantaggiosi su vari piani e settori, tra i quali è annoverata anche la giustizia.

Avvertendo, però al contempo, che ben può comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell’Unione idonei a manifestarsi in forma sia materiale che immateriale, compreso il pregiudizio fisico, psicologico, sociale ed economico.

Ed aggiungendo, da ultimo, ma non certo per ordine di importanza, il prerequisito che l’IA dovrebbe possedere, ovvero di essere una tecnologia antropocentrica, finalizzata, com’è, al miglioramento del benessere degli esseri umani.

Ciò, allora, più che aprirli al nuovo, corrobora la convinzione degli scettici, i quali ritengono che al mestiere del giudice poco e male possa attagliarsi l’uso dell’IA.

L’attività di questo professionista insieme al rispetto granitico della norma posta (è antico l’aforisma dura lex, sed lex) è notoriamente intrisa anche di quella umanità racchiusa nel primo degli avvertimenti che si legge nel decalogo riportato sul sito della Corte dei conti: “l’IA non è una mente autonoma o cosciente. L’IA non pensa, non ha emozioni, né consapevolezza di sé. Esegue istruzioni e produce risposte in base ai dati”.

Umanità che riporta ad una funzione tipicamente antropocentrica che non può consentirne l’affidamento totale all’IA posta la sua incapacità a capire veramente il significato profondo di ciò che elabora in quanto risponde in modo coerente grazie a regole statistiche, basandosi su algoritmi e grandi quantità di dati, non su capacità sovrannaturali o intuitive, supportando le decisioni, ma dovendo lasciare la responsabilità finale pur sempre alle persone, come recitano i restanti punti del succitato decalogo.

Ciò significa che l’IA consentirà di ricevere delle risposte il più possibile attente e circostanziate a quesiti giuridici attraverso un ragionamento, chiaramente intellegibile, magari anche mediante riconduzione alle fonti utilizzate per l’esecuzione comandata, che consentirà al giudice di prendere decisioni rapide e mirate, ma che, comunque, saranno sempre a lui riservate.

Ciò a dire che la rassegna di giurisprudenza attraverso la selezione delle massime di maggiore rilievo per la disciplina della fattispecie di interesse effettuata dall’IA, sarà sicuramente più approfondita di quanto non possa essere la ricerca tradizionale che potrebbe peccare di tempestività ed aggiornamenti ad horas con risultati, infine, più puntuali in virtù di un’analisi semantica del testo e della documentazione facile a rinvenirsi mediante parole chiave e filtri appositi, ma la decisione resterà pur sempre al giudice.

Lo sviluppo dell’IA nel nostro diritto non può assolutamente essere avulso dal rispetto dell’equilibrio tra l’efficienza dell’Amministrazione – che con il suo uso innegabilmente si vuole raggiungere, attesa la riduzione dei costi ed il carico di lavoro del personale che assicura, unitamente al potenziamento dell’efficienza e della tempestività delle risoluzioni – e la salvaguardia della riserva di umanità che non può mancare nella somministrazione del servizio giustizia, essendo il provvedimento finale frutto della sinergia di entrambi i fattori.

Soltanto se il rispetto dei principi giuridici che la regolano sono garantiti da un controllo umano ed effettivo, si fuga qualsivoglia apprensione in tema di trasparenza, imparzialità e responsabilità delle decisioni automatizzate che, viene conseguenziale pensare, debbano essere garantite da chiare linee guida e da meccanismi di controllo non ondivaghi.

Per citare padre Benanti[2], le persone devono rimanere al centro della produzione di valore, attraverso la consapevolezza del funzionamento di queste tecnologie, come proposto dall’ultima legge italiana sull’IA che “propone un modello umano-centrico”. Solo così l’innovazione sarà sviluppo e non frattura sociale.

2) Breve premessa normativa.

Lo stesso disegno di legge delega sull’IA approvato dal governo il 23 aprile scorso, che stabilisce finalità e ambito di applicazione della delega, tra i principi generali contenuti negli articoli 3, 4, 5 del DDL fanno riferimento, tra gli altri, proprio ad “un approccio antropocentrico”, al rispetto delle istituzioni democratiche, dei diritti fondamentali e al divieto di discriminazione.

In estrema sintesi: l’impiego giudiziario è solo per ricerca e organizzazione.

In ciò corroborando quanto si va sostenendo – e che lo stesso DDL in altro settore dei 28 articoli di cui si compone, chiaramente precisa – ovvero che l’elaborazione complessiva e, soprattutto finale, non può che essere riservata al giudice.

È appena il caso di ricordare che il DDL nella prima parte all’art. 1 stabilisce finalità e ambito di applicazione della delega, mentre il secondo specifica le definizioni di: “sistemi di intelligenza artificiale”, “dato”, e “modelli di intelligenza artificiale” a partire dal diritto dell’Unione europea.

Nel disciplinare, nel resto del provvedimento, l’uso dell’intelligenza artificiale nei vari settori – dalla sanità, alla ricerca, al lavoro, ecc…. – l’art. 15, al co. 1, delinea il perimetro di applicazione dei sistemi di intelligenza artificiale nel settore giustizia, limitandolo perentoriamente agli ambiti dell’organizzazione e semplificazione del lavoro giudiziario, oltre alla ricerca giurisprudenziale e dottrinale.

La disciplina specifica è demandata al Ministero per la giustizia ordinaria, mentre per le altre giurisdizioni ai diversi organi competenti.

Al co. 2, invece, individua le attività riservate al magistrato, ovvero: l’interpretazione della legge, la valutazione dei fatti e delle prove, l’adozione dei provvedimenti.

Il DDL in commento – nell’attribuire un ruolo centrale nella definizione e attuazione della strategia nazionale per l’IA alla Presidenza del Consiglio, individua quali Autorità nazionali, l’Agenzia per l’Italia digitale (AgID) e nell’Agenzia per la Cybersicurezza nazionale (ACN) – delega il Governo ad adottare i decreti legislativi necessari per adeguare la normativa nazionale al Regolamento Ue del 13 marzo 2024, con particolare riguardo al settore dell’alfabetizzazione in materia di IA nei percorsi scolastici e universitari e alla definizione della disciplina nei casi di uso illecito dell’intelligenza artificiale.

Ora che il DDL è diventato legge con il n. 132/2025 del 23 settembre 2025 con entrata in vigore domani 10 ottobre, si dovrà provvedere ad applicare compiutamente la disciplina al servizio giustizia.

Con l’approvazione della legge “Italia primo Paese UE con quadro nazionale allineato all’AI Act. Governance con ACN e AgID e 1 miliardo di euro per startup e PMI“, come riferito dal Sottosegretario con delega all’innovazione tecnologica sen. Butti.

I principi fondanti della legge sono l’uso antropocentrico, la trasparenza e la sicurezza dell’IA, con particolare attenzione a innovazione, cybersicurezza, accessibilità e tutela della riservatezza.

I settori che possono trarre beneficio maggiore dalla nuova tecnologia – sanità, lavoro, pubblica amministrazione e giustizia, formazione e sport – sono disciplinati in modo organico e corredati delle garanzie di tracciabilità, responsabilità umana e centralità della decisione finale di una persona fisica, con esplicito richiamo (art. 3, co. 1) alla necessità del rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’Unione europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.

A seguire (commi 2 e 3), la necessità di sicurezza, trasparenza, correttezza, qualità e appropriatezza dei processi di sviluppo di sistemi di AI per finalità generali, nel pieno rispetto dell’autonomia e del potere decisionale dell’uomo e dell’assicurazione di possibilità della sorveglianza e dell’intervento umano.

In via del tutto preliminare, va precisato, per quanto possa apparire pleonastico, che questa legge ha la finalità di integrare le norme dell’AI ACT, nuovo regolamento UE e primo quadro normativo completo per la regolamentazione dell’IA finalizzato alla creazione di un mercato europeo trasparente e competitivo.

Rispetto al quale, però, il successivo co. 4, mette in guardia, disciplinandolo compiutamente, sulle conseguenze ed i pericoli dell’intelligenza artificiale sulla vita democratica delle istituzioni territoriali con chiaro riferimento alla richiesta di garanzia in merito allo svolgimento con metodo democratico della vita istituzionale e politica nonché della libertà del dibattito democratico da interferenze illecite, da chiunque provocate, tutelando gli interessi della sovranità dello Stato.

Insomma, per dirla con la prof.ssa D’Amico dell’Università di Milano[3]nel suo approccio all’intelligenza artificiale, in un mondo diviso sulla strategia europea “di prevenzione e difesa”, a cui si contrappone quella americana, che si presenta come una strategia “di guerra”, l’Italia propone una terza visione: quello dell’intelligenza artificiale come strategia di “sviluppo”.

L’esame parlamentare del DDL approvato dal Consiglio dei Ministri ha comportato delle modifiche in Senato in prima lettura relative a temi quali la salute, il diritto penale e la circoscrizione dell’uso dell’IA negli studi legali e nei Tribunali, mentre alla Camera, sono state introdottemodifiche in tema di minori, robotica e governance.

Ora, però, inizia la sua applicazione pratica, posto che il Governo ha a disposizione 1 o 2 anni per adottare tutti i decreti attuativi – legislativi e ministeriali – di cui alla delega parlamentare.

Più precisamente, 12 mesi di tempo per adottare i decreti legislativi di adeguamento all’AI ACT e di disciplina penalistica; e 24 mesi dall’entrata in vigore di ciascun decreto delegato, per eventualmente apportare delle modifiche alla normativa.

Le principali deleghe legislative al Governo sono dirette a:

  1. disciplinare organicamente l’uso di dati/algoritmi/metodi per l’addestramento;
  2. stabilire tutele (risarcitorie/inibitorie) e sanzioni;
  3. assegnare la competenza nelle relative controversie alle sezioni imprese per le controversie.

Infine, con particolare riguardo al settore di nostro interesse – la giustizia – l’art. 15[4], non a caso rubricato “Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria”, rimette al centro il magistrato al quale riserva, nei casi di impiego dei sistemi di intelligenza artificiale, ogni decisone sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti.

Quindi, soluzione indiscutibilmente antropocentrica.

E non potrebbe essere diversamente.

  • La Giustizia Contabile.

Venendo più propriamente a quel settore della giustizia al quale mi onoro di appartenere, per quanto innegabile sia una strenua rivendicazione della superiorità umana nella funzione giurisdizionale, va, tuttavia, riconosciuto che punti di contatto con l’IA ci sono ed il codice non ne fa mistero[5].

È bene ricordare i principali riferimenti normativi a presidio che sono:

  • Codice di Giustizia Contabile (decreto legislativo del 26 agosto 2016, n. 174 e d.lgs. correttivo n. 114 del 7 ottobre 2019) adottato ai sensi dell’articolo 20 della legge 7 agosto 2015, n.124
  • Decreto del Presidente della Corte dei conti 126/2022 (GU 123 del 27/05/2022) avente ad oggetto le “Ulteriori regole tecniche e operative per lo svolgimento dei giudizi dinanzi alla Corte dei conti mediante le tecnologie dell’informazione e della comunicazione”.
  • Decreto del Presidente della Corte dei conti 23/2019 che regola la conservazione digitale nella Corte dei conti.
  • Decreto del Presidente della Corte dei conti 98/2015 che regola l’utilizzo delle notifiche e delle comunicazioni via PEC.
  • Protocollo Informatico (CAD D.lgs. n.82 del 7 marzo 2005).

Si legge all’art. 6 del Codice di Giustizia Contabile che “I giudizi dinanzi alla Corte dei conti sono svolti mediante le tecnologie dell’informazione e della comunicazione” e la sua pratica concretizzazione è avvenuta con i sistemi informativi “SIRECO[6] (Sistema Informativo Resa Elettronica Conto) ovvero il servizio di resa elettronica del conto giudiziale e dei suoi allegati alle Sezioni Giurisdizionali Regionali della Corte dei conti – e “GIUDICO”[7] sistema incentrato sulla gestione del documento digitale, concepita non soltanto come semplice digitalizzazione del documento cartaceo ma come completa lavorazione di file nativi digitali e che, soprattutto, ha la finalità di consentire l’accesso tempestivo agli atti mettendo celermente a disposizione le informazioni relative ai procedimenti.

Ma non solo.

Dell’ecosistema Giustizia Digitale Contabile fanno parte altri e diversi applicazioni e servizi:

Ritengo, però ci sia un preliminare distinguo da operare in quanto la Corte dei conti, pur essendo innegabilmente un organo giudiziario al pari degli altri, presenta una sua configurazione caratterizzante che, forse, in materia di utilizzo dell’IA può fare qualche differenza.

L’uso dell’IA nei due settori di cui si compone la Corte dei conti – controllo e giurisdizione – potrebbe essere differente proprio per la tipologia di approccio, altrettanto differente, che le due funzioni richiedono.

  1. Con la differenza che per il CONTROLLO è già stato presentato un progetto di machin lerarning della Corte dei conti che riguarda la possibilità, tramite indicatori, di prevedere il possibile dissesto dell’ente locale.

Ci tengono a precisare i curatori del progetto (gli stessi appartenenti alla DGSIA di cui in apertura) che già dal lontano 2019 è stato avviato “un percorso per la costituzione di un centro di competenza sulla data science, prevedendo l’assunzione e la formazione di funzionari esperti sui temi dell’intelligenza artificiale e dei big-data”.

Tanto ha portato alla realizzazione di un modello sperimentale[11] che si sostanzia in un “sistema di supporto alle decisioni che, una volta reso operativo, sarà in grado di assistere la Sezione delle Autonomie[12] nell’emersione precoce delle situazioni di crisi finanziaria nei comuni italiani, attraverso l’impiego di algoritmi di apprendimento (machine learning) di tipo supervisionato”.

Il progetto è nato nel contesto di un master in Data Science dell’Università ed è stato realizzato grazie alla collaborazione con la Sezione delle Autonomie della Corte dei conti il cui personale addetto ha messo a disposizione il patrimonio informativo e, in virtù della loro conoscenza del fenomeno dei dissesti, hanno potuto realizzare un modello di machine learning, fornendo degli indicatori econometrici e la serie storica di tutti i Comuni andati in dissesto e in predissesto dal 2016 al 2020.

Spiegano, ancora, i realizzatori del progetto che – in virtù dei c.d. “addestramento” e “apprendimento”, termini con cui ci si vuole riferire ad un processo in grado di individuare delle correlazioni tra i dati, classificandoli in base a determinati criteri – l’algoritmo sarà in grado di riconoscere dei pattern simili a quelli che ha già visto e quindi sarà anche in grado di classificarli, al termine del processo di apprendimento.

Non dimenticano, tuttavia, di rilevare che esistono dei limiti nell’attuale sistema “ad indicatori e soglie” per i parametri di deficitarietà strutturale dei Comuni, previsto per legge, per individuare i quali fanno riferimento alla nota “Criticità finanziarie degli enti locali: cause e spunti di riflessione per una riforma delle procedure di prevenzione e risanamento” del 12 Luglio 2019 emanata dall’Osservatorio sulla Finanza e la Contabilità degli Enti Locali del Ministero dell’Interno di cui citano soltanto alcuni passaggi chiave:

1. assenza di indicatori ex ante “premonitori” di criticità strutturali: si affronta il problema quando ha iniziato a manifestarsi;

2. applicazione degli indicatori al rendiconto: nessuna applicazione ai documenti programmatori, tali da evidenziare campanelli di allarme in sede di predisposizione bilancio previsione triennale;

3. assenza di un sistema formale di controlli ex ante sulle società partecipate e dei loro impatti sui bilanci degli enti;

4. capacità limitata di intercettare gli squilibri che nel prosieguo possono portare l’ente al Piano di riequilibrio e/o al dissesto.

Il modello sperimentale posto in essere in Corte prova a dirimere le questioni di cui ai punti 1 e 4, mentre per i restanti è stato ritenuto idoneo ad essere impiegato.

L’attività di training (che sta ad indicare l’allenamento) del modello – continuano a spiegare i realizzatori – è stata svolta con circa quarantamila righe di dati che vanno a descrivere lo stato di salute economico-finanziario di tutti i Comuni italiani nell’intervallo di tempo di cinque anni (2016-2020).

Gli indicatori (feature, nei machine learning) utilizzati sono:

  • fascia demografica,
  • area geografica,
  • incidenza investimenti su totale spesa corrente e conto capitale,
  • autonomia finanziaria,
  • indebitamento pro-capite,
  • quota investimenti complessivi finanziati da debito,
  • incidenza spese rigide su entrate correnti,
  • velocità gestione spese correnti,
  • capacità di riscossione,
  • debiti fuori bilancio.

Risulta, altresì, definito ex-novo un indicatore di criticità finanziaria chiamato “Rischio dissesto” e che classifica, su cinque livelli di rischio, la propensione dell’ente al default in base all’analisi di tutta la sua serie storica dal 1978 ad oggi.

La precisazione che in proposito viene fatta – e che ci servirà tra poco come ponte per parlare della giurisdizione – è che, come tutti i sistemi di supporto alle decisioni, non deve essere inteso come un processo che può essere condotto senza l’intervento dell’uomo ma, al contrario, si tratta di uno strumento che semplifica e supporta il processo decisionale.

Tanto porta alla riduzione significativa del perimetro di controllo, consentendo, così, di circoscrivere il controllo ad un numero limitato di enti anziché procedere a campione su tutti i 78.965 comuni italiani, portando ad una emersione più rapida e precoce delle situazioni di crisi.

Sempre dai realizzatori, ci viene assicurato che già nella fase sperimentale del progetto sono stati raggiunti risultati molto soddisfacenti riconducibili al carattere innovativo ed originale dello studio effettuato.

  • Venendo all’altro settore della Corte dei conti, quello GIURISDIZIONALE, va subito detto che rimane il meno permeabile all’IA strettamente condizionato com’è dall’intervento dell’uomo.

Abbiamo detto in apertura che l’IA non pensa, non ha emozioni, né consapevolezza di sé ed esegue istruzioni, producendo risposte in base ai dati, come anche può dare risposte imprecise o inappropriate, soprattutto se i dati di partenza sono incompleti o errati, rispondendo in modo coerente grazie a regole statistiche, ma non capisce veramente il significato profondo di ciò che elabora basandosi su algoritmi e grandi quantità di dati, non su capacità sovrannaturali o intuitive.

Non è un caso che di recente si sono registrate sentenze con pronunce negative ed in qualche caso con connessa condanna alle spese per lite temeraria in quanto la parte aveva utilizzato l’uso dell’IA per scrivere il ricorso risultato, poi, pieno di errori e che ha portato il giudice a rilevare che l’atto era stato redatto “col supporto dell’intelligenza artificiale” costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e, in gran parte, inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio, eccezioni tutte manifestamente infondate[13]

Orbene, la mente umana non è tutto questo, eppure l’IA ne ha bisogno perché, pur supportandone le decisioni, la responsabilità finale rimane sempre affidata alle persone.

Per questo il cuore dell’attività giudiziaria non può essere totalmente delegata all’IA.

Qualunque decisione, ma ancor prima qualunque valutazione dei dati asetticamente raccolti – anche se magistralmente e magari in modo più accurato dell’operatore umano – mai potrà essere delegata all’IA.

Per quanto l’attività giurisdizionale sia indiscutibilmente legata al disposto normativo, concretandosi l’attività del giudice nell’applicazione rigorosa della legge, va da sé che margini di valutazione umana inevitabilmente residuano e che essa non possa essere delegata ad alcuna IA.

Per tale motivo l’IA, mentre ben può essere uno strumento di velocizzazione ed efficienza del lavoro, non può elidere la componente umana che va sempre mantenuta quale presidio di libertà, diritti e garanzie.

Tale considerazione, che si configurerebbe più come chiosa finale del mio intervento, ritengo sia utile utilizzarla all’inizio del nostro esame per farne discende le motivazioni delle perplessità legate all’applicazione dell’IA alla funzione tipica del giudice.

Lo sviluppo dell’IA è inevitabilmente condizionato dal mantenimento di quel delicato equilibrio tra l’efficienza amministrativa e salvaguardia della riserva di umanità.

Se, infatti, l’incremento del suo uso nei processi (che in quelli decisionali amministrativi sembrerebbe già aver provveduto in tal senso), promette di migliorare l’efficienza e la tempestività delle decisioni, con correlativa riduzione dei costi e del carico di lavoro del personale, al contempo non riesce a fugare l’inquietudine riguardo a fattori quali trasparenza, imparzialità e responsabilità delle decisioni automatizzate, che devono essere conformi ai principi legali e garantire una supervisione umana efficace per assicurare la protezione dei dati personali e la sicurezza informatica su cui bisognerà convogliare le forze, unitamente alla necessità di individuare delle chiare ed inequivocabili linee guida oltre che meccanismi di controllo più che efficaci.

Se vero è, infatti, che l’IA presenta enormi potenzialità tecnologiche, e che buona parte di esse è già stata attuata mettendoci di fronte ad un significativo cambiamento di pensiero e di vita, altrettanto vero è che rischi ed opportunità che essa sottende non possono essere sottaciute.

Per tale motivo il Parlamento Europeo – nell’approvare l’AI Act finalizzato ad impartire direttive ai governi degli Stati membri per legiferare onde tenere sotto controllo l’IA, classificando i rischi (tra i quali, principalmente, quelli inaccettabili) – ha così statuito: “L’elenco delle pratiche vietate di cui al titolo II comprende tutti i sistemi di IA il cui uso è considerato inaccettabile in quanto contrario ai valori dell’Unione, ad esempio perché viola i diritti fondamentali.

I divieti riguardano pratiche che presentano un elevato potenziale in termini di manipolazione delle persone attraverso tecniche subliminali, senza che tali persone ne siano consapevoli, oppure di sfruttamento delle vulnerabilità di specifici gruppi vulnerabili, quali i minori o le persone con disabilità, al fine di distorcerne materialmente il comportamento in maniera tale da provocare loro o a un’altra persona un danno psicologico o fisico ….

La proposta vieta altresì l’attribuzione di un punteggio sociale basato sull’IA per finalità generali da parte di autorità pubbliche.

È infine vietato anche il ricorso a sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto, fatta salva l’applicazione di talune eccezioni limitate”.

Vengono poi individuati i sistemi ad alto rischio, tra cui rientra, per l’appunto, la giustizia[14].

Tanto premesso, allora, è assodato che l’IA offra grandi vantaggi[15] – dall’automazione dei compiti ripetitivi, all’analisi dei dati avanzata, all’ apprendimento continuo, alla riduzione degli errori umani, al risparmio di tempo e risorse, all’ uso di un linguaggio naturale e all’interconnessione uomo-macchinache consentono una migliore interazione tra gli utenti e le macchine, facilitando l’accesso alle informazioni e migliorando l’usabilità – ma tutto ciò non contempla l’umanità, dote indispensabile per lo svolgimento della funzione giudiziaria.

Per questo, di recente, il nostro Governo nazionale ha predisposto il Disegno di Legge in materia di IA che intende basarsi su una visione assolutamente antropocentrica[16] con l’evidenziazione di alcuni requisiti che i sistemi di IA devono avere come, ad esempio, la precondizione essenziale di assicurare “la cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale, per garantire il rispetto dei diritti di cui al presente articolo”, come anche “le informazioni e le comunicazioni relative al trattamento dei dati connesse all’utilizzo di sistemi di intelligenza artificiale avvengono con linguaggio chiaro, semplice ed esaustivo, in modo da garantire all’utente la piena conoscibilità e la facoltà di opporsi ai trattamenti non corretti dei propri dati personali”.

Allora, veniamo all’impatto dell’uso dell’IA sul processo contabile.

Come ogni processo deve essere – per definizione, oltre che per disposto costituzionale – anche quello contabile è giusto se è regolato dalla legge, se rispetta la garanzia del contraddittorio, se si celebra davanti ad un giudice effettivamente terzo ed imparziale.

Tutto ciò che un giudice umano assicura a differenza di quello algoritmico, perché gli algoritmi non potrebbero sostituire la legge, perché il contraddittorio presupporrebbe una pari possibilità per le parti di conoscere e capire gli algoritmi, perché l’indipendenza del giudice sarebbe condizionata dai dati asetticamente forniti dalle macchine.

È, pertanto, evidente che il giudice algoritmico non è lo stesso che il giudice umano.

E già tanto basterebbe a chiudere qualsivoglia disputa in merito.

Ma siccome siamo giudici, siamo abituati, rectius obbligati, a motivare le nostre decisioni onde rendere edotti gli altri del ragionamento seguito per arrivare ad una determinata conclusione.

Pertanto, anche in questo caso motiviamo la posizione assunta.

Con particolare riferimento al giudizio contabile, va da sé, che quanto si possa dire rispetto all’IA, deve assolutamente essere rispettoso del sacro testo che ne disciplina lo svolgimento che è il d,l.vo 26 agosto 2016, n. 174, ovvero il Codice di giustizia contabile.

Allora partendo proprio dalla definizione di IA che ci deriva dalla “Carta etica sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente” adottata il 3 dicembre 2018 a Strasburgo dalla Commissione europea per l’efficienza della giustizia del Consiglio d’Europa, secondo cui per “intelligenza artificiale” deve intendersi un “insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani”, sembrerebbe doversi ravvisare capacità delle macchine di pensare, decidere, imparare con l’esperienza e interagire con l’alterità!

D’altronde non è un segreto che la medesima Commissione e nella medesima Carta parli di giustizia predittiva come di qualcosa di assolutamente innovativo che arriva perfino anche a decidere i giudizi e a prevedere una probabile sentenza, con tanto di sostituzione dei rappresentanti legali e dei giudicanti[17].

D’altronde concetti preesistenti, quali la rilevanza del precedente che consente (quasi obbliga, sia pure per bieca convenienza) alle parti di fare calcoli prodromici alle impugnazioni, bilanciando dicta favorevoli e sfavorevoli o, ancora, lo studio della giurisprudenza sulle chances dirisarcibilità che si fonda sulla ragionevole probabilità di successo dell’iniziativa processuale, ne sono un esempio o, se si vuole, un’anticipazione del tema.

Sono soltanto meri esempi che, purtuttavia, supportano gli attori del processo e che mettono in luce l’effetto agevolativo per una “ragionevole durata” del processo, altro punto cardine da non sottovalutare.

Ma il vero nodo da sciogliere resta, pur sempre, il “giusto processo” punto ineliminabile ai sensi, non soltanto della normativa interna, ma anche sovranazionale.

Senza travalicare i confini nazionali, basterebbe l’art. 2 del d.lgs. 26 agosto 2016, n. 174 che recita: “La giurisdizione contabile assicura una tutela piena ed effettiva secondo i principi della Costituzione e del diritto europeo”, in stretta correlazione con l’art. 3, che disciplina il principio di concentrazione alla garanzia della ragionevole durata e con l’art. 4, che prevede l’applicabilità al giudizio contabile dei principi della parità delle parti, del contraddittorio e del giusto processo di cui all’art. 111, co.1 della Costituzione, richiamando ancora il canone della ragionevole durata del processo.

Il processo, quindi, per essere giusto, deve poter assicurare il rispetto del principio del “contraddittorio tra le parti” in “condizioni di parità”; assolutamente ribadito dal Codice di giustizia contabile, nonché la sua c.d. “ragionevole durata”.

A seguire, altri inderogabili principi: la riserva di legge, il contraddittorio tra le parti e la parità delle armi, attuati tutti attraverso tre garanzie inscindibili ed irrinunciabili nella funzione giurisdizionale che sono:

  • la terzietà, ovvero la distanza tra decidente e soggetti della lite,
  • l’imparzialità, ovvero la neutralità del giudice rispetto agli interessi presenti nel processo
  • l’indipendenza, ovvero la soggezione solo ed esclusivamente alla legge.

Naturale conseguenza, oltre che fine specifico, è la giusta decisione ovvero un giusto riparto di responsabilità tra le parti del processo.

Orbene, tutto quanto premesso, non v’è chi non veda quanti e quali possano essere i rischi in subiecta materia, peraltro neppure sottaciuti dalla Commissione UE che nella succitata relazione[18] parla espressamente di “two sides” (“opportunities and risks”) dell’Artificial Intelligence.

Tutti i principi elencati a supporto del giusto processo, unitamente alle ineliminabili garanzieche la funzione giurisdizionale deve assicurare, mettono in guardia dai rischi che si correrebbero affidando completamente, ma anche semplicemente in parte qua preponderante, la funzione giurisdizionale all’IA.

In disparte la simultaneità che i suddetti principi devono assicurare – posto che non è ipotizzabile una ragionevole durata del processo avulsa dall’assicurazione di un contraddittorio o da concetti quali la terzietà, l’imparzialità o, ancora, l’indipendenza del giudice – resta, pur sempre, la motivazione delle decisioni adottate che non si vede come possa essere delegata alle macchine.

Laddove l’IA trova ed immette dati – magari anche con maggiore maestria rispetto ad una mente umana – soltanto quest’ultima è capace di elaborarli al fine ultimo di rendere giustizia che, inevitabilmente, presuppone la valutazione di essi, la loro applicazione ragionata al caso di specie e, conseguentemente, ad assicurare la certezza della funzione giudiziaria, supportata da certezza, trasparenza e controllabilità della stessa attraverso la motivazione della decisone adottata.

Si vede, quindi, come all’inelasticità del giudice algoritmico si contrapponga la plasticità di quello umano che solo può assicurare la giustizia per tutte le implicazioni che comporta, non ultima anche la tanto rivendicata responsabilità quando commette un errore per colpa grave di cui mai nessuna macchina potrà esse chiamata a risponderne con buona pace dell’opacità degli algoritmi forniti che, per definizione, sono incogniti e non governabili.

Non meno vero ciò è sul versante della controparte dove il difensore correrebbe il rischio di svuotare completamente di significato il proprio ruolo, ma soprattutto il proprio valore.

Risuonano ancora vivide le affermazioni del Calamandrei che ha riservato a questi professionisti parole di grande affetto e considerazione dicendo che “l’avvocatura è una professione di comprensione, dedizione, di carità. Nel suo cuore l’avvocato deve mettere da parte i suoi dolori, per far entrare i dolori degli altri……. L’avvocato alla vigilia della sentenza non può essere tranquillo: la tragedia dell’imputato si è trasfusa in lui, lo logora, lo agita, lo lacera”.

I punti chiave della professione, allora, che continuano ad essere dedicazione e carità, empatia ed ascolto, impegno morale e fede nel diritto riconducono tutti – esattamente come per il giudice – ad una preminenza antropocentrica della funzione che ben può essere supportata dall’IA, anzi – da addetta ai lavori – ben venga dico, ma non di certo in sostituzione, neppure parziale.

Esattamente come il giudice che deve intravedere quanto di umano da valutare ci sia dietro agli addebiti mossi da una delle parti e correlativamente tentati di giustificare dalla difesa.

E, finché il magistrato sarà soggetto unicamente alla legge – che solo gli consente di assicurare i concetti fondanti della funzione giurisdizionale quali indipendenza, imparzialità e terzietà – connaturata resterà anche la riconducibilità delle decisioni assunte ad una mente umana che restano verificabili da chiunque, difficile a duplicarsi con riferimento a quella algoritmica.

Nel caso del giudice contabile tanto è ancora più vero posto che la decisione che deve assumere – ma ancor prima anche nel vaglio di tutti i documenti a corredo della fattispecie – non può essere avulsa da una valutazione complessiva degli atti di causa che ben può essere coadiuvata dagli strumenti informatici, ma giammai ad essi totalmente affidata per le peculiarità proprie di questo tipo di processo che partendo dall’individuazione del danno deve poi passare a soppesare l’elemento psicologico (dolo o colpa grave) del presunto autore il quale, una volta individuato (o individuati posto che ognuno risponde per la parte che vi ha preso in caso di pluralità di agenti) con esattezza ben può lucrare le conseguenze dell’esercizio del potere riduttivo o di una quota parte che resta a carico dell’amministrazione, ecc…. che solo il giudice umano è capace di assicurare per la duttilità della mente umana (professionalità a parte), rispetto a quella algoritmica.

Questa non è soltanto la posizione della scrivente – che dichiara di esprimerla a titolo personale e in alcun modo riferibile a chicchessia, tanto meno all’Istituto di appartenenza – ma anche indicazioni del legislatore sovranazionale che nel Regolamento Ue 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016, esplicita il principio di non esclusività della decisione algoritmica, in pieno accordo con quella “Carta etica sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente” avanti citata[19], che ci ha consegnato non soltanto la definizione di IA, ma anche quel neologico costrutto che va sotto il nome di giustizia predittiva.

Più precisamente, l’art. 22 – ai sensi del quale l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato – fa il paio con il Considerando n. 4, secondo il quale “Il trattamento dei dati personali dovrebbe essere al servizio dell’uomo”.

A seguire, il Considerando n. 71 secondo il quale “l’interessato dovrebbe avere il diritto di non essere sottoposto a una decisione, che possa includere una misura, che valuti aspetti personali che lo riguardano, che sia basata unicamente su un trattamento automatizzato e che produca effetti giuridici che lo riguardano o incida in modo analogo significativamente sulla sua persona” ed ancora “in ogni caso, tale trattamento dovrebbe essere subordinato a garanzie adeguate, che dovrebbero comprendere la specifica informazione all’interessato e il diritto di ottenere l’intervento umano, di esprimere la propria opinione, di ottenere una spiegazione della decisione conseguita dopo tale valutazione e di contestare la decisione”, significando che la non esclusività di una decisione automatizzata è assolutamente connessa al diritto dell’interessato a conoscere della procedura automatizzata e del correlativo meccanismo di funzionamento onde impedire, così, quelle discriminazioni che possono vantare uno scudo perfino costituzionale quali quelle fondate sulla razza o origine etica, sulle opinioni politiche, religiose o sulle convinzioni personali, sull’appartenenza sindacale, sullo status genetico, di salute e dell’orientamento sessuale[20].

Conclusivamente, allora, per l’IA nella giustizia contabile funzione ancillare sì, ma altro no.

  • Considerazioni Conclusive.

Una chiosa finale ci sia consentita con richiamo a chi giurista non è, ma ben conosce la mente umana.

Il riferimento è all’allarme lanciato dallo psichiatra Paolo Crepet il quale, a margine di uno dei suoi soliti incontri pubblici, ha utilizzato una metafora piuttosto inquietante[21], tanto più perché riferita ai giovani il cui declino cognitivo è stato registrato come inarrestabile, in considerazione della perdita della capacità critica e di adattamento ai nuovi scenari lavorativi e tecnologici che ha portato ad un abbassamento di 6 punti negli ultimi 25 anni del QI medio degli adolescenti in Italia.

Alle cui cause è stata riconosciuta natura ambientale, legata a cambiamenti nello stile di vita, come la modalità di esposizione ai media e la qualità del sistema educativo.

L’allarme lanciato da Crepet trova riscontro in dati allarmanti sulla dipendenza giovanile dall’IA che hanno evidenziato come un uso estremo dei chatbot comporti una progressiva pigrizia cognitiva e una diminuzione delle capacità di pensiero critico, mentre gli utenti potrebbero sperimentare crisi d’ansia e astinenza in caso di impossibilità di accesso al servizio.

Ha, altresì, sottolineato come l’intelligenza artificiale rappresenti “la forza più straordinaria e più conservatrice che esista”, capace di autogenerarsi utilizzando tutto ciò che già esiste ma incapace di “inventare mai nulla” senza l’interconnessione con un cervello pensante.

Invita quindi a “tornare a fare le cose con gioia”, perché “bisogna fare fatica, imbrattarsi col futuro, bisogna avere il coraggio di guardarlo il futuro”, un appello a recuperare il pensiero critico e l’autonomia intellettuale minacciati dall’omologazione tecnologica.

Un po’ come abbiamo fatto noi, senza IA però, e che, per ironia della sorte, ora siamo chiamati………….. a doverci confrontare e a collaborare con l’IA.


[1] Regolamento (UE) del Parlamento Europeo e del Consiglio del 13 giugno 2024.

[2] Padre Paolo Benanti è professore dell’Università Gregoriana e Presidente della Commissione sull’Intelligenza Artificiale per l’informazione. Teologo e filosofo è stato consigliere di Papa Francesco sui temi dell’intelligenza artificiale e dell’etica della tecnologia.

[3] La prof.ssa Marilisa D’amico insegna diritto costituzionale e diritto pubblico italiano e sovranazionale della facoltà di giurisprudenza presso l’Università degli studi di Milano in qualità di professore ordinario e Prorettrice con delega alla legalità, trasparenza e parità di diritti presso l’Ateneo.

[4] L’art. 15 è rubricato “Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria” e così recita:

1. Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività’ giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti   e   delle   prove   e   sull’adozione   dei provvedimenti.

  2. Il Ministero della giustizia disciplina gli impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie.

  3. Fino alla compiuta attuazione del regolamento (UE) 2024/1689, la sperimentazione e l’impiego dei sistemi di intelligenza artificiale negli uffici giudiziari ordinari sono autorizzati dal Ministero della giustizia, sentite le Autorità nazionali di cui all’articolo 20.

  4. Il  Ministro  della giustizia,  nell’elaborazione  delle  linee programmatiche sulla formazione dei magistrati  di  cui  all’articolo 12, comma 1, lettera a), del decreto legislativo 30 gennaio 2006,  n. 26,  promuove  attività didattiche   sul   tema   dell’intelligenza artificiale e sugli impieghi dei sistemi di intelligenza  artificiale nell’attività giudiziaria, finalizzate alla formazione  digitale  di base e avanzata, all’acquisizione e alla condivisione  di  competenze digitali, nonché’ alla sensibilizzazione sui benefici e rischi, anche nel quadro regolatorio di cui ai commi 2 e 3 del  presente  articolo.

Per le medesime finalità di cui al primo periodo, il Ministro cura altresì la formazione del personale amministrativo.

[5] Si legge sul sito della Corte dei conti: “Siamo impegnati nella realizzazione del Processo Contabile Telematico della Corte dei conti i cui primi tasselli fondamentali sono rappresentati dell’ecosistema “Giustizia Digitale Contabile”.

Rilasciato nel novembre del 2018, la “Giustizia Digitale Contabile”, rappresenta l’insieme dei sistemi della Corte dei conti finalizzati alla completa dematerializzazione dei giudizi che si svolgono dinanzi alle Sezioni giurisdizionali dell’Istituto, in ottemperanza a quanto previsto dal “Codice di Giustizia Contabile”.

Protagonista del processo di trasformazione digitale della Pubblica Amministrazione italiana, aderisce perfettamente alle strategie ed ai principi guida dell’Agid. È stato realizzato interamente cloud native e pensato per una “user experience” evoluta e moderna su qualsiasi tipo di dispositivo”.

[6] Raggiungibile attraverso il Portale dei servizi della Corte dei conti, previa autenticazione tramite SPID di livello 2, SIRECO, è la soluzione cloud per la trasmissione in Corte dei conti dei Conti Giudiziali in formato digitale.

Consente la registrazione degli agenti contabili e l’invio in forma digitale dei conti per l’acquisizione su GiuDiCo, secondo quanto previsto dal Codice di Giustizia Contabile.

Il servizio è rivolto ai Responsabili del procedimento di resa del conto ed agli Agenti contabili delle Amministrazioni dello Stato e degli Enti Locali.

[7] GiuDiCo rappresenta il fulcro del progetto Giustizia Digitale Contabile.

Progettato utilizzando le più recenti tecnologie e in conformità al nuovo Codice di Giustizia Contabile, si configura come strumento indispensabile per il lavoro quotidiano del personale di Magistratura e Amministrativo.

Flessibile ed innovativo, perché interamente realizzato per essere fruito via web in totale sicurezza attraverso qualsiasi dispositivo, GiuDiCo è incentrato sulla gestione del documento digitale, concepita non solo come semplice digitalizzazione del documento cartaceo ma come completa lavorazione di file nativi digitali.

Predisposto per la condivisione e lo scambio documentale anche tra uffici di diverso grado, consente l’accesso tempestivo agli atti nei casi previsti dalla legge, mettendo immediatamente a disposizione le informazioni relative ai procedimenti.

GiuDiCo è il sistema a supporto dell’intero iter procedurale della Corte negli ambiti specifici:

  • delle Procure Regionali;
  • delle Sezioni Giurisdizionali di I Grado;
  • dell’Ufficio del Ruolo Generale;
  • della Procura Generale;
  • delle Sezioni Centrali di Appello;
  • della Sezione e della Procura d’Appello siciliana (II Grado);
  • delle Sezioni Riunite in sede giurisdizionale.

Parallelamente, il sistema consente la conduzione di tutte le attività previste dalla norma in materia di Conti Giudiziali. 

[8] FOL mette a disposizione degli avvocati e delle parti, autenticati tramite SPID (livello 2) sul Portale dei Servizi on Line della Corte dei conti, la documentazione dei giudizi di loro pertinenza e le comunicazioni o notifiche indirizzate alla loro casella PEC.

Il servizio è rivolto agli avvocati iscritti all’albo, alle parti di un procedimento ed all’Avvocatura Generale dello Stato.

È disponibile anche uno specifico servizio FOL che consente la visualizzazione da parte del destinatario dell’invito a dedurre, previa autorizzazione della competente procura Regionale, dei documenti ritenuti rilevanti per la sua difesa. Anche a questo specifico servizio si accede previa autenticazione tramite Spid di livello 2.

[9] Il servizio permette il deposito di atti e documenti nei fascicoli di Giudizio, Istruttoria e Conto giudiziale, restituendo al mittente la ricevuta di deposito protocollata. Possono accedervi tutti i soggetti aventi diritto, previa autenticazione tramite SPID di livello 2

[10] Rappresenta la componente conoscitiva della Giustizia Contabile, dedicata alle analisi e alle ricerche in ambito giurisdizione. Un sistema in cloud interamente realizzato per essere fruito via web in totale sicurezza con l’uso di qualsiasi dispositivo.

Il “Data Mart Giustizia Digitale Contabile” è utilizzato esclusivamente dal personale interno della Corte dei conti: Magistrati della Giurisdizione e personale amministrativo delle Segreterie delle Sezioni e delle Procure, Ufficio di Presidenza, Consiglio di Presidenza e Ufficio per il controllo di gestione.

Contiene tutte le informazioni utili a monitorare l’andamento dell’attività giurisdizionale dell’Istituto e, in particolare, fornisce all’Ufficio di Presidenza, a cadenza annuale, le informazioni utili ad elaborare la Relazione del Presidente pubblicata in occasione dell’inaugurazione dell’Anno giudiziario, nonché i dati relativi alla produttività delle Sezioni e delle Procure della Corte dei conti.

[11] Di cui è stato redatto un ampio paper scientifico dal titolo: Predicting municipalities in financial distress: a machine learning approach enhanced by domain expertise, consultabile su: https://arxiv.org/pdf/2302.05780

[12] È un ufficio centrale collegato alle Sezioni Regionali di controllo della Corte dei conti, con la funzione di analizzare e coordinare l’attività delle autonomie locali e delle Regioni, con particolare riguardo alla finanza pubblica locale, monitorando il rispetto degli equilibri di bilancio e di vincoli europei e riferendo annualmente al Parlamento sui complessivi andamenti della finanza regionale e locale.

Si legge nel sito istituzionale: “La Sezione delle Autonomie (fino al 16 luglio 2003 denominata Sezione Autonomie) è espressione delle Sezioni regionali di controllo ai fini del coordinamento della finanza pubblica. Riferisce al Parlamento, almeno una volta l’anno, sugli andamenti complessivi della finanza regionale e locale per la verifica del rispetto degli equilibri di bilancio da parte di Comuni, Province, Città metropolitane e Regioni, in relazione al patto di stabilità interno e ai vincoli che derivano dall’appartenenza dell’Italia all’Unione europea, anche sulla base dell’attività svolta dalle Sezioni regionali.

Esamina a fini di coordinamento ogni tema e questione che rivesta interesse generale o che riguardi le indagini comparative su aspetti gestionali comuni a più Sezioni regionali.

La Sezione delle Autonomie è presieduta dal Presidente della Corte dei conti ed è composta da due Presidenti di Sezione che lo coadiuvano, nonché dai Presidenti delle Sezioni regionali di controllo e da magistrati, nel numero stabilito dal Consiglio di Presidenza”.

[13] Questa è tratta dalla sentenza del tribunale di Torino n. 2120/2025, ma non è l’unica.

Sempre alla sezione lavoro, ma del Tribunale di Latina, in una sentenza n. 1034/2025 del 23 settembre 2025, si legge nel rigettare le istanze del ricorrente, ancora che il giudice ha ritenuto anche di condannare la parte alla lite temeraria, argomentando in tal modo, l’uso di citazioni errate, tratte, a suo dire dall’uso errato dell’intelligenza artificiale.

Si legge nelle motivazioni della sentenza: “Il ricorso giudiziario – così come tutti gli altri centinaia di giudizi patrocinati dal medesimo difensore, tutti redatti a stampone – risulta evidentemente redatto con strumenti di intelligenza artificiale; tanto è evidente non solo dalla gestione del procedimento (deposito di note ex art. 127 ter c.p.c. il giorno successivo al deposito del decreto di fissazione di udienza) ma soprattutto dalla scarsa qualità degli scritti difensivi e dalla totale mancanza di pertinenza o rilevanza degli argomenti utilizzati; l’atto è infatti composto da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico ed in gran parte inconferenti rispetto al thema decidendum ed, in ogni caso, tutte manifestamente infondate.

In questa situazione, si giustifica una condanna ex art. 96 comma 3 c.p.c.”.

[14] Fanno parte di questa categoria le applicazioni che riguardano le infrastrutture critiche, l’istruzione e la formazione professionale, l’occupazione, i servizi pubblici e privati (assistenza sanitaria, banche), i sistemi di contrasto, migrazione, giustizia e processi democratici (per esempio, i sistemi usati per influenzare le elezioni). Per questi sistemi c’è l’obbligo di valutare e ridurre i rischi.

Essi dovranno avere requisiti di trasparenza nel rispetto delle norme UE sul diritto d’autore riguardo ai dati usati per l’addestramento dei vari modelli. Inoltre, i deepfake, ovvero testi, immagini, audio e video manipolati dovranno essere chiaramente etichettati.

[15] La ChatGPT, nel suggerire alcuni campi di applicazione dell’IA, ci ricorda come sia una tecnologia che offre grandi vantaggi, alcuni dei quali sono:

1. Automazione dei compiti ripetitivi: L’IA può automatizzare attività ripetitive e di routine, consentendo alle persone di concentrarsi su compiti più creativi, complessi e strategici. Ciò porta a un aumento dell’efficienza e della produttività.

2. Analisi dei dati avanzata: L’IA è in grado di analizzare grandi quantità di dati in modo più rapido ed efficiente rispetto agli esseri umani. Ciò consente di ottenere insight approfonditi e di prendere decisioni informate basate sui dati.

3. Apprendimento continuo: I modelli di IA possono essere addestrati su grandi dataset e migliorare continuamente con l’esperienza. Questo permette loro di adattarsi a nuovi scenari e cambiamenti nell’ambiente senza richiedere una riconfigurazione completa.

4. Riduzione degli errori umani: L’IA può contribuire a ridurre gli errori umani causati dalla stanchezza, dalla distrazione o da fattori emotivi. Questo è particolarmente importante in settori come la medicina e l’industria, dove errori possono avere conseguenze gravi.

5. Personalizzazione e raccomandazioni: L’IA può analizzare i comportamenti e le preferenze degli utenti per offrire raccomandazioni personalizzate. Questo si traduce in un’esperienza utente migliorata su piattaforme come i motori di ricerca, i servizi di streaming e gli shop online.

6. Automazione industriale: Nell’ambito della produzione e della logistica, l’IA può ottimizzare i processi di produzione, gestire la catena di approvvigionamento e migliorare la manutenzione predittiva delle attrezzature.

7. Assistenza sanitaria avanzata: L’IA può aiutare i professionisti sanitari nella diagnosi precoce di malattie, nella personalizzazione dei piani di trattamento e nell’analisi di grandi dataset per individuare modelli medici.

8. Veicoli autonomi: L’IA è fondamentale per lo sviluppo dei veicoli autonomi, migliorando la sicurezza stradale e offrendo nuove opportunità nel settore dei trasporti.

9. Linguaggio naturale e interazione uomo-macchina: I sistemi di IA che comprendono e generano il linguaggio naturale consentono una migliore interazione tra gli utenti e le macchine, facilitando l’accesso alle informa-zioni e migliorando l’usabilità.

10. Risparmio di tempo e risorse: L’automazione fornita dall’IA può portare a un notevole risparmio di tempo e risorse, contribuendo a ridurre i costi operativi e aumentando l’efficienza in vari settori.

[16] L’aspetto antropocentrico è stato centrale anche nell’intervento “Intelligenza Artificiale e Pace” di Papa Francesco alla LVII Giornata Mondiale della Pace (20) il 1 gennaio 2024.

[17] Ove testualmente si legge: “Per giustizia predittiva si intende l’analisi di una grande quantità di decisioni giudiziarie mediante tecnologie di intelligenza artificiale al fine di formulare previsioni sull’esito di alcune tipologie di controversie specialistiche (per esempio, quelle relative alle indennità di licenzia-mento o agli assegni di mantenimento). Il termine “predittivo” utilizzato dalle società di legal tech […] è tratto dalle branche della scienza (principalmente la statistica) che consentono di predire risultati futuri grazie all’analisi induttiva. Le decisioni giudiziarie sono trattate al fine di scoprire correlazioni tra i dati in ingresso (criteri previsti dalla legge, fatti oggetto della causa, motivazione) e i dati in uscita (decisione formale relativa, per esempio, all’importo del risarcimento). Le correlazioni che sono giudicate pertinenti consentono di creare modelli che, qualora siano utilizzati con nuovi dati in ingresso (nuovi fatti o precisazioni introdotti sotto forma di parametri, quali la durata del rapporto contrattuale), producono secondo i loro sviluppatori una previsione della decisione (per esempio, della forbice risarcitoria). Alcuni autori hanno criticato questo approccio sia formalmente che sostanzialmente, sostenendo che, in generale, la modellizzazione ma-tematica di determinati fenomeni sociali non è un compito paragonabile ad altre attività quantificabili più facilmente (isolare i fattori realmente causativi di una decisione giudiziaria è un compito infinitamente più complesso di giocare, per esempio, una partita di Go o riconoscere un’immagine): il rischio di false correlazioni è molto più elevato. Inoltre, in dottrina, due decisioni contraddittorie possono dimostrarsi valide qualora il ragionamento giuridico sia fondato. Conseguentemente la formulazione di previsioni costituirebbe un esercizio di carattere puramente indicativo e senza alcuna pretesa prescrittiva”. 

[18]Fostering a European approach to Artificial Intelligence” 

[19] Cfr. pagine precedenti ed in particolare nota 14.

[20] Testualmente: “Al fine di garantire un trattamento corretto e trasparente nel rispetto dell’interessato, tenendo in considerazione le circostanze e il contesto specifici in cui i dati personali sono trattati, è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, metta in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e che impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero che comportano misure aventi tali effetti. Il processo decisionale automatizzato e la profilazione basati su categorie particolari di dati personali dovrebbero essere consentiti solo a determinate condizioni”. 

[21]L’Intelligenza Artificiale come banco dei pegni, si va coi gioielli della nonna e si riceve in cambio denari, forse combatte la miseria ma non la povertà” – con riferimento ad “una povertà di spirito “ perché “anche la speranza abbiamo dato al banco dei pegni” ha detto Paolo Crepet a margine di un intervento nei suoi abituali incontri pubblici nel lanciare l’allarme sul declino cognitivo dei giovani i quali, in base ad uno studio specifico,  sono risultati estremamente dipendenti dai chatbot, tanto da portarlo a dire che “ stiamo diventando degli idioti isolati!.

Articoli simili

LEAVE A REPLY

Please enter your comment!
Please enter your name here

News

Commenti