4° Contenuto riservato: Allucinazioni dell’IA e responsabilità professionale: cosa deve sapere il commercialista

PROFESSIONISTI E PROFESSIONE

DI FEDERICO LOFFREDO | 1 APRILE 2026

La sentenza del Tribunale di Siracusa n. 338/2026 apre un fronte nuovo anche per la professione contabile: usare l’intelligenza artificiale senza verificare gli output non è più tollerabile, né sul piano processuale né su quello deontologico.

Il caso che ha fatto discutere

Il 20 febbraio 2026 il Tribunale di Siracusa ha depositato la sentenza n. 338, destinata a diventare un riferimento obbligato per chiunque utilizzi l’intelligenza artificiale nell’esercizio di una professione intellettuale.

La vicenda è semplice nella sua dinamica: in una causa civile per inadempimento contrattuale, la difesa dell’attore aveva citato quattro sentenze della Corte di Cassazione, trascrivendone interi brani tra virgolette. Il giudice ha verificato – cosa che nessun avvocato aveva fatto prima – che quelle sentenze non esistessero. Nessuna delle quattro pronunce richiamava il testo citato, e le questioni giuridiche affrontate erano del tutto estranee alla materia del contendere.

L’unica spiegazione plausibile era il ricorso acritico a un sistema di intelligenza artificiale generativa, senza alcuna verifica delle fonti primarie. Il risultato è stato una condanna per responsabilità aggravata ai sensi dell’art. 96 c.p.c.

Perché interessa anche noi commercialisti

La sentenza riguarda formalmente il mondo forense, ma il principio che stabilisce è di portata generale: chi utilizza l’IA generativa nella produzione di documenti tecnici con rilevanza esterna – pareri, relazioni, perizie, analisi di bilancio, memorie difensive in sede tributaria – non può delegare all’algoritmo la responsabilità del contenuto.

Per il dottore commercialista questo significa riflettere sull’uso dell’IA in almeno quattro contesti ad alto rischio:

  1. pareri fiscali e tributari con richiamo a norme o circolari;
  2. relazioni ex art. 2501-bis c.c. in operazioni straordinarie;
  3. perizie di stima e analisi di bilancio depositate in giudizio;
  4. ricorsi tributari e memorie davanti alle Corti di giustizia tributaria.

In tutti questi casi, un output dell’IA non verificato può contenere riferimenti normativi inesistenti, massime giurisprudenziali inventate, dati numerici errati. Le conseguenze non sono solo processuali: incidono sulla responsabilità civile ex art. 2236 c.c., sul profilo disciplinare davanti all’Ordine e sulla reputazione professionale.

Il fenomeno delle “allucinazioni”: di cosa si tratta

I moderni sistemi di intelligenza artificiale generativa – ChatGPT, Claude, Gemini e simili – sono modelli linguistici di grandi dimensioni (LLM, Large Language Model) addestrati a produrre testi plausibili, non testi veri. Non consultano banche dati in tempo reale. Non “ricordano” precedenti giurisprudenziali. Generano sequenze di parole statisticamente coerenti con il contesto fornito dall’utente.

Quando vengono interrogati su questioni specialistiche – come la giurisprudenza della Cassazione su un istituto civilistico, o le circolari dell’Agenzia delle Entrate su un regime fiscale – possono produrre risposte che sembrano autorevoli e precise, complete di numeri di sentenza, date, massime virgolettate. Ma quei riferimenti possono essere interamente inventati. È il fenomeno delle “allucinazioni”: output verosimili ma falsi, generati perché il modello è ottimizzato per la plausibilità, non per la verità.

Secondo una ricerca dello Stanford Institute for Human-Centered AI citata nella stessa sentenza di Siracusa, i comuni chatbot generalisti forniscono risposte errate in oltre il 50% dei casi quando posti di fronte a quesiti giuridici. Anche i sistemi più avanzati basati su tecnologia RAG (Retrieval-Augmented Generation), progettati per integrare basi di conoscenza verificate, non eliminano completamente il rischio.

Lo standard di diligenza che i giudici stanno costruendo

La sentenza di Siracusa non è un episodio isolato. Negli ultimi dodici mesi si è formato un vero filone giurisprudenziale in materia di uso improprio dell’IA negli atti processuali.

Il Tribunale di Firenze (marzo 2025) ha rilevato anomalie in atti verosimilmente generati con IA, escludendo però la responsabilità aggravata perché il difensore aveva riconosciuto l’errore, chiesto lo stralcio delle citazioni errate e dimostrato che la propria linea difensiva era comunque fondata su argomenti autonomi.

Il Tribunale di Torino e il Tribunale di Latina (settembre 2025) hanno invece applicato la sanzione dell’art. 96 c.p.c. in casi di ricorsi seriali redatti “con un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e inconferenti”.

Il TAR Lombardia (ottobre 2025) ha stigmatizzato condotte analoghe nel processo amministrativo.

Il Tribunale di Ferrara, in una pronuncia coeva a quella di Siracusa, ha dichiarato irrilevante come prova processuale una “conversazione con ChatGPT” depositata agli atti, richiamando espressamente la Legge n. 132/2025 (AI Act italiano) e il Regolamento UE n. 2024/1689.

Il principio che emerge da questo insieme di pronunce è netto e sintetizzabile in poche parole:

“Non è l’uso dell’IA a essere censurato. È l’omessa verifica degli output mediante consultazione delle fonti primarie”.

Il quadro normativo: Legge n. 132/2025 e Codice deontologico CNDCEC

La dimensione normativa è ormai definita. Il Tribunale di Ferrara, nella pronuncia del 20 febbraio 2026, ha esplicitamente richiamato due fonti:

  • Il Regolamento UE n. 2024/1689 (AI Act), che ha codificato a livello sovranazionale i principi di supervisione umana (“human oversight”) e di approccio responsabile all’intelligenza artificiale (“responsible AI”) come obblighi direttamente applicabili nell’ordinamento italiano.
  • La Legge n. 132/2025 (recepimento dell’AI Act in Italia), che all’art. 13, comma 2, prevede specifici obblighi di avvertimento per i professionisti intellettuali che si avvalgono di sistemi di IA. Il Tribunale di Ferrara ha rilevato che, nel caso esaminato, neppure nella procura conferita dal ricorrente risultava traccia di tale avvertimento.

Per i commercialisti si aggiunge il Codice deontologico del CNDCEC, che impone all’iscritto di svolgere la propria attività con diligenza, competenza e aggiornamento professionale. L’uso di strumenti tecnologici senza adeguata padronanza dei loro limiti contrasta con questi obblighi. La Commissione deontologica degli Ordini locali può già oggi essere chiamata a valutare condotte di questo tipo.

Cosa fare concretamente nello studio

La risposta a questo scenario non è rinunciare all’intelligenza artificiale. Sarebbe miope e controproducente: l’IA è uno strumento di straordinaria utilità per la redazione di bozze, la sintesi di documenti, l’analisi di dati, la generazione di check-list. Il punto è adottare un protocollo di utilizzo consapevole.

  • Prima regola: non usare mai l’IA come motore di ricerca giuridico. Per trovare sentenze, circolari, risoluzioni e prassi amministrativa esistono banche dati professionali. L’IA generativa non è una banca dati: genera testo plausibile, non estrae documenti reali.
  • Seconda regola: verificare sempre ogni riferimento normativo e giurisprudenziale prodotto dall’IA prima di inserirlo in un documento destinato a terzi. Questo vale per i numeri di sentenza, i numeri di circolare, i codici normativi, le date.
  • Terza regola: documentare il processo. Tenere traccia di quali parti del documento sono state generate con l’IA e quali sono state verificate. In caso di contestazione, poter dimostrare di aver esercitato una supervisione effettiva è la differenza tra un errore scusabile e una colpa grave.
  • Quarta regola: formare il personale di studio. Le collaboratrici e i collaboratori che utilizzano l’IA per la redazione di atti devono conoscere il fenomeno delle allucinazioni e i protocolli di verifica. Come ha ricordato il caso del Tribunale di Firenze, la citazione errata era stata prodotta da una collaboratrice che si era avvalsa di ChatGPT senza verificarne gli output: la responsabilità ricade comunque sul titolare dello studio.

Conclusioni: l’IA come strumento, la responsabilità come patrimonio

La sentenza del Tribunale di Siracusa non vuole fermare l’innovazione. Lo dice esplicitamente: l’uso dell’IA è legittimo, può migliorare la qualità del lavoro professionale, aumentare l’efficienza, liberare tempo per attività ad alto valore aggiunto. Ciò che non è più tollerabile – e questo è il messaggio nuovo del 2026 – è l’affidamento cieco. Nel 2026 il fenomeno delle allucinazioni è un fatto notorio, conoscibile da qualsiasi professionista. Non saperlo non è più un’attenuante.

Per il dottore commercialista, il cui lavoro è fondato sulla fiducia del cliente e sull’autorità tecnica del parere, questo principio ha un peso specifico ancora maggiore. La reputazione professionale si costruisce con anni di lavoro e si può compromettere con un singolo documento mal controllato. L’IA può aiutarci a lavorare meglio: ma la firma in calce all’atto, quella è e resterà sempre nostra.

Riferimenti normativi:

Il contenuto di questa newsletter è strettamente riservato e destinato esclusivamente ai destinatari autorizzati.
È espressamente vietata la condivisione totale o parziale di questa comunicazione su qualsiasi piattaforma pubblica o privata, inclusi (ma non limitati a):
• Gruppi e canali Telegram
• Chat di gruppo o broadcast su WhatsApp
• Post o storie su Facebook, Instagram, X (Twitter), LinkedIn, o altri social network.

Ogni violazione di questa norma potrà comportare l’esclusione immediata dalla lista dei destinatari e, nei casi più gravi, azioni legali.

Grazie per il rispetto delle regole e per contribuire a mantenere la riservatezza delle informazioni condivise