COMMENTO
DI DAVIDE GALLO | 8 SETTEMBRE 2025
L’Intelligenza Artificiale (IA) non è più un argomento da convegni accademici o fantascienza da bar. È diventata una realtà concreta che, giorno dopo giorno, entra con discrezione ma decisione nei flussi di lavoro dei professionisti, rivoluzionando il modo in cui interpretiamo dati, prendiamo decisioni e interagiamo con i clienti.
L’evoluzione degli strumenti: da promessa a realtà
Negli ultimi dodici mesi, il panorama dell’IA ha vissuto una trasformazione radicale. I limiti di qualche anno fa – come l’assenza di aggiornamenti in tempo reale o l’incapacità di citare fonti attendibili – sono stati superati da una nuova generazione di modelli linguistici (LLM) capaci di apprendere costantemente, accedere al web e restituire risposte contestualizzate, pertinenti e verificabili.
Per esempio, un commercialista che cerca informazioni aggiornate su una modifica normativa può oggi usare strumenti come ChatGPT-4o o Gemini per ottenere un riepilogo dettagliato corredato da riferimenti normativi aggiornati. Un’operazione che prima richiedeva ore di ricerca manuale su banche dati e siti istituzionali.
Funzionalità chiave: ricerca avanzata, citazioni e multimodalità
Tra le innovazioni più rilevanti troviamo l’accesso diretto al web, la capacità di fare ricerche “profonde” (Deep Search) e l’integrazione di input multimodali (testo, immagini, audio). Immaginiamo uno studio che deve analizzare un contratto in PDF: un LLM con funzionalità multimodale può estrarre clausole fiscali critiche, sintetizzarle e suggerire eventuali criticità, tutto in un’unica sessione.
La diffusione della citazione delle fonti è un altro passo fondamentale: consente al professionista di verificare direttamente la bontà dell’informazione, superando il rischio delle cosiddette “allucinazioni”, ovvero risposte plausibili ma errate.
Oltre il limite: contesto, scalabilità e sostenibilità
I nuovi modelli sono capaci di gestire contesti lunghissimi (fino a 2 milioni di token, per Gemini), di eseguire ragionamenti articolati e di consumare meno risorse computazionali rispetto al passato. Questo significa più efficienza, ma anche meno costi e impatto ambientale.
Pensiamo ad esempio alla redazione di una perizia tecnica: l’IA può essere addestrata su documentazione specifica, analizzare bilanci, normative e giurisprudenza in simultanea, e proporre una bozza che l’esperto potrà validare e adattare.
Il nuovo web: motori di risposta, non più di ricerca
La funzione dell’IA come “motore di risposta” sta sostituendo progressivamente i classici motori di ricerca. In uno studio, questo significa meno tempo speso a vagare tra link e risultati ambigui, e più tempo a valutare risposte già sintetizzate e personalizzate.
Per esempio, una ricerca come “quali sono i benefici fiscali della rivalutazione delle partecipazioni non quotate nel 2025?” può portare in pochi secondi a una risposta dettagliata, con richiami a circolari dell’Agenzia delle Entrate e riferimenti normativi puntuali, il tutto senza uscire dalla piattaforma.
AI generaliste, specializzate e ibride: quale direzione scegliere?
Nel mondo professionale si sta delineando una triplice via: l’uso di IA generaliste (come ChatGPT), l’adozione di IA specializzate per ambiti verticali (es. normative fiscali italiane) e l’impiego di modelli ibridi personalizzati con tecnologie come RAG (Retrieval-Augmented Generation).
Per esempio, un agente AI costruito su GPT ma addestrato sui documenti dello studio può essere programmato per rispondere a quesiti ricorrenti dei clienti in tema di IVA, ritenute, scadenze fiscali, offrendo risposte coerenti e sempre aggiornate.
Deep Research: quando l’IA legge (e capisce) davvero
La Deep Research è ciò che differenzia davvero i modelli avanzati. Si tratta della capacità dell’IA di comprendere il significato profondo di una richiesta, esplorare diverse fonti (non solo web ma anche banche dati specialistiche e documenti interni), sintetizzare, verificare e restituire una risposta chiara e completa.
Prendiamo un caso pratico: “Quali sono le implicazioni fiscali per una S.p.A. che intende concedere stock option dopo le ultime modifiche legislative?”. Un’IA classica potrebbe dare una risposta vaga. Un modello con Deep Research andrebbe a pescare nelle banche dati aggiornate, individuerebbe i riferimenti alla normativa modificata, estrarrebbe le interpretazioni dell’Agenzia delle Entrate, e presenterebbe una sintesi con tanto di link ai documenti ufficiali.
Come funziona tecnicamente: vettori, RAG, grounding
Alla base di tutto ci sono meccanismi sofisticati ma potenti. L’IA trasforma i testi in vettori multidimensionali (embedding), che consentono di associare concetti simili anche se espressi in modo diverso. Inoltre, con il RAG, l’IA arricchisce la sua risposta consultando fonti esterne affidabili prima di rispondere.
Esempio concreto: alla domanda “quali sono gli obblighi di trasparenza per un ETS che riceve contributi pubblici?”, il sistema può accedere a fonti ufficiali (es. MEF, Agenzia per il Terzo Settore), selezionare le informazioni più pertinenti e generare un output che integra normativa, prassi e best practice, citando le fonti.
Quale AI scegliere?
Gli strumenti oggi disponibili sono numerosi e con diversi livelli di complessità e costo. ChatGPT è il più noto, ma Perplexity e Gemini offrono funzionalità avanzate anche gratuite. La scelta dipende dalla profondità della ricerca, dalla necessità di citazioni e dall’ambito professionale. Un piccolo studio, per esempio, può iniziare con strumenti gratuiti e poi migrare verso soluzioni premium personalizzate.
Non solo teoria: l’AI entra nella routine dei commercialisti
Contrariamente a quanto accaduto in altri settori – come il marketing o l’informatica – l’arrivo dell’Intelligenza Artificiale negli studi professionali non ha portato una rivoluzione immediata. È stato piuttosto un processo graduale, che però sta accelerando.
Nel 2022, solo alcuni pionieri iniziavano a testare i modelli linguistici. Oggi invece, sempre più colleghi inseriscono strumenti basati su AI nei flussi di lavoro: per scrivere e-mail, rivedere testi, cercare riferimenti normativi, organizzare idee o simulare pareri. Non si tratta di sostituire l’esperto umano, ma di dotarlo di un “assistente invisibile” sempre disponibile, veloce e imparziale.
Un esempio? Redigere una risposta a un interpello in materia di superbonus: l’AI può aiutare a strutturare la scaletta, indicare i riferimenti normativi aggiornati, suggerire l’inquadramento tecnico-fiscale e individuare eventuali precedenti. Il commercialista resta al centro, ma con un supporto strategico che riduce errori e tempi.
L’importanza della supervisione professionale
Uno dei timori più ricorrenti – e legittimi – legati all’uso dell’AI è quello di ricevere risposte errate o fuorvianti. Ed è vero: anche i modelli più avanzati possono commettere errori, specialmente in ambiti tecnici complessi. Per questo, la validazione da parte del professionista resta imprescindibile.
Il valore dell’AI, quindi, non sta nel “fare al posto nostro”, ma nel velocizzare la ricerca e l’analisi, lasciando a noi il compito cruciale di interpretare, decidere, consigliare. In questo senso, l’AI può essere vista come un’estensione della nostra intelligenza, non come un suo surrogato.
Generalisti, specializzati o agenti?
Sul mercato oggi esistono tre approcci:
- LLM generalisti come ChatGPT o Claude 3, che offrono grande versatilità e sono ideali per compiti generici o creativi.
- AI specializzate, allenate su normative italiane e banche dati settoriali, pensate per rispondere con maggiore precisione su ambiti come fisco, diritto del lavoro, bilancio.
- Agenti personalizzati, cioè LLM generalisti modificati per compiti specifici (es. un “agente” addestrato solo sulle circolari INPS o sulla prassi catastale).
Nel contesto di uno studio professionale, la soluzione ideale può essere una combinazione delle tre: utilizzare ChatGPT per il brainstorming, un motore specializzato per le questioni normative, e creare agenti personalizzati per i task più ripetitivi.
Deep Research: l’AI che pensa prima di rispondere
La vera novità del 2025 è la capacità dell’AI di eseguire ricerche complesse, strutturate e ragionate. I sistemi dotati di Deep Research, come ChatGPT-4.5, Gemini Advanced o Perplexity, sono progettati per analizzare a fondo la richiesta dell’utente, esplorare database esterni, confrontare fonti e generare una risposta affidabile, strutturata e citata.
Vediamolo con un esempio reale: un cliente chiede “Come cambia la fiscalità dei fringe benefit aziendali nel 2025, dopo le ultime modifiche?”
Un’AI con Deep Research:
• Interpreta la domanda,
• Consulta fonti ufficiali (Agenzia delle Entrate, Gazzetta Ufficiale, comunicati MEF),
• Verifica eventuali circolari esplicative,
• Riassume il tutto,
• Restituisce una risposta chiara, con link cliccabili alle fonti primarie.
Tutto in pochi minuti, senza bisogno di passare ore tra siti istituzionali, PDF e forum.
Architettura intelligente: come lavora un motore con Deep Research
La potenza dell’IA risiede anche nella sua struttura interna. Un sistema con Deep Research lavora su più livelli:
- Comprende la domanda (non solo parole chiave, ma contesto e intento),
- Accede a molteplici fonti (anche riservate, tramite API o documenti interni),
- Valuta la qualità delle informazioni (rilevanza, coerenza, aggiornamento),
- Elabora una sintesi e produce una risposta strutturata, spesso con citazioni.
Nel caso dello studio professionale, questo permette di trattare anche casistiche complesse (es. interpelli, contenziosi, trust) con maggiore precisione e rapidità.
Vettori, embedding e ricerca semantica: la tecnologia dietro le quinte
Nel linguaggio tecnico, tutto questo è possibile grazie a embedding semantici, ovvero rappresentazioni numeriche dei concetti, che permettono all’AI di riconoscere significati simili anche se espressi con parole diverse.
Un esempio concreto:
“telelavoro” e “smart working” sono semanticamente simili, pur essendo termini diversi. Un motore tradizionale potrebbe non capirlo. Un modello basato su embedding, invece, li posiziona vicini nello “spazio concettuale”, e può quindi restituire risultati pertinenti anche se la query usa sinonimi o formule meno comuni.
Questo è particolarmente utile per chi lavora con testi normativi, dove la terminologia può variare tra fonti diverse.
RAG: quando l’AI “studia prima di parlare”
Un ulteriore passo avanti è rappresentato dal Retrieval-Augmented Generation (RAG), una tecnica che permette all’AI di cercare documenti esterni prima di formulare una risposta.
Per il professionista, questo significa che l’AI può:
- Analizzare una circolare dell’Agenzia delle Entrate appena pubblicata,
- Confrontarla con prassi precedenti,
- E produrre un riassunto comparativo, utile per preparare una comunicazione al cliente.
In questo modo, la generazione di contenuti non è solo creativa, ma basata su dati “freschi” e pertinenti.
Verifica, aggiornamento, grounding
I modelli di nuova generazione integrano anche funzioni di:
- Grounding: ogni informazione è ancorata a una fonte concreta.
- Verifica incrociata: vengono confrontate fonti differenti per ridurre il margine d’errore.
- Aggiornamento continuo: i sistemi si alimentano in tempo reale, evitando di fornire risposte basate su dati obsoleti.
Questo approccio è perfetto per ambiti dove l’aggiornamento normativo è costante, come il diritto tributario o le agevolazioni alle imprese.
Confronto pratico: l’effetto sul lavoro quotidiano
Ecco due scenari a confronto.
Scenario 1 – AI “classica”
Domanda: “Come trattare fiscalmente una stock option in una SPA?”
Risposta: generica, basata su testi datati, priva di riferimenti normativi recenti.
Scenario 2 – AI con Deep Research
- Analizza il testo della legge aggiornata,
- Recupera interpretazioni dell’Agenzia,
- Integra commenti di esperti,
- Cita le fonti,
- Spiega le implicazioni pratiche.
Questo non solo migliora l’efficienza, ma soprattutto riduce i margini di errore e aumenta la qualità della consulenza offerta.
Una rivoluzione già in atto, ma non ancora compresa da tutti
Non tutti gli studi professionali sono pronti ad abbracciare la trasformazione innescata dall’Intelligenza Artificiale. Spesso ci si concentra sulle criticità – il rischio di errori, la necessità di validazione, la curva di apprendimento – senza cogliere appieno le straordinarie opportunità che essa porta con sé.
Eppure, la rivoluzione è già iniziata. L’AI non è più un elemento accessorio o sperimentale: sta diventando l’asse portante di una nuova organizzazione del lavoro, in cui efficienza, precisione e velocità non sono più appannaggio dei grandi studi o dei consulenti tecnologici, ma accessibili a tutti.
Chi non saprà cogliere questa occasione rischia di restare indietro, non tanto per mancanza di competenze, quanto per l’incapacità di adattarsi a un cambiamento che non è più futuro, ma presente. La sfida non è adottare l’AI, ma integrarla con consapevolezza per farne il vero motore del valore aggiunto professionale.
Il contenuto di questa newsletter è strettamente riservato e destinato esclusivamente ai destinatari autorizzati.
È espressamente vietata la condivisione totale o parziale di questa comunicazione su qualsiasi piattaforma pubblica o privata, inclusi (ma non limitati a):
• Gruppi e canali Telegram
• Chat di gruppo o broadcast su WhatsApp
• Post o storie su Facebook, Instagram, X (Twitter), LinkedIn, o altri social network.
Ogni violazione di questa norma potrà comportare l’esclusione immediata dalla lista dei destinatari e, nei casi più gravi, azioni legali.