Fate una domanda giuridica a ChatGPT e otterrete una risposta sicura e ben strutturata. Citera principi, fara riferimento a concetti e sembrera sapere di cosa parla. Poi aggiungera un disclaimer: “Non sono un avvocato e questa non e consulenza legale.”
Quel disclaimer non e cortesia. E una policy. E dietro si nasconde un problema fondamentale che la maggior parte dei professionisti non ha pienamente afferrato.
Il divieto che non avete notato
Nell’ottobre 2025, OpenAI ha aggiornato le sue politiche d’uso per vietare esplicitamente l’uso di ChatGPT per consulenza legale, medica e finanziaria personalizzata. Anthropic (Claude) e Google (Gemini) hanno restrizioni simili. Queste non sono suggerimenti. Sono termini di servizio che, se violati, possono comportare la chiusura dell’account.
Il ragionamento e semplice. I modelli linguistici generici sono addestrati su ampi dati internet. Non hanno accesso a banche dati giuridiche aggiornate. Non possono verificare se una legge e stata modificata, abrogata o superata. Non conoscono la vostra giurisdizione, le vostre circostanze specifiche o i requisiti procedurali che potrebbero applicarsi al vostro caso.
Quando ChatGPT vi parla del diritto locativo svizzero, potrebbe fare riferimento al CO (Codice delle obbligazioni) correttamente a livello generale. Ma non sapra che il vostro cantone ha disposizioni di attuazione specifiche. Non sapra della recente decisione del Tribunale federale che ha cambiato l’interpretazione dell’Articolo 271. Non segnalera che il termine di preavviso differisce a seconda di quando e stato firmato il contratto di locazione. Non citera i numeri di articolo effettivi con sicurezza, perche non e stato addestrato su una banca dati giuridica strutturata. E stato addestrato su internet.
Per una domanda casuale, questo va bene. Per un professionista che si affida alla risposta, e pericoloso.
Il problema delle allucinazioni
I modelli linguistici generano testo predicendo la parola successiva piu probabile in una sequenza. Sono ottimizzati per la fluidita, non per l’accuratezza. Questo crea una modalita di fallimento specifica nei contesti giuridici: la fabbricazione sicura.
Gli studi lo hanno documentato ampiamente. Nel 2023, un avvocato di New York ha presentato un atto giudiziario contenente sei citazioni di casi fabbricati generati da ChatGPT. I casi non esistevano. I tribunali non esistevano. Il modello li aveva inventati perche suonavano plausibili. L’avvocato e stato sanzionato.
Questo non e un caso limite raro. Una ricerca dello Stanford Human-Centered AI Institute ha rilevato che gli strumenti IA giuridici hanno allucinazioni tra il 17% e il 33% delle volte quando generano citazioni di casi. I modelli generici hanno prestazioni peggiori degli strumenti giuridici specializzati, ma anche gli strumenti specializzati hanno tassi di errore significativi.
Nel diritto svizzero, il problema e aggravato dal multilinguismo. Le leggi federali esistono in tedesco, francese e italiano, con ogni versione linguistica che e autorevole. Un modello addestrato principalmente su dati in lingua inglese avra una copertura superficiale dei testi giuridici svizzeri, in particolare del diritto cantonale e delle decisioni dei tribunali inferiori che hanno meno probabilita di apparire nei suoi dati di addestramento.
Cosa serve veramente ai professionisti
Il divario tra cio che ChatGPT offre e cio di cui i professionisti legali hanno bisogno non riguarda l’intelligenza. Riguarda l’infrastruttura.
Fonti attuali e verificate. Il diritto svizzero cambia costantemente. Le leggi federali vengono modificate attraverso il processo parlamentare. I regolamenti cantonali si aggiornano con calendari diversi. Le decisioni giudiziarie creano nuove interpretazioni. Le circolari FINMA vengono riviste. Un’IA giuridica utile deve lavorare da una banca dati continuamente aggiornata e verificata rispetto alle fonti governative ufficiali.
Attribuzione delle fonti. Quando un professionista cita una disposizione legale, ha bisogno dell’articolo, del paragrafo e del sottoparagrafo esatti. Ha bisogno del numero RS. Ha bisogno di sapere se la disposizione e stata modificata dall’ultimo controllo. Un sistema che dice “secondo il diritto svizzero” senza indicare la disposizione specifica e inutile nella pratica professionale.
Consapevolezza giurisdizionale. La Svizzera ha 26 cantoni, ciascuno con il proprio diritto processuale, diritto tributario e regolamenti amministrativi. Una domanda sui permessi di costruzione a Zurigo ha una risposta fondamentalmente diversa dalla stessa domanda in Ticino. L’IA generica non ha alcun meccanismo per gestire questa granularita.
Grafi di citazioni. Le disposizioni legali non esistono in isolamento. Un singolo articolo del CO potrebbe essere interpretato da dozzine di decisioni del Tribunale federale, citato in circolari FINMA e modificato da ordinanze di attuazione cantonali. I professionisti hanno bisogno di vedere queste relazioni. Un elenco piatto di risultati di ricerca e insufficiente.
Copertura multilingue. Un avvocato di Losanna che lavora in francese ha bisogno della versione in lingua francese della legge, delle decisioni giudiziarie in lingua francese e della capacita di incrociare con la versione in lingua tedesca quando il testo francese e ambiguo. Questo non e un problema di traduzione. E un problema di architettura dei dati.
L’ascesa dell’IA giuridica specifica per dominio
Il mercato ha riconosciuto questa lacuna. Una nuova categoria di strumenti IA sta emergendo: sistemi specifici per dominio costruiti da zero per il lavoro giuridico.
Harvey, valutata 8-11 miliardi di dollari, e diventato l’esempio piu prominente. Acquisisce la conoscenza degli studi legali, si connette a banche dati giuridiche e fornisce ricerca giuridica assistita dall’IA con attribuzione delle fonti. Legora, valutata 1,8 miliardi di dollari, adotta un approccio simile per i mercati giuridici europei. Nel mondo germanofono, Noxtua si e assicurata i diritti esclusivi sui principali commentari giuridici.
Questi strumenti rappresentano un miglioramento significativo rispetto all’IA generica. Lavorano da banche dati giuridiche verificate. Forniscono citazioni. Comprendono la struttura e la gerarchia giuridica.
Ma condividono una limitazione: sono strumenti mono-settoriali. Harvey fa il legale. Tutto qui. Quando un avvocato incontra una questione fiscale incorporata in una revisione contrattuale, o un problema di conformita che abbraccia regolamentazione bancaria e diritto societario, raggiunge il confine di cio che uno strumento solo legale puo fare.
Cosa risolverebbe davvero il problema
La soluzione non e un chatbot migliore. E un’architettura completamente diversa: IA specifica per dominio che lavora da basi di conoscenza strutturate, verificate e continuamente aggiornate che coprono l’intera gamma della conoscenza regolamentata.
Questo e l’approccio noto come Retrieval-Augmented Generation, o RAG. Invece di affidarsi ai dati di addestramento di un modello (che sono statici, non verificati e incompleti), i sistemi RAG recuperano informazioni pertinenti da banche dati curate prima di generare una risposta. Ogni risposta e fondata su un documento di origine specifico. Ogni citazione puo essere verificata. Ogni affermazione puo essere tracciata.
Per il lavoro giuridico svizzero, questo significa costruire dai dati reali: tutte le 27.795 leggi federali e cantonali, oltre un milione di decisioni giudiziarie da 115 tribunali, 1,4 milioni di archi di citazione che collegano leggi a decisioni e decisioni ad altre decisioni, il FUSC (Foglio Ufficiale Svizzero di Commercio), le pubblicazioni normative FINMA e le linee guida amministrative cantonali.
Quando un sistema RAG risponde a una domanda sul diritto locativo a Zurigo, recupera le disposizioni CO pertinenti, la legge cantonale sulla locazione applicabile, le recenti decisioni del TF (Tribunale federale) in materia e eventuali modifiche legislative in corso. La risposta include citazioni specifiche che il professionista puo verificare. Se il sistema non ha informazioni pertinenti, lo dice piuttosto che fabbricare una risposta.
La dimensione multi-settoriale
Il lavoro professionale reale non rispetta i confini settoriali. Un’acquisizione aziendale coinvolge diritto societario, diritto tributario, diritto del lavoro, diritto della concorrenza e potenzialmente regolamentazione bancaria. Una transazione immobiliare tocca diritto di proprieta, diritto urbanistico, diritto ambientale e diritto tributario.
Gli strumenti IA legali mono-settoriali costringono i professionisti a tornare alla ricerca manuale nel momento in cui escono dal dominio legale. Le piattaforme IA multi-settoriali che collegano conoscenza legale, fiscale, di conformita e normativa creano un flusso di lavoro fondamentalmente diverso: uno in cui le domande cross-dominio ottengono risposte cross-dominio, con fonti verificate in tutte le giurisdizioni pertinenti.
Dove sta andando tutto questo
Il mercato si sta muovendo velocemente. Entro due anni, usare IA non verificata per il lavoro legale professionale sara visto come ora vediamo i dati finanziari non verificati: come negligenza professionale in attesa di manifestarsi. L’AI Act dell’UE (in vigore da agosto 2026) accelerera questo richiedendo trasparenza e verificabilita per i sistemi IA ad alto rischio, che includono il supporto decisionale legale.
I professionisti che adottano strumenti IA verificati e specifici per dominio ora costruiranno flussi di lavoro che i loro concorrenti impiegheranno anni a recuperare. Coloro che continuano ad affidarsi a ChatGPT per la ricerca giuridica stanno costruendo su fondamenta che non sono mai state progettate per sostenere quel peso.
La piattaforma Enclava di Mont Virtua offre esattamente questo: basi di conoscenza IA verificate per settori regolamentati, a partire dal diritto svizzero e dalla conformita FINMA. Ogni risposta ha una fonte. Ogni citazione e reale. Ogni sistema ha hosting in Svizzera. Visitate enclava.ch per vedere la differenza tra IA generica e intelligence giuridica costruita appositamente.