Perché l’IA funziona diversamente nei settori regolamentati
Nell’ottobre 2025 OpenAI ha aggiornato le proprie condizioni d’uso. Da allora, ChatGPT non può più fornire raccomandazioni personalizzate in ambito legale, medico o finanziario. Anthropic ha restrizioni simili. Google Gemini pure.
Non è una svista. È una decisione deliberata delle più grandi aziende di IA al mondo. E ha conseguenze di vasta portata per chiunque voglia impiegare l’IA in un settore regolamentato.
Cosa i modelli di frontiera non faranno
I grandi modelli linguistici (GPT-4, Claude, Gemini) sono di una versatilità impressionante. Scrivono codice, riassumono testi, traducono, analizzano dati. Ma hanno un limite strutturale: rifiutano la consulenza specialistica nei settori regolamentati.
Chiedete a ChatGPT: «Il mio contratto di lavoro è stato validamente disdetto ai sensi dell’art. 336c CO?» La risposta: «Non sono un avvocato e non posso fornire consulenza legale. Vi prego di consultare un professionista del diritto.»
Chiedete a Claude: «Quali circolari FINMA riguardano il mio accordo di outsourcing?» La risposta resterà generica e vi rimanderà a professionisti qualificati.
È razionale. Per i fornitori di questi modelli, il rischio di responsabilità è troppo elevato. Un consiglio legale errato che causa un danno potrebbe innescare cause miliardarie. Quindi inseriscono delle protezioni.
Il modello delle partnership
Cosa fanno queste aziende al loro posto? Stringono partnership con esperti di dominio.
OpenAI ha annunciato partnership con Thomson Reuters (informazioni legali), il Financial Times (contenuti giornalistici) e vari fornitori di dati medici. Anthropic collabora con fornitori specializzati che mettono a disposizione fonti di dati verificate.
Il modello è chiaro: l’IA di frontiera fornisce l’elaborazione linguistica. Il partner di dominio fornisce i dati verificati. Insieme creano un sistema che è sia linguisticamente competente sia sostanzialmente corretto.
Ma: chi è il partner di dominio per il diritto svizzero? Per il diritto fiscale svizzero? Per la regolamentazione FINMA?
Perché l’IA generalista fallisce nei settori regolamentati
Non è solo una questione di condizioni d’uso. Esistono ragioni strutturali per cui un modello linguistico generalista è inadatto alle professioni regolamentate.
Nessuna verifica delle fonti. Un modello linguistico genera testo in base a probabilità. Non «sa» se un articolo esiste. «Ricorda» testi di addestramento e produce risposte che suonano plausibili. Plausibile non basta nella consulenza legale. O l’art. 336c CO dice qualcosa di preciso, o non lo dice. Non esiste un «probabilmente».
Ritardo dei dati di addestramento. GPT-4 è stato addestrato con dati fino a una certa data limite. Le circolari FINMA pubblicate dopo quella data non esistono per il modello. Le modifiche legislative cantonali entrate in vigore la settimana scorsa non sono coperte. In un mondo in cui la regolamentazione cambia settimanalmente, un modello con mesi di ritardo è inutilizzabile per le questioni attuali.
Nessuna differenziazione cantonale. Un modello addestrato su dati globali conosce forse il concetto generale di «doppia imposizione intercantonale». Ma non conosce la pratica specifica del Canton Svitto per le società holding rispetto al Canton Zugo. Questa differenziazione non esiste nei dati di addestramento con sufficiente profondità.
Allucinazioni. I modelli linguistici producono contenuti grammaticalmente corretti e contestualmente plausibili, ma fattualmente errati. Nella programmazione è fastidioso. Nella consulenza legale è pericoloso. Una sentenza del Tribunale federale inventata che un avvocato inserisce in una memoria danneggia il mandante e la reputazione dell’avvocato.
Cosa significa «verificato alle fonti»
Il contro-modello all’IA generalista è un sistema basato esclusivamente su fonti ufficiali verificate. Non «il modello crede che…» ma «l’art. 336c cpv. 1 lett. b CO recita: …» con un link diretto al diritto federale su Fedlex.
Un sistema verificato alle fonti ha tre proprietà:
Ogni risposta rimanda a una fonte verificabile. Nessun testo di legge senza link Fedlex. Nessuna decisione giudiziaria senza numero di dossier e data della decisione. Nessuna affermazione FINMA senza riferimento documentale. L’utente può verificare ogni affermazione nella fonte originale.
I dati provengono da fonti governative ufficiali. Non da Wikipedia. Non da post di blog. Non da riassunti di terzi. Direttamente da Fedlex, dalle raccolte legislative cantonali, dalle API dei tribunali, dal sito della FINMA. Fonti primarie, non letteratura secondaria.
I dati vengono aggiornati continuamente. Non annualmente. Non mensilmente. Nella configurazione ideale: quotidianamente. Quando Fedlex modifica una legge, la modifica appare nel sistema il giorno dopo. Quando il Tribunale federale pubblica una decisione, viene acquisita entro 24 ore.
Il ruolo dell’IA in un sistema verificato alle fonti
Se i dati sono verificati, cosa fa l’IA? Tre cose:
Ricerca oltre le parole chiave. La ricerca semantica trova risultati sostanzialmente pertinenti, anche se non contengono le parole chiave inserite. «Protezione contro il licenziamento in caso di malattia» trova l’art. 336c CO, anche se l’utente non conosce il numero dell’articolo. L’IA comprende la domanda; la fonte fornisce la risposta.
Collegamento trasversale tra ambiti giuridici. Una circolare FINMA rinvia alla legge sulle banche. La legge sulle banche rinvia all’ordinanza sulle banche. Una decisione del Tribunale federale interpreta l’ordinanza. L’IA rende visibili queste connessioni che esistono nelle fonti come riferimenti testuali, ma che richiedono ore di ricerca manuale senza assistenza tecnica.
Riassunto e contestualizzazione. L’IA può riassumere una decisione di 30 pagine in 5 paragrafi. Ma il riassunto rinvia al passaggio originale nella decisione. L’utente può passare al testo integrale in qualsiasi momento.
La sovranità dei dati come presupposto
Per avvocati, fiduciari e responsabili della compliance svizzeri, la questione di dove risiedono i dati non è negoziabile.
L’art. 13 LLCA (legge sulla libera circolazione degli avvocati) obbliga gli avvocati al segreto professionale. Inviare una richiesta di ricerca contenente dati del mandante a un server statunitense è una potenziale violazione.
Gli art. 16-17 LPD disciplinano la comunicazione transfrontaliera di dati personali. Ogni richiesta a un’API di IA che contiene dati personali e viene elaborata su un server fuori dalla Svizzera deve soddisfare i requisiti per la comunicazione transfrontaliera.
Il US CLOUD Act conferisce alle autorità statunitensi l’accesso ai dati archiviati da aziende USA, indipendentemente dal luogo di archiviazione. «Dati in Svizzera» presso un fornitore americano non è una garanzia.
Un sistema che lavora con dati verificati alle fonti E che è ospitato in Svizzera elimina strutturalmente questi rischi. Nessun dato lascia la Svizzera. Nessun fornitore statunitense vi ha accesso. Nessuna comunicazione transfrontaliera necessaria.
Chi sta costruendo questo?
Il mercato dell’IA specializzata nei settori regolamentati cresce in modo esplosivo. Nel marzo 2026, 750 milioni di dollari sono confluiti in startup di Legal AI. Harvey (USA) è valutata 11 miliardi di dollari. Legora (ex EvenUp) a 5,5 miliardi. Swiss-Noxtua sta costruendo un’IA giuridica germanofona.
Ma: Harvey si concentra sul diritto statunitense e britannico. Legora pure. Swiss-Noxtua lavora tramite editori, non tramite fonti governative. Nessuno di loro offre la combinazione di diritto svizzero, diritto fiscale svizzero, regolamentazione FINMA e copertura cantonale.
Il panorama regolamentare svizzero è sufficientemente complesso da giustificare un fornitore specializzato. 26 cantoni, quattro lingue, un sistema federale con legislazione autonoma a ogni livello. Un fornitore globale non può coprire tutto ciò. Serve un’infrastruttura dati locale.
Il EU AI Act come catalizzatore
Il 2 agosto 2026 entrano in vigore i requisiti per i sistemi ad alto rischio del EU AI Act. Ogni impresa svizzera che impiega sistemi di IA sul mercato UE deve presentare documentazione tecnica, sistemi di gestione dei rischi e valutazioni di conformità. I modelli di IA generalisti non aiutano a soddisfare questi requisiti. Al contrario: un sistema che allucina è un rischio di compliance.
I sistemi verificati alle fonti, che forniscono risposte tracciabili, sono il mattone fondamentale per la compliance IA nei settori regolamentati. Non perché «verificato» suona bene. Ma perché la regolamentazione lo esige.
Conclusione
I modelli di IA di frontiera miglioreranno. Diventeranno più veloci. Più versatili. Ma non si assumeranno la responsabilità di dirvi se il vostro contratto di lavoro è stato validamente disdetto, se la vostra banca attua correttamente la circolare FINMA 2023/1, o se il vostro mandante è soggetto a doppia imposizione in tre cantoni.
Per queste domande servono sistemi specializzati. Sistemi basati su fonti ufficiali. Sistemi che rendono ogni risposta verificabile. Sistemi che restano in Svizzera.
L’IA generalista risolve problemi generali. I settori regolamentati hanno problemi specifici. La differenza non risiede nell’IA. Risiede nei dati.
CTA: [Abbonatevi alla nostra newsletter: analisi e aggiornamenti sull’IA nei settori regolamentati.]