Perché l'IA verificata è indispensabile per i settori regolamentati

I modelli di IA generici producono allucinazioni, diventano obsoleti e non forniscono fonti. Per i settori regolamentati è inaccettabile. L'IA verificata risolve questi problemi con un'architettura basata su fonti e verificabile.

Un avvocato chiede a ChatGPT una sentenza del Tribunale federale in materia di diritto locativo. Il sistema fornisce una risposta dettagliata con numero di procedimento, data e sintesi. Tutto sembra plausibile. Solo che la sentenza non esiste. Il numero di procedimento è inventato. La data appartiene a un caso completamente diverso. L’avvocato, che non verifica la risposta, cita la sentenza fittizia nella sua memoria difensiva.

Non si tratta di un avvertimento teorico. È uno schema documentato. Negli Stati Uniti, avvocati sono stati sanzionati per aver citato sentenze inesistenti generate dall’IA. In Svizzera casi analoghi non sono ancora emersi pubblicamente, ma le premesse per tali errori esistono ogni volta che si impiegano modelli di IA generici per il lavoro specialistico regolamentato.

Il problema delle allucinazioni

I grandi modelli linguistici come GPT-4, Claude e Gemini sono tecnologie impressionanti. Possono riassumere testi, tradurre lingue, scrivere codice e rispondere a domande complesse. Tuttavia, hanno una caratteristica fondamentale che diventa problematica per i settori regolamentati: inventano cose.

Ciò non avviene per malafede o negligenza. È una proprietà tecnica dell’architettura. I modelli linguistici generano testo prevedendo la parola successiva più probabile, sulla base di pattern nei dati di addestramento. Quando i dati di addestramento non contengono informazioni su una domanda specifica, il modello genera comunque una risposta. Non dice “non lo so”. Produce testo che suona statisticamente plausibile, ma che può essere fattualmente errato.

Nell’uso quotidiano questo è spesso accettabile. Se un testo di marketing non è stilisticamente perfetto o un riassunto trascura una sfumatura, le conseguenze sono limitate. Nei settori regolamentati le conseguenze possono essere gravi.

Nel diritto: una citazione errata può invalidare una memoria difensiva, compromettere un processo e avere conseguenze disciplinari.

Nella consulenza finanziaria: una valutazione normativa errata può portare a violazioni della compliance sanzionate con multe elevate.

Nella fiduciaria: un calcolo fiscale errato può generare imposte supplementari, interessi di mora e sanzioni fiscali.

Nel settore farmaceutico: un’interpretazione errata di una disposizione di autorizzazione può compromettere l’intero processo di immissione sul mercato.

Il costo di un’allucinazione supera di gran lunga il beneficio dell’IA.

Tre carenze dei modelli di IA generici

L’allucinazione è il problema più evidente, ma non l’unico. Per i settori regolamentati, i modelli di IA generici presentano tre carenze fondamentali.

Carenza 1: nessuna attribuzione delle fonti. Quando un modello linguistico generico fornisce una risposta, non può indicare da dove proviene l’informazione. Non può fare riferimento a uno specifico articolo di legge, a una concreta sentenza o a una determinata circolare FINMA. Per i professionisti che devono documentare il proprio lavoro con le fonti, questo è un criterio di esclusione. Un parere legale senza indicazione delle fonti non è un parere legale. Un calcolo fiscale senza riferimento alla disposizione pertinente non è verificabile. Un rapporto di compliance senza basi documentate è privo di valore.

Carenza 2: informazioni obsolete. I modelli linguistici vengono addestrati con un set di dati fisso. Dopo l’addestramento, il modello non apprende nulla di nuovo. La legge tributaria modificata nel gennaio 2026 è invisibile per un modello con dati di addestramento fino a metà 2025. La nuova circolare FINMA, la giurisprudenza aggiornata del Tribunale federale, l’ordinanza rivista: nulla di tutto ciò esiste per il modello. In un settore dove l’attualità della base giuridica è determinante, questa carenza rende i modelli generici inaffidabili.

Carenza 3: nessuna verificabilità. I modelli di IA generici sono scatole nere. Non possono spiegare come sono arrivati a una risposta. Non possono rendere trasparente il proprio processo decisionale. Non possono documentare una catena di evidenze dall’input all’output. Per i settori regolamentati, dove la verificabilità e la tracciabilità sono requisiti centrali, questo è inaccettabile. L’EU AI Act renderà questo requisito vincolante per i sistemi di IA ad alto rischio a partire da agosto 2026.

Cosa fa diversamente l’IA verificata

L’IA verificata non è un termine di marketing. È un principio architetturale. Descrive sistemi di IA costruiti in modo che ogni output possa essere ricondotto a fonti verificate.

Base dati verificata. Invece di affidarsi a dati di addestramento non strutturati provenienti da Internet, l’IA verificata lavora con una base di conoscenza curata da fonti autorevoli. Per il diritto svizzero questo significa: legislazione federale da Fedlex, leggi cantonali da fonti ufficiali, sentenze del Tribunale federale e dei tribunali cantonali, pubblicazioni normative di FINMA, SECO e altre autorità. Ogni fonte è documentata, ogni aggiornamento è tracciabile.

Attribuzione delle fonti per ogni output. Ogni risposta del sistema contiene riferimenti alle fonti concrete su cui si basa. L’utente può consultare la fonte originale e verificare la correttezza della risposta. Nessun affidamento sulla plausibilità. Verifica sulla base della fonte.

Aggiornamento continuo. La base di conoscenza viene aggiornata costantemente. Nuove leggi, nuove sentenze, nuove disposizioni normative vengono acquisite e integrate nel database. Il sistema lavora sempre con lo stato aggiornato delle basi giuridiche.

Dati strutturati. Le leggi non sono semplice testo. Hanno una struttura gerarchica: libri, titoli, capitoli, articoli, capoversi. Le sentenze hanno metadati: tribunale, data, numero di procedimento, ambito giuridico, disposizioni applicate. L’IA verificata preserva questa struttura e consente interrogazioni precise al giusto livello di granularità.

Verificabilità. Ogni interrogazione, ogni retrieval, ogni output generato viene protocollato. La catena di evidenze dall’input all’output è documentata. Per gli audit, per il controllo qualità interno, per la tracciabilità verso clienti e autorità.

La differenza nella pratica

Confrontiamo lo stesso caso d’uso con IA generica e con IA verificata.

La domanda: “Quali termini si applicano per l’impugnazione di una tassazione nel Canton Zurigo?”

IA generica: genera una risposta che potrebbe essere corretta, potrebbe essere obsoleta, potrebbe riguardare il Cantone sbagliato. Nessuna indicazione delle fonti. Il professionista deve verificare manualmente l’intera risposta, il che spesso richiede più tempo della ricerca da zero.

IA verificata: recupera le disposizioni pertinenti dalla legge tributaria del Canton Zurigo, fa riferimento ai paragrafi specifici, mostra i termini con l’indicazione esatta della fonte, collega alla versione vigente della legge e riporta le sentenze del Tribunale federale rilevanti per il calcolo dei termini. Il professionista può utilizzare la risposta immediatamente e, se necessario, verificare le fonti nell’originale.

La differenza non è graduale. È fondamentale. Nel primo caso l’IA è un fattore di rischio. Nel secondo è uno strumento di produttività.

Le esigenze normative rafforzano la tendenza

Lo sviluppo normativo conferma che l’IA verificata non è un lusso, ma una necessità.

EU AI Act. A partire da agosto 2026, i sistemi di IA ad alto rischio devono essere trasparenti, verificabili e documentati. I modelli linguistici generici che operano come scatole nere non soddisfano strutturalmente questi requisiti. Le aziende che impiegano l’IA per applicazioni regolamentate dovranno passare a sistemi che soddisfino i requisiti di verificabilità e trasparenza.

LPD. La Legge federale sulla protezione dei dati richiede trasparenza nelle decisioni individuali automatizzate e la possibilità per le persone interessate di esprimere il proprio punto di vista. Se un sistema di IA fornisce la base per una decisione, deve essere tracciabile su quale base dati si fonda la raccomandazione.

Regolamentazione settoriale. FINMA, Swissmedic e altri regolatori settoriali pongono crescenti requisiti sull’impiego dell’IA nei loro ambiti di vigilanza. Verificabilità, tracciabilità e basi dati documentate stanno diventando requisiti standard.

La decisione strategica

Per le aziende nei settori regolamentati non si pone la domanda se utilizzare l’IA. Il guadagno di efficienza è troppo grande per essere ignorato. La domanda è quale tipo di IA utilizzare.

I modelli di IA generici offrono ampia funzionalità a costi contenuti, ma creano rischi di compliance, richiedono verifica manuale e non producono risultati verificabili. L’IA verificata richiede un’infrastruttura specializzata, ma offre l’attribuzione delle fonti, l’attualità e la verificabilità di cui i settori regolamentati hanno bisogno.

Le aziende che oggi puntano sull’IA verificata costruiscono un vantaggio competitivo. Possono utilizzare l’IA in modo produttivo senza incorrere in rischi di compliance. Possono fornire ai propri clienti risultati tracciabili. Sono preparate per i requisiti normativi di domani.

Enclava è la piattaforma svizzera per l’IA verificata nei settori regolamentati. Basi di conoscenza con attribuzione delle fonti, ospitate in Svizzera, con oltre 27'000 leggi e 1,1 milioni di sentenze. Ogni output è tracciabile. Ogni fonte è verificata. Ogni processo è verificabile.

Informatevi su enclava.ch oppure contattateci all’indirizzo [email protected].

Torna al blog

Articoli correlati