La fiducia e la risorsa piu scarsa nei settori regolamentati. Ci vogliono anni per costruirla e secondi per distruggerla. Avvocati, banchieri, responsabili della conformita e professionisti medici hanno trascorso le loro carriere sviluppando giudizio, mantenendo la riservatezza e proteggendo gli interessi dei loro clienti. Chiedere loro di fidarsi di un sistema IA significa chiedere qualcosa di significativo.
La maggior parte delle aziende IA affronta questo problema con il marketing. “Sicurezza enterprise-grade.” “Certificazione SOC 2.” “Scelto dai principali studi.” Queste sono parole su un sito web. Non sono fiducia.
La fiducia nell’IA regolamentata si costruisce attraverso l’architettura. Attraverso decisioni prese a livello infrastrutturale che rendono la fiducia verificabile piuttosto che dichiarata. Questo articolo spiega le decisioni specifiche che abbiamo preso a Mont Virtua e perche.
Principio 1: Ogni output deve avere una fonte
Questo e il principio fondamentale. Senza eccezioni.
Quando Enclava afferma “L’articolo 271 CO richiede che la disdetta del contratto di locazione sia data utilizzando il modulo approvato dal cantone”, l’utente vede un link diretto all’Articolo 271 CO su Fedlex, la versione attuale, la cronologia delle modifiche e l’implementazione cantonale pertinente. Puo verificare l’affermazione in trenta secondi.
Quando il sistema dice “Il Tribunale federale ha affrontato questo tema in DTF 142 III 91”, l’utente puo cliccare per accedere alla decisione effettiva, leggere il passaggio pertinente e confermare la citazione.
Questa non e una funzionalita aggiunta dopo aver costruito il sistema. E l’architettura. Enclava utilizza la Retrieval-Augmented Generation, il che significa che ogni risposta e generata da documenti specifici recuperati. La citazione non e un ripensamento. E il meccanismo attraverso il quale la risposta e stata prodotta.
Perche questo conta: nel lavoro regolamentato, un’affermazione senza citazione non ha valore. Un avvocato non puo dire a un cliente “l’IA dice cosi”. Un responsabile della conformita non puo riferire alla FINMA “il nostro sistema ha indicato”. Ogni affermazione professionale deve essere riconducibile a una fonte autorevole. Il nostro sistema e progettato in modo che questa tracciabilita sia sempre disponibile.
Cosa evitiamo deliberatamente: generare risposte dalla conoscenza parametrica del modello. Se l’informazione non e nella nostra banca dati verificata, il sistema dice di non avere informazioni pertinenti piuttosto che generare una risposta plausibile dai dati di addestramento. Preferiamo una lacuna nella copertura a una risposta fabbricata.
Principio 2: I dati devono provenire da fonti autorevoli
La nostra banca dati giuridica e costruita esclusivamente da fonti governative ufficiali:
- Legislazione federale da Fedlex (fedlex.data.admin.ch)
- Legislazione cantonale dalle banche dati giuridiche cantonali ufficiali
- Decisioni del Tribunale federale dal portale del TF
- Decisioni del Tribunale amministrativo federale dal portale del TAF
- Circolari e linee guida FINMA dalle pubblicazioni ufficiali della FINMA
- Voci FUSC dal Foglio Ufficiale Svizzero di Commercio
- Dati parlamentari Curia Vista dall’Assemblea federale
Non facciamo scraping di blog giuridici. Non acquisiamo commenti giuridici (a meno che non siano esplicitamente licenziati). Non utilizziamo informazioni giuridiche di origine crowdsourced. Non ci affidiamo ai dati di addestramento del modello per il contenuto giuridico.
Ogni fonte di dati ha una catena di provenienza documentata: da dove provengono i dati, come vengono acquisiti, come vengono analizzati e come vengono verificati rispetto alla fonte. Questa documentazione e disponibile per i clienti durante la due diligence.
Perche questo conta: la qualita dell’output di un sistema IA e limitata dalla qualita dei dati di input. Un sistema addestrato su contenuti giuridici scraped da internet conterra errori, disposizioni obsolete e interpretazioni non ufficiali. Un sistema costruito su fonti governative ufficiali ha la stessa autorita delle fonti stesse.
La fase di verifica: dopo l’acquisizione e l’analisi, eseguiamo confronti hash rispetto alla fonte per confermare che nessun contenuto sia stato alterato durante l’elaborazione. Tracciamo i numeri di versione e le date di efficacia per garantire che gli utenti vedano sempre la versione attuale di una disposizione. Quando una disposizione viene modificata, il sistema riflette la modifica e mantiene l’accesso alla versione precedente con le date appropriate.
Principio 3: Infrastruttura svizzera, controllo svizzero
Enclava funziona su infrastruttura svizzera. Non “data center svizzero gestito da un’azienda statunitense”. Infrastruttura svizzera gestita da un’azienda svizzera.
I dettagli:
- Entita giuridica: Mont Virtua GmbH, costituita a Zugo, Svizzera. Nessuna societa madre, sussidiaria o azionista di controllo statunitense.
- Infrastruttura di calcolo: Cloud GPU svizzero (Exoscale, con data center a Ginevra e Zurigo). Nessuna dipendenza da AWS, Azure o GCP.
- Modelli IA: Modelli open-source (Llama, Mistral, Qwen) distribuiti su infrastruttura svizzera. Nessuna chiamata API a fornitori di modelli statunitensi. Nessun dato lascia la Svizzera per l’inferenza.
- Database: PostgreSQL con pgvector, ospitato in Svizzera. Tutti i dati dei clienti, i log delle query e i dati di sistema risiedono su server svizzeri.
Questa configurazione fornisce una genuina sovranita dei dati. Nessuna esposizione al CLOUD Act statunitense. Nessun accesso da governi stranieri. Nessun trasferimento di dati al di fuori della Svizzera.
Pubblichiamo la nostra architettura infrastrutturale perche la trasparenza costruisce fiducia in modo piu efficace delle dichiarazioni. I clienti e i loro team di conformita possono verificare in modo indipendente la nostra configurazione di hosting, la nostra struttura aziendale e il nostro deployment dei modelli.
Principio 4: Modelli open-source, non scatole nere
Utilizziamo esclusivamente modelli IA open-source. Questa e una scelta deliberata con diverse implicazioni.
Verificabilita. Quando un regolatore, un cliente o un revisore chiede “come prende decisioni la vostra IA?”, possiamo mostrare l’architettura del modello, i pesi del modello e la pipeline di inferenza. Con modelli proprietari (GPT-4, Claude, Gemini), la risposta e “non lo sappiamo, e nemmeno il fornitore”. Per le applicazioni IA ad alto rischio secondo l’AI Act dell’UE, questa differenza e la differenza tra conformita e non conformita.
Nessun vendor lock-in. Se un particolare modello open-source viene dismesso, passiamo a un altro. Il nostro valore risiede nel livello dei dati, nell’infrastruttura di recupero e nella piattaforma di erogazione, non in un modello specifico. Questo protegge noi e i nostri clienti dal rischio legato al fornitore del modello.
Nessuna condivisione di dati con fornitori di modelli. Quando utilizzate un modello proprietario tramite API, le vostre query vanno ai server del fornitore del modello. Anche con accordi enterprise che vietano l’addestramento sui vostri dati, il fornitore elabora le vostre query sulla propria infrastruttura. Con modelli open-source distribuiti localmente, nessun dato lascia la nostra infrastruttura. Il modello funziona sui nostri server, elabora le query sui nostri server e restituisce risultati dai nostri server.
Prevedibilita dei costi. Le API di modelli proprietari addebitano per token. Man mano che l’utilizzo cresce, i costi crescono linearmente. I modelli open-source distribuiti su infrastruttura propria o in leasing hanno costi fissi indipendentemente dall’utilizzo. Questo ci permette di offrire prezzi prevedibili ai clienti e di eseguire processi computazionalmente intensivi (come la re-indicizzazione e l’arricchimento continui) senza preoccuparci dei costi per query.
Principio 5: Audit trail completi
Ogni interazione con Enclava viene registrata:
- Quale query e stata inviata
- Quali documenti sono stati recuperati
- Quali punteggi di ranking hanno ricevuto
- Quale contesto e stato fornito al modello
- Quale risposta e stata generata
- Quali citazioni sono state incluse
- Quando e avvenuta l’interazione
- Quale account utente era coinvolto
Questo audit trail serve a molteplici scopi:
Conformita normativa. Quando la FINMA, un’autorita cantonale per la protezione dei dati o un supervisore dell’AI Act dell’UE chiede come e stato prodotto un determinato output, l’istituzione puo ricostruire l’intera catena dalla query alla risposta.
Responsabilita professionale. Quando un avvocato cita informazioni da Enclava in un memorandum per il cliente, e il cliente o la controparte contesta la citazione, l’avvocato puo dimostrare esattamente cosa ha recuperato il sistema, quali fonti sono state utilizzate e quale e stato l’output del sistema. Il giudizio del professionista nell’affidarsi all’output e documentato.
Miglioramento del sistema. Gli audit trail ci permettono di identificare errori di recupero, errori di ranking e pattern degli utenti che indicano che il sistema non soddisfa le aspettative. Il miglioramento continuo richiede una misurazione continua.
Fiducia del cliente. Sapere che ogni interazione e registrata e verificabile da ai team di conformita la sicurezza necessaria per approvare lo strumento per il lavoro regolamentato. L’obiezione comune che “non possiamo verificare cosa ha fatto l’IA” viene affrontata a livello architetturale.
Principio 6: Supervisione umana by design
Enclava e progettata come strumento per professionisti, non come sostituto. Questo si riflette nell’architettura del prodotto:
- Gli output sono presentati con fonti per la verifica, non come affermazioni autorevoli
- L’interfaccia incoraggia la revisione e il controllo incrociato, non l’accettazione cieca
- I controlli amministrativi permettono agli studi di limitare quali tipi di query possono essere elaborate
- Nessuna azione automatizzata: il sistema recupera, sintetizza e presenta. Il professionista decide
Questa non e una limitazione. E una funzionalita. Nei settori regolamentati, l’umano nel circuito non e solo una best practice. E un requisito legale secondo l’AI Act dell’UE per i sistemi ad alto rischio e un’aspettativa nel quadro di vigilanza della FINMA.
Crediamo che i sistemi IA piu efficaci siano quelli che rendono i professionisti migliori nel loro lavoro, non quelli che cercano di fare il lavoro al loro posto. Il giudizio, la relazione con il cliente, gli obblighi etici e il pensiero strategico restano al professionista. La ricerca, il recupero e la sintesi diventano piu veloci e completi.
Perche pubblichiamo questo
La maggior parte delle aziende IA protegge la propria architettura come informazione proprietaria. Noi pubblichiamo la nostra perche nei settori regolamentati, l’opacita e il nemico della fiducia.
Se i nostri clienti e i loro team di conformita non possono verificare come funziona il nostro sistema, non possono fidarsi. E non dovrebbero fidarsi. La fiducia basata su una presentazione commerciale non e fiducia. La fiducia basata su un’architettura verificabile lo e.
Questo e l’approccio che abbiamo adottato a Mont Virtua. Fonti verificabili, infrastruttura sovrana, modelli open-source, audit trail completi e supervisione umana by design. Non perche siano scelte facili, ma perche sono quelle giuste per i mercati che serviamo.
Per vedere questo approccio in pratica, visitate enclava.ch.