Cosa significa il EU AI Act per i fiduciari svizzeri

Il EU AI Act non riguarda solo le aziende tecnologiche. I fiduciari che utilizzano strumenti di IA o assistono mandanti con legami con l'UE devono agire. Una guida pratica.

Cosa significa il EU AI Act per i fiduciari svizzeri

Il 2 agosto 2026 il EU AI Act entra pienamente in vigore. Riguarda le imprese europee. Ma non solo loro.

Se come fiduciario assistete mandanti con attività nell’UE, se utilizzate strumenti basati sull’IA per il vostro lavoro o se fornite prestazioni i cui risultati vengono utilizzati nell’UE, riguarda anche voi. Non in teoria. In concreto.

Questo articolo spiega quali obblighi attendono le società fiduciarie, quali scenari sono rilevanti e cosa dovreste fare nelle prossime 18 settimane.

Perché i fiduciari sono interessati

Scenario 1: utilizzate strumenti di IA nel vostro lavoro

Abacus ha integrato funzioni di IA. Bexio ci sta lavorando. Utilizzate ChatGPT, Copilot o un altro LLM per riassunti, bozze di lettere o ricerche. Forse utilizzate uno strumento basato sull’IA per la revisione contabile.

Cosa dice il EU AI Act: In qualità di «deployer» (utilizzatore di un sistema di IA), avete obblighi ai sensi dell’art. 26 se:

  • Il sistema di IA è stato immesso sul mercato dell’UE (la maggior parte degli strumenti SaaS lo è)
  • Il risultato del sistema di IA viene utilizzato nell’UE (p. es. un rapporto per un mandante europeo)

Obblighi del deployer:

  • Utilizzo conforme alle istruzioni del produttore (art. 26 cpv. 1)
  • Sorveglianza umana da parte di persone competenti (art. 26 cpv. 2)
  • Garantire la pertinenza dei dati di input (art. 26 cpv. 4)
  • Conservare i registri (art. 26 cpv. 5)
  • Informare i lavoratori esposti al sistema (art. 26 cpv. 7)

Scenario 2: i vostri mandanti utilizzano l’IA

I vostri mandanti chiedono sempre più spesso: «Possiamo farlo?» Un’azienda industriale vuole il controllo qualità automatizzato con riconoscimento delle immagini. Un commerciante online utilizza un sistema di raccomandazione. Un fornitore HR vuole lo screening dei candidati assistito dall’IA.

Cosa richiede il EU AI Act: A seconda della classificazione di rischio del sistema di IA, i vostri mandanti devono:

  • Tenere un inventario dei sistemi di IA
  • Registrare i sistemi ad alto rischio (art. 49)
  • Predisporre la documentazione tecnica (art. 11)
  • Istituire un sistema di gestione della qualità (art. 17)
  • Effettuare una valutazione di conformità (art. 43)

Come fiduciari, siete spesso il primo punto di contatto per le domande di compliance. Quando i mandanti vi chiedono cosa devono fare, dovreste avere una risposta fondata.

Scenario 3: consulenza fiscale con legami UE

Compilate dichiarazioni fiscali per frontalieri. Assistete società holding con filiali nell’UE. Utilizzate software assistito dall’IA per il calcolo delle conseguenze fiscali intercantonali o internazionali.

Cosa diventa rilevante: Se il risultato del vostro lavoro assistito dall’IA viene utilizzato in un contesto UE (p. es. per la pianificazione fiscale di una filiale europea), il sistema potrebbe rientrare nell’art. 2 cpv. 1 lett. c: «i fornitori o i deployer di sistemi di IA […] nella misura in cui l’output prodotto dal sistema di IA è utilizzato nell’Unione.»

La piramide dei rischi per i fiduciari

Il EU AI Act suddivide i sistemi di IA in quattro livelli:

Vietato (art. 5)

Generalmente non rilevante per i fiduciari. Riguarda: punteggio sociale, manipolazione subliminale, sorveglianza biometrica di massa.

Rischio elevato (art. 6, allegato III)

Rilevante per i fiduciari:

  • Sistemi di IA per la valutazione del merito creditizio (se assistete mandanti in questo ambito)
  • Sistemi di IA per decisioni HR (screening candidati, valutazione delle prestazioni)
  • Sistemi di IA che influenzano l’accesso a servizi essenziali

Obblighi per i sistemi ad alto rischio:

  • Sistema di gestione dei rischi (art. 9)
  • Governance dei dati (art. 10)
  • Documentazione tecnica (art. 11)
  • Registrazione automatica (art. 12)
  • Trasparenza (art. 13)
  • Sorveglianza umana (art. 14)
  • Accuratezza, robustezza, cybersicurezza (art. 15)

Limitato (art. 50)

Il più frequente per i fiduciari:

  • Chatbot e assistenti IA: obbligo di trasparenza (l’utente deve sapere che interagisce con un’IA)
  • Testi generati dall’IA: obbligo di segnalazione se trasmessi a mandanti
  • Riconoscimento delle emozioni o categorizzazione biometrica: informazione delle persone interessate

Minimo

  • Strumenti puramente ausiliari (correttore ortografico, IA calendario, filtro spam): nessun obbligo specifico. Raccomandazione: inventariarli comunque.

Cosa dovrebbero fare i fiduciari adesso

Passo 1: creare un inventario (questa settimana)

Elencate tutti i sistemi di IA in uso nella vostra società. Compresi quelli non ufficiali. Compresi quelli che singoli collaboratori utilizzano autonomamente.

Checklist:

  • Quali software con funzioni di IA utilizziamo? (Abacus, Bexio, Microsoft 365 Copilot ecc.)
  • Qualcuno utilizza ChatGPT, Claude, Gemini o altri LLM per il lavoro?
  • Abbiamo in uso strumenti di analisi basati sull’IA? (Benchmarking, valutazione dei rischi, revisione)
  • I fornitori terzi di cui utilizziamo i servizi offrono funzioni di IA?

Passo 2: verificare il legame con l’UE (settimana prossima)

Per ogni sistema di IA identificato:

  • Il risultato viene utilizzato per o da mandanti europei?
  • Il sistema tratta dati di persone nell’UE?
  • Il fornitore del sistema opera nell’UE?

Se una di queste domande ha risposta affermativa, il EU AI Act è rilevante.

Passo 3: classificazione dei rischi (settimane 3-4)

Per ogni sistema pertinente:

  • In quale categoria di rischio rientra?
  • Siamo provider (fornitori) o deployer (utilizzatori)?
  • Quali obblighi concreti ne derivano?

Passo 4: misure di conformità (settimane 5-8)

Per i sistemi ad alto rischio:

  • Creare la documentazione o richiederla al fornitore
  • Definire i processi di sorveglianza umana
  • Implementare il logging

Per i rischi limitati:

  • Implementare avvisi di trasparenza
  • Informare i mandanti quando risultati dell’IA contribuiscono al loro dossier

Passo 5: preparare la consulenza ai mandanti (in corso)

I vostri mandanti porranno domande. Preparatevi:

  • Risposte standard per gli scenari più frequenti
  • Rinvio a consulenza specializzata per i casi complessi
  • Checklist per i mandanti che utilizzano l’IA

Il legame con la LPD

Il EU AI Act non si applica da solo. Integra il diritto esistente in materia di protezione dei dati. Per i fiduciari svizzeri ciò significa un doppio onere:

LPD (RS 235.1):

  • Art. 19 cpv. 4: obbligo di informare in caso di decisioni individuali automatizzate
  • Art. 21: diritto alla comunicazione della logica delle decisioni individuali automatizzate
  • Art. 22: valutazione d’impatto sulla protezione dei dati in caso di rischio elevato

EU AI Act:

  • Art. 26: obblighi del deployer (parzialmente sovrapponibili con la LPD)
  • Art. 50: obblighi di trasparenza (complementari alla LPD)
  • Art. 86: diritto a una spiegazione per i sistemi ad alto rischio

La sovrapposizione è intenzionale. La Commissione europea ha concepito l’AI Act come complemento al GDPR. Per le aziende svizzere che devono rispettare entrambi i regimi, si raccomanda un approccio integrato alla conformità: un inventario, un processo, una documentazione che copra entrambi.

Cosa succede in caso di violazione?

EU AI Act:

  • Pratiche vietate: fino a EUR 35 milioni o 7% del fatturato annuo globale (art. 99 cpv. 3)
  • Violazioni dei requisiti ad alto rischio: fino a EUR 15 milioni o 3% del fatturato (art. 99 cpv. 4)
  • Informazioni errate: fino a EUR 7,5 milioni o 1% del fatturato (art. 99 cpv. 5)
  • Per le PMI: massimali ridotti (art. 99 cpv. 6)

LPD:

  • Fino a CHF 250 000 nei confronti di persone fisiche (non la società, ma la persona responsabile)
  • Art. 60: violazione dell’obbligo di informare
  • Art. 61: violazione del dovere di diligenza nel trattamento dei dati da parte di terzi

Le sanzioni sono proporzionate alla dimensione dell’impresa. Per una società fiduciaria con 20 collaboratori, le sanzioni massime del EU AI Act sono teoriche. Tuttavia, già un audit con prescrizioni può essere operativamente oneroso.

L’opportunità

La conformità richiede impegno. Ma per i fiduciari il EU AI Act è anche un’opportunità. I vostri mandanti hanno bisogno di aiuto. La maggior parte delle PMI non leggerà autonomamente le 180 pagine del regolamento. Si rivolgerà al proprio fiduciario.

Chi è in grado di fornire una consulenza competente si posiziona come punto di riferimento su un tema che acquista importanza anno dopo anno. La compliance IA non scomparirà. Si intensificherà.

La domanda non è se il EU AI Act riguarda i fiduciari. La domanda è se sarete pronti quando il primo mandante vi porrà la domanda.


Questo articolo ha finalità informative e non costituisce una consulenza legale. Per l’attuazione di requisiti regolamentari raccomandiamo la consulenza di professionisti qualificati.

Torna al blog

Articoli correlati