Pourquoi l’IA fonctionne différemment dans les secteurs réglementés
En octobre 2025, OpenAI a mis à jour ses conditions d’utilisation. Depuis, ChatGPT ne peut plus donner de recommandations personnalisées en matière juridique, médicale ou financière. Anthropic a des restrictions similaires. Google Gemini également.
Ce n’est pas un oubli. C’est une décision délibérée des plus grandes entreprises d’IA au monde. Et elle a des conséquences considérables pour quiconque souhaite déployer l’IA dans un secteur réglementé.
Ce que les modèles de pointe ne feront pas
Les grands modèles de langage (GPT-4, Claude, Gemini) sont d’une polyvalence impressionnante. Ils écrivent du code, résument des textes, traduisent, analysent des données. Mais ils ont une limite structurelle : ils refusent le conseil spécialisé dans les domaines réglementés.
Demandez à ChatGPT : «Mon contrat de travail a-t-il été valablement résilié selon l’art. 336c CO ?» La réponse : «Je ne suis pas avocat et ne peux pas fournir de conseil juridique. Veuillez consulter un professionnel du droit.»
Demandez à Claude : «Quelles circulaires FINMA concernent mon arrangement d’externalisation ?» La réponse restera générale et vous renverra à des professionnels qualifiés.
C’est rationnel. Pour les fournisseurs de ces modèles, le risque de responsabilité est trop élevé. Un conseil juridique erroné causant un préjudice pourrait déclencher des poursuites de l’ordre du milliard. Ils intègrent donc des garde-fous.
Le modèle de partenariat
Que font ces entreprises à la place ? Elles nouent des partenariats avec des experts de domaine.
OpenAI a annoncé des partenariats avec Thomson Reuters (informations juridiques), le Financial Times (contenus d’actualité) et divers fournisseurs de données médicales. Anthropic travaille avec des fournisseurs spécialisés qui livrent des sources de données vérifiées.
Le modèle est clair : l’IA de pointe fournit le traitement du langage. Le partenaire de domaine fournit les données vérifiées. Ensemble, ils créent un système à la fois linguistiquement compétent et substantiellement correct.
Mais : qui est le partenaire de domaine pour le droit suisse ? Pour le droit fiscal suisse ? Pour la réglementation FINMA ?
Pourquoi l’IA généraliste échoue dans les secteurs réglementés
Ce n’est pas qu’une question de conditions d’utilisation. Il existe des raisons structurelles pour lesquelles un modèle de langage généraliste est inadapté aux professions réglementées.
Pas de vérification des sources. Un modèle de langage génère du texte en fonction de probabilités. Il ne «sait» pas si un article existe. Il «se souvient» de textes d’entraînement et produit des réponses qui sonnent de manière plausible. Plausible ne suffit pas en conseil juridique. Soit l’art. 336c CO dit quelque chose de précis, soit il ne le dit pas. Il n’y a pas de «probablement».
Décalage des données d’entraînement. GPT-4 a été entraîné avec des données jusqu’à une date limite. Les circulaires FINMA publiées après cette date n’existent pas pour le modèle. Les modifications législatives cantonales entrées en vigueur la semaine dernière ne sont pas couvertes. Dans un monde où la réglementation change chaque semaine, un modèle accusant des mois de retard est inutilisable pour les questions actuelles.
Pas de différenciation cantonale. Un modèle entraîné sur des données mondiales connaît peut-être le concept général de «double imposition intercantonale». Mais il ne connaît pas la pratique spécifique du canton de Schwyz pour les sociétés holding par rapport au canton de Zoug. Cette différenciation n’existe pas dans les données d’entraînement avec une profondeur suffisante.
Hallucinations. Les modèles de langage produisent des contenus grammaticalement corrects et contextuellement plausibles, mais factuellement faux. En programmation, c’est agaçant. En conseil juridique, c’est dangereux. Un arrêt du Tribunal fédéral inventé qu’un avocat reprend dans un mémoire nuit au mandant et à la réputation de l’avocat.
Ce que signifie «vérifié aux sources»
Le contre-modèle à l’IA généraliste est un système basé exclusivement sur des sources officielles vérifiées. Pas «le modèle croit que…» mais «l’art. 336c al. 1 let. b CO dispose : …» avec un lien direct vers le droit fédéral sur Fedlex.
Un système vérifié aux sources a trois propriétés :
Chaque réponse renvoie à une source vérifiable. Pas de texte légal sans lien Fedlex. Pas de décision sans numéro de dossier et date de décision. Pas d’énoncé FINMA sans référence documentaire. L’utilisateur peut vérifier chaque affirmation dans la source originale.
Les données proviennent de sources gouvernementales officielles. Pas de Wikipédia. Pas de billets de blog. Pas de résumés de tiers. Directement de Fedlex, des recueils législatifs cantonaux, des API des tribunaux, du site de la FINMA. Des sources primaires, pas de la littérature secondaire.
Les données sont mises à jour en continu. Pas annuellement. Pas mensuellement. Dans la configuration idéale : quotidiennement. Quand Fedlex modifie une loi, la modification apparaît dans le système le lendemain. Quand le Tribunal fédéral publie un arrêt, il est capturé dans les 24 heures.
Le rôle de l’IA dans un système vérifié aux sources
Si les données sont vérifiées, que fait l’IA ? Trois choses :
Recherche au-delà des mots-clés. La recherche sémantique trouve des résultats substantiellement pertinents, même s’ils ne contiennent pas les mots-clés saisis. «Protection contre le licenciement en cas de maladie» trouve l’art. 336c CO, même si l’utilisateur ne connaît pas le numéro de l’article. L’IA comprend la question ; la source fournit la réponse.
Interconnexion entre domaines juridiques. Une circulaire FINMA renvoie à la loi sur les banques. La loi sur les banques renvoie à l’ordonnance sur les banques. Un arrêt du Tribunal fédéral interprète l’ordonnance. L’IA rend visibles ces connexions qui existent dans les sources sous forme de renvois textuels, mais qui nécessitent des heures de recherche manuelle sans assistance technique.
Résumé et contextualisation. L’IA peut résumer une décision de 30 pages en 5 paragraphes. Mais le résumé renvoie au passage original dans la décision. L’utilisateur peut basculer vers le texte intégral à tout moment.
La souveraineté des données comme condition préalable
Pour les avocats, fiduciaires et responsables de la conformité suisses, la question de la localisation des données n’est pas négociable.
L’art. 13 LLCA (loi sur la libre circulation des avocats) oblige les avocats au secret professionnel. Envoyer une requête contenant des données de mandants à un serveur américain est une violation potentielle.
Les art. 16-17 LPD régissent la communication transfrontière de données personnelles. Toute requête vers une API d’IA contenant des données personnelles et traitée sur un serveur hors de Suisse doit satisfaire aux exigences de communication transfrontière.
Le US CLOUD Act donne aux autorités américaines accès aux données stockées par des entreprises américaines, indépendamment du lieu de stockage. «Données en Suisse» chez un fournisseur américain n’est pas une garantie.
Un système qui travaille avec des données vérifiées aux sources ET est hébergé en Suisse élimine structurellement ces risques. Aucune donnée ne quitte la Suisse. Aucun fournisseur américain n’y a accès. Aucune communication transfrontière nécessaire.
Qui construit cela ?
Le marché de l’IA spécialisée dans les secteurs réglementés connaît une croissance explosive. En mars 2026, 750 millions de dollars ont afflué vers les startups de Legal AI. Harvey (USA) est valorisé à 11 milliards de dollars. Legora (anciennement EvenUp) à 5,5 milliards. Swiss-Noxtua construit une IA juridique germanophone.
Mais : Harvey se concentre sur le droit américain et britannique. Legora également. Swiss-Noxtua travaille via les éditeurs, pas via les sources gouvernementales. Aucun d’entre eux n’offre la combinaison droit suisse, droit fiscal suisse, réglementation FINMA et couverture cantonale.
Le paysage réglementaire suisse est suffisamment complexe pour justifier un fournisseur spécialisé. 26 cantons, quatre langues, un système fédéral avec une législation autonome à chaque niveau. Un fournisseur mondial ne peut pas couvrir cela. Il faut une infrastructure de données locale.
Le EU AI Act comme catalyseur
Le 2 août 2026, les exigences relatives aux systèmes à haut risque du EU AI Act entrent en vigueur. Toute entreprise suisse déployant des systèmes d’IA sur le marché européen doit présenter une documentation technique, des systèmes de gestion des risques et des évaluations de conformité. Les modèles d’IA généralistes n’aident pas à satisfaire ces exigences. Au contraire : un système qui hallucine est un risque de conformité.
Les systèmes vérifiés aux sources, livrant des réponses traçables, constituent la brique de base de la conformité IA dans les secteurs réglementés. Non parce que «vérifié» sonne bien. Mais parce que la réglementation l’exige.
Conclusion
Les modèles d’IA de pointe vont s’améliorer. Devenir plus rapides. Plus polyvalents. Mais ils ne prendront pas la responsabilité de vous dire si votre contrat de travail a été valablement résilié, si votre banque met correctement en œuvre la circulaire FINMA 2023/1, ou si votre mandant est doublement imposé dans trois cantons.
Pour ces questions, il faut des systèmes spécialisés. Des systèmes basés sur des sources officielles. Des systèmes qui rendent chaque réponse vérifiable. Des systèmes qui restent en Suisse.
L’IA généraliste résout des problèmes généraux. Les secteurs réglementés ont des problèmes spécifiques. La différence ne réside pas dans l’IA. Elle réside dans les données.
CTA : [Abonnez-vous à notre newsletter : analyses et mises à jour sur l’IA dans les secteurs réglementés.]