Pourquoi l'IA vérifiée est indispensable pour les secteurs réglementés

Les modèles d'IA généralistes hallucinent, deviennent obsolètes et ne fournissent pas de sources. Pour les secteurs réglementés, c'est inacceptable. L'IA vérifiée résout ces problèmes grâce à une architecture fondée sur les sources et auditable.

Un avocat interroge ChatGPT sur un arrêt du Tribunal fédéral en matière de droit du bail. Le système fournit une réponse détaillée avec numéro de dossier, date et résumé. Tout semble plausible. Sauf que l’arrêt n’existe pas. Le numéro de dossier est inventé. La date correspond à un tout autre cas. L’avocat qui ne vérifie pas la réponse cite l’arrêt fictif dans son mémoire.

Ce n’est pas un avertissement théorique. C’est un schéma documenté. Aux États-Unis, des avocats ont été sanctionnés pour avoir cité des décisions générées par l’IA qui n’existaient pas. En Suisse, des cas comparables ne sont pas encore apparus publiquement, mais les conditions propices à de telles erreurs existent dès lors que des modèles d’IA généralistes sont utilisés pour des travaux professionnels réglementés.

Le problème des hallucinations

Les grands modèles de langage tels que GPT-4, Claude et Gemini sont des technologies impressionnantes. Ils peuvent résumer des textes, traduire des langues, écrire du code et répondre à des questions complexes. Mais ils possèdent une propriété fondamentale qui pose problème pour les secteurs réglementés : ils inventent des choses.

Cela ne se produit pas par malveillance ou par manque de soin. C’est une propriété technique de l’architecture. Les modèles de langage génèrent du texte en prédisant le mot suivant le plus probable, sur la base de schémas tirés de leurs données d’entraînement. Lorsque les données d’entraînement ne contiennent pas d’information sur une question spécifique, le modèle génère tout de même une réponse. Il ne dit pas « je ne sais pas ». Il produit un texte qui sonne statistiquement plausible, mais qui peut être factuellement faux.

Dans les usages courants, cela est souvent acceptable. Si un texte marketing n’est pas stylistiquement parfait ou si un résumé omet une nuance, les conséquences sont mineures. Dans les secteurs réglementés, les conséquences sont potentiellement graves.

En droit. Une citation erronée peut invalider un mémoire, compromettre un procès et entraîner des conséquences disciplinaires.

En conseil financier. Une évaluation réglementaire erronée peut conduire à des manquements à la conformité sanctionnés par de lourdes amendes.

En fiduciaire. Un calcul fiscal erroné peut déclencher des rappels d’impôts, des intérêts moratoires et des amendes fiscales.

En pharmacie. Une interprétation erronée d’une disposition d’autorisation peut compromettre l’ensemble du processus de mise sur le marché.

Le coût d’une hallucination dépasse de loin le bénéfice apporté par l’IA.

Trois déficits des modèles d’IA généralistes

L’hallucination est le problème le plus visible, mais pas le seul. Pour les secteurs réglementés, les modèles d’IA généralistes présentent trois déficits fondamentaux.

Déficit 1 : pas d’attribution des sources. Lorsqu’un modèle de langage généraliste fournit une réponse, il ne peut pas indiquer d’où provient l’information. Il ne peut pas renvoyer à un article de loi spécifique, à un arrêt concret ou à une circulaire FINMA précise. Pour les professionnels qui doivent étayer leur travail par des sources, c’est un critère d’exclusion. Un avis juridique sans référence n’est pas un avis juridique. Un calcul fiscal sans renvoi à la disposition applicable n’est pas vérifiable. Un rapport de conformité sans fondements documentés est sans valeur.

Déficit 2 : des informations obsolètes. Les modèles de langage sont entraînés avec un jeu de données fixe. Après l’entraînement, le modèle n’apprend plus rien de nouveau. La loi fiscale modifiée en janvier 2026 est invisible pour un modèle dont les données d’entraînement s’arrêtent à mi-2025. La nouvelle circulaire FINMA, la jurisprudence actuelle du Tribunal fédéral, l’ordonnance révisée : rien de tout cela n’existe pour le modèle. Dans un domaine où l’actualité de la base juridique est déterminante, ce déficit rend les modèles généralistes peu fiables.

Déficit 3 : pas d’auditabilité. Les modèles d’IA généralistes sont des boîtes noires. Ils ne peuvent pas expliquer comment ils sont parvenus à une réponse. Ils ne peuvent pas révéler leur processus de décision. Ils ne peuvent pas documenter la chaîne de preuves de l’entrée à la sortie. Pour les secteurs réglementés, où l’auditabilité et la traçabilité sont des exigences centrales, c’est inacceptable. Le EU AI Act rendra cette exigence contraignante à partir d’août 2026 pour les systèmes d’IA à haut risque.

Ce que l’IA vérifiée fait différemment

L’IA vérifiée n’est pas un terme marketing. C’est un principe architectural. Il désigne des systèmes d’IA conçus de manière à ce que chaque résultat puisse être retracé jusqu’à des sources vérifiées.

Base de données vérifiée. Au lieu de se fier à des données d’entraînement non structurées provenant d’Internet, l’IA vérifiée travaille avec une base de connaissances curatée issue de sources faisant autorité. Pour le droit suisse, cela signifie : la législation fédérale de Fedlex, les lois cantonales provenant de sources officielles, les décisions du Tribunal fédéral et des tribunaux cantonaux, les publications réglementaires de la FINMA, du SECO et d’autres autorités. Chaque source est documentée, chaque mise à jour est traçable.

Attribution des sources pour chaque résultat. Chaque réponse du système contient des références aux sources concrètes sur lesquelles elle repose. L’utilisateur peut consulter la source originale et vérifier l’exactitude de la réponse. Pas de confiance basée sur la plausibilité. Une vérification par la source.

Mise à jour continue. La base de connaissances est constamment mise à jour. Les nouvelles lois, les nouveaux arrêts, les nouvelles dispositions réglementaires sont intégrés dans la base de données. Le système travaille toujours avec l’état actuel des bases juridiques.

Données structurées. Les lois ne sont pas de simples textes. Elles ont une structure hiérarchique : livres, titres, chapitres, articles, alinéas. Les décisions de justice ont des métadonnées : tribunal, date, numéro de dossier, domaine juridique, dispositions appliquées. L’IA vérifiée préserve cette structure et permet des recherches précises au niveau de granularité approprié.

Auditabilité. Chaque requête, chaque récupération, chaque résultat généré est consigné. La chaîne de preuves de l’entrée à la sortie est documentée. Pour les audits, pour le contrôle qualité interne, pour la traçabilité vis-à-vis des clients et des autorités.

La différence en pratique

Comparons le même cas d’utilisation avec une IA généraliste et avec une IA vérifiée.

La question : « Quels sont les délais pour contester une taxation fiscale dans le canton de Zurich ? »

IA généraliste. Génère une réponse qui est peut-être correcte, peut-être obsolète, peut-être relative au mauvais canton. Pas de référence aux sources. Le professionnel doit vérifier manuellement l’intégralité de la réponse, ce qui prend souvent plus de temps qu’une recherche depuis le début.

IA vérifiée. Récupère les dispositions pertinentes de la loi fiscale du canton de Zurich, renvoie aux paragraphes spécifiques, affiche les délais avec la référence exacte à la source, renvoie à la version actuelle de la loi et cite les arrêts pertinents du Tribunal fédéral relatifs au calcul des délais. Le professionnel peut utiliser la réponse immédiatement et vérifier les sources dans l’original si nécessaire.

La différence n’est pas graduelle. Elle est fondamentale. Dans le premier cas, l’IA est un facteur de risque. Dans le second, c’est un outil de productivité.

Les exigences réglementaires renforcent la tendance

L’évolution réglementaire confirme que l’IA vérifiée n’est pas un luxe, mais une nécessité.

EU AI Act. À partir d’août 2026, les systèmes d’IA à haut risque devront être transparents, auditables et documentés. Les modèles de langage généralistes fonctionnant comme des boîtes noires ne remplissent structurellement pas ces exigences. Les entreprises utilisant l’IA pour des applications réglementées devront passer à des systèmes répondant aux exigences d’auditabilité et de transparence.

LPD. La loi fédérale sur la protection des données exige, en cas de décisions individuelles automatisées, la transparence et la possibilité pour les personnes concernées de faire valoir leur point de vue. Lorsqu’un système d’IA fournit la base d’une décision, il doit être possible de retracer sur quelle base de données repose la recommandation.

Réglementation sectorielle. La FINMA, Swissmedic et d’autres régulateurs sectoriels posent des exigences croissantes quant à l’utilisation de l’IA dans leurs domaines de surveillance. L’auditabilité, la traçabilité et les bases de données documentées deviennent des exigences standard.

La décision stratégique

Pour les entreprises des secteurs réglementés, la question n’est pas de savoir si elles utiliseront l’IA. Le gain d’efficacité est trop important pour être ignoré. La question est de savoir quel type d’IA elles utiliseront.

Les modèles d’IA généralistes offrent une fonctionnalité large à faible coût, mais ils créent des risques de conformité, exigent une vérification manuelle et ne produisent pas de résultats auditables. L’IA vérifiée nécessite une infrastructure spécialisée, mais offre l’attribution des sources, l’actualité et l’auditabilité dont les secteurs réglementés ont besoin.

Les entreprises qui misent aujourd’hui sur l’IA vérifiée prennent de l’avance. Elles peuvent utiliser l’IA de manière productive sans prendre de risques de conformité. Elles peuvent fournir à leurs clients des résultats traçables. Elles sont préparées aux exigences réglementaires de demain.

Enclava est la plateforme suisse pour l’IA vérifiée dans les secteurs réglementés. Des bases de connaissances avec attribution des sources, hébergées en Suisse, avec plus de 27 000 lois et 1,1 million de décisions de justice. Chaque résultat est traçable. Chaque source est vérifiée. Chaque processus est auditable.

Pour en savoir plus, rendez-vous sur enclava.ch ou contactez-nous à [email protected].

Retour au blog

Articles similaires