Warum KI in regulierten Branchen anders funktioniert

Frontier-KI-Modelle verweigern rechtliche, medizinische und finanzielle Beratung. Warum regulierte Branchen spezialisierte, quellenverifizierte Systeme brauchen.

Warum KI in regulierten Branchen anders funktioniert

Im Oktober 2025 hat OpenAI seine Nutzungsbedingungen aktualisiert. Seitdem darf ChatGPT keine personalisierten rechtlichen, medizinischen oder finanziellen Empfehlungen mehr geben. Anthropic hat ähnliche Einschränkungen. Google Gemini ebenso.

Das ist kein Versehen. Es ist eine bewusste Entscheidung der grössten KI-Unternehmen der Welt. Und sie hat weitreichende Konsequenzen für jeden, der KI in einer regulierten Branche einsetzen will.

Was Frontier-Modelle nicht tun werden

Die grossen Sprachmodelle (GPT-4, Claude, Gemini) sind beeindruckend vielseitig. Sie schreiben Code, fassen Texte zusammen, übersetzen, analysieren Daten. Aber sie haben eine strukturelle Grenze: Sie verweigern domänenspezifische Beratung in regulierten Bereichen.

Fragen Sie ChatGPT: “Ist mein Arbeitsvertrag nach Art. 336c OR gültig gekündigt worden?” Die Antwort: “Ich bin kein Anwalt und kann keine Rechtsberatung geben. Bitte konsultieren Sie einen Rechtsanwalt.”

Fragen Sie Claude: “Welche FINMA-Rundschreiben betreffen mein Outsourcing-Arrangement?” Die Antwort wird allgemein bleiben und auf die Konsultation von Fachpersonal verweisen.

Das ist rational. Für die Anbieter dieser Modelle ist das Haftungsrisiko zu gross. Ein falscher Rechtsrat, der zu einem Schaden führt, könnte Milliardenklagen auslösen. Also bauen sie Sperren ein.

Das Partnerstrategie-Modell

Was machen diese Unternehmen stattdessen? Sie gehen Partnerschaften mit Domänenexperten ein.

OpenAI hat Partnerschaften mit Thomson Reuters (Rechtsinformationen), dem Financial Times (Nachrichteninhalte) und verschiedenen medizinischen Datenanbietern angekündigt. Anthropic arbeitet mit spezialisierten Anbietern zusammen, die verifizierte Datenquellen liefern.

Das Modell ist klar: Die Frontier-KI liefert die Sprachverarbeitung. Der Domänenpartner liefert die verifizierten Daten. Zusammen entsteht ein System, das sowohl sprachlich kompetent als auch inhaltlich korrekt ist.

Aber: Wer ist der Domänenpartner für Schweizer Recht? Für Schweizer Steuerrecht? Für FINMA-Regulierung?

Warum allgemeine KI in regulierten Branchen versagt

Es geht nicht nur um Nutzungsbedingungen. Es gibt strukturelle Gründe, warum ein allgemeines Sprachmodell für regulierte Berufe ungeeignet ist.

Keine Quellenverifizierung. Ein Sprachmodell generiert Text basierend auf Wahrscheinlichkeiten. Es “weiss” nicht, ob ein Artikel existiert. Es “erinnert” sich an Trainingstext und produziert plausibel klingende Antworten. Plausibel ist in der Rechtsberatung nicht ausreichend. Entweder Art. 336c OR sagt etwas Bestimmtes, oder er tut es nicht. Es gibt kein “wahrscheinlich.”

Trainingsdaten-Lag. GPT-4 wurde mit Daten bis zu einem bestimmten Stichtag trainiert. FINMA-Rundschreiben, die danach veröffentlicht wurden, existieren für das Modell nicht. Kantonale Gesetzesänderungen, die letzte Woche in Kraft getreten sind, sind nicht erfasst. In einer Welt, in der sich die Regulierung wöchentlich ändert, ist ein Modell mit Monaten Verzögerung unbrauchbar für aktuelle Fragestellungen.

Keine kantonale Differenzierung. Ein auf globalen Daten trainiertes Modell kennt vielleicht den Oberbegriff “interkantonale Doppelbesteuerung.” Aber es kennt nicht die spezifische Praxis des Kantons Schwyz für Holdinggesellschaften im Vergleich zum Kanton Zug. Diese Differenzierung existiert in den Trainingsdaten nicht in ausreichender Tiefe.

Halluzinationen. Sprachmodelle erzeugen Inhalte, die grammatisch korrekt und kontextuell plausibel sind, aber faktisch falsch. In der Programmierung ist das lästig. In der Rechtsberatung ist es gefährlich. Ein erfundenes Bundesgerichtsurteil, das der Anwalt in einen Schriftsatz übernimmt, schadet dem Mandanten und der Reputation des Anwalts.

Was “quellenverifiziert” bedeutet

Der Gegenentwurf zur allgemeinen KI ist ein System, das ausschliesslich auf verifizierten, offiziellen Quellen basiert. Nicht “das Modell glaubt, dass …” sondern “Art. 336c Abs. 1 lit. b OR lautet: …” mit einem direkten Link zum Bundesrecht auf Fedlex.

Ein quellenverifiziertes System hat drei Eigenschaften:

Jede Antwort verweist auf eine nachprüfbare Quelle. Kein Gesetzestext ohne Fedlex-Link. Kein Gerichtsentscheid ohne Aktenzeichen und Entscheiddatum. Keine FINMA-Aussage ohne Dokumentenreferenz. Der Benutzer kann jede Aussage in der Originalquelle nachprüfen.

Die Daten stammen aus offiziellen Regierungsquellen. Nicht aus Wikipedia. Nicht aus Blogbeiträgen. Nicht aus Zusammenfassungen Dritter. Direkt aus Fedlex, den kantonalen Gesetzessammlungen, den Gerichts-APIs, der FINMA-Website. Primärquellen, nicht Sekundärliteratur.

Die Daten werden laufend aktualisiert. Nicht jährlich. Nicht monatlich. In der idealen Konfiguration: täglich. Wenn Fedlex ein Gesetz ändert, steht die Änderung am nächsten Tag im System. Wenn das Bundesgericht einen Entscheid veröffentlicht, wird er innert 24 Stunden erfasst.

Die KI-Rolle in einem quellenverifizierten System

Wenn die Daten verifiziert sind, was macht dann die KI? Drei Dinge:

Suche jenseits von Stichworten. Semantische Suche findet Ergebnisse, die inhaltlich relevant sind, auch wenn sie die eingegebenen Stichwörter nicht enthalten. “Kündigungsschutz bei Krankheit” findet Art. 336c OR, auch wenn der Benutzer die Artikelnummer nicht kennt. Die KI versteht die Frage, die Quelle liefert die Antwort.

Verknüpfung über Rechtsgebiete. Ein FINMA-Rundschreiben verweist auf das Bankengesetz. Das Bankengesetz verweist auf die Bankenverordnung. Ein Bundesgerichtsentscheid interpretiert die Verordnung. Die KI macht diese Verknüpfungen sichtbar, die in den Quellen als Textverweise existieren, aber ohne technische Hilfe stundenlange Recherche erfordern.

Zusammenfassung und Einordnung. Die KI kann einen 30-seitigen Gerichtsentscheid in 5 Absätze zusammenfassen. Aber die Zusammenfassung verweist auf die Originalstelle im Entscheid. Der Benutzer kann jederzeit zum Volltext wechseln.

Datensouveränität als Grundvoraussetzung

Für Schweizer Anwälte, Treuhänder und Compliance-Verantwortliche ist die Frage, wo die Daten liegen, nicht verhandelbar.

Art. 13 BGFA (Bundesgesetz über die Freizügigkeit der Anwältinnen und Anwälte) verpflichtet Anwälte zur Wahrung des Berufsgeheimnisses. Eine Suchanfrage, die Mandantendaten enthält, an einen US-Server zu senden, ist ein potentieller Verstoss.

DSG Art. 16-17 regelt die grenzüberschreitende Bekanntgabe von Personendaten. Jede Anfrage an eine KI-API, die Personendaten enthält und auf einem Server ausserhalb der Schweiz verarbeitet wird, muss die Anforderungen der Auslandsbekanntgabe erfüllen.

Der US CLOUD Act gibt US-Behörden Zugang zu Daten, die von US-Unternehmen gespeichert werden, unabhängig vom Speicherort. “Daten in der Schweiz” bei einem US-Anbieter ist keine Garantie.

Ein System, das quellenverifiziert arbeitet UND in der Schweiz gehostet wird, eliminiert diese Risiken strukturell. Keine Daten verlassen die Schweiz. Kein US-Anbieter hat Zugriff. Keine Auslandsbekanntgabe nötig.

Wer baut das?

Der Markt für spezialisierte KI in regulierten Branchen wächst explosiv. Im März 2026 flossen 750 Millionen Dollar in Legal-AI-Startups. Harvey (USA) wird mit 11 Milliarden Dollar bewertet. Legora (ehemals EvenUp) mit 5,5 Milliarden. Swiss-Noxtua baut an einer deutschsprachigen Legal-AI.

Aber: Harvey ist auf US- und UK-Recht fokussiert. Legora ebenso. Swiss-Noxtua arbeitet über Verlage, nicht über Regierungsquellen. Keiner davon bietet die Kombination aus Schweizer Recht, Schweizer Steuerrecht, FINMA-Regulierung und kantonaler Abdeckung.

Die Schweizer Regulierungslandschaft ist komplex genug, um einen spezialisierten Anbieter zu rechtfertigen. 26 Kantone, vier Sprachen, ein föderales System mit eigenständiger Gesetzgebung auf jeder Ebene. Das kann ein globaler Anbieter nicht abdecken. Es braucht lokale Dateninfrastruktur.

Der EU AI Act als Katalysator

Am 2. August 2026 treten die Hochrisiko-Anforderungen des EU AI Act in Kraft. Jedes Schweizer Unternehmen, das KI-Systeme im EU-Markt einsetzt, muss technische Dokumentation, Risikomanagementsysteme und Konformitätsbewertungen vorweisen. Die allgemeinen KI-Modelle helfen bei der Einhaltung dieser Anforderungen nicht. Im Gegenteil: Ein System, das halluziniert, ist ein Compliance-Risiko.

Quellenverifizierte Systeme, die nachvollziehbare Antworten liefern, sind der Baustein für KI-Compliance in regulierten Branchen. Nicht, weil “verifiziert” gut klingt. Sondern weil die Regulierung es verlangt.

Fazit

Die Frontier-KI-Modelle werden besser. Schneller. Vielseitiger. Aber sie werden nicht die Verantwortung übernehmen, Ihnen zu sagen, ob Ihr Arbeitsvertrag gültig gekündigt wurde, ob Ihre Bank das FINMA-Rundschreiben 2023/1 korrekt umsetzt oder ob Ihr Mandant in drei Kantonen doppelt besteuert wird.

Für diese Fragen braucht es spezialisierte Systeme. Systeme, die auf offiziellen Quellen basieren. Systeme, die jede Antwort nachprüfbar machen. Systeme, die in der Schweiz bleiben.

Die allgemeine KI löst allgemeine Probleme. Regulierte Branchen haben spezifische Probleme. Der Unterschied liegt nicht in der KI. Er liegt in den Daten.

CTA: [Newsletter abonnieren: Analysen und Updates zu KI in regulierten Branchen.]

Zurück zum Blog

Verwandte Artikel