Warum ChatGPT keine Rechtsberatung geben kann (und was es kann)

OpenAI, Anthropic und Google haben ihren Modellen allesamt verboten, personalisierte Rechtsberatung zu geben. Warum allgemeine KI für juristische Arbeit nicht ausreicht und was die Alternativen sind.

Stellen Sie ChatGPT eine Rechtsfrage, und Sie erhalten eine selbstbewusste, gut strukturierte Antwort. Es wird Prinzipien zitieren, Konzepte referenzieren und klingen, als wüsste es, wovon es spricht. Dann fügt es einen Haftungsausschluss hinzu: «Ich bin kein Anwalt, und dies ist keine Rechtsberatung.»

Dieser Haftungsausschluss ist keine Höflichkeit. Er ist Richtlinie. Und dahinter liegt ein fundamentales Problem, das die meisten Fachleute noch nicht vollständig erfasst haben.

Das Verbot, das Sie nicht bemerkt haben

Im Oktober 2025 aktualisierte OpenAI seine Nutzungsrichtlinien und verbot explizit die Verwendung von ChatGPT für personalisierte Rechts-, Medizin- und Finanzberatung. Anthropic (Claude) und Google (Gemini) haben ähnliche Einschränkungen. Das sind keine Empfehlungen. Es sind Nutzungsbedingungen, deren Verletzung zur Kontokündigung führen kann.

Die Begründung ist nachvollziehbar. Allgemeine Sprachmodelle werden auf breiten Internetdaten trainiert. Sie haben keinen Zugang zu aktuellen Rechtsdatenbanken. Sie können nicht verifizieren, ob ein Gesetz geändert, aufgehoben oder abgelöst wurde. Sie kennen Ihre Jurisdiktion nicht, Ihre spezifischen Umstände oder die Verfahrensanforderungen, die auf Ihren Fall zutreffen könnten.

Wenn ChatGPT Ihnen über Schweizer Mietrecht erzählt, könnte es das OR (Obligationenrecht) auf einem allgemeinen Niveau korrekt referenzieren. Aber es wird nicht wissen, dass Ihr Kanton spezifische Umsetzungsbestimmungen hat. Es wird nicht den jüngsten Bundesgerichtsentscheid kennen, der die Interpretation von Artikel 271 geändert hat. Es wird nicht darauf hinweisen, dass die Kündigungsfrist davon abhängt, wann der Mietvertrag abgeschlossen wurde. Es wird die tatsächlichen Artikelnummern nicht mit Zuversicht zitieren, weil es nicht auf einer strukturierten Rechtsdatenbank trainiert wurde. Es wurde auf dem Internet trainiert.

Für eine beiläufige Frage ist das in Ordnung. Für einen Fachmann, der sich auf die Antwort verlässt, ist es gefährlich.

Das Halluzinationsproblem

Sprachmodelle generieren Text, indem sie das wahrscheinlichste nächste Wort in einer Sequenz vorhersagen. Sie sind auf Flüssigkeit optimiert, nicht auf Genauigkeit. Das schafft einen spezifischen Fehlermodus in juristischen Kontexten: selbstbewusste Fabrikation.

Studien haben dies ausführlich dokumentiert. 2023 reichte ein New Yorker Anwalt einen Gerichtsschriftsatz ein, der sechs fabrizierte Fallzitate enthielt, die von ChatGPT generiert wurden. Die Fälle existierten nicht. Die Gerichte existierten nicht. Das Modell hatte sie erfunden, weil sie plausibel klangen. Der Anwalt wurde sanktioniert.

Das ist kein seltener Grenzfall. Forschung von Stanfords Human-Centered AI Institute ergab, dass Legal-KI-Tools bei der Generierung von Fallzitaten zwischen 17% und 33% der Zeit halluzinieren. Allgemeine Modelle schneiden schlechter ab als spezialisierte Rechtstools, aber selbst spezialisierte Tools haben signifikante Fehlerquoten.

Im Schweizer Recht wird das Problem durch die Mehrsprachigkeit verschärft. Bundesgesetze existieren auf Deutsch, Französisch und Italienisch, wobei jede Sprachversion autoritativ ist. Ein Modell, das primär auf englischsprachigen Daten trainiert wurde, wird eine oberflächliche Abdeckung Schweizer Rechtstexte haben, insbesondere kantonaler Gesetze und Entscheide unterer Gerichte, die weniger wahrscheinlich in seinen Trainingsdaten erscheinen.

Was Fachleute tatsächlich brauchen

Die Kluft zwischen dem, was ChatGPT bietet, und dem, was Rechtsfachleute brauchen, ist nicht eine Frage der Intelligenz. Es ist eine Frage der Infrastruktur.

Aktuelle, verifizierte Quellen. Schweizer Recht ändert sich ständig. Bundesgesetze werden durch das parlamentarische Verfahren geändert. Kantonale Regulierungen aktualisieren sich nach unterschiedlichen Zeitplänen. Gerichtsentscheide schaffen neue Interpretationen. FINMA-Rundschreiben werden revidiert. Eine nützliche Rechts-KI muss mit einer Datenbank arbeiten, die kontinuierlich aktualisiert und gegen offizielle Behördenquellen verifiziert wird.

Quellenattribution. Wenn ein Fachmann eine Rechtsbestimmung zitiert, braucht er den genauen Artikel, Absatz und Unterabsatz. Er braucht die SR-Nummer. Er muss wissen, ob die Bestimmung seit seiner letzten Prüfung geändert wurde. Ein System, das «gemäss Schweizer Recht» sagt, ohne auf die spezifische Bestimmung zu verweisen, ist in der professionellen Praxis nutzlos.

Jurisdiktionsbewusstsein. Die Schweiz hat 26 Kantone, jeder mit eigenem Verfahrensrecht, Steuerrecht und Verwaltungsregulierungen. Eine Frage zu Baubewilligungen in Zürich hat eine fundamental andere Antwort als dieselbe Frage im Tessin. Allgemeine KI hat keinen Mechanismus, um diese Granularität zu handhaben.

Zitationsgraphen. Rechtsbestimmungen existieren nicht isoliert. Ein einzelner Artikel im OR könnte durch Dutzende von Bundesgerichtsentscheiden interpretiert, in FINMA-Rundschreiben referenziert und durch kantonale Umsetzungsverordnungen modifiziert werden. Fachleute müssen diese Beziehungen sehen. Eine flache Liste von Suchergebnissen reicht nicht.

Mehrsprachige Abdeckung. Ein Lausanner Anwalt, der auf Französisch arbeitet, braucht die französischsprachige Version des Gesetzes, die französischsprachigen Gerichtsentscheide und die Möglichkeit, mit der deutschsprachigen Version abzugleichen, wenn der französische Text mehrdeutig ist. Das ist kein Übersetzungsproblem. Es ist ein Datenarchitektur-Problem.

Der Aufstieg domänenspezifischer Rechts-KI

Der Markt hat diese Lücke erkannt. Eine neue Kategorie von KI-Tools entsteht: domänenspezifische Systeme, die von Grund auf für juristische Arbeit gebaut sind.

Harvey, mit einer Bewertung von 8-11 Milliarden Dollar, ist das prominenteste Beispiel geworden. Es erfasst Kanzleiwissen, verbindet sich mit Rechtsdatenbanken und bietet KI-gestützte Rechtsrecherche mit Quellenattribution. Legora, mit einer Bewertung von 1.8 Milliarden Dollar, verfolgt einen ähnlichen Ansatz für europäische Rechtsmärkte. Im deutschsprachigen Raum hat sich Noxtua Exklusivrechte an bedeutenden Rechtskommentaren gesichert.

Diese Tools stellen eine erhebliche Verbesserung gegenüber allgemeiner KI dar. Sie arbeiten mit verifizierten Rechtsdatenbanken. Sie liefern Zitate. Sie verstehen rechtliche Struktur und Hierarchie.

Aber sie teilen eine Einschränkung: Es sind Einzelsektor-Tools. Harvey macht Recht. Das ist alles. Wenn ein Anwalt auf eine Steuerfrage stösst, die in einer Vertragsprüfung eingebettet ist, oder ein Compliance-Thema, das Bankenregulierung und Gesellschaftsrecht umfasst, stossen sie an die Grenzen dessen, was ein reines Rechts-Tool leisten kann.

Was das Problem tatsächlich lösen würde

Die Lösung ist kein besserer Chatbot. Es ist eine völlig andere Architektur: domänenspezifische KI, die mit strukturierten, verifizierten, kontinuierlich aktualisierten Wissensdatenbanken arbeitet, die das gesamte Spektrum regulierten Wissens abdecken.

Das ist der Ansatz, der als Retrieval-Augmented Generation oder RAG bekannt ist. Statt sich auf die Trainingsdaten eines Modells zu verlassen (die statisch, unverifiziert und unvollständig sind), rufen RAG-Systeme relevante Informationen aus kuratierten Datenbanken ab, bevor sie eine Antwort generieren. Jede Antwort ist in einem spezifischen Quelldokument verankert. Jedes Zitat kann verifiziert werden. Jede Behauptung kann nachverfolgt werden.

Für Schweizer Rechtsarbeit bedeutet das, von den tatsächlichen Daten aus zu bauen: alle 27'795 Bundes- und Kantonsgesetze, über eine Million Gerichtsentscheide von 115 Gerichten, 1.4 Millionen Zitationskanten, die Gesetze mit Entscheiden und Entscheide untereinander verbinden, das SHAB (Schweizerisches Handelsamtsblatt), FINMA-Regulierungspublikationen und kantonale Verwaltungsleitlinien.

Wenn ein RAG-System eine Frage zum Mietrecht in Zürich beantwortet, ruft es die relevanten OR-Bestimmungen ab, das anwendbare kantonale Mietrecht, jüngste BGer-Entscheide zum Thema und allfällige hängige Gesetzesänderungen. Die Antwort enthält spezifische Zitate, die der Fachmann verifizieren kann. Wenn das System keine relevanten Informationen hat, sagt es das, statt eine Antwort zu fabrizieren.

Die Multi-Sektor-Dimension

Echte professionelle Arbeit respektiert keine Sektorgrenzen. Eine Unternehmensübernahme umfasst Gesellschaftsrecht, Steuerrecht, Arbeitsrecht, Wettbewerbsrecht und potenziell Bankenregulierung. Eine Immobilientransaktion berührt Sachenrecht, Planungsrecht, Umweltrecht und Steuerrecht.

Einzelsektor-Legal-KI-Tools zwingen Fachleute zurück zur manuellen Recherche, sobald sie die juristische Domäne verlassen. Multi-Sektor-KI-Plattformen, die Rechts-, Steuer-, Compliance- und Regulierungswissen verbinden, schaffen einen fundamental anderen Workflow: einen, in dem domänenübergreifende Fragen domänenübergreifende Antworten erhalten, mit verifizierten Quellen über alle relevanten Jurisdiktionen hinweg.

Wohin das führt

Der Markt bewegt sich schnell. Innerhalb von zwei Jahren wird die Nutzung unverifizierter KI für professionelle Rechtsarbeit so gesehen werden, wie wir heute unverifizierte Finanzdaten sehen: als Kunstfehler, der darauf wartet, zu passieren. Der EU AI Act (gültig ab August 2026) wird dies beschleunigen, indem er Transparenz und Prüfbarkeit für Hochrisiko-KI-Systeme verlangt, was rechtliche Entscheidungsunterstützung einschliesst.

Fachleute, die jetzt verifizierte, domänenspezifische KI-Tools adoptieren, werden Workflows aufbauen, deren Aufholen ihre Mitbewerber Jahre brauchen werden. Diejenigen, die sich weiterhin auf ChatGPT für Rechtsrecherche verlassen, bauen auf einem Fundament, das nie dafür gedacht war, das Gewicht zu tragen.

Die Enclava-Plattform von Mont Virtua liefert genau das: verifizierte KI-Wissensdatenbanken für regulierte Branchen, beginnend mit Schweizer Recht und FINMA-Compliance. Jede Antwort ist quellenbelegt. Jedes Zitat ist real. Jedes System ist in der Schweiz gehostet. Besuchen Sie enclava.ch, um den Unterschied zwischen allgemeiner KI und zweckgebauter Rechtsintelligenz zu sehen.

Zurück zum Blog