Compliance, Newsroom | 30. Oktober 2025

Large Language Model in der Rechts- oder Steuerentscheidung

Große Sprachmodelle könnten die Entscheidungsfindung im Steuer- und Rechtsbereich grundlegend verändern – doch ohne die Möglichkeit, Unsicherheit zu quantifizieren, bleibt vollständige Automatisierung riskant. Im Gegensatz zu deterministischen Steuermodellen arbeiten LLMs probabilistisch. Das Verstehen und Modellieren von Entscheidungsunsicherheit ist der Schlüssel zu vertrauenswürdiger Automatisierung in Recht und Steuern. von

Der Hauptgrund, der mich davon abhalten würde, ein Large Language Model (LLM) zur automatischen Rechts- oder Steuerentscheidung (ohne menschliches Zutun) zu verwenden, ist, dass ich die Unsicherheit seiner Entscheidung nicht richtig quantifizieren kann.

Daher müssen viele Entscheidungen von Menschen überprüft werden, und das ist der Hauptgrund, warum ich diese Modelle nicht für rechtliche Entscheidungen in großem Maßstab verwenden kann (Festlegung der Mehrwertsteuer, Identifizierung von Betriebsstätten, Festlegung von Debit-/Kreditkonten usw.).

Um die Unsicherheit zu quantifizieren, muss der Entscheidungsprozess modelliert werden. Wenn ich die Unsicherheit einer Entscheidung kenne, kann ich entsprechend handeln (z. B. einen Menschen entscheiden lassen, wenn die Unsicherheit hoch ist, oder die Unsicherheit durch Bereitstellung weiterer Informationen verringern).

Alle Systeme, die ich im Steuerbereich gesehen habe und die eine Entscheidung vollständig automatisieren (z. B. Steuer-Engines), sind deterministisch: Bei gleichen (begrenzten) Eingaben liefern sie immer die gleichen Ergebnisse. Diese Systeme können Unsicherheit nicht quantifizieren. Warum haben wir diese Modelle dennoch 50 Jahre lang eingesetzt? Gibt uns die Tatsache, dass ein Experte den Entscheidungsprozess erklären kann, mehr Vertrauen? Oder liegt es daran, dass wir Compliance-Systeme haben, die den Entscheidungsprozess überwachen? Oder daran, dass wir nicht über die Technologie verfügten?

Mehr zum Thema: Compliance