Der Hauptgrund, der mich davon abhalten würde, ein Large Language Model (LLM) zur automatischen Rechts- oder Steuerentscheidung (ohne menschliches Zutun) zu verwenden, ist, dass ich die Unsicherheit seiner Entscheidung nicht richtig quantifizieren kann.
Daher müssen viele Entscheidungen von Menschen überprüft werden, und das ist der Hauptgrund, warum ich diese Modelle nicht für rechtliche Entscheidungen in großem Maßstab verwenden kann (Festlegung der Mehrwertsteuer, Identifizierung von Betriebsstätten, Festlegung von Debit-/Kreditkonten usw.).
Um die Unsicherheit zu quantifizieren, muss der Entscheidungsprozess modelliert werden. Wenn ich die Unsicherheit einer Entscheidung kenne, kann ich entsprechend handeln (z. B. einen Menschen entscheiden lassen, wenn die Unsicherheit hoch ist, oder die Unsicherheit durch Bereitstellung weiterer Informationen verringern).
Alle Systeme, die ich im Steuerbereich gesehen habe und die eine Entscheidung vollständig automatisieren (z. B. Steuer-Engines), sind deterministisch: Bei gleichen (begrenzten) Eingaben liefern sie immer die gleichen Ergebnisse. Diese Systeme können Unsicherheit nicht quantifizieren. Warum haben wir diese Modelle dennoch 50 Jahre lang eingesetzt? Gibt uns die Tatsache, dass ein Experte den Entscheidungsprozess erklären kann, mehr Vertrauen? Oder liegt es daran, dass wir Compliance-Systeme haben, die den Entscheidungsprozess überwachen? Oder daran, dass wir nicht über die Technologie verfügten?







