Von ChatGPT bis Random Forest: Welche KI-Anwendungen Kanzleien wirklich weiter bringen

Zwei Spezialisten aus dem Bereich Legal Tech – Rechtsanwalt Alexander Barynskyy und Diplomjurist Martin Knost von KPMG Law Rechtsanwaltsgesellschaft mbH, einer internationalen Rechtsanwaltskanzlei – haben bereits in einem ersten Interview über aktuelle Legal Tech-Trends aus der Praxis berichtet. Sie haben darüber gesprochen, welche Trends es gibt, wie ein Vergleich mit anderen Ländern ausfällt und welche Trends in der Praxis tatsächlich Stand halten. In einem zweiten Teil sprechen die beiden ausführlicher über das Thema Künstliche Intelligenz: Welche KI-Anwendungen bringen echten Nutzen in den Kanzleien? In welchen Bereichen sind Large Language Models wie ChatGPT sinnvoll? Die beiden Experten verraten außerdem im Gespräch mit Pia Nicklas, warum klassische, regelbasierte Systeme weiterhin eine wichtige Rolle spielen.

Pia Nicklas: KI ist nicht gleich KI – welche Arten von KI gibt es, die Kanzleien nützlich sein können?

Alexander Barynskyy: Am bekanntesten und meist verbreitetsten sind wohl Large Language Models (LLMs). Dabei handelt es sich um Künstliche Intelligenz, die auf Basis von Statistik und Wahrscheinlichkeit Texte vervollständigt. Das bekannteste Beispiel hierfür ist wohl GPT, in der faktischen Anwendung explizit als ChatGPT. ChatGPT ist hierbei die Chatbot Anwendung, welche durch das dahinterstehende Large Language Model GPT (zurzeit in der 4o-Variante) dazu in der Lage ist, Texte hervorzubringen.

Eine weitere Kategorie ist die sog. Clustering-KI, also Künstliche Intelligenz, die dazu in der Lage ist, Informationen zu kategorisieren und zu klassifizieren, also Texte einem Kontext zuzuordnen. Beispielsweise kann hiermit erkannt werden, ob es sich bei einem Vertrag um einen Werkvertrag, einen Mietvertrag oder einen gesellschaftsrechtlichen Anteilskaufvertrag handelt.

Natural Language Processing Modelle, kurz NLPs, sind schon recht lange bekannt. Als Beispiel können hier Siri oder Amazon Echo, bekannt als Alexa, genannt werden. Hier geht es um die Fähigkeit, Sprache zu erkennen. Auf eine vergleichbare Weise funktioniert auch Bildverarbeitung – statt mit Sprache können Bilder verarbeitet oder neu generiert werden.

Betrachtet man die Historie dieser Trends, so ist auch die Mutter der heutigen KI zu nennen: Random Forests, also Entscheidungsbäume. Man kippt oben etwas hinein und je nachdem, welche Stellschrauben existieren, kommt am Ende ein Ergebnis heraus. Als Beispiel nenne ich hier gerne das häufig in der Literatur genutzte Beispiel der Titanic. Man könnte bestimmte Informationen hineinkippen (Körpergröße und Alter einer fiktiven Person, wie viele Passagiere waren an Bord, wo genau befand sich der Eisberg,…) und anschließend berechnen, mit welcher Wahrscheinlichkeit diese fiktive Person den Untergang der Titanic überlebt hätte. Eine Weiterentwicklung dessen sind die sog. neuronalen Netze. Auch hier hat man ein Input-Output-Prinzip, mit dem Unterschied, dass es nicht nur einen Weg gibt, der durchlaufen werden kann, sondern jeder Punkt bzw. jedes Neuron kann auch von mehreren Vorgängerneuronen aus erreicht werden. Das bedeutet, dass der Weg der Entscheidungsfindung nicht linear ist, sondern hin- und herspringen kann.

Glaubt ihr, dass  regelbasierte Legal Tech-Systeme in Zeiten von Large Language Models (LLMs) ausgedient haben?

Martin Knost: Nein, ich glaube nicht, dass klassische KI und regelbasierte Legal Tech Systeme komplett ausgedient haben, auch wenn Large Language Models immer weiter Fortschritte machen. Es kommt auf den Anwendungsfall an.

Klassische KI-Expertensysteme mit Entscheidungsbäumen und regelbasierte Logik haben nach wie vor klare Stärken.

Erstens bieten sie hohe Transparenz und Nachvollziehbarkeit. In rechtlichen Kontexten ist es entscheidend, genau zu verstehen, warum ein System zu einem bestimmten Ergebnis kommt – etwa bei der Vertragsprüfung oder der Einhaltung von Vorschriften. Regelbasierte Systeme sind hier noch klar im Vorteil, weil sie auf einer vordefinierten Logik basieren, die leicht überprüft werden kann. LLMs hingegen sind zu einem gewissen Teil nach wie vor eine „Black Box", der man im Zweifel dann doch eher misstraut.

Zweitens sind klassische Systeme effizienter in spezialisierten, klar abgegrenzten Aufgaben. Wenn es darum geht, eine bestimmte Regel mechanisch anzuwenden – sagen wir, Steuerberechnungen oder Fristenüberwachung, dann sind regelbasierte Ansätze oft schneller und auch deutlich ressourcenschonender als ein LLM, das erst einmal Unmengen an Daten verarbeiten muss, um eine Antwort zu generieren.

Newsletter

Immer über aktuelle Legal Tech-Trends Bescheid wissen?

Digitalisierungstipps, die Sie weiterbringen, erhalten Sie in unserem monatlichen Legal Tech-Newsletter.

Wann sind LLMs dann tatsächlich sinnvoll?

Martin Knost: LLMs glänzen bei komplexeren Aufgaben, wie der Analyse natürlicher Sprache, der Zusammenfassung von Texten oder der Erkennung von Mustern in großen Datenmengen, können also unstrukturierte Daten sehr gut strukturieren. Das ist für Juristinnen und Juristen natürlich spannend, zum Beispiel wenn ein Datenraum mit tausenden Dokumenten gesichtet werden muss. Außerdem sind LLM basierte, multimodale Chatbots die ideale Schnittstelle zwischen Mensch und Maschine. Auf Twitter las ich jüngst „die spannendste Programmiersprache ist aktuell Englisch“.

Sehr vielversprechend ist zudem die Verwendung von Hybridlösungen, in denen regelbasierte Systeme für präzise, repetitive Aufgaben und LLMs für kreative, kontextbezogene Herausforderungen zum Einsatz kommen, im Idealfall koordiniert von einer KI.

Alexander Barynskyy: Regelbasierte Systeme unterliegen außerdem dem leichteren Review durch Wissensträger. Sie sind deshalb vor dem Hintergrund der Anforderungen des AI-Acts und der DSGVO leichter rechtssicher auf den Markt zu bringen.

Kann einer von euch Beispiele für Hybrid-Lösungen nennen?

Alexander Barynskyy: Beispiel für Hybrid-Lösungen wären die bereits erwähnten Vorgänger von neuronalen Netzen – Random Forests. Dabei werden viele (manchmal hunderte oder tausende) Entscheidungsbäume genutzt, die auf maschinellem Lernen basieren. Aus diesen bestehenden Bäumen werden neue Entscheidungsbäume erzeugt, die auf den erkannten Mustern und Logiken beruhen – daher der Name "Random Forest". Aufgrund der Vielzahl an bestehenden und gerierten Entscheidungsbäumen, kann man nie sagen, wie der „Wald“ am Ende aussehen wird.

Trotzdem funktioniert die Entscheidungsfindung in jedem einzelnen Baum nach festen Regeln: Eingabedaten werden in eine Sammlung aus Merkmalen aufgeteilt (Input-Vektor), anhand der Häufigkeiten aus früheren Entscheidungen (classifier) gewichtet und führen zu einem bestimmten Ergebnis. Im Vergleich zu neuronalen Netzen liefern Random Forests oft weniger schwankende Ergebnisse.

Betrachtet man nur das Ergebnis und nicht die zufällige Erzeugung der Entscheidungsbäume, dann ist der Output das Resultat vieler klar definierter Wenn-Dann-Sonst-Entscheidungen.

Wenn man z. B. Vertragsdokumente analysiert, kann ein Random Forest typische Begriffe wie „Arbeitnehmer" oder „Gehalt" erkennen und so den Vertrag als Arbeitsvertrag einordnen. Tauchen stattdessen Begriffe wie „Organisationsstruktur" oder „Weisungen" auf, kann das Modell eine Einschätzung zur möglichen Scheinselbstständigkeit geben, etwa bei einem Vertrag über freie Mitarbeit.

Ihr habt im Rahmen der Rechtssicherheit den AI-Act in der Europäischen Union erwähnt. Dieser trat am 01.08.2024 in Kraft. Gibt es in diesem Zusammenhang einen Aspekt, der aus eurer Sicht besonders relevant ist?

Alexander Barynskyy: Der AI Act ist in rechtlicher Hinsicht natürlich besonders relevant, da er erst seit Kurzem in Kraft getreten ist. Wesentliche Inhalte des AI Acts im Umfeld der EU sind jedoch keine Novation per se, da die grundsätzlichen Anforderungen an KI bereits 2019 von der „Hochrangigen Expertengruppe" der Europäischen Kommission aufgestellt wurden. Aus meiner Sicht besonders relevant ist die Forderung nach der Erklärbarkeit und Nachvollziehbarkeit von KI, die auch bereits in der Präambel des AI Acts zweimal erwähnt werden. Hier ergeben sich verschiedene Probleme:

Ein faktisches Problem ist – wie bereits erwähnt – dass die KI nach wie vor als Blackbox angesehen wird. Deshalb findet diese auch wenig Konkretisierung im Haupttext des AI Acts. Das gleiche Problem konnte bereits bei der DSGVO beobachtet werden, welche kraft eines anderen Schutzgedanken parallel neben dem AI Act anwendbar bleibt. Die h. M. sagt hier, dass eine fortschrittsfreundliche Auslegung mit keinen zu strengen Anforderungen an die Erklärbarkeit der KI anzuwenden ist, da nach wie vor das Problem besteht, dass man eine KI weder befragen, noch in den Prozess der Entscheidungsfindung hineinsehen könne. Dieser Aspekt stellt aus meiner Sicht allerdings ein Scheinproblem dar.

In Wahrheit existieren nämlich sowohl theoretische als auch praktische Erklärungsmethoden, um die Arbeitsweise einer KI nachzuvollziehen. Theoretische Erklärungsmethoden wären hier beispielweise Forest Floor zur Projektion der Entscheidungsbäume auf eine zweidimensionale farblich differenzierte Fläche, LIME und SP LIME zur Erklärung von NLPs über mathematische Rechenmethoden oder SHAP als LIME-basiertem Ansatz zur Erklärung von Datenmodellen über neu generierte Erklärungsmodelle.

In der Praxis wurden diese Erklärungsmethoden schon seit geraumer Zeit über Tools und Frameworks wie beispielsweise „AIF360“ von IBM, dem „WhatIf Tool“ von Google oder „InterpretML-Framework“ von Microsoft realisiert. Man muss sich jedoch bewusst sein, dass derartige Erklärungsmethoden nicht für den Endverbraucher gedacht sind und auch nicht für jeden Rechtsanwalt, da man ein hohes mathematisches Verständnis benötigt, um die Erklärungen auch nachvollziehen zu können. Vielmehr dienen sie, wie auch sonst bei vielen Sachverhalten, dazu mit entsprechendem Expertenwissen einen Sachverhalt dem Beweis zugänglich zu machen.

Insgesamt lässt sich jedoch sagen, dass der Fortschritt der KI-Modelle sehr schnell voranschreitet, was bedeutet, dass sich auch die Erklärungsmethoden in diesem Tempo weiterentwickeln. Insofern könnte die KI-freundliche Auslegung, wie sie an den AI Act und die DSGVO angewandt wird, bald ohnehin überholt sein, ebenso wie die Bezeichnung der KI als „Black Box“, wie dies die h. M. zurzeit noch vertritt.

Legal Tech-Trends 2025: Digitale Tools für die Kanzlei von morgen

Wer neue Technologien wie Künstliche Intelligenz und Automatisierung gezielt einsetzt, sichert sich klare Effizienzvorteile und bleibt wettbewerbsfähig. Doch welche aktuellen Entwicklungen sind wirklich relevant? Antworten liefert die neue Spezialausgabe des Legal Tech-Magazins.

Bild: Adobe Stock/©elenabsl
Weitere Beiträge

Alexander Barynskyy berät als Rechtsanwalt nationale und internationale Unternehmen insbesondere in den Bereichen Mergers & Acquisitions, Gründungen und laufende Betreuung von Kapital- und Personengesellschaften, Joint Ventures und Gesellschafterstreitigkeiten. Auf Basis seiner Expertise als LL.M. Legal Tech implementiert er neue Technologien zur Digitalisierung und Beschleunigung juristischer Arbeitsabläufe und optimiert bestehende Prozesse an die Entwicklungen des Technologie- und Rechtsmarkts.

Martin Knost ist gelernter Jurist mit langjähriger Erfahrung im Bereich Legal Tech. Er entwickelt innerhalb der KPMG Law KI-basierte Lösungen und berät europaweit Mandanten zu KI-Strategieentwicklung und bei der Auswahl und Implementierung von Legal-Tech Software.

Pia Nicklas hat Rechtswissenschaften in Bayreuth und Wirtschaftsrecht an der Fernuniversität Hagen studiert. Sie arbeitete erst als Werkstudentin und nach Ihrem Abschluss als Wirtschaftsjuristin im Fraunhofer-Institut für Integrierte Schaltungen in Erlangen. Nach einem kurzen Ausflug in die Kanzleiwelt und in ein großes Wirtschaftsunternehmen, ist sie seit Anfang 2020 als freiberufliche Fachtexterin im juristischen Bereich tätig.

Nach oben scrollen