Von Uwe Horwath
Vorweg: Worüber sprechen wir, wenn wir heute über Wissensmanagement in Anwaltskanzleien sprechen? Wir sprechen nicht mehr über die Anlage und Pflege von Wissensdatenbanken in Form von Musterverzeichnissen, Textbausteinverwaltungen und anderen Wissensmanagementsystemen der alten Generation. Diese haben sich in der Praxis oft als weniger effektiv erwiesen als erhofft – nicht etwa aufgrund mangelhafter IT-Lösungen, sondern weil die besonderen Strukturen von Kanzleien andere Herangehensweisen erfordern. Die Anlage und Pflege von Wissensdatenbanken stellt eine langfristige Investition dar, deren Nutzen sich erst mit der Zeit entfaltet. Dies passt nicht immer optimal zu der Arbeitsweise von Kanzleien, deren Fokus naturgemäß auf der unmittelbaren Mandatsarbeit liegt.
So stellte sich in vielen Projekten zur Einrichtung eines Wissensmanagements die Frage nach einer effizienten Ressourcenverteilung. Denn für die Pflege von Textbausteinen, Musterklauseln und komplexen, funktionalen Wissensdatenbanken benötigen Sie erfahrene Juristinnen und Juristen. Wissensmanagement ist eben mehr als das simple Kopieren und Einfügen der immer gleichen Vorlage mit ein oder zwei Varianten.
Heute sprechen wir nicht (mehr) über Wissensmanagementsysteme im herkömmlichen Sinne. Die Verwaltung von Vorlagen und Textbausteinen gehört der Vergangenheit an. KI im Wissensmanagement von Kanzleien bedeutet, dass auf das gesamte unstrukturierte Wissen der Kanzlei zugegriffen wird – nicht nur auf Vorlageakten, Aktenauszüge oder eine sonstige Auswahl von Dokumenten. Denn eine sinnvolle Pflege dieser Auswahl wird in der Praxis nicht geleistet.
Stellen Sie sich einen Chat wie ChatGPT vor, der exklusiv mit dem Wissen antwortet, das in Ihrer Kanzlei vorhanden ist und auf dieser Grundlage neue Texte für Ihre Schriftsätze und Verträge entwickelt. Das ist das neue Wissensmanagement in Kanzleien.
Die Technologie – Retrieval Augmented Generation (RAG)
RAG liefert präzise Antworten auf komplexe Anfragen auf der Basis von spezifischem (privatem) Kontextwissen. Es kombiniert die Leistungsfähigkeit von Informationsabrufsystemen (Retrieval) mit der generativen Stärke moderner KI-Modelle. Wenn Ihre Mandantschaft ChatGPT eine Rechtsfrage stellt, antwortet das GPT-Modell mit dem Weltwissen, mit dem es trainiert wurde. Wenn Sie ein RAG-System mit Zugriff auf Ihre Kanzleidaten befragen, antwortet das große Sprachmodell mit Ihrem spezifischen Kanzleiwissen. Da sich Ihre Kanzlei über ihr besonderes Know-how definiert und weit mehr zu bieten hat als das öffentlich zugängliche Rechtswissen, wird ihr System bessere und halluzinationsfreie Antworten liefern.
Die RAG-Technologie setzt sich aus zwei Komponenten zusammen:
Die Retrieval-Komponente ist eine Suchmaschine. Sie durchforstet den Datensatz und liefert die zur Beantwortung der Anfrage erforderlichen Informationen. Die generative Komponente entwickelt aus den Suchtreffern die Antwort auf die Anfrage. Dies ermöglicht eine personalisierte und kontextsensitive Texterstellung, die das kollektive Wissen und die Expertise der Kanzlei gezielt einbezieht.
Die Herausforderung
Datenmenge, relevante Suchtreffer, Integration und Datenschutz: Dies sind die drei Hürden, die ein RAG-System nehmen muss, damit es sich im praktischen Einsatz in Anwaltskanzleien bewährt.
Datenmenge
Die Datenmengen sind immens. Wir sprechen von der Gesamtheit aller Fallakten, also nicht von 1.000 Seiten, 1.000 Dokumenten oder 1.000 Akten. Die meisten Kanzleien wissen nicht, wie viele Dokumente sich in ihrem E-Akten-System befinden. (In einer Kanzlei mit ca. zehn Berufsträgern und Berufsträgerinnen befinden wir uns in der Größenordnung von ca. 600.000 Dokumenten, was ca. drei Millionen Dokumentenseiten entspricht). Die Retrieval-Komponente, also die Suchmaschine, muss in der Lage sein, diese Datenmenge zu durchforsten. Das ist – wenn man sich nicht auf eine lexikalische Suche beschränkt – alles andere als trivial.
Wenig Zeit für Digitalisierung?
Digitalisierungstipps, die Sie weiterbringen, erhalten Sie in unserem monatlichen Legal Tech-Newsletter.
Die Relevanz der Suchtreffer
Je größer der Datensatz, desto mehr irrelevante Suchtreffer liefert die Suchmaschine. Das ist ein erhebliches Problem, das in der Praxis zu vielen unzureichenden Antworten und entsprechender Frust sorgt.
Stellen Sie sich vor, das Large Language Model (LLM) bearbeitet eine Anfrage zur Gestaltung des Wettbewerbsverbots in der Satzung einer GmbH und erhält als Kontextinformation von ihrer Kanzlei nahezu ausschließlich Suchtreffer, die sich mit dem Wettbewerbsverbot in Arbeitsverträgen befassen. Die Antwort des LLM kann nicht zufriedenstellend sein, weil die von der Suchmaschine gelieferten Treffer zur Beantwortung der Frage nicht relevant sind.
Die Retrieval-Komponente muss eine hochleistungsfähige semantische KI-basierte Suchmaschine sein, die den Kontext der Suchanfrage versteht und die Suchtreffer nach deren inhaltlicher Bedeutung bewertet – losgelöst von den verwendeten Schlagworten.
Integration und Datenschutz
Es sollen keine Akteninhalte kopiert werden, erst recht sollen Akteninhalte nicht nach außen transferiert werden. Das bedeutet, dass die Retrieval-Komponente lokal operieren und optimal an die elektronischen Aktensysteme der Kanzlei angebunden sein müssen. Die Suchmaschine muss über Schnittstellen auf die Akteninhalte zugreifen und die KI-Suchindizes lokal anlegen, ohne dass Dokumenten- oder Aktenkopien erzeugt werden.
Die generative Komponente muss in einer DSGVO-konformen Umgebung betrieben werden. Zu ihr werden nur die Informationen (Textausschnitte) übermittelt, die zur Beantwortung der Anfrage erforderlich sind.
Die Entscheidungskriterien
Aus diesen Anforderungen resultieren die Fragen, die für die Auswahl des richtigen Tools entscheidend sind.
Zum Beispiel: Wie wird das für die Beantwortung der Anfrage entscheidende Wissen ermittelt? Handelt es sich um eine gewöhnliche lexikalische, also schlagwortbasierte Suche, wird die Ergebnisqualität nicht ausreichen. Die Wissensbasis zur Beantwortung der Anfrage wird nicht gut sein, die Antworten der generativen Komponente werden enttäuschen.
Hinterfragen Sie immer, was mit KI-Suche gemeint ist. Es reicht nicht aus, wenn eine KI-Komponente sich lediglich darauf beschränkt, eine Trefferliste neu zu sortieren, die eine lexikalische Suche liefert. (Die Retrieval-Komponente ist im Übrigen einer der Gründe, warum MS CoPilot im Wissensmanagement schnell an Grenzen stößt. Es fehlt die Integration einer echten semantischen Suche, da lediglich ein sog. „semantischer Sotierer“ zum Einsatz kommt, der die Trefferliste einer lexikalischen Suche neu sortiert.)
Wird eine echte semantische Suchmaschine als Retrieval-Komponente eingesetzt, müssen Sie nach der bewältigbaren Datenmenge, den Hardwareanforderungen und den zu erwartenden Antwortzeiten fragen. Es nützt nichts, wenn bei 1.000 Dokumenten Schluss ist oder wenn eine Anfrage minutenlange Suchzeiten auslöst.
Für den Datenschutz sind zwei Aspekte entscheidend: Wird der durchsuchte Aktenbestand nach außen transferiert? Falls ja, sollten Sie genau prüfen, wie das geschieht, und eine Verdopplung des Datenbestands unbedingt vermeiden. Wo wird das Large Language Model gehostet? Werden Daten gespeichert, und wenn ja, wie lange? Üblicherweise wird in diesem Kontext ein in der Microsoft Azure Umgebung gehostetes Modell angesprochen – mit der Garantie von Microsoft, dass die Daten ausschließlich im EU-Inland verarbeitet und nicht dauerhaft gespeichert werden.
Zum Schluss noch ein Tipp
Machen Sie sich klar, welche Technologien für welchen Anwendungsfall geeignet sind. Wissensmanagement ist etwas anderes als das Chatten mit einem Dokument bzw. einer überschaubaren Dokumentensammlung. Ebenso geht es nicht allein um die Zusammenfassung von Dokumenteninhalten. Diese Aufgaben können einfachere Tools mit einer (DSGVO-konformen) Azure-AI-Anbindung lösen. Man könnte sie etwas pointiert als ChatGPT mit einer anderen Benutzeroberfläche bezeichnen. Wenn Sie KI hingegen als Instrument des Wissensmanagements einsetzen wollen, muss der KI-Chat in der Lage sein, mit dem gesamten Kanzleiwissen zu antworten.
Zeitgewinn durch Wissensmanagement
Das Legal Tech-Magazin Spezial untersucht, mit welchen Methoden und Tools Kanzleien ihr juristisches Fachwissen zentralisieren, strukturiert managen und so Wissensverluste, z. B. beim Ausscheiden von Mitarbeitenden, minimieren.
Uwe Horwath ist Gründer und Geschäfts-
führer der METHODIGY GmbH. Vor seiner Tätigkeit für Methodigy arbeitete er in einer mittelständischen Wirtschaftskanzlei als Fachanwalt für Handels- und Gesellschaftsrecht. Aus seiner Anwaltspraxis heraus entwickelte er das Fachkonzept für METHODIGY und begleitete die technische Entwicklung der Software. Aktuell ist er verantwortlich für die Positionierung der Software im juristischen Markt und die strategische Fortentwicklung des Unternehmens.