Zwischen Hype und Realität: KI im Rechtskontext
Zwischen Hype und Realität: Wie KI die juristische Arbeit verändert – und warum trotz aller Automatisierung der Mensch unersetzlich bleibt.

Die Erwartungen an künstliche Intelligenz sind groß – ebenso wie die Ängste. Seit dem Durchbruch von ChatGPT wird diskutiert, ob KI ganze Berufsfelder ersetzen könnte, auch im juristischen Bereich. Doch was ist wirklich möglich und wo liegen die Grenzen?
Diese Fragen beleuchtet Prof. Dr. Steffen Herbold von der Universität Passau in seinem Vortrag bei der User Group „Strategische Handlungsoptionen in der Rechtsschutzversicherung“ am 20./21. November 2025 in Leipzig. Vorab haben wir mit ihm ein Interview geführt. In diesem spricht er darüber, wie KI juristische Arbeit verändern kann – und warum trotz aller Automatisierung der Mensch unverzichtbar bleibt.
Sehr geehrter Herr Prof. Herbold, vielen Dank für das Interview. Sie werden am 20./21. November im Rahmen der User Group „Strategische Entwicklung der Rechtschutzversicherung“ einen Vortrag zu Möglichkeiten und Grenzen des Einsatzes von künstlicher Intelligenz (KI) im juristischen Kontext halten. Auf was genau können sich die Teilnehmenden der User Group freuen?
Seit dem Release von ChatGPT im November 2022 hat sich viel getan: Die Modelle können besser mit langen Texten umgehen, Bilder verarbeiten und generieren, und es gibt sogar Modellfamilien die Denkprozesse simulieren sollen. Gleichzeitig heißt es immer wieder, dass gewisse Berufsbilder bald obsolet sind – zum Beispiel Softwareentwickler, aber auch Juristen. Dies alles führt zu einem riesigen Hype, der zu einer enormen Menge an Risikokapital führt, welches aktuell in KI-Firmen investiert wird – was den Hype nur weiter befeuert.
Was in diesem Hype jedoch verwischt, ist, was die Modelle wirklich können. Wie zuverlässig ist es, eine E-Mail beantworten zu lassen? Oder 20 E-Mails zusammenzufassen? Einen 20-seitigen Vertrag zu analysieren? „Denken“ Sprachmodelle mit „Reasoning-Enabled“ wirklich? Das sind alles Kernfragen, die nicht nur jeder Nutzer der Modelle beantworten können sollte, sondern auch jeder andere: Denn wenn die Gegenseite KI einsetzt, muss ich das genauso einschätzen können.
Genau das ist das Ziel meines Vortrags: Klarheit in diese Themen zu bringen – weniger Hype, mehr nüchterne Realität.
Wenn man von KI spricht, denkt man ja oft an disruptive Veränderungen, bis hin zum Wegfall vieler Arbeitsplätze. Wie ist Ihre Einschätzung, insbesondere im juristischen Kontext?
Ich kenne die internen Strukturen von Kanzleien nicht genug, um hier Zahlen zu nennen. Klar ist, dass es bestimmte Tätigkeiten gibt, die KIs jetzt sehr gut können, insbesondere formulieren. Alle Tätigkeiten, in denen Text produziert wird, sind also potenziell betroffen. Wie stark, hängt von der Komplexität der Aufgabe, der Qualifikation der Mitarbeiter, aber auch von der benötigten menschlichen Kontrolle ab.
Ein kurzes Beispiel: Ein Junior Associate ist vielleicht schneller mit Hilfe vom KI-Modellen ein Gutachten zur formulieren, als wenn er oder sie dies selbst tut. Da dennoch die fachliche Korrektheit gewährleistet werden muss, muss ein KI-generierter Text im Nachhinein sorgfältig auf Fehler geprüft werden. Wie hoch dieser zusätzliche Aufwand ist, hängt vom Einzelfall ab. Hinzu kommen sekundäre Effekte, da sich die Lernkurve des Junior Associates ändert: Es wird weniger selbst formuliert, stattdessen mehr geprüft.
Wenn man sich das Beispiel anschaut, sieht man schnell, dass die Disruptivität von vielen Faktoren abhängt: Wie viel schneller ist die KI? Wie korrekt ist die KI? Und wie aufwändig und komplex ist die menschliche Tätigkeit im Prozess?
An Ihrem Lehrstuhl für AI Engineering der Universität Passau forschen Sie zu fairen KI-Anwendungen mit gesicherter Softwarequalität. Was genau haben Sie da im Fokus?
Uns interessiert vor allem, wie KI in einer Anwendung funktioniert. Hierbei stehen weniger Zahlen wie die „Accuracy“ im Mittelpunkt, sondern viel mehr, ob und wie ein Modell in einem Geschäftsprozess eingebunden werden kann. Natürlich spielt hier die Genauigkeit der Modelle eine wichtige Rolle. Die sich möglicherweise veränderte Rolle des Menschen ist aber genauso wichtig, aber auch welche Probleme die KI mit sich bringt. Was ist zum Beispiel, wenn es systemische Fehler gibt, die Minderheiten benachteiligen? Dies führt uns auch schnell zu dem grundlegenden, oft unbeantworteten Fragen über Modellfähigkeiten, welche wir in unserer Forschung ebenfalls adressieren.
Mit Formaten wie „5 gegen KI“ oder „Kai vs. KI“ treten Sie ja auch öffentlich auf und sind sogar auf YouTube vertreten. Welche Ziele verfolgen Sie damit und wie ist die Resonanz?
Mit unseren Transferformaten wollen wir Menschen außerhalb der akademischen Welt erreichen, um ihnen KI näher zu bringen. Hierbei geht es sowohl um die Möglichkeiten als auch um die Grenzen. Wenn man nur die Nachrichten liest und KI gar nicht selbst ausprobiert, bekommt man schnell ein verzerrtes Bild, da hier oft der Hype regiert. Dies kann unrealistische Erwartungen und Ängste schüren.
Dem wollen wir entgegentreten, indem wir über KI aufklären: Was geht, was geht nicht – und das möglichst anschaulich und wenig akademisch. Bisher haben wir hiermit einen riesigen Erfolg, den wir so auch nicht erwartet haben: Unser Quiz „5 gegen KI“ wurde mittlerweile über 180.000-mal auf YouTube gesehen.
Herr Prof. Herbold, vielen Dank für das Gespräch!