Nachrichten aus Berlin | Ausgabe 9/2026

BRAK in den Medien: KI-generierte Schriftsätze beschäftigen die Justiz

Der SPIEGEL schildert einen Fall aus Leipzig, in dem sich ein Betroffener in einem Strafverfahren mithilfe von ChatGPT selbst verteidigte. Der Beitrag greift ein Thema auf, das auch die Anwaltschaft und die Justiz zunehmend beschäftigt: den Einsatz von Künstlicher Intelligenz bei der Erstellung juristischer Schriftsätze. Zu Wort kommen dabei auch zwei Präsidiumsmitglieder der BRAK, die auf praktische und rechtsstaatliche Risiken hinweisen.

29.04.2026 Newsletter

Ausgangspunkt war eine Überzahlung von Arbeitslosengeld in Höhe von 242,34 Euro. Der Leipziger David Hinz hatte nach eigener Darstellung eine neue Stelle eine Woche früher angetreten als zunächst geplant und dies der Arbeitsagentur telefonisch mitgeteilt. Die Behörde ging jedoch offenbar davon aus, dass ihr dies nicht angezeigt worden war. In der Folge erhielt Hinz einen Strafbefehl wegen Leistungsmissbrauchs; das Verfahren wurde vor dem Amtsgericht Leipzig anhängig.

ChatGPT formuliert einen Befangenheitsantrag

Wie der SPIEGEL berichtet, griff Hinz nicht auf anwaltliche Vertretung zurück, sondern nutzte ChatGPT, um sich auf das Verfahren vorzubereiten. Im Ergebnis reichte er mithilfe des Chatbots einen 18-seitigen Befangenheitsantrag gegen den zuständigen Richter ein. Das Schreiben war in juristischem Stil abgefasst, enthielt nach den weiteren zum Fall bekannt gewordenen Informationen aber auch erhebliche Mängel, darunter fehlerhafte rechtliche Einordnungen, sinnverzerrende Gesetzesbezüge und Verweise auf Entscheidungen, die offenbar nicht existierten.

Dem Antrag wurde zunächst stattgegeben; später wurde das Verfahren eingestellt. Nach ergänzenden Angaben aus dem Fall erfolgte die Einstellung jedoch letztlich nach dem Opportunitätsprinzip und nicht deshalb, weil die Ausführungen des KI-generierten Antrags inhaltlich überzeugt hätten.

KI-generierte Unterlagen bereiten großen Aufwand

Im SPIEGEL wird die Düsseldorfer Strafverteidigerin und BRAK-Schatzmeisterin Leonora Holling mit Blick auf KI-generierte Schriftsätze wie folgt zitiert: „Mandanten, die KI-generierte Unterlagen mitbringen, bereiten uns einen wahnsinnigen Aufwand.“ Weiter heißt es: „Natürlich müssen wir diesen Dingen nachgehen. Stellt man dann fest, dass es das Urteil gar nicht gibt, dann hat man umsonst gearbeitet.“

Beurteilungsprobleme der Justiz

Auch die Leipziger Zivilrechtsanwältin und BRAK-Vizepräsidentin Sabine Fuhrmann weist im Beitrag auf Probleme hin, die sich aus immer besser formulierten KI-Texten ergeben können. Der SPIEGEL zitiert sie mit den Worten: „Wenn KI-Tools künftig noch ausgefeiltere juristische Texte produzieren, entsteht ein Beurteilungsproblem der Justiz: Formal überzeugende Schriftsätze lassen nicht mehr erkennen, ob die Prozesspartei rechtliche Zusammenhänge tatsächlich versteht.“ Weiter wird Fuhrmann mit der Einschätzung wiedergegeben, im Zweifel sei dann nicht mehr nachvollziehbar, „ob eine juristisch geschulte Person vor Gericht steht, die man sich selbst überlassen kann – oder ein Laie, der zwar geschliffene Anträge einreicht, aber im Grunde hilflos ist“.

KI in der Rechtsberatung: Unterstützung ja, Ersatz nein

Der Beitrag macht deutlich, dass der Einsatz von KI im Bereich der Rechtsberatung und Verfahrensvorbereitung zwar an Bedeutung gewinnt, aus Sicht der BRAK aber nicht unkritisch zu betrachten ist. Gerade dort, wo KI juristische Texte erzeugt, bleibt die fachliche Prüfung unerlässlich.

Weiterführender Link: