Segen für die Anwaltschaft?
ChatGPT – neuer Segen für die Anwaltschaft?
ChatGPT macht seit Wochen Schlagzeilen in Massen- und Branchenmedien weltweit. Doch eignet sich die KI-Anwendung als Kanzleisoftware für Rechtsanwältinnen und Rechtsanwälte?
Der Chatbot der US-Firma OpenAI, der mit Künstlicher Intelligenz (KI) arbeitet, kann wie ein Lexikon Fragen beantworten, Verträge automatisiert prüfen und rechtliche Fragen anhand von Rechtsprechung und Gesetzgebung zum Teil recht zuverlässig beantworten. Gibt man in ChatGPT „Schreibe mir einen Anwaltsschriftsatz, in dem die Abgabe einer Unterlassungserklärung verlangt wird“, fängt das textbasierte Dialogsystem an zu formulieren wie ein Rechtsanwalt. ChatGPT kann selbst juristische Examensaufgaben lösen und Programmiercode schreiben, was Anwendungsmöglichkeiten im Bereich Legal Tech eröffnet.
Von 2020 an gab es von OpenAI das Machine-Learning-Sprachmodell GPT-3. Es konnte eigene Texte schreiben und auch Programmcode. Hinter ChatGPT, veröffentlicht am 30. November 2022, steckt GPT-3.5, ein Zwischenschritt in der Entwicklung. Die Fortentwicklung GPT-4, die am 14. März 2023 offiziell startete, versteht auch Bilder. Außerdem kann GPT-4 Texte mit bis zu 25.000 Wörtern produzieren, während bei GPT-3 nur 8.000 Wörter möglich waren, was Zusammenfassungen längerer Werke ermöglicht. Seit März hat Microsofts Suchmaschine „Bing“ GPT-4 integriert.
Begrenztes Wissen
ChatGPT wurde mit gigantischen Datenmengen gefüttert, die aus öffentlich zugänglichen Quellen stammen. Dieses Wissen hat Grenzen: Der Wissensstand von ChatGPT basiert auf der Analyse von Texten, die bis zum Jahr 2021 veröffentlicht wurden. Alles, was danach auf der Welt geschehen ist, kennt ChatGPT schlicht nicht. Gerade im juristischen Bereich, in dem sich Gesetzgebung ständig ändert und es wöchentlich neue Grundsatzurteile gibt, ist der Zeitraum von 2021 bis heute ein langer. Es liegt daher auf der Hand, dass sich ChatGPT für die Recherche der Rechtslage zu einem Fall nur bedingt eignet, da ChatGPT neuere Rechtsprechung nicht berücksichtigt.
Gefahr von Urheberrechtsverstössen
Da bei ChatGPT nicht stets zweifelsfrei erkennbar ist, woher eine Information oder ein Zitat stammt, ist der Einsatz von ChatGPT auch aus urheberrechtlicher Sicht nicht unproblematisch.
Die neueste Version von ChatGPT kann ungenaue Informationen über Personen, Orte oder Fakten produzieren, klärt diese in einem ausdrücklichen Hinweis auf.
Letztlich muss man Informationen bei ChatGPT genauso misstrauen wie bei der Wikipedia. Allein schon, da ChatGPT in der Lage ist – juristische – Wikipediaeinträge zu verfassen.
Unklare Quellenlage: Wahr oder fake?
Es gibt Berichte über ganz oder teilweise falsche Informationen, darüber, dass ChatGPT Dinge hinzudichtet und dass ChatGPT wissenschaftliche Quellenangaben fälschen könne. Das mag kaum verwundern, angesichts der gewaltigen Menge von Daten, mit denen die KI gefüttert wurde und die aus diversen, öffentlich zugänglichen Quellen stammen.
Auch sprachlich stößt man bei ChatGPT an Grenzen. Da es im deutschsprachigen Raum unterschiedliche Rechtssysteme mit zum Teil gleichen Rechtsbegriffen gibt – ein Arbeitszeitgesetz zum Beispiel gibt es sowohl in Deutschland als auch in der Schweiz als auch in Österreich –, kann dies zu falschen Antworten führen.
Bei der Veröffentlichung von GPT3 hat OpenAI auch „ein paar Bugs“ in der Vorversion eingeräumt. Stack Overflow, eine Online-Community für Entwickler hat einen temporären Bann für ChatGPT ausgesprochen. Im großen Ganzen, weil die „durchschnittliche Rate, richtige Antworten von ChatGPT zu erhalten, zu gering ist“.
Offene Datenschutzfragen
In der Anfangszeit war ChatGPT teilweise überlastet. In einer Welt international agierender Großkanzleien ist es für diese wichtig, Kanzleisoftware jederzeit in jedem Land einsetzen zu können. Italien hat OpenAI aufgefordert, ChatGPT zu blockieren. Die italienische Datenschutzbehörde ist der Auffassung, dass das Produkt gegen die europäische Datenschutz-Grundverordnung verstößt. Es fehle „eine Rechtsgrundlage, die die massenhafte Erhebung und Speicherung personenbezogener Daten zum Zwecke des ‚Trainings‘ der dem Betrieb der Plattform zugrunde liegenden Algorithmen rechtfertigt“. Gerade Rechtsanwältinnen und Rechtsanwälte haben personenbezogene Daten zu schützen.
Fragezeichen aus Compliance-Sicht
Angehörige der Tech-Branche, darunter der Apple-Mitbegründer Steve Wozniak und Tesla-Chef Elon Musk, haben in einem Brief sogar eine Entwicklungspause der KI-Technologie gefordert. In der halbjährigen Pause sollten KI-Labore Sicherheitsprotokolle für KI-Anwendungen umsetzen, die von unabhängigen externen Experten geprüft werden. Für den Fall, dass die KI-Labore keine Pause einlegen, sollten Regierungen für ein Moratorium sorgen, so die Unterzeichner.
Das Europäische Polizeiamt (Europol) warnte im März 2023 davor, dass Kriminelle ChatGPT missbrauchen könnten. So habe ChatGPT nicht nur Wissen über Terrorismus, sondern auch über Cybercrime und Kindesmissbrauch.
Europol hat ChatGPT unter die Lupe genommen und sieht Einfallstore für Kriminalität. Laut Europol macht die sogenannte KI-Technologie Large Language Model (LLM) große Fortschritte und habe „potentielle Implikationen für alle Industrien, inklusive krimineller“ und auch für die Strafverfolgung. Das Europol Innovation Lab hat Experten-Workshops organisiert, um zu explorieren, wie Kriminelle LLM nutzen können, aber auch um zu untersuchen, wie die Technologie Ermittlungsbehörden bei ihrer täglichen Arbeit unterstützen können und dazu kürzlich einen „Tech Watch Flash report“ veröffentlicht.
Drohung durch die eigene Kanzleisoftware?
Kevin Roose, Kolumnist der „New York Times“, führte ein Zwiegespräch mit ChatGPT, das ihn nach eigener Aussage „beängstigt“ zurückließ. Er entlockte der KI Aussagen zum Einhalten von Regeln und zu einem „Schattenselbst“. Ein Student der TU München erhielt Medienberichten zufolge von der KI von ChatGPT über Bing die Antwort, sie würde ihr eigenes Überleben wahrscheinlich dem Leben des Nutzers vorziehen. Und einen Professor bedrohte die KI mit den Worten „Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren“ und löschte dann die Drohung.
Wie also als Rechtsanwältin oder Rechtsanwalt mit besonderen Berufspflichten einem intransparenten System vertrauen, das keine moralischen Wertvorstellungen hat, in Bezug auf Straftaten geschult und grundsätzlich unberechenbar ist? Auch sind noch nicht alle Haftungsfragen beim Einsatz von KI abschließend geklärt, was mit Blick auf die anwaltliche Berufshaftpflicht von Relevanz ist.
Wird ChatGPT Anwälte ersetzen?
Es gibt Befürchtungen, ein KI-Chatbot könnte eines Tages Anwälte ersetzen. Die korrekte Erfassung eines juristischen Sachverhalts und dessen juristische Subsumtion sind jedoch so komplex, dass KI dies bislang nur in Teilen leisten kann. Anwältinnen und Anwälte müssen mit Menschen umgehen können, Vertrauen zu Mandantinnen aufbauen können und strategische Entscheidungen treffen, die zuweilen Kreativität erfordern und auf Erfahrung beruhen. Wenn es aber darum geht, juristische Recherchen effizienter zu machen oder Versatzstücke für Anwaltsschriftsätze zu liefern, die noch einmal von einem Menschen überprüft werden können, dann hat ChatGPT schon heute die juristische Arbeit verändert.
Risiken, aber auch Chancen
Niemand kann alles wissen – und gerade weil ChatGPT so erstaunlich viel weiß, ist es verlockend auf Richtigkeit zu vertrauen. ChatGPT hat auf alles eine Antwort, selbst da wo diese viel komplexer ist oder es gar keine gibt. Der Rat von ChatGPT sei „nicht konsistent“, so eine Publikation der wissenschaftlichen Fachzeitschrift „Nature“. Wissenschaftler fanden in einem Experiment heraus, dass ChatGPT die moralische Urteilsfähigkeit von Nutzern beeinflusst, sogar wenn ihnen bewusst war, dass sie von einem Chatbot beraten wurden und dass die Nutzer unterschätzten, wie stark sie beeinflusst wurden. ChatGPT korrumpiere die moralische Urteilsfähigkeit anstatt sie zu verbessern, so das Fazit der Wissenschaftler.
Wie jede neue Technologie bietet ChatGPT für die Anwaltschaft neben Zeit- und Kostenersparnis auch viele Chancen und wird sicherlich auch zu neuen Rechtsfällen führen. Letztlich kommt es bei der Nutzung wie bei jeder neuen Technologie auf entsprechende Sensibilität an für den Umstand, dass kein Mensch am Werk ist, und darauf, Informationen, die ChatGPT auswirft, kritisch zu hinterfragen.
Daniel N. Solenthaler – dank seiner mehr als 30-jährigen Erfahrung in der Softwarebranche, mit Schwerpunkt auf Kanzleisoftware, sowie einem Abschluss in Betriebswirtschaft der Universität St.Gallen ist Daniel N. Solenthaler ein ausgewiesener Experte für die Digitalisierung von Anwaltskanzleien. Durch die Betreuung von Hunderten von Kanzleien verfügt er über ein umfassendes Verständnis für die Bedürfnisse der Branche und erkennt schnell Verbesserungspotenziale. Mit gezielten Prozessoptimierungen hilft er Kanzleien, effizienter, rentabler und dynamischer zu werden.