ChatGPT - 25. Mai 2023

Konkurrent oder Assistent?

Jeder spricht momentan von dem innovativen Sprachmodell, das wie von Menschen geschriebene Texte generiert. So stellt sich die Frage, ob dieser Chatbot in der Rechtsberatung Anwälte ersetzen oder doch nur unterstützen kann.

Seitdem der Computer existiert, unterstützt und ersetzt er die Menschen in ihrer Arbeit. Zugespitzt stellt sich die Frage, ob die Maschine irgendwann menschliche Aufgaben innerhalb einer Gesellschaftsstruktur vollständig übernehmen kann. Durch den technologischen Fortschritt in den vergangenen Jahren ist diese Frage zunehmend präsent. Denn künstliche Intelligenz (KI) und Automatisierung haben in den letzten Jahren viele Branchen verändert. Auch im Recht gibt es Bestrebungen, die Arbeit von Juristinnen und Juristen durch den Einsatz von KI zu unterstützen. Das Wachstum von KI wird von manchen Experten als exponentiell beschrieben. Greifbar wird diese Überlegung durch folgende Fakten: Der Computer wurde 1941 erfunden. Das World Wide Web gibt es seit den 1990er-Jahren. 2007 stellte Steve Jobs das iPhone vor und nun gibt es seit Ende des vergangenen Jahres ChatGPT.

So gut wie der Mensch oder besser?

ChatGPT (Generative Pre-trained Transformer) ist ein vom Unternehmen OpenAI programmiertes großes Sprachmodell, das wie von Menschen verfasste Texte generieren kann. Das klingt zunächst nicht neu. Chatbots und Sprachprogramme gibt es schon seit Jahren. Der wesentliche Unterschied liegt jedoch darin, dass mitunter nicht erkennbar ist, dass ein Beitrag von einer KI erstellt wurde statt von einem Menschen. Im Gegensatz zu traditionellen Chatbots, die vorprogrammierte Antworten auf vordefinierte Fragen liefern, kann ChatGPT durch die Verarbeitung von großen Textmengen eine Vielzahl von Fragen beantworten und darüber hinaus menschliche Konversationen nachahmen. ChatGPT ist in der Lage, kontextbezogene Antworten zu liefern und seine Antworten auf der Grundlage der vorherigen Interaktionen mit dem Benutzer zu personalisieren.

Chatbot für Juristen?

KI wird bereits seit Jahren unter dem Begriff Legal Technology (Legal Tech) in der juristischen Welt diskutiert. Legal Tech bezieht sich auf die Anwendung von Technologie, insbesondere der Informationstechnologie, zur Automatisierung und Optimierung von juristischen Dienstleistungen. Es kann verschiedene Aspekte des Rechtsbereichs abdecken, wie zum Beispiel Vertragsgestaltung, Recherche und Analyse von Rechtsdokumenten, digitale Datenverarbeitung, E-Discovery, Fallmanagement und Online-Streitbeilegung. Ziel ist es, die Effizienz, Genauigkeit und Geschwindigkeit von juristischen Dienstleistungen zu verbessern und den Zugang zum Recht zu erleichtern. Beispiele hierfür sind Smart Contracts, die auf der Blockchain-Technologie basierend geschlossene Verträge automatisiert ausführen oder die darin festgelegten Regeln überwachen. Die bisherigen Legal Techs sind in der Lage, juristische Aufgaben automatisiert zu bearbeiten. Das menschliche Ermessen, das aus jahrelanger juristischer Tätigkeit eines qualifizierten Anwalts hervorgeht, kann dadurch aber nicht ersetzt werden. Bislang ist kein Verständnis für komplexe juristische Fragen und menschliche Interaktion möglich. Ferner hat der Anwaltsberuf viele Facetten, die über die rein juristischen Aspekte hinausgehen, wie etwa zwischenmenschliche Interaktion mit Mandanten, die Verhandlungsführung sowie das Auftreten und die Vertretung vor Gericht. Diese Aufgaben erfordern ein hohes Maß an Empathie und Erfahrungen. Jedoch gibt es auch hier erste Schritte der KI. In den USA sollte im Februar 2023 eine Person per Smartphone-App über Kopfhörer Antworten vor Gericht präsentieren, die die App vorgab, sodass ein Anwalt mit seiner juristischen Expertise und Verteidigung nicht mehr erforderlich werden sollte. Nach zahlreichen Drohungen mehrerer Anwaltskammern zog sich das verantwortliche KI-Unternehmen jedoch zurück. Die Möglichkeit besteht dennoch. Es sollen mit ChatGPT bereits erste erfolgreiche Vertragsverhandlungen durchgeführt worden sein, um zum Beispiel einen günstigeren Preis bei einem Internetanbieter zu vereinbaren.

Mangelnde Empathie

ChatGPT kann dazu beitragen, die Wahrscheinlichkeit des Ergebnisses eines bestimmten Falls vorherzusagen. Dies kann durch die Analyse vergangener Gerichtsentscheidungen oder durch das Verständnis der Fakten und Umstände des aktuellen Falls erreicht werden. Jedoch basiert die Arbeit von ChatGPT auf der Denkweise der formalen Logik, einem Zweig der Logik, der sich mit der Untersuchung von Argumenten und Schlussfolgerungen in einer präzisen, mathematischen Sprache befasst. Echte Empathie und Einzelfallgespür sind damit nicht möglich.

Datenschutz und Datenverarbeitung

ChatGPT arbeitet mit Big Data, also großen Datenmengen. Dadurch wird die Bedeutung personenbezogener Daten immer größer. Je mehr Daten zur Verfügung stehen, desto gezielter kann eine KI auf den einzelnen Menschen eingehen und auf diesen entscheidungsrelevant einwirken. Daher ist eine Kernfrage bei dem Umgang mit dem neuen Werkzeug die Gewährleistung einer gesetzeskonformen Datenverarbeitung. ChatGPT sammelt möglicherweise personenbezogene Daten wie Chat-Verläufe, E-Mail-Adressen, Standorte und IP-Adressen. Diese sollen anonymisiert zur Verbesserung der Fähigkeiten verarbeitet werden. Aber die sogenannten Prompts (Eingaben bei ChatGPT) werden in jedem Fall verarbeitet. Werden personenbezogene Daten eingegeben, ist das datenschutzrechtlich bedenklich. Zudem sind Datenspeicherung und -schutz nicht überprüfbar. Wenn Benutzer die Kontrolle über ihre Daten zur Löschung oder Änderung verlieren, kann dies eine Verletzung der Datenschutzrechte darstellen.

Urheberrecht

Eine weitere Frage betrifft das Urheberrecht. Nur persönliche und geistige Schöpfungen werden von dem deutschen Urhebergesetz erfasst. Da die von ChatGPT erstellten Texte jedoch KI-generiert sind, können diese urheberrechtlich nicht geschützt sein. Allerdings erstellt ChatGPT nicht immer eigenständig Texte, sondern liefert Antworten, die auf zuvor analysierten Dokumenten basieren. Daher ist es möglich, dass ChatGPT bereits vorhandene Textstrukturen wiedergibt oder Auszüge aus Texten liefert, die leicht abgewandelt, aber dennoch urheberrechtlich geschützt sind. In diesen Fällen könnte eine Vervielfältigung im Sinne des Urhebergesetzes vorliegen. Auch ist bei einer Publikation eine öffentliche Zugänglichmachung im Sinne des Gesetzes möglich. Ohne die genaue Grundlage des Programms zu kennen, ist eine abschließende Beurteilung jedoch nicht möglich.

Haftung bei der Nutzung

Als KI ist ChatGPT keine juristische Person und trifft Entscheidungen nach der Maßgabe seiner Programmierer. Wenn falsche Antworten oder unvollständige Informationen ausgegeben werden, liegt es in der Verantwortung der Benutzer, diese zu überprüfen und zu bestätigen, bevor sie für eigene Zwecke verwendet werden. Es ist daher ratsam, die Leistung des Programms als Ausgangspunkt für eigene Recherchen und Überlegungen zu nutzen. Sollten sich bei der Benutzung von ChatGPT bei der anwaltlichen Beratung haftungsrelevante Fehler ergeben, greift in der Regel die Berufshaftpflichtversicherung. Wenn ein Anwalt ChatGPT zur Recherche verwendet und dadurch falsche Mandantenberatungen gibt, wird dies als Teil seiner beruflichen Tätigkeit angesehen werden müssen. Man könnte einen Vergleich zu anderen Suchmaschinen anstellen. Ein Haftungsausschluss der Versicherung für bestimmte Risiken oder Tätigkeiten ist zwar grundsätzlich möglich, würde aber bei einem generellen Ausschluss der Nutzung neuer KI wohl zu weit gehen.

Einzelfallbetrachtung fraglich

Der grundsätzlich konditionale Aufbau von Rechtsnormen lässt fairerweise den Eindruck entstehen, dass eine KI die Tätigkeit der Sachverhaltsprüfung unter eine Rechtsnorm übernehmen kann. Anders als von vielen Informatikern angenommen, ist die juristische Arbeit im Kern aber nicht die Aufarbeitung von aufeinanderfolgenden Tatbestandsmerkmalen, die es für einen Anspruch zu erfüllen gilt. Die juristische Arbeit beginnt mit der Wertung des Einzelfalls. Es geht weniger um richtig oder falsch als vielmehr um vertretbar oder nicht vertretbar. Von enormer Bedeutung ist in diesem Zusammenhang, dass die juristische Wertung gerade für die unmittelbar betroffenen Parteien nachvollziehbar sein muss.

Fehlende Transparenz

Da ChatGPT auf KI und maschinellem Lernen basiert, kann es für Anwender gerade schwierig nachzuvollziehen sein, wie Entscheidungen getroffen werden. Fehlende Transparenz kann Bedenken zur Fairness und Diskriminierung bei der Entscheidungsfindung aufwerfen, die sich bei unreflektierter Anwendung auf eine juristische Entscheidung übertragen kann. Sofern man davon ausgeht, dass juristisches Handeln innerhalb einer Gesellschaft auch zu deren Formung beiträgt, könnte ein Kontrollverlust der Gesellschaftsentwicklung drohen. Die Moral und Ethik der Gesellschaft würden durch die KI bestimmt werden.

Fazit

ChatGPT sollte als ein Werkzeug die anwaltliche Arbeit unterstützen. Obwohl ChatGPT in der Lage ist, viele Aufgaben automatisiert zu bearbeiten, kann es nicht alle Anforderungen an einen Anwalt erfüllen. Menschliches Urteilsvermögen und Empathie sind oft erforderlich, um komplexe Situationen zu verstehen und angemessene Entscheidungen zu treffen. Die Einzelfallgerechtigkeit würde bei zunehmender Automatisierung erheblich leiden. Hier gilt es, kontrollierende Regelungen zu treffen. Insgesamt kann ChatGPT jedoch dazu beitragen, die Effizienz und Genauigkeit der juristischen Arbeit zu erhöhen.

Zum Autor

AT
Armin Treichel

Rechtsanwalt in der Kanzlei SCHUMACHER & PARTNER PartG mbB in Düsseldorf

Weitere Artikel des Autors