Über die KI ChatGPT wird im Moment viel diskutiert. Während derartige Programme durchaus ihre Daseinsberechtigung haben, produzieren sie durchaus auch Fehler, die je nach Einsatz des Programms mehr oder minder ernstzunehmen sind. Das musste auch ein Anwalt aus den USA schmerzlich erfahren. Er vertrat einen Mann in einem Verfahren gegen eine Airline und verließ sich beim Verfassen eines Schriftstücks auf die Hilfe von ChatGPT. Gut ging das nicht aus. Foto: Justice Gavel, Tori Rector, Flickr, CC BY-SA 2.0 Ein seltsames Schriftstück Die Geschichte beginnt wie so viele Rechtsstreits: Mit einem dummen Zufall. Während eines Fluges von El Salvador zum Kennedy International Airport in New York machte sich in einem Flieger der Airline Avianca ein Service-Wagen selbstständig und traf einen Mann namens Roberto Mata am Knie. Dieser suchte sich daraufhin einen Rechtsbeistand und verklagte die Airline. Avancia verlangte daraufhin von dem Richter in Manhatten, die Klage abzuweisen. Die Anwälte von Roberto Mata widersprachen daraufhin energisch und fertigten einen 10-seitigen Schriftsatz an, in dem sie mehr als ein halbes Dutzend Präzedenzfälle zitierten, die das Gericht überzeugen sollten. Zu diesen Fällen gehörten unter anderem Martinez gegen Delta Air Lines, Zicherman gegen Korean Air Lines und Varghese gegen China Southern Airlines. Letzterer Fall bezog das Bundesrecht mit ein und eröffnete eine weitreichende Diskussion um Verjährungsfristen. Es gab allerdings ein Problem: Weder die Anwälte der Airline noch der Richter selber waren in der Lage, die zitierten Entscheidungen in den einschlägigen Datenbanken zu finden. Erfundene Präzedenzfälle Der Grund für diesen rätselhaften Umstand war so einfach wie peinlich. Der Anwalt, der den Schriftsatz verfasste, gab im Nachgang zu, bei der Recherche auf ChatGPT zurückgegriffen zu haben. Eine Quelle, die sich im Nachhinein als „unzuverlässig herausgestellt habe“. Diese Charakterisierung ist indes ein wenig untertrieben. ChatGPT erwies sich nicht nur als unzuverlässige Quelle, sondern hatte die zitierten Präzedenzfälle allesamt erfunden. Mehr noch: Der Anwalt gab an, ChatGPT sogar nach einigen Fällen gefragt zu haben. Auf die Frage nach der Quelle für den Fall „Varghese gegen China Southern Airlines“ gab das Programm die Datenbank LexisNexis als Quelle an. Der Anwalt überprüfte dies nicht weiter. Die rechtlichen Probleme aus dem fiktiven Fall „Varghese gegen China Southern Airlines“ wurden tatsächlich in einem Fall diskutiert, nämlich in „Zicherman gegen Korean Air Lines Co, Ltd„. ChatGPT irrte sich allerdings sowohl in der Bezeichnung des Falls als auch im Datum der Entscheidung, die das Programm 12 Jahre nach der tatsächlichen Entscheidung angab. „I was unaware of the possibility that its content could be false. I greatly regrets having utilized generative artificial intelligence to supplement the legal research performed herein and will never do so in the future without absolute verification of its authenticity„, erklärte der Anwalt gegenüber dem Gericht. ChatGPT bleibt ein problematisches Tool Dieser Fall zeigt erneut auf, wie unzuverlässig Programme wie ChatGPT bei ernsthaften Rechercheaufgaben sein können. Wer dies tut, sollte angegebene Quellen persönlich überprüfen (eine Praxis, die bei der Verwendung von Sekundärquellen im Grunde immer angebracht ist). Für den Anwalt könnte sein Vorgehen folgen haben. Für den 8. Juni hat das Gericht eine Anhörung angesetzt, in der mögliche Sanktionen diskutiert werden sollen. Teile den Artikel oder unterstütze uns mit einer Spende. Facebook Facebook Twitter Twitter WhatsApp WhatsApp Email E-Mail Newsletter
Ohne Brillen oder Kontaktlinsen: So soll Kurzsichtigkeit schon in jungem Alter unter Kontrolle gebracht werden