Die Rolle der Künstlichen Intelligenz im Recht

KI hält immer mehr Einzug in unseren Alltag, auch in den Rechtsmarkt. An der Bucerius Law School wird in mehreren Netzwerken dazu geforscht.

Ein Bewerbungsvideo. Die Frau darauf beschreibt ihre Stärken. Sie sei eine Teamplayerin, sagt sie, und analytisch sehr stark. Sie versucht zu lächeln, doch das wirkt etwas bemüht. Die Bewerberin ist angespannt.

Ihr Video hat sie an die Personalabteilung eines großen Konzerns geschickt. Ehe die ersten Personaler*innen den Film zu sehen bekommen, durchläuft er allerdings eine andere Station: Er wird von einer Künstlichen Intelligenz auf Persönlichkeitsmerkmale der Bewerberin analysiert. Der Computer gibt ein Votum ab – und das entscheidet mit, ob die Frau in die nächste Auswahlrunde kommt.

Solche KI-Anwendungen, wie es sie in einigen Konzernen bereits gibt, sind aus rechtlicher Sicht problematisch. „Vor allem die Datenschutzgrundverordnung stellt hohe Anforderungen an automatisierte Entscheidungssysteme“, so Charlotte Schindler, wissenschaftliche Mitarbeiterin am Lehrstuhl von Professor Matthias Jacobs an der Bucerius Law School. Sie promoviert über die Frage, welche Möglichkeiten und Grenzen von KI es im Arbeitsrecht gibt, speziell bei Bewerbungsverfahren. Die Technik könne den Menschen nie ersetzen, immer nur unterstützen, sagt sie.

Momentan stelle das Nebeneinander von Datenschutzgrundverordnung, dem geplanten Data sowie dem AI-Act nicht nur Rechtsanwender*innen, sondern alle Beteiligten beim Entwicklungsprozess einer KI vor Herausforderungen. „Ein einheitlicher Rechtsrahmen würde die Wettbewerbsfähigkeit von Europa im Bereich KI verbessern“, ist sich Schindler sicher.

 

 

Auf dem Rechtsmarkt ist KI bereits unterstützend im Einsatz

Bewerbungsverfahren sind nur eines von vielen Anwendungsfeldern in Wirtschaft und Recht, in denen KI-Systeme zunehmend zum Einsatz kommen. Viele Legal-Tech-Unternehmen nutzen bereits Machine-Learning-Verfahren, wenn sie beispielsweise die Erfolgsaussichten in einem Mietrechtsfall prüfen. Weitreichende Entwicklungen gibt es zudem im Natural Language Processing: Versicherungen haben Systeme im Einsatz, die in Verträgen kritische Stellen ausfindig machen und markieren, damit Jurist*innen diese gezielt prüfen können.

Auch in der Gerichtsbarkeit gibt es ein erstes Pilotprojekt: Das System Frida soll am Amtsgericht Frankfurt alte Fluggast-Urteile auswerten und Urteilsvorschläge für aktuelle Fälle erstellen. "Die technische Entwicklung ist rasant schnell und der Debatte über KI um Jahre voraus,“ sagt Alois Krtil, Geschäftsführer des Artificial Intelligence Center Hamburg (ARIC), das an der Schnittstelle zwischen Wissenschaft und Wirtschaft den Einsatz von angewandter KI unterstützt und fördert.

 

 

Wissenschaftler*innen der Hochschule treffen sich in Netzwerken zum Thema KI und Recht

Doch was darf die KI überhaupt können, und wie muss ihr Einsatz reguliert werden? Darum ranken sich viele rechtliche Fragen. Die Wissenschaftler*innen der Bucerius Law School, die in diesem Zukunftsfeld forschen, tauschen sich in zwei Netzwerken dazu aus: Professor Christoph Kumpan hat zusammen mit Professor Georg Ringe von der Universität Hamburg das Network for Artificial Intelligence & Law. (NAIL)“ gegründet.

Das Netzwerk lädt regelmäßig renommierte nationale und internationale Wissenschaftler*innen und Praktiker*innen, die sich mit Themen rund um KI und Recht beschäftigen, nach Hamburg ein, um zu einem aktuellen Forschungsthema vorzutragen. Auf diese Weise möchten die beiden Wissenschaftler die weltweite Forschung zu KI und Recht in Hamburg bekannt machen und den Austausch zwischen Wissenschaft, Praxis und der interessierten Öffentlichkeit fördern.

Zu den bisherigen Referent*innen gehören u.a. Irina Orssich, Head of Sector AI Policy, der Europäischen Kommission, Dr. Wolfgang Hildesheim, Head of Watson und Director of Data Science and Artificial Intelligence bei IBM DACH, Prof. Mireille Hildebrandt, Vrije Universiteit Brussel und Prof. Joanna Bryson, Professor of Ethics and Technology an der Hertie School of Governance, und eine der neun Expert*innen, die von Deutschland für die Global Partnership von Artificial Intelligence nominiert wurde. Das NAIL ist eine Kooperation, in der Forscher*innen international zusammenarbeiten und in monatlichen Veranstaltungen im Austausch mit Praktiker*innen sind.

 

 

Für die Vernetzung der Nachwuchwissenschaftler*innen, wie Charlotte Schindler, besteht an der Hochschule ebenfalls ein Forum. Sie treffen sich in der von Dr. Sophie Burchardi gegründeten Law and AI Research Group (LARG), um ihre Forschung gemeinsam voranzutreiben.

15 Promovierende und vier Habilitierende arbeiten in der LARG. „Wir blicken alle mit ganz unterschiedlichem Fokus auf das Thema KI und Recht,“ sagt Burchardi, die das Netzwerk leitet. „Aber wir alle müssen verstehen: Wie funktioniert eigentlich KI?“ Die LARG organisiert Workshops und Seminare, in denen die Teilnehmenden gemeinsam grundsätzliche Fragen bearbeiten. Bislang gab es Workshops zu Fragen von KI und Technik oder KI und Ethik. Dazu kommen Seminare zu speziellen Themen wie KI bei Auswahlentscheidungen im Arbeitsrecht.

 

Viele rechtliche Fragen sind noch offen

Laut Burchardi gibt es drei Kategorien rechtlicher Fragen, zu denen die Wissenschaftlerinnen und Wissenschaftler der LARG derzeit überwiegend forschen.  

  1. Regulierung der KI
    Wo dürfen KI-Systeme eingesetzt werden? Welche Standards müssen Systeme für Künstliche Intelligenz einhalten und wie transparent muss ihr Einsatz sein?
     
  2. Einsatz von KI
    Welche Verantwortung besteht für denEinsatz von KI, sowohl zivilrechtlich als auch strafrechtlich?
     
  3. Zurechnungsfragen
    Wenn eine Künstliche Intelligenz etwas erfindet: Wer ist dann Erfinder*in im Sinne des Gesetzes?

Sophie Burchardi selbst forscht über die zivilrechtliche Haftung beim Einsatz Künstlicher Intelligenz – eine ganz zentrale Frage. Bei KI-Systemen ist oft von einer Black Box die Rede, deren Entscheidungen im Nachhinein kaum nachzuvollziehen sind. Die Frage ist dann, wer rechtlich als verantwortlich gilt, wenn beispielsweise ein automatisierter Anlageberater den falschen Fonds empfiehlt.

 

 

Wie weit darf der Einsatz von Künstlicher Intelligenz gehen?

Und immer wieder geht es um die Grenzen für Künstliche Intelligenz. Eine wichtige Grenze setzt der Datenschutz. Aber auch ethische Fragen zeigen, dass nicht alles sein darf, was technisch denkbar ist. So sagt Artikel 22 der Datenschutzgrundverordnung, dass es beim Einsatz von Technik immer eine menschliche Letztentscheidung geben muss: Der Mensch darf nicht einer ausschließlich automatisierten Entscheidung unterworfen werden. Wie viel Restentscheidungsbefugnis aber reicht aus, damit es noch wirklich eine Entscheidung des Menschen ist?

 

Die Letztentscheidung muss immer ein Mensch treffen

Diese Frage ist zentral beim Einsatz von Künstlicher Intelligenz im Rechtssystem. Das ist das Promotionsthema von LARG-Mitglied Yannek Wloch. Er forscht zu KI in der Gerichtsbarkeit. Wloch bringt dafür praktische Erfahrung mit: er war früher Mitarbeiter von Flightright, dem ersten Legal Tech für Fluggastrechte. Bei Legal-Tech-Unternehmen, also außerhalb der Gerichtsbarkeit, ist der Einsatz der Methoden der Künstlichen Intelligenz längst im Einsatz. Die Justiz selbst nutzt solche Systeme hingegen noch nicht. Das will Wloch ändern.

Er versucht in seiner Dissertation einen KI-unterstützten Zivilprozess zu entwickeln, der einen höheren Zugang zum Recht gewährt und gleichzeitig die justiziellen Ressourcen schont. In den vergangenen 20 Jahren hat sich die Zahl der Eingangszahlen bei den Gerichten halbiert, gleichzeitig haben die Fallbearbeitungszeiten immer stärker zugenommen – und das, obwohl viele kleine Forderungen gar nicht bei Gericht landen.

Erst ab einer zu erstreitenden Summe jenseits von 2000 Euro ziehen die Menschen vor Gericht. „Ein rechtsstaatlich fragwürdiger Zustand,“ so Wloch. In Massenverfahren mit vielen gleichgelagerten Fällen wie beim Diesel-Skandal könne eine KI für das Gericht vergleichbare Fälle recherchieren und Textbausteine für das Urteil formulieren. „Aber es darf natürlich nie passieren, dass die KI selbst Recht spricht,“ betont auch Wloch. „Die Richterinnen und Richter sind zudem unabhängig und dürfen nicht an die Vorgabe der KI gebunden sein.“

 

 

Wer wird bei einem fatalen Fehler der KI bestraft?

Neben ethischen, zivilrechtlichen und datenschutzrechtlichen Fragen wirft der Einsatz von KI auch strafrechtliche Fragen auf. Dazu forscht Mustafa Enes Özcan, der sich ebenfalls in der LARG engagiert. Er promoviert zur strafrechtlichen Haftung beim autonomen Fahren.

In seiner Forschung geht es um die Frage, inwieweit sich die Hersteller *innen oder Programmierer*innen eines autonom fahrenden Fahrzeugs etwa wegen fahrlässiger Tötung strafbar machen können, wenn das Fahrzeug einen Unfall verursacht. Denkbar sind Fälle, in denen ein Fußgänger überfahren wird, weil sich ein Fehler in den Datensatz eingeschlichen hat und die KI eine fatale Entscheidung getroffen hat.

Die KI kann immer nur so gut sein wie es die Daten ermöglichen, mit denen sie trainiert wurde. „Die strafrechtliche Produkthaftung wird da enorm an Bedeutung gewinnen,“ so Özcan. „Wenn wir beim vollautomatisierten Fahren den Fahrenden und natürlich auch die KI nicht bestrafen können – was durchaus diskutiert wird – müssen wir die Frage beantworten, ob der Hersteller etwas falsch gemacht hat.“

 

 

In der Medizin wird große Hoffnung in die KI gesetzt

Viele Branchen setzen für die Zukunft auf KI-Systeme. Große Hoffnung in die neuen technischen Möglichkeiten wird vor allem in der Medizin gesetzt. Da ist der Anwendungsbereich schon heute groß und reicht von Uhren, die individuelle Gesundheitsdaten aufzeichnen, bis zu KI, die Patient*innen in einem klinischen Umfeld autonom diagnostiziert. „Die KI wird in Zukunft ein wesentlicher Bestandteil der Medizin sein,“ sagt Mindy Nunez Duffourc.

Die stellvertretende Assistenzprofessorin der New York University Law School forscht zurzeit im Rahmen des Visiting Scholars Programms an der Bucerius Law School. Sie untersucht, wer haftet, wenn das System autonom medizinische Tätigkeiten wie eine Diagnostizierung ausführt und dabei Fehler begeht. „Neue Gesundheitstechnologien verwandeln die medizinische Praxis in ein zunehmend globales Unterfangen, das neue internationale rechtliche Perspektiven erfordert,“ so Duffourc.

 

 

Künstliche Intelligenz wird künftig vielfältige Aufgaben lösen müssen

Während der rechtliche Rahmen noch formuliert wird, schreitet die technische Entwicklung schnell voran. Die KI wird immer intermodaler, sagt Alois Krtil, der Geschäftsführer des ARIC. In Zukunft werden die Systeme seiner Überzeugung nach nicht nur eine spezifische Aufgabe lösen können, wie es zurzeit der Fall ist, sondern viele verschiedene. Das ist laut Krtil die nächste Entwicklungsstufe.  

Die Wissenschaftler*innen an der Bucerius Law School wollen damit rechtlich Schritthalten. Für Professor Christoph Kumpan ist die Forschung an der Hochschule wegweisend. „Wir müssen die technische Entwicklung von vornherein rechtlich mit formen,“ sagt Kumpan.

Wie weit die Forscher*innen der Hochschule in dem Feld bereits sind, zeigt sich an Folgendem: Die EU-Kommission hat im April 2021 einen Entwurf für eine Verordnung über Künstliche Intelligenz vorgelegt, den Artificial Intelligence Act. Der Entwurf ist noch nicht verabschiedet. Christoph Kumpan und seine Habilitandin Sophie Burchardi sind aber schon jetzt dabei, im Rahmen einer Kommentierung des bald kommenden EU AI-Act die Transparenz-, Kodex- und Haftungsregeln genauer unter die Lupe zu nehmen und zu kommentieren. Denn so viel ist sicher: Das Ineinandergreifen von Recht und KI gilt es auch in Zukunft immer wieder neu zu bestimmen.

 

Text

Elke Spanner, Florian Helwich

NEWSLETTER

Der "Newsletter der Bucerius Law School" informiert ca. zweimonatlich über Neuigkeiten aus der Bucerius Law School und Termine.

Hamburg