KI und Intimität - Verändert KI die Struktur unserer Gesellschaft?

Im Rahmen der Bucerius IP-Lecture waren Ijoma Mangold, Lisa Mühl und Maxi Nebel im Debattenforum zu Gast.

Hochschulprofil |

KI ersetzt nicht nur Arbeit, sondern dringt immer stärker in intime Lebensbereiche vor: Sie führt Gespräche, tröstet und wird für manche zur Beziehungsperson. Welche Folgen hat es, wenn technologische Beziehungen an die Stelle menschlicher treten? Welche rechtlichen Fragen stellen sich und wie lassen sich Persönlichkeitsrechte wirksam schützen?

Dazu sprachen

- Ijoma Mangold, Kulturpolitischer Korrespondent (DIE ZEIT), Literaturkritiker und Autor
- Lisa Mühl, Wissenschaftliche Mitarbeiterin und Doktorandin an der Universität Duisburg-Essen, Projekt SENTIMENT („Sichere Selbstoffenbarung bei intimer Kommunikation mit Dialogsystemen“)
- Dr. Maxi Nebel, Wissenschaftliche Mitarbeiterin an der Universität Kassel, Projekt SENTIMENT

gemeinsam mit Prof. Dr. Kristoff Ritlewski, Counsel des Center for Transnational IP, Media and Technology Law and Policy im Rahmen der IP-Lecture im Debattenforum der Bucerius Law School. Begrüßt wurden die Gäste von Prof. Dr. Linda Kuschel, akademische Direktorin des Bucerius IP-Centers. Gemeinsam organisiert wurde dieser Abend von Dr. Alexa Meyer-Hamme, Leiterin der Abteilung Recht & Gesellschaft, und dem IP-Center der Bucerius Law School. 

KI dringt zunehmend in intimere Lebensbereiche vor – eine Entwicklung mit ambivalenten Folgen.

Für viele Menschen nehmen Chatbots die Rolle eines Freundes und Wegbegleiters ein. Auch in Mangolds Leben hätten Chatbots einen Platz. Mit kleinen Anekdoten aus Gesprächen, die er mit dem Chatbot „Claude“ führt, eröffnete Mangold den Diskussionsabend. Statt ihm Paroli zu bieten, habe ihm „Claude“ vielmehr geschmeichelt. Für Mangold ist dies ein Beweis dafür, dass KI (noch) keine Superintelligenz sei. Denn Worte der Chatbots hätten keinen eigenen Erfahrungs- oder Wirklichkeitsbezug. Weltschmerz und Pathos ließen sich gerade nicht in ein Large Language Model einspeisen.

Was passiert, wenn Personen emotionale Verbindungen zu KI-Systemen aufbauen?

Lisa Mühl stellte ihre Forschung aus sozial- und medienpsychologischer Perspektive vor. In der INTITEC Research Group untersucht sie unter anderem die Auswirkungen von General-Purpose-AI-Systemen wie „ChatGPT“ und „Claude“ auf soziale und intime Interaktionen. Diese Systeme seien, anders als sogenannte KI-Companions, nicht explizit für den Aufbau von sozialer und auch intimer Kommunikation vorgesehen, würden jedoch dennoch dafür benutzt. Nutzer:innen nähmen Unterhaltungen mit diesen Systemen häufig als soziale Interaktion wahr. So würden reale emotionale Vorgänge ausgelöst. Viele Nutzer:innen bewerteten KI-Interaktionen sogar als empathischer als Gespräche mit Menschen. Zudem verleite die Annahme, sich in einem geschützten, vorurteilsfreien Raum zu befinden, die Nutzer:innen dazu, sensible Daten preiszugeben. Darüber hinaus erzeugten Systeme wie ChatGPT scheinbar persönliche Erfahrungsberichte, was die Illusion sozialer Nähe verstärken könne. Kurzum: Sie übernähmen soziale Funktionen, für die sie nicht konzipiert seien. Diese Entwicklung betrachte sie mit Sorge – insbesondere, weil vielen Nutzer:innen nicht bewusst sei, dass ihre Angaben an die jeweiligen Unternehmen übermittelt und dort weiterverarbeitet würden.

Nebel gab einen Überblick über ihre Forschung, in der sie sich mit Regulierungsvorschlägen, aber auch mit verfassungsverträglicher Technikgestaltung von KI-Companions beschäftigt. Sie stellte die bestehenden Regelungen vor, auf die bei rechtlichen Problemen zurückgegriffen werden könne. Ihr Fazit fiel ernüchternd aus: Viele der spezifischen Risiken von KI-Companions würden in der KI-Verordnung bislang nicht adressiert – schlicht, weil sie zum Zeitpunkt ihrer Ausarbeitung noch keine praktische Relevanz gehabt hätten. In der Praxis komme daher vor allem die DSGVO zum Tragen. Schwierig werde es jedoch dann insbesondere, wenn Einwilligungen zum Datenumgang widerrufen würden. Es stelle sich die Frage, was mit Daten geschehe, die bereits in das Training eingeflossen seien. Ob in solchen Fällen eine vollständige Neutrainierung des Systems erforderlich sei, sei bislang ungeklärt. Diese Fragen seien bislang nicht abschließend beantwortet. 

Der Digital Services Act erfasse primär Plattforminhalte, die von Nutzer:innen bereitgestellt werden. KI-generierte Interaktionen bewegten sich hier in einem rechtlichen Graubereich. In der KI-Verordnung, die mit steigendem Risikograd des KI-Systems umfangreichere Betreiberpflichten vorsehe, würden KI-Companions erst gar nicht erwähnt. Hoffnung machte ihr jedoch der Blick auf den EU-Digital Fairness Act.

Müsste man diese Fragen stärker regulatorisch lösen?

Das Podium war geteilter Meinung. Mangold betonte, die Antwort auf technische Innovation könne nicht primär staatliche Regulierung sein. Nebel sah mit Blick auf das Machtgefälle, das sich aus der enormen Datenmenge der Unternehmen ergebe, die Notwendigkeit staatlicher Regulierung zum Schutz der Grundrechte. Beispielhaft plädierte Nebel für die Anpassung der bestehenden Regelungen, zum Beispiel mit der Aufnahme der KI-Companions in die Liste der Hochrisiko-KI in der KI-Verordnung. Mangold appellierte abschließend an die Bürger:innen, ihre Abwehrrechte gegenüber dem Staat nicht zu vergessen.

Das Debattenforum der Bucerius Law School ist eine öffentliche Veranstaltungsreihe zu zentralen Herausforderungen für Demokratie und Rechtsstaat. Die nächsten Termine finden Sie auf dieser Seite

Text

Abt. Recht und Gesellschaft

NEWSLETTER

Der Newsletter der Bucerius Law School informiert zweimonatlich über Neuigkeiten und Termine.