Wer kontrolliert die KI? Eine Frage von Recht, Macht und Moral 

Veranstaltung im Studium generale am 17. Juni 2025

Lehre & Studium |

Technologischer Fortschritt war nie neutral – das zeigte der Abend mit Prof. Dr. Lena Kästner, Prof. Dr. Dietmar Harhoff und Prof. Dr. Mathias Risse im Rahmen des Studium generale an der Bucerius Law School auf eindrucksvolle Weise. Unter dem Titel „Moral, Politik und Recht im Hyper-Tech-Zeitalter“ diskutierten die drei Expert:innen nach Begrüßung durch den Präsidenten der Bucerius Law School Prof. Dr. Michael Grünberger und einleitende Worte durch Prof. Dr. Matthew Braham von der Universität Hamburg über die gesellschaftlichen Folgen des KI-Booms – und über die Frage, wie sich neue Machtverhältnisse im digitalen Zeitalter regulieren lassen. 

 

Verstehen wir überhaupt, was wir da bauen?

Künstliche Intelligenz durchdringt immer mehr Lebensbereiche – von Justiz und Bildung über Verwaltung und Gesundheitswesen bis hin zu internationalen Machtfragen. Doch was verstehen wir eigentlich unter „Intelligenz“ – und was heißt es, wenn Maschinen „lernen“? Diese Fragen stellte Lena Kästner, Professorin für Philosophy, Computer Science and Artificial Intelligence an der Universität Bayreuth, gleich zu Beginn des Abends. 

Der Begriff „Artificial Intelligence“ tauchte erstmals 1956 auf der Dartmouth Conference auf – gemeint waren einfache Logikprogramme und Schachcomputer. Heute hingegen sprechen wir über Systeme wie Large Language Models, die enorme Datenmengen verarbeiten, aber selbst keine echten Einsichten gewinnen können – sogenannte „stochastische Papageien“. Für Kästner ist klar: KI sei kein magisches Wesen – aber auch keine einfache Rechenmaschine. Gerade deshalb müsse man genauer hinschauen.

 

Technologischer Fortschritt ist nie neutral


Der Innovationsforscher Dietmar Harhoff, langjähriger Vorsitzender der Expertenkommission Forschung und Innovation der Bundesregierung, erinnerte daran, dass Innovation immer auch Verteilungsfragen aufwerfe: Wer profitiert? Wer trägt die Risiken? Gerade im Bereich Künstlicher Intelligenz beobachtet er eine zunehmende Machtkonzentration: Wenige große Unternehmen, vor allem im Silicon Valley, verfügten über Kapital, Know-how und Rechenkapazitäten. Diese Machtasymmetrie sei gefährlicher als jede Fantasie über autonome Superintelligenz. 

Philosoph Mathias Risse, Professor an der Harvard Kennedy School, pflichtete dem bei und ergänzte eine moralphilosophische Perspektive: Wenn Entwickler selbst einem Risiko von 6 % für einen sogenannten „Supergau“ – also die existenzielle Bedrohung der Menschheit durch KI – zustimmen, dann müsse man das ernst nehmen. Niemand würde einen Flugzeugtyp zulassen, bei dem jeder zwanzigste Flug tödlich endet. 

 

Regulierung – oder Kontrollverlust?


Doch lässt sich KI überhaupt regulieren? Harhoff plädierte für eine europäische Lösung, die Innovation nicht abwürgt, aber klare Regeln setzt, etwa bei Transparenz, Haftung und Datenzugängen. Risse zeigte sich skeptisch: Der Vorsprung großer Unternehmen sei inzwischen so groß – und viele leistungsstarke Modelle bereits als Open Source verfügbar –, dass Regulierungsbehörden kaum noch nachkommen könnten. 

Einigkeit herrschte auf dem Podium darüber, dass Politik, Recht und Zivilgesellschaft handlungsfähiger werden müssen – nicht nur gegenüber hypothetischen Risiken, sondern auch angesichts realer Machtfragen. 

Nach der Diskussion wurden bei Brezeln und Wein viele Gedanken weiterdiskutiert. Hier wurde deutlich: Wer die Zukunft von KI gestalten will, braucht nicht nur Rechenpower, sondern ethisches Urteilsvermögen, politischen Willen und gesellschaftliche Debatte. 

Text

ZSP

NEWSLETTER

Der Newsletter der Bucerius Law School informiert zweimonatlich über Neuigkeiten und Termine.