A. Einführung
Vom 18. bis zum 20. Juli 2019 fand an der Universität Amsterdam die fünfte International Conference on Computational Social Science (ic²s²) statt. Die ic²s² versteht sich als weltweit führende Konferenz in der Computational Social Science.1
B. Bedeutung und Ursprung der Computational Social Science
Computational Social Science (computergestützte Sozialwissenschaft, d. Verf.) lässt sich zusammenfassen als “the use of digital data and platforms to advance social science questions.”2 Der Begriff wurde von Lazer et al. im Jahr 2009 in einem bahnbrechenden Beitrag in Science geprägt.3 Die Autorinnen und Autoren4 stellten zum damaligen Zeitpunkt fest, dass die computergestützte Sammlung und Auswertung großer Datenmengen naturwissenschaftliche Forschungsdisziplinen bereits nachhaltig verändert hatte. In den Sozialwissenschaften sei diese Transformation demgegenüber noch weitgehend ausgeblieben.5 Doch die Autoren erwarteten das Ende der vormaligen Limitierung sozialwissenschaftlicher Untersuchungen durch kleine, individuell erhobene Datensätze (z.B. durch Experimente und Befragungen):6 Mittlerweile hinterließen nämlich alle Vorgänge im digitalen Raum Spuren, die zu umfassenden Abbildungen individuellen und kollektiven Verhaltens zusammengefügt werden könnten. Diese Abbildungen hätten das Potential, unser Verständnis menschlicher Organisationen, Gesellschaften und Lebensweisen nachhaltig zu verändern.7
Zugleich erkannten die Autoren bereits Risiken: Zum einen müsse die entstehende Disziplin damit umgehen, dass weite Teile der interessierenden Datenmengen proprietär seien, sich also etwa in privater Hand befänden oder der staatlichen Geheimhaltung unterlägen. Zum anderen dürfe die datengestützte sozialwissenschaftliche Forschung nicht die Privatsphäre ihrer Anschauungsobjekte missachten oder deren virtuelle bzw. reale Umgebungen durch Experimente in unethischer Weise manipulieren.8
C. Computational Social Science und Rechtswissenschaft
Zunächst ist begründungsbedürftig, warum die Computational Social Science und die ic²s² in einem rechtswissenschaftlichen Beitrag vorgestellt werden sollten. Ein Argument dafür liegt darin, dass ihre Forschungsergebnisse den juristischen Diskurs bereits beeinflusst haben – zu nennen sind hier die Diskussionen um sog. Fake News und Social Bots.9 Insoweit ist es zwar einerseits begrüßenswert, wenn Rechtswissenschaftler sich interdisziplinär öffnen und auf außerrechtliche Quellen zurückgreifen, um neuartige Phänomene kennenzulernen und zu verstehen (unten I.). Andererseits besteht das Risiko, dass methodisch zweifelhafte oder vorschnelle Prämissen in die rechtswissenschaftliche Diskussion hineingetragen werden und dann die Grundlage normativer Erwägungen bilden (unten II.). Darum ist es nicht nur interessant, sondern auch erforderlich, sich aus juristischer Sicht mit der Computational Social Science zu befassen.
I. Erkenntnispotentiale
Doch nicht nur die Forschungsergebnisse der Computational Social Science, die ohne rechtliche Hintergedanken durchgeführt worden sind, bieten interessante Anknüpfungspunkte für normative Schlussfolgerungen. Hinzu tritt die Möglichkeit, Untersuchungen mit originär rechtswissenschaftlichem Zuschnitt durchzuführen. Die maschinelle Auswertung großer Datenmengen könnte helfen, rechtswissenschaftliche Prämissen und Erwartungen wie die Folgenden empirisch zu überprüfen: Wie verändert sich das reale Konsumverhalten im Onlinehandel infolge der Reform eines Widerrufsrechts? Um wieviel Prozent verringert eine neue Strafvorschrift die Verbreitung von Hasskommentaren im Internet? In welchem Verhältnis steht die Entwicklung von Online-Sportwetten zu den Privatinsolvenzen in einem bestimmten Jahr? Welche Gestaltung von Verkehrsschildern erzielt die optimale Appellwirkung bei Verkehrsteilnehmern? Anwendungsmöglichkeiten sind in allen Bereichen eröffnet, in denen große Datensätze verfügbar sind und ausgewertet werden dürfen.
II. Vorbehalte
Zugleich müssen Vorbehalte benannt werden: Die Computational Social Science ist eine junge Disziplin. Methodische Leitlinien werden teilweise noch ausgehandelt und die Reproduzierbarkeit der Ergebnisse ist problematisch.10 Dies spiegelte sich auch im Konferenzprogramm wider, das einen ganzen Themenblock zur Reproduzierbarkeit enthielt.11 Die Methodik einzelner prominenter Untersuchungen ist ebenfalls bereits kritisiert worden: Fragwürdig sei bspw. die Einstufung von Twitteraccounts als Social Bots, nach Methoden, die als einziges Abgrenzungskriterium die Anzahl der täglichen Tweets verwendeten.12 Außerdem ist die Disziplin aktuell noch stark auf die Auswertung führender sozialer Netzwerke ausgerichtet; aufgrund der gut zugänglichen Datensätze insbesondere auf Twitter. Zudem besteht das Risiko, dass normative Prämissen und empirische Forschungsmethoden zu intransparenten Ergebnissen verwoben werden.
Konkret fiel dies während des Themenblockes „Misinformation“ ins Auge:13 Um zu untersuchen, wie Falschinformationen entstehen, sich verbreiten oder bekämpft werden könnten, mussten die Forscher den Begriff der Falschinformationen zunächst definieren. Nach einer beliebten Methode – meist erst auf Nachfrage mitgeteilt – wurden all solche Nachrichten als Falschnachrichten eingestuft, die auf Websiten publiziert wurden, die durch sog. Online-Fact-Checker14 als „fake news outlets“ o.Ä. eingestuft wurden. Es stellt sich nicht nur die Frage, wer in diesen Fällen „die Wächter bewacht“; die Generalisierung führt auch dazu, dass wahre Nachrichten als falsch klassifiziert werden, sofern sie einer unzuverlässigen Quelle entstammen. Wird mit dieser Prämisse eine elaborierte Datenauswertung durchgeführt, besteht das Risiko, dass die zwischengeschaltete empirische Methode den Blick auf die normative Prämisse verstellt.
Es bestehen auch spezifische Herausforderungen für Juristen: Einschlägige Materialien könnten über die üblichen Bibliothekskataloge und Datenbanken nicht zu erhalten sein. Dies ist insbesondere dann problematisch, wenn andere juristische Beiträge sich auf solche Quellen beziehen. Aber selbst wenn Juristen auf das Material zugreifen können, wird es ihnen oft an der erforderlichen Fachkenntnis (insbesondere über den Forschungskontext) und den methodischen Werkzeugen fehlen, um die Quellen kritisch zu evaluieren. Insoweit werden Juristen oft auf die Redlichkeit der Akteure oder die Selbstkontrolle der Disziplin angewiesen sein.
D. Konferenzprogramm und Zusammenfassung der Keynotes
Die Konferenz fand an drei Tagen statt. Jeder Tag war in zwei sich abwechselnde Phasen aufgeteilt: Einerseits Keynotes besonders profilierter Forscherinnen und Forscher, zu denen sich alle Konferenzteilnehmer im großen Hörsaal versammelten; andererseits mündliche Präsentationen, die in verschiedene Themenblöcke aufgeteilt waren und vor kleinerem Publikum jeweils gleichzeitig stattfanden.15 Abgerundet wurde das Programm durch hochkarätig besetzte Podiumsdiskussionen sowie Posterpräsentationen, die niedrigschwellig zum Gespräch einluden.
I. Erster Konferenztag
Als erste Keynote-Speakerin erläuterte Emma Spiro (University of Washington, USA) unter der Überschrift “Online Social and Information Behaviors During Crisis Events”, wie sich mithilfe von Social Media-Daten menschliches Verhalten in Krisenfällen studieren lässt. Sie besprach Probleme im Umgang mit Gerüchten und Falschinformationen und zeigte auf, wie ihre Erkenntnisse helfen könnten, Krisenkommunikation und -management von Rettern und Bevölkerung zu verbessern.16 Im Anschluss befasste Kenneth Benoit (London School of Economics, Vereinigtes Königreich) sich in seiner Keynote “The Social Scientific Analysis of Textual Data and What Computer Science Won’t Teach You” kritisch mit den Herausforderungen der datenbasierten qualitativen Inhaltsanalyse.17
Deen Freelon (University of North Carolina, USA) diskutierte in “Wandering in the post-API desert: Hey, is that an oasis?”, welche Alternativen zur Verfügung stehen, um auf wissenschaftlich interessante Datensätze zuzugreifen, nachdem immer mehr Plattformbetreiber ihre API (application programming interfaces, Programmierschnittstellen, d. Verf.) restriktiver ausgestalteten bzw. verschlössen.18 Erwähnenswert ist die Äußerung Freelons, dass Forscherinnen und Forscher zwischen Terms-of-Service-Compliance und User-Facing-Ethics differenzieren sollten: Nur weil Nutzerdaten im Einklang mit den API-Nutzungsbedingungen eines Plattformbetreibers erhoben oder genutzt würden, bedeute dies noch nicht, dass sie darum auch in ethisch vertretbarer Weise verwendet würden – und umgekehrt. Anschließend erklärte Devra Moehler (Facebook Research, USA) in einer kontrovers diskutierten Keynote mit dem Titel “Social Science & Protecting Elections on Facebook”, wie der Plattformbetreiber mit gefälschten oder hetzerischen Inhalten sowie gezielten Desinformationskampagnen umgeht. Anders als die übrigen Keynotes wurde dieser Vortrag nicht per Livestream übertragen; dies sorgte (wohl) für eine gewisse Offenheit der Präsentation. So erkannte Moehler mit Blick auf die amerikanischen Präsidentschaftswahlen 2016 zu, dass Facebook sich zu spät eingestanden habe, dass das Netzwerk für koordinierte “information operations” (informationelle Kriegsführung, d. Verf.) genutzt wurde. Erwähnenswert sind auch die Darstellungen Moehlers über die Gegenmaßnahmen des Unternehmens: Facebook betreibt demnach als Privatunternehmen und ohne öffentliche Aufsicht umfassende, computergestützte Spionageabwehr gegen koordinierte Desinformationskampagnen privater oder ausländischer staatlicher Akteure.
II. Zweiter Konferenztag
Es sei ein Allgemeinplatz, dass Personen dazu tendieren, sich in Sozialen Netzwerken mit Gleichgesinnten zusammenzufinden, begann Leto Peel (Université Catholique de Louvain, Belgien) die erste Keynote des zweiten Konferenztages. Er erläuterte sodann, wie dieses Phänomen (sog. “assortative mixing”) in komplexen Netzwerken durch die Verbindung von Machine Learning und Netzwerkforschung quantifiziert werden könne.19 Anschließend erklärte Lukas Vermeer (Booking.com) wie wissenschaftliche Methoden, insbesondere Kontrollversuche, für die kundenorientierte Weiterentwicklung von Software nutzbar gemacht werden können. Claudia Wagner (GESIS – Leibniz-Institut für Sozialwissenschaften, Mannheim) berichtete in “The Visibility of Minorities in Social Networks”, wie die Selbst- und Fremdwahrnehmung von Minderheiten durch die Struktur der Netzwerke beeinflusst wird, in denen die Akteure sich bewegen. Sie stellte ein Modell vor, das geeignet sei, die Ausprägung relevanter kognitiver Verzerrungen (in diesem Fall: overestimation und underestimation bias) näherungsweise vorherzusagen.20 Schließlich gab Duncan Watts (University of Pennsylvania, USA) anlässlich des fünfjährigen Jubiläums der Konferenz in “Computational Social Science – Past, Present, and Future” einen Überblick über Geschichte21 und Zukunft der jungen Disziplin. Er zeigte sich erfreut über die vielfältigen, neuartigen Gestaltungsmöglichkeiten für sozialwissenschaftliche Experimente, welche die Computational Social Science eröffnet habe. Die rasante Entwicklung der Disziplin veranschaulichte er anhand der inzwischen entstandenen Studien- und Forschungsprogramme an namhaften Fakultäten. Auch das Interesse von Verlagen und Förderern wachse stetig. Gleichwohl betonte Watts bedeutende Herausforderungen: Die Computational Social Science müsse ihre Methodik kritisch reflektieren; Probleme erblickte Watts etwa hinsichtlich der Reproduzierbarkeit von Ergebnissen.22 Zudem würden künftig größere und vor allem hochwertigere Datensätze benötigt. Schließlich rief er dazu auf, die Fokussierung der Sozialwissenschaften auf Publikationen und Zitationen zu hinterfragen, da diese Denkweise die tägliche wissenschaftliche Praxis in zweifelhafter Weise beeinflusse.
III. Dritter Konferenztag
In “Institutional Choice with Spillovers: A Study of Model Breadth and Granularity” befasste Scott Page (University of Michigan, USA) sich mit den Wechselwirkungen zwischen (marktwirtschaftlichen, hierarchischen, demokratischen und selbstorganisierten) Institutionen und den wandelbaren kulturellen Kontexten (geprägt durch Wissens- und Informationssysteme, Verhaltensrepertoires, Glaubenssysteme und Netzwerke), in denen sie agieren. Den spezifischen Vorteil der Computational Social Science erkannte er darin, dass sie zu diesen kulturellen Kontexten belastbare Daten erheben könne.23
Danach präsentierte Mirta Galesic (Santa Fe Institute, USA) in “What can small, biased crowds tell us about societal trends?” eine neuartige Meinungsforschungsmethode: Um soziale Trends (Wahl-, Konsum- oder Impfverhalten) vorherzusagen könnten Menschen als sog. “social sensors” eingesetzt werden, indem sie über das voraussichtliche Verhalten ihres sozialen Umfeldes befragt würden. Dahinter stehe die Erkenntnis, dass Menschen zwar nur schwer das Verhalten der Gesamtbevölkerung vorhersagen könnten, dass es ihnen aber vergleichsweise leichtfalle, das Verhalten von Freunden und Verwandten vorherzusagen. Galesic zeigte, dass mit dieser Methode für vergangene Wahlen und für das Impfverhalten bereits vielversprechende Resultate erzielt werden konnten.24
In der zweiten Tageshälfte forderte Jana Diesner (University of Illinois at Urbana Campaign, USA) in “Responsible Social Computing: Validating Network Data and Theory“ sicherzustellen, dass die Forschungsergebnisse der Computational Social Science mit „gutem Grund“ für glaubwürdig erachtet würden – und eben dieser gute Grund müsse „good science“ sein. Sie warf die Frage auf, was hinsichtlich der verwendeten Datensätze, Methoden und Theorien unternommen werden könne und müsse, um die Disziplin langfristig als transparentes, respektables und vertrauenswürdiges Feld zu etablieren. Nach Diesners Ansicht müsse insofern insbesondere reflektiert werden, dass den verwendeten Proben, Datensätzen, Algorithmen, Programmen und Theorien stets das Risiko der Voreingenommenheit anhafte („biases in the conduct of science“). Zum einen gab sie ein Beispiel dafür, wie fehlerhaft aufbereitete Datensätze zu falschen Schlussfolgerungen führten und zeigte, wie derlei Fehler vermieden werden könnten. Zum anderen erläuterte sie, inwieweit die Übertragung klassischer soziologischer Theorien auf das Internet-Zeitalter problematisch sein könne und gab ein Beispiel dafür, wie eine klassische Theorie für die spezifischen Anforderungen von Big Data angepasst werden könne.25
Schließlich stellte Cesar Hidalgo (MIT Media Lab, USA) in „How Humans Judge Machines“ eine Reihe von Experimenten vor, in denen menschliche Probanden das Verhalten von Menschen oder Maschinen in unterschiedlichen Szenarien bewerten sollten. Die als Texte vorgestellten Szenarien unterschieden sich dabei jeweils nur hinsichtlich der menschlichen oder nicht-menschlichen Identität der Akteure. Zusammengefasst kam Hidalgo zu dem Ergebnis, dass Maschinen in Szenarien mit körperlichen Verletzungen und in Szenarien mit Entscheidungen unter Unsicherheiten strenger bewertet werden als Menschen. In Szenarien, die Fairness oder Loyalität betreffen, würden Menschen dagegen strenger bewertet als Maschinen. Schließlich wandere in Szenarien, welche die Automatisierung von Entscheidungen betreffen, die Verantwortlichkeit in der Befehlskette bzw. Hierarchie nach oben.26
E. Fazit
Insgesamt war der Besuch der Konferenz aus juristischer Perspektive ertragreich. In formaler Hinsicht war bereits die Organisation der Konferenz mit ihren abwechslungsreichen Formaten eine wertvolle Erfahrung. Erhellend war zudem der Einblick in die Usancen des akademischen Austausches und Wettstreits einer durchweg internationalen Forschungsdisziplin. Auch inhaltlich bot die Konferenz vielfältige Anknüpfungspunkte für die juristische Forschung: Lohnend erscheint ein tieferes Nachdenken darüber, welchen Beitrag das Recht leisten kann, um die Forschungsmethoden der Computational Social Science auf ein sicheres Fundament zu stellen (etwa hinsichtlich der Themen Privatsphäre, Datensicherheit und Beachtung von Nutzungsbedingungen). Hochgradig interessant waren die Erläuterungen zu den Spionageabwehrmaßnahme von Facebook. Diese drängen die Frage auf, was es für den Rechtsstaat bedeutet, wenn dieser äußerst sensible Bereich der Außen- und Sicherheitspolitik nicht in staatlicher, sondern in privater Hand liegt. Schließlich beeindruckten die (selbst-)kritischen Diskussionen über Reproduzierbarkeit und Objektivität von Forschungsergebnissen innerhalb der Disziplin. Der Besuch der ic²s² 2019 in Amsterdam hat gezeigt, dass das Wagnis, für kurze Zeit in eine fremde Disziplin einzutauchen, zahlreiche Impulse für die interdisziplinäre juristische Forschung gibt. Der Autor ist überdies sicher, dass die Forschungsergebnisse der Computational Social Science in Zukunft vermehrt juristische Debatten anstoßen werden.
Wiss. Mit. Marc-Philipp Bittner, LL.B.
Hinweis
Die Literaturnachweise entnehmen Sie bitte der PDF-Version des Berichts: