Der Endspurt im US-Präsidentschafts-Wahlkampf wird dominiert sein von Themen wie der Corona-Pandemie, der Besetzung des freien Sitzes im Obersten Gerichtshof oder davon, dass Trump die Legitimität der Wahl anzweifelt. Über ein Thema wird derweil nur hinter den politischen Kulissen immer dringlicher diskutiert: die Regulierung der digitalen Plattformen.
Seit der Wahl von 2016 weiß die Öffentlichkeit, dass die sozialen Netzwerke entscheidenden Einfluss auf die demokratische Willensbildung haben, egal ob ausländische Akteure an den Kampagnen beteiligt sind oder nicht. In mehreren Anhörungen im Kongress haben Abgeordnete Vertreterinnen und Vertreter der großen Digitalfirmen befragt, und in beiden Parteien war der Unmut der Politikerinnen und Politiker spürbar.
Die Tech-Firmen müssen sich gleich auf mehreren Ebenen vorwerfen lassen, dass sie zu mächtig geworden sind. Zum einen dominieren sie die Märkte, auf denen sie aktiv sind. Google und Facebook teilen 60 Prozent des digitalen Werbemarkts unter sich auf. Zusammen mit Apple beherrscht Google den Markt für Smartphone-Apps. Schon solche Marktmacht allein alarmiert die Wettbewerbshüter. Noch augenfälliger aber wird die beherrschende Stellung der Plattformen, wenn man auf die digitalen Inhalte schaut. Die Web-Suche, der Ursprung von Googles Macht, war einst ein Dienst, der Nutzerinnen und Nutzer in alle möglichen Ecken des Internets schickte. Heute dagegen tauchen die Antworten häufig schon auf Googles Such-Seite selbst auf. „Google ist nicht mehr die Eingangstür zum Internet“, schrieb kürzlich die New-York-Times-Journalistin Shira Ovide, „es ist das Haus.“
Facebook ist derweil das digitale, weltweite Äquivalent zum öffentlichen Marktplatz der Meinungen. Was man auf diesem Marktplatz hört, was man sagen darf, welche Beiträge Feacebook favorisiert und welche es unterdrückt, das alles steht völlig im Belieben der Firma. Sie muss ihr Handeln vor niemandem rechtfertigen. Das Unternehmen entscheidet, ob es politische Anzeigen zulässt, ob es diese Anzeigen auf ihre Korrektheit hin überprüft, ob es rechtsradikale Inhalte löscht oder Falschmeldungen zum Coronavirus mit Warn-Labels versieht.
Diese Macht hat ihm der Paragraf 230 des sogenannten Communications Decency Act von 1996 gegeben: „Kein Anbieter oder Benutzer eines interaktiven Computerdienstes darf wie der Herausgeber oder Sprecher von Informationen behandelt werden, die von einem anderen Informationsanbieter bereitgestellt werden.“ Dieser Satz stellte klar, dass ein Provider nicht verantwortlich gemacht werden kann für Inhalte, die andere auf seinen Server stellen. Als das Gesetz kreiert wurde, existierten weder Google noch Facebook, der Begriff vom „Web 2.0“, das von nutzergenerierten Inhalten lebt, war noch nicht geprägt worden. Die Gesetzgeber hatten eher Internetanbieter im Sinn, die Speicherplatz für Homepages zur Verfügung stellten und nicht für deren Inhalte in Haftung genommen werden wollten – so wie ein Telefonanbieter nicht für den Inhalt der Gespräche verantwortlich ist.
Der Paragraf machte Webdienste wie YouTube oder Facebook überhaupt erst möglich. Wären die Betreiber haftbar gewesen für das, was ihre Nutzerinnen und Nutzer ins Netz stellen, wären sie von Anfang an in heftige juristische Verfahren über Urheberrecht, Pornografie oder Beleidigungen verwickelt worden.
Ihr Wachstum hat sie zum neuen Marktplatz der digitalen Gesellschaft gemacht, und es mehren sich die Stimmen, die meinen, für diese Foren müsse es Regeln geben. „Das Gefühl, dass man die Plattformen regulieren muss, besteht bei beiden Parteien“, sagte Daphne Keller vom Program on Platform Regulation an der Stanford University im Interview mit marketplace.org. Es sei „verrückt, dass diese Plattformen die Türwächter des Diskurses sind, dass private Firmen die Sprachregeln aufstellen.“
Allerdings haben die Politikerinnen und Politiker von Demokraten und Republikanern unterschiedliche Vorstellungen davon, was genau reguliert werden sollte. Während den Demokraten vor allem die Verbreitung von Verschwörungstheorien und Falschmeldungen auf sozialen Netzwerken ein Dorn im Auge ist, sorgen sich Republikaner über die angebliche Linkslastigkeit der Tech-Firmen, die manchmal Äußerungen von Präsident Trump mit einem Warn-Label versehen.
Wie genau Regeln für die Netzwerke aussehen sollten, ist eine schwierige Frage. Sollte der Paragraf 230 komplett gekippt werden, sodass sie für alles verantwortlich sind, was auf ihnen stattfindet? Eine solche Regel könnte nach hinten losgehen, weil Riesen wie Facebook sich eine Armee von Content-Moderatorinnen und -Moderatoren leisten könnten, kleine Internetdienste dagegen komplett überfordert wären. Überhaupt stellt sich die Frage, wie man der sich dynamisch entwickelnden Netzwelt mit dem schwerfälligen Apparat der Gesetzgebung und der langwierigen Arbeit der Gerichte beikommen kann. So ziehen sich die Anti-Monopol-Verfahren, die angesichts der Laissez-faire-Haltung in den USA häufig in Europa durchgeführt werden, über Jahre hin. Wenn Google oder Facebook verurteilt werden, ist der Anlass des Verfahrens längst Vergangenheit, und Milliardenstrafen zahlen die Konzerne aus der Portokasse.
Deshalb sollte man diesen „neuen digitalen Realitäten“ auch mit neuen administrativen Mitteln gegenübertreten, sagen drei Experten, die für das Shorenstein Center on Media, Politics and Public Policy der Harvard University ein großes Gutachten zum Thema Plattformregulierung geschrieben haben, unter ihnen Tom Wheeler, der ehemalige Chef der US-Telekommunikationsbehörde FCC. In ihrem Bericht schildern sie zunächst die Unterschiede zwischen der traditionellen Industrie, für die die Werkzeuge zum Schutz des Wettbewerbs geschaffen wurden, und der Digitalwirtschaft, die sie als „Perpetuum Mobile“ der Wertschöpfung bezeichnen, weil ihr Rohstoff, die Daten ihrer Nutzer, aus einer nie versiegenden Quelle stammt.
Die Autoren beschreiben, dass die traditionellen, kartellrechtlichen Antitrust-Werkzeuge, die vor allem die Manipulation von Verbraucherpreisen im Auge hatten, zahnlos sind für eine Wirtschaft, in der die Nutzer das Produkt kostenlos bekommen beziehungsweise selbst das Produkt sind. Auch seien die heutigen Antitrust-Behörden gefangen in einer alten industriellen Weltsicht. Deshalb müssten für die neue Wirklichkeit neue Instrumente geschaffen werden und auch eine neue Behörde.
Um mit der schnelllebigen Realität mithalten zu können, solle der Gesetzgeber nur sehr allgemeine Grundsätze des fairen Wettbewerbs vorgeben, die auf Jahrhunderte alten Prinzipien von duty of care (die Haftung für negative Wirkungen des Produkts) und duty to deal (der Verpflichtung, allen Menschen gleichberechtigten Zugang zu den Diensten zu ermöglichen) beruhen sollten. Für die Konkretisierung und ständige Aktualisierung wäre dann eine neue, überparteilich besetzte Digital Platform Agency (DPA) zuständig. Diese solle die Standards im Dialog mit der Industrie entwickeln – nicht zu verwechseln mit Versuchen der Selbstregulierung der Industrie, die in der Vergangenheit stets fehlgeschlagen sind. „Die Ära des ,Wir machen unsere Regeln selber‘ muss ein Ende finden durch die Anwendung agiler Regierungsaufsicht”, schreiben die Autoren. Ausdrücklich sollte sich die neue Behörde auch der Methoden des maschinellen Lernens bedienen, um den Tech-Firmen technologisch gewachsen zu sein.
Es gibt Experten, die weiter gehen wollen. Der Rechtsprofessor K. Sabeel Rahman und die Rechtsprofessorin Zephyr Teachout veröffentlichten im Februar 2020 einen Aufsatz, in dem sie die Überzeugung äußern, die Nachteile der sozialen Netzwerke ließen sich nur eindämmen, indem man ihnen die Geschäftsgrundlage entzöge. „Keine essenzielle Infrastruktur sollte auf Überwachung basieren oder durch personalisierte Anzeigen finanziert werden.“ Die sozialen Netzwerke, so ihr Argument, seien inzwischen solch essenzielle Infrastrukturen, vergleichbar mit dem Autobahnnetz oder den Radiofrequenzen, dass es nicht den Betreibern überlassen werden sollte, nach Belieben zu entscheiden, was Nutzerinnen und Nutzer dort zu sehen bekommen und was nicht – eine Einschätzung, die Reporter ohne Grenzen grundsätzlich teilt.
Die Algorithmen, die Nutzerinnen und Nutzern Beiträge und Anzeigen servieren, seien getrieben vom Geschäftsinteresse der Plattformen, so Rahman und Teachout weiter. Anzeigen sollen möglichst genau ihre Zielgruppe treffen, und dazu müssen im großen Maßstab Daten über die Nutzer gesammelt werden. „Anders als der Bauplan einer Brücke“, schreiben Rahman und Teachout, „ist das Schema dieser Plattformen für die Öffentlichkeit nicht zugänglich und wird auch ständig verändert.“ Niemand könne am neuen digitalen Marktplatz teilnehmen, ohne sich der Überwachung zu unterwerfen. Das würde sich auch nicht durch eine Zerschlagung der Firmen im alten Antitrust-Stil ändern. Das einzige Mittel gegen diese Überwachungstechnik und die Zersplitterung der öffentlichen Sphäre durch die nutzerspezifische Ansprache sei es, die Finanzierung durch individualisierte Anzeigen generell zu verbieten. Dann blieben den Firmen immer noch Möglichkeiten der Finanzierung, nicht zuletzt die Erhebung moderater Gebühren.
Während Akademikerinnen und Rechtsgelehrte schon relativ konkrete Vorstellungen für eine Regulierung der Plattformen haben, ist die Diskussion auf der politischen Ebene über pauschale Willensbezeugungen noch nicht hinausgekommen. Joe Biden möchte den Paragrafen 230 einfach „abschaffen“, Trumps Justizministerium will den Internetdiensten vor allem dann in den Arm fallen, wenn sie die Äußerungen von Republikanerinnen und Republikanern factchecken und mit Kommentaren versehen. Das Thema wird in den wenigen verbleibenden Wochen des Wahlkampfs keine große Rolle spielen, es ist eine Aufgabe für den nächsten Präsidenten und die neu gewählten Kammern des Kongresses.
Derweil versuchen alle möglichen Akteure, noch auf der Zielgeraden über die sozialen Netzwerke die Wahl zu beeinflussen. Ob das überhaupt wirksam ist, will ein Team von 17 unabhängigen Wissenschaftlerinnen und Wissenschaftlern zusammen mit zwei Dutzend Beschäftigten aus der Facebook-Technik nun in einem Forschungsprojekt ergründen. Im größten wissenschaftlichen Experiment, das je in den sozialen Netzen stattgefunden hat, will man gezielt den Newsfeed von freiwilligen Teilnehmern manipulieren und die Auswirkungen auf das Wahlergebnis abschätzen. Das Ergebnis wird natürlich erst nach der Wahl vorliegen. Aber das sei nicht so schlimm, sagte Chaya Nayak, bei Facebook zuständig für Forschung und Transparenz, dem Branchendienst Protocol. Es werde ja in Zukunft weitere Wahlen geben: „Es ist nie zu spät.“
Christoph Drösser
Mehr zur Haltung von Reporter ohne Grenzen zum Thema Plattformregulierung finden Sie hier.