Facebooks vermeintliche Transparenzoffensive

Seit Jahren steht Facebook für seine Geheimniskrämerei in der Kritik. Was bedeuten die Gemeinschaftsstandards, nach denen immer wieder auch politische Inhalte zensiert werden? Wer setzt dafür die Regeln und wie kann man Einfluss nehmen? Deutschen Wissenschaftlern wurden nun die Tore geöffnet. Matthias C. Kettemann vom Hamburger Hans-Bredow-Institut (HBI) durfte an Treffen des „Product Policy Teams“ teilnehmen, das die Kommunikation von Milliarden Menschen für Facebook regelt. Letzte Woche veröffentlichte er zusammen mit Wolfgang Schulz die Ergebnisse (Kettemann & Schulz 2020a). Im Grunde handelt es sich um Auftragsforschung im Sinne des Konzerns.

Facebooks Image hat in den letzten Jahren auch in Deutschland gelitten. In München gab es Kritik an der Finanzierung eines sogenannten Ethik-Instituts der Technischen Universität, Netzpolitik.org kritisiert schon seit Jahren die Zensur und einen unerklärlichen Followerschwund bei Facebookseiten, und die externen Löschzentren von Arvato und CCC sind in Deutschland nach wie vor ein schwarzes Loch, auch wenn aufgrund des öffentlichen Drucks zumindest in Berlin kurzzeitig die Tore geöffnet werden mussten. Im Dokumentarfilm „The Cleaners“ (Block & Riesewieck 2018) setzt sich zudem ein deutsches Filmteam mit Löschpraktiken und Arbeitsbedingungen des Konzerns kritisch auseinander.

Zeit also, in die Offensive zu gehen, um das (nicht nur) in Deutschland angekratzte Image zu polieren. Immerhin ist bei 32 Millionen Nutzern hierzulande fast die Hälfte der kaufkräftigen Bevölkerung auf der Plattform vertreten (Stand: März 2019).

Also öffnete man für eine Woche Ende August die Sitzungen des „Product Policy Teams“ im Silicon Valley für den Forschungsleiter des HBI, Matthias C. Kettemann. Dieses Team ist quasi das gesetzgebende Organ des Konzerns, der einen Kommunikationsraum von mehr als 2,7 Milliarden Menschen kontrolliert und dort die Grenzen des Sagbaren bestimmt. Nicht nur für Facebook, sondern letztendlich auch für Instagram und WhatsApp. Zudem konnte Kettemann anschließend Experteninterviews führen. In seinem Bericht bleiben jedoch viele Fragen offen: Wie viele Sitzungen gab es und an welchen genau wurde teilgenommen, welche Funktionsträger waren anwesend und wurden anschließend interviewt, welche Fragen wurden dabei gestellt? All das bleibt das Geheimnis der Autoren, denn die Abmachung mit Facebook sieht vor, dass die empirischen Daten unter Verschluss bleiben (Kettemann & Schulz 2020a, S. 13, Fußnote). Die Studie ist damit nicht replizier- und überprüfbar und erfüllt  so ein zentrales Qualitätsmerkmal qualitativer empirischer Forschung nicht (intersubjektive Nachvollziehbarkeit, vgl. Meyen et al. 2019, S. 41). Ganz so transparent will der Konzern also doch nicht sein. Facebook verlangte sogar, die wissenschaftliche Publikation vor der Veröffentlichung komplett zu lesen und zu überprüfen, um „vertrauliche Informationen“ herauszuhalten (Kettemann & Schulz 2020a, S. 7, Fußnote). Warum diese zwei zentralen Informationen nur in zwei der insgesamt 125 Fußnoten beziehungsweise Anmerkungen versteckt und nicht im Fließtext des 34 Seiten langen Berichts diskutiert wurden, bleibt wiederum das Geheimnis der Autoren.

Auch die Schere im Kopf, die automatisch aufgeht, wenn man weiß, dass der Untersuchte den Text gegenlesen wird, ein Vetorecht hat und man zudem hofft, in Zukunft weitere Forschung bei Facebook betreiben zu können, wird nicht thematisiert. Man will sich offenbar den exklusiven Zugang zu Facebook nicht versperren. Da es sich bei der Publikation um eine Pilotstudie handelt, bleibt zu hoffen, dass all diese offenen Fragen in einer ausführlichen Version im Detail erläutert werden.

Das nun medienwirksam vorab veröffentlichte zentrale Ergebnis: Bei Facebooks Regelsetzung in den Gemeinschaftsstandards handelt es sich „um einen vom nationalen und internationalen Recht im Wesentlichen unabhängigen Prozess“ (Kettemann & Schulz 2020b). Hier ließe sich aufhorchen. Ein privater Konzern, der seine Regeln weitestgehend unabhängig von nationalen Gesetzgebern und ohne jegliche demokratische Kontrolle festlegt? Aber nein, dies ist, so die Autoren, kein Problem, denn der Prozess sei in seiner „legitimitätserzeugenden Wirkung staatlicher Regulierung nachgebildet“, weil „externen Interessenvertretern“ eine wichtige Funktion zukomme, indem sie angehört werden (ebd.). Also: Auch Zivilgesellschaft,  NGOs und Wissenschaft kommen zu Wort (vgl. Kettemann & Schulz 2020a, S. 21). Dafür sei ein Team für „Stakeholder Engagement“ verantwortlich, das die Interessenvertreter, darunter auch nicht näher bestimmte Meinungsführer (ebd., S. 31), „um Input für neue Moderations-Regeln“ bittet (Kettemann & Schulz 2020b). Nach welchen Kriterien diese jedoch genau ausgesucht werden, wessen Interessen sie vertreten und wie ihre Meinungen und Standpunkte letztendlich in den Entscheidungsprozess einfließen (oder eben auch nicht), dazu findet sich wenig.

Dass die private Verfasstheit eines solchen riesigen Kommunikationsraums als elementarer Bestandteil der (Online-)Öffentlichkeit eben keine Angelegenheit von Mark Zuckerberg und seines „Product Policy Teams“ sein darf, sondern öffentliche und demokratisch legitimierte Kontrolle Not tut, liegt auf der Hand. Dafür plädiert zum Beispiel Otfried Jarren, etwa bei uns am Institut im vergangenen Sommer (vgl. Meyen 2019). Seine Vorschläge unter anderem: Zertifizierung von Anbietern von Kommunikationsräumen wie Facebook, um einen Zugriff auf die allgemeinen Geschäftsbedingungen und damit die Gemeinschaftsstandards zu haben, sowie demokratisch gewählte Nutzerräte, um auf die Geschäftspraktiken Einfluss zu nehmen. Das wären erste konkrete Schritte, die private Regulierungsmacht der Social Media-Konzerne einzuschränken. Auch wenn diese nach Meinung des Autors auf Dauer nicht ausreichen.

Auch die kommerziellen Profitinteressen hinter der Facebook-internen Regulierung werden in der HBI-Studie kleingeredet: „At no point in the study did we notice explicit reference to economic interests“ (Kettemann & Schulz 2020a, S. 25). Zwar gehen die Autoren auf eine mögliche Internalisierung des Profitstrebens durch die mehr als 50 Mitglieder des „Product Policy Teams“ ein, “but given the data we collected in the case study and the interviews we organized with team members this does not seem to be the case” (ebd., S. 31). Hier ergeben sich methodische Probleme. Glauben die Autoren wirklich, dass sich so ein Konzern nicht auf die nur einwöchige Beobachtungsphase vorbereitet hat? Dass die Interviewpartner (von denen wir nicht wissen, wer sie sind) nicht zuvor gebrieft wurden? Was passiert denn zum Beispiel, wenn eine Regierung in Ankara droht, den Zugang zu Facebook im ganzen Land zu sperren, wenn oppositionelle Inhalte nicht konsequent gelöscht werden? Schon oft wurde der Verdacht geäußert, dass Facebook die Löschregeln im Sinne Erdogans angepasst hat. Insbesondere kurdische Inhalte fallen dem zum Opfer. Ein Leak aus dem Jahr 2012 zeigt, wie die Gemeinschaftsstandards angepasst wurden, um eine Gesamtsperrung Facebooks zu verhindern. Dass dahinter keine ökonomischen Interessen standen, ist unwahrscheinlich.

Spannend zu lesen ist, wie Kettemann und Schulz beschreiben, dass das Kontrollgremium, ganz im Sinne der (vermeintlich) liberalen US-Tradition, vor allem Wert auf den Schutz von individuellen Freiheitsrechten legt und dabei „underemphasize social and solidarity rights“ (Kettemann & Schulz 2020a, S. 30). Freiheitsbewegungen wie in der Westsahara, Palästina und Kurdistan haben sich immer wieder über die Facebook-Zensur ihrer Inhalte und solidarischer Unterstützer beschwert, und auch der Autor dieser Zeilen wurde wiederholt auf Facebook geblockt, wenn es um kurdische Themen ging.

Kritische Forschung zu dieser Thematik muss sich, um einen umfassenden Eindruck zu erhalten, auch auf Datenleaks und Whistleblower stützen, die kein Interesse an einem positiven Framing solcher Konzerne haben. Zwei Beispiele dafür sind Brittany Kaiser, die unter anderem in der Dokumentation „The Great Hack“ Auskunft über die Zusammenarbeit von Facebook und Cambridge Analytica gibt, oder die Veröffentlichung von Sarah Roberts (2019) zu den mehr als 100.000 Content-Moderatoren sozialer Netzwerke weltweit.

Insgesamt fehlt es der Studie an kritischen Worten zum Daten- und Überwachungskonzern Facebook. Im Gegenteil. Sie erweckt durch einen positiven Duktus den Eindruck, dass bei Facebook doch alles mit rechten Dingen zugehe und die Regulierung ebenfalls Kontrollen und Einflussmöglichkeiten externer Interessensvertreter unterliege. Der undemokratische Status Quo wird damit legitimiert – mit einem wissenschaftlichen Gütesiegel. Damit handelt es sich letztendlich um Auftragsarbeit im Sinne des Konzerns, der seine Tore in Kalifornien nicht uneigennützig geöffnet hat.

Literaturangaben

Block, H., & Riesewieck, M. (2018). The Cleaners. Im Schatten der Netzwelt. Farbfilm Verleih.

Kettemann, M. C., & Schulz, W. (2020a). Setting Rules for 2.7 Billion. A (First) Look into Facebook´s Norm-Making System: Results of a Pilot Study. Hamburg: Hans-Bredow-Institut.

Kettemann, M. C., & Schulz, W. (2020b). Kommunikationsregeln für 2,7 Milliarden Menschen: Wie Facebook seine Community Standards entwickelt. Hamburg: Hans-Bredow-Institut.

Meyen, M., Löblich, M., Pfaff-Rüdiger, S., & Riesmeyer, C. (2019). Qualitative Forschung in der Kommunikationswissenschaft: eine praxisorientierte Einführung. Wiesbaden: Springer VS.

Meyen, M. (2019). (Erste) Thesen zur Medienzukunft. In: Michael Meyen (Hrsg.): Medienrealität 2019.

Roberts, S. (2019). Behind the Screen. Content Moderation in the Shadows of Social Media. Yale: Yale University Press.

 

Foto: Kerem Schamberger

 

Dieser Beitrag ist zuerst auf dem Blog Medienrealität erschienen. Die empfohlene Zitierweise lautet deshalb:

Kerem Schamberger: Facebooks vermeintliche Transparenzoffensive. In: Michael Meyen (Hrsg.): Medienrealität 2020. https://medienblog.hypotheses.org/8420 (Datum des Zugriffs)