Digitale Müllabfuhr: Wer löscht Kinderpornos auf Facebook?

Facebook will virtuelle Realität sein. Allerdings bildet es bewusst nur Teile dieser ab. Als 2015 ein Video von einer Kindesmisshandlung in dem sozialen Netz auftauchte, wurde dies innerhalb weniger Stunden Tausende Male geteilt und geliked. Das war der Zeitpunkt, an dem sich unter anderem das Künstlerkollektiv Laokoon aus Berlin gefragt hat, warum solche unerwünschten Inhalte nicht öfter in den sozialen Netzwerken zu sehen sind.

Die Spuren führten das Kollektiv auf die Philippinen, nach Manila. Dort sitzt eine ganze Armada von Klickarbeitern, die zwölf Stunden am Tag im Auftrag von Facebook unseren digitalen Abfall auf die Bildschirme bekommen und entscheiden müssen: „Delete“ oder „Ignore“.

Die Content Moderatoren verstehen ihre Arbeit als eine Mission, die Welt, beziehungsweise das Internet, von seinen Sünden zu befreien.
– Hans Block, Künstlerkollektiv Laokoon

Aus dieser Recherche entstand jetzt ein Theaterstück am Schauspiel Dortmund. Im September soll das Buch zum Thema erscheinen. Im Stück Nach Manila wird Facebook in einen Garten verlegt. Alles ist miteinander vernetzt, ein gigantisches Wurzelwerk. Es gedeihen Nutzpflanzen und Zierblumen. Gegen das Unkraut in diesem riesigen Garten haben die sozialen Medien ihre eigenen Gärtner: die Content Moderatoren.

Hans Block – 32 Jahre, Theaterregisseur und Musiker aus Berlin – ist Teil der Gruppe Laokoon. Er hat mit Content Moderatoren in Manila gesprochen und war auch an der Inszenierung des Theaterstücks beteiligt. Im Interview erklärt er, unter welchen Bedingungen die Bilderlöscher von Manila arbeiten.

Delete oder Ignore. Eigentlich nicht so schwierig, oder?

Doch es ist extrem schwierig. Die Frage, ob ein Bild oder ein Video online gehen dürfen, ist sehr komplex. Die Content Moderatoren haben über hundert Seiten Richtlinien, aufgrund derer sie entscheiden müssen, welche Bilder aus dem Netz verschwinden, und welche bleiben dürfen. All das kriegen sie in wenigen Tagen Training eingetrichtert und sind dann auf sich gestellt bei der Entscheidungsfindung.

Die norwegische Zeitung „Aftenposten“ veröffentlichte im vergangenen Jahr auf Facebook das Foto vom Napalm Girl, welches 1972 zum Symbolbild des Vietnamkrieges und für eine ganze Friedensbewegung wurde. Facebook, beziehungsweise einer der etwa einhunderttausend Content Moderatoren weltweit, löschte das Bild. Wahrscheinlich schien ihr oder ihm das fliehende nackte Mädchen unzulässig, da in den Richtlinien von Facebook Nacktheit nicht erlaubt ist. Trotzdem kann ein Bild mit hohem Nachrichtenwert Kriterien wie Nacktheit außer Kraft setzen. An diesem Beispiel wird klar, dass man eigentlich umfassendes historisches und gesellschaftliches Wissen braucht, um diese Bilder in ihrem Kontext bewerten zu können. 

Das Napalm Girl
 

Wie sieht diese Entscheidungsfindung bei Facebook konkret aus?

Jeder Mitarbeiter hat einen Bildschirm, auf dem die Bilder nacheinander erscheinen. Sie müssen dabei einen Score erreichen, das heißt, in einer bestimmten Zeit eine bestimmte Anzahl von Bildern sichten. Es gibt noch viel zu wenige Content Moderatoren. Bei aktuell zwei Milliarden Facebook-Nutzern kommt da eine große Bilderflut zusammen. Fünf Sekunden sollen im Durchschnitt ausreichen, um ein Bild zu erfassen und eine Entscheidung zu fällen. 

Hans Block (rechts) während der Recherche in Manila. Foto: Omid Minur

Es wurde bekannt, dass es solche Bilderlöschzentren auch in Deutschland gibt. Wie unterscheidet sich zum Beispiel der Facebook-Dienstleister Arvato in Berlin, der auch etwa 600 Content Moderatoren beschäftigt, mit dem, was ihr auf den Philippinen gesehen habt?

Die Hauptstadt der Content Moderation ist Manila. Dort laufen die Inhalte der ganzen Welt zusammen und werden gefiltert. Arvato in Berlin ist ein kleines Team, das sich um die Inhalte des europäischen Marktes kümmert. Das heißt, der Großteil der markierten Inhalte landet auf den Tischen der Philippinos, und was sie nicht verstehen, weil beispielsweise deutsche Sprache eine Rolle spielt, wird weitergeleitet nach Berlin Spandau. 

Wie kam es, dass Manila die Hauptstadt dieser neuen Online-Industrie wurde? Warum die Philippinen?

Ein Grund ist, dass die Philippinos zu über 90 Prozent katholische Christen sind. Das Motiv des sich für andere Menschen Aufopfern ist in der philippinischen Kultur sehr stark verinnerlicht. Der Katholizismus wird dort viel stärker ausgelebt, als wir das hier gewohnt sind. Die Content Moderatoren verstehen ihre Arbeit als eine Mission, die Welt, beziehungsweise das Internet, von seinen Sünden zu befreien. 

Das Interessante daran ist, dass Facebook gerade aufgrund der gesellschaftlichen, religiösen Konstellation, diese Arbeit genau dorthin auslagert. Die Industrie wirbt sogar damit, dass man auf den Philippinen dieselben moralischen Vorstellungen hat, wie „wir“ im Westen.

Du warst dort. Kannst du das bestätigen, oder gab es doch den Kulturschock?

Blutige Osterrituale: Freiwillige geißeln sich mit Bambuspeitschen. Foto: Hans Block

Als wir die erste Recherchereise gemacht haben, war das in der Osterzeit, in der ein großes religiöses Spektakel stattfand. Da haben sich dann tatsächlich Menschen, so wie Jesus einst, sich ans Kreuz nageln lassen, um die Sünden der Welt auf sich zu nehmen, richtig mit dicken Nägeln durch Hände und Füße. Nach einer viertel Stunde wurden sie dann wieder abgenommen. 

Auf der anderen Seite sind die Philippinen ein Entwicklungsland, wo diese Klick-Industrie in den letzten Jahren aus dem Boden gestampft wurde. Ein Großteil der Menschen dort verdient sein Geld noch damit, auf der Straße Müll zu sammeln.

Was haben euch Content Moderatoren erzählt? 

Für die  Content Moderatoren besteht absolute Schweigepflicht. Die Arbeiter unterzeichnen Verträge, die es ihnen unter Androhung von hohen Geldstrafen verbieten, über ihre Arbeit zu erzählen. Oftmals wissen nicht einmal die Familien oder engsten Freunde von dem Job. Auf der anderen Seite entsteht natürlich ein großes Redebedürfnis, wenn man so eine Arbeit macht. Die Begegnungen fanden unter sehr widrigen Bedingungen statt. Beispielsweise trafen wir einen Content Moderator, der sichtlich verängstigt war, mit uns zu reden. Schließlich durften wir ihn in einem Auto mit getönten Scheiben durch die Stadt fahrend interviewen, da er Angst hatte, von Vorgesetzten oder Kollegen gesehen zu werden:

Ein Content Moderator, der namentlich nicht genannt werden will, erzählt von seiner Arbeit: Maintenance Work – Instandhaltung des Internets. 3000 Bilder kontrolliert er am Tag. Was ihn am meisten schockiert, sind die Pädophilen im Netz. 

Ehemalige Mitarbeiter berichteten von Kinderpornografie, Enthauptungen oder Hinrichtungen. Wir hörten von posttraumatischen Belastungsstörungen, wie man sie von Soldaten kennt, die aus dem Krieg zurückkommen. Viele Frauen hatten keine Lust mehr auf Sex mit ihrem Partner, nachdem sie sich den ganzen Tag üble Pornografie ansehen mussten. Tatsächlich sind sehr viele der Content Moderatoren Frauen. Man verdient ungefähr einen Dollar pro Stunde, was auch für philippinische Verhältnisse nicht sonderlich viel ist.

Gleichzeitig sind die Content Moderatoren sehr stolz auf ihre Arbeit. Sie schützen uns Nutzer in Extremfällen sogar vor Suiziden. Wenn sie in einem Livestream erahnen, dass sich jemand umbringen möchte, wird dies direkt an die entsprechenden Polizeistellen weitergeleitet und die können dann eingreifen. Alles in Echtzeit. Die haben uns erzählt, sie hätten schon tausende von Leben gerettet mit ihrer Arbeit.

Facebook ist ein „walled garden“: Innerhalb seiner Mauern ist es sauber, draußen tobt die Realität. In Manila sitzen die sogenannten Content Moderatoren, die Gärtner des Netzes. Foto: Hans Block

Mal abgesehen von den Arbeitsbedingungen der Content Moderatoren, ist es nicht eigentlich schön, dass unser Garten Facebook so sauber ist?

Das ist sicherlich sehr dialektisch zu betrachten. Wichtige Diskurse kommen durch das Aussortieren von Bildern abhanden. Wenn beispielsweise eine Redaktion nach dem Unglück mit dem toten Flüchtlingskind am Strand entscheiden muss, ob man dieses Bild zeigt oder nicht, dann wird darüber stundenlang verhandelt. Solch ein Bild kann die Kraft haben, einen gesellschaftlichen Zustand zu markieren und in die Diskussion zu bringen. Insofern glaube ich, dass die Kultur der Verdrängung – sich des Bösen nicht zu stellen – eine sehr gefährliche Methode ist.

Wie sollte Facebook deiner Meinung nach mit solchen Inhalten umgehen? Hältst du es für notwendig, all diese Inhalte zu zeigen?

Nein, das habe ich nicht gesagt. Das kann man nicht pauschalisieren. Diese wichtige editoriale Entscheidung von Content Moderatoren kann nicht in fünf Sekunden passieren. Unser erster Wunsch wäre, dass man dort Leute anstellt, die diese Entscheidungen verantwortungsvoll, mit Zeit, Ruhe und einem großen Redaktionsteam treffen. Natürlich ist Facebook ein privates Unternehmen. Trotzdem sollten bestimmte Prozesse unserer Meinung nach demokratisiert werden. Was steht in diesen Richtlinien der Content Moderatoren? Was wird als böse markiert und was ist für unsere Augen zulässig? Das sind Fragen, die nicht nur im Geheimen entschieden werden dürfen, weil sie uns alle betreffen. 

Es gab 2013 einen Leak einer Richtlinienseite, die von Facebook stammt. Sie besagte, dass die kurdische Landkarte und Flagge nicht auf Facebook gezeigt werden darf. Das heißt, große Staaten, in diesem Fall die Türkei, üben Druck auf die sozialen Netzwerke aus, dass bestimmte Inhalte nicht gezeigt werden dürfen. Facebook hat diesem Druck nachgegeben, da sie sonst Gefahr laufen – und das ist eben das Unheil eines privaten Unternehmens, das in erster Linie auf Profit abzielt – vom türkischen Markt zu verschwinden. Facebook ist kein neutrales Instrument mehr. Es trifft politische Entscheidungen. Der im Silicon Valley geborene Traum des freien Internets, das über Grenzen hinweg Menschen miteinander verbindet und in dem wir alles ausdrücken und veröffentlichen können, ist lange ausgeträumt.

Beitragsbild: Pablo Lawall/Fotomontage mit Wikimedia-Logo und Wikimedia-Tumb lizenziert nach Creative Commons