Hannes Grassegger und Till Krause

Im Netz des Bösen

13.10.2017

Nutzer auf Facebook posten nicht nur Belangloses wie ein inszeniertes Abendessen oder Grüße aus dem Urlaub. Täglich taucht eine Vielzahl an Gewaltvideos, Kinderpornos oder Hasskommentaren auf der weltweit genutzten Social-Media-Plattform auf. Die Gewinner des Hermann-Schulze-Delitzsch-Preises für Verbraucherschutz 2017 recherchieren, wie der IT-Gigant mit solchen Inhalten umgeht. Welche werden wann gelöscht? Nach welchen Kriterien wird dabei vorgegangen?


Im Netz des Bösen, Beitrag von Hannes Grassegger und Till Krause

Artikel „Im Netz des Bösen“ von Hannes Grassegger und Till Krause herunterladen (PDF)



Sie stoßen auf die Berliner Bertelsmann-Tochter Arvato, die im Auftrag von Facebook viele junge Menschen – sogenannte Content-Moderatoren – beschäftigt, die diesen „grauenerregenden Job“ machen. Anonymisierte Erfahrungsberichte von ehemaligen und derzeitigen Arvato-Mitarbeitern geben Einblicke in diese verstörende Welt. Alle leiden unter den Bildern, die sonst keiner sehen soll, denen sie aber gänzlich unvorbereitet und ungeschützt ausgesetzt sind.

Viele klagen über Stress, Erschöpfung oder gar Traumatisierung. Eine psychologische Betreuung gebe es nicht. Man würde geradezu indoktriniert: Die Social-Media-Plattform sei zu reinigen, bevor beispielsweise Kinder Inhalte wie Hinrichtungen zu sehen bekommen. Dabei habe das Unternehmen kein ethisches Interesse an der Säuberung. Vielmehr geht es dem Milliardenkonzern darum, die Nutzer auf den Seiten und die Werbeeinnahmen hoch zu halten.

Facebook habe Arvato als Dienstleister nur gewählt, weil die Forderung der deutschen Behörden nach deutschen Ansprechpartnern immer lauter wurde. Und weil Berlin ein Schmelztiegel sei, wo junge Menschen aller Nationen leicht für solche Jobs zu gewinnen seien.

Eine hartnäckige Recherche ist die Grundlage dieser Magazin-Geschichte. Die Autoren verschaffen sich nicht nur Zugang zu einem geheimen, internen Regelwerk für das Löschen von Inhalten, sondern vor allem auch zu ehemaligen und aktuellen Arvato-Mitarbeitern. Die jungen Menschen erzählen trotz Geheimhaltungsklauseln und Einschüchterung von ihrer Arbeit.

Gerade in den bewegenden Auszügen aus Sprachprotokollen wird das Ausmaß an Gewalt und Horror, dem sie ausgesetzt sind, greifbar. Hinzu kommen ausdauernde Nachfragen bei Facebook selbst, bei Arvato, bei Gerd Billen, Staatssekretär im Bundesjustizministerium, das dem IT-Giganten seit Langem mangelnde Transparenz vorwirft. Eine Vertreterin der Bundesprüfstelle für jugendgefährdende Medien wird zitiert, wo auch regelmäßig brutale Videos beurteilt werden müssen. Doch im Gegensatz zu Arvato stehen hier Sozialarbeiter, Trauma-Experten und Psychologen jederzeit bereit.

Journalistisch ist das herausragend, auch weil die Autoren echten Recherchebiss, Einfühlungsvermögen und Pioniergeist beweisen. Der Text hat die Tragweite des Themas früh erkannt und wirkt bis heute nach. Die Berichterstattung nahm, nachdem das SZ-Magazin den Beitrag veröffentlicht hatte, im Frühjahr 2017 an Fahrt auf. Dem britischen „Guardian“ wurden Ende Mai interne Schulungsunterlagen und Handlungsanweisungen für Löschungen zugespielt, was bis heute zu zahlreichen weiteren Artikeln in internationalen Leitmedien geführt hat. Der Deutsche Bundestag hat Ende Juni das sogenannte Netzwerkdurchsetzungsgesetz gegen Hasskriminalität im Internet beschlossen. Auch dazu dürften Till Krause und Hannes Grassegger beigetragen haben. Das ist preiswürdig.

Fragen an die Preisträger Hannes Grassegger und Till Krause

Hannes Grassegger (Foto: Sebastian Magnani), Till Krause (Foto: Ralf Zimmermann)Hannes Grassegger (links, Foto: Sebastian Magnani) und Till Krause (Foto: Ralf Zimmermann)



Wie sind Sie auf die Idee für den Beitrag gekommen?


Dass es in Berlin ein Löschzentrum für Facebook gibt, war schon länger bekannt. Doch weder Facebook noch die Bertelsmann-Firma Arvato, die dieses Zentrum im Auftrag von Facebook betreibt, ließ Journalisten oder Politiker dort hinein. Es ist streng von der Öffentlichkeit abgeschirmt. Wir wollten wissen, wie diese Leute arbeiten, wie sie auf ihren Job vorbereitet werden, und was sie im Rahmen ihrer Arbeit zu sehen bekommen. Und was wir nicht zu sehen bekommen dürfen. Das hat mit einem kleinen Nebensatz im Buch ›Parallaxe‹ des Philosophen Slavoj Zˇizˇ ek zu tun. Dort beschreibt er das außergewöhnliche Leben der Zensoren zu UdSSR-Zeiten. Niemand bekam so viel von der Welt zu sehen wie jene, die sie filtern müssen. Faszinierend, vor allem für Journalisten. Darüber hatten wir einmal diskutiert. Und seither die Augen offen gehalten nach Wegen, Einblicke in diese versteckte Welt der sogenannten Content-Moderatoren zu bekommen.

Mit welchen Herausforderungen waren Sie bei der Recherche des Themas konfrontiert?


Facebook gilt als eines der verschlossensten Unternehmen der Welt – eigentlich seltsam für eine Firma, die viel Geld mit der Offenheit ihrer Nutzer verdient. Doch über viele Dinge schweigt Facebook: Wie die Regeln aussehen, die festlegen, was bei Facebook gelöscht werden muss. Und wie die Menschen arbeiten, deren Aufgabe es ist, Facebook von all dem Horror sauber zu halten, der dort hochgeladen wird: Foltervideos, Kinderpornografie, Hetze und Terrorpropaganda. Die größte Herausforderung war es, mehr über diese Arbeiter zu erfahren, die entscheidend dafür verantwortlich sind, welche Inhalte bei Facebook zirkulieren dürfen und welche nicht. Dass diese Arbeit psychisch sehr belastend ist, ist längst bekannt – in Indien oder auf den Philippinen gibt es diese Jobs schon länger. Wir wollten herausfinden: Ist es in Deutschland genauso? Die beteiligten Firmen waren keine große Hilfe – viele Fragen wurden nicht beantwortet.

Worin liegt Ihr persönlicher Erkenntnisgewinn?

Was uns besonders schockiert hat, war die enorme psychische Belastung, die so ein Job mit sich bringt: Nach einem geheimen Regelwerk Dinge zu löschen, deren brutale Bilder man nicht mehr aus dem Kopf bekommt. Bei einigen Quellen hatten wir das Gefühl: Die sind psychisch am Ende und brauchen Hilfe. Die meisten haben sich aber nicht ausreichend psychologisch betreut und vorbereitet gefühlt für diesen Fließbandjob des Grauens. Wir sind auch an große Teile des geheimen Regelwerks gelangt, das genau festlegt, welche Bilder und Videos gelöscht werden müssen. Und das war schon schockierend: Brutale Gewalt darf beispielsweise auf der Seite bleiben, wenn es sich nach Definition von Facebook um eine legitime politische Äußerung handelt. Das Problem ist: Wie kann ein Weltkonzern im Geheimen festlegen, welche Aussage politisch noch in Ordnung ist? Solche Fragen sind auch die Sache von Behörden. Die durften aber lange Zeit ebenfalls nicht ins Löschzentrum – erst nach Veröffentlichung unseres Textes.