Grafik: fyv6561 / shutterstock.com

Wie viele Inhalte werden täglich auf Facebook gelöscht und wie gehen die Löscher mit dem psychischen Stress um? Wir haben mit Facebook über die Lösch-Arbeiten gesprochen. Doch der Social Media Konzern ist Marketing-Profi und formuliert seine Antworten sehr vorsichtig.

das Interview führte Sophia Stölting

Was sind die Aufgaben eines Löschers?

Facebook-Sprecher: Menschen haben bei Facebook die Möglichkeit, Inhalte zu melden, die sie als bedenklich oder anstößig empfinden. Jede dieser Meldungen wird vom Community Operations Team, also von individuellen Personen, geprüft – in der jeweiligen Sprache. Das Community Operations Team ist speziell für diese Aufgabe ausgebildet und arbeitet weltweit täglich rund um die Uhr.

Nach welchen Regeln muss ein Video, Foto oder Post gelöscht werden?

Facebook-Sprecher: Facebooks Gemeinschaftsstandards bestimmen, welche Inhalte auf Facebook erlaubt sind und welche nicht. Wir möchten die richtige Balance finden, sodass Menschen sich auf Facebook wohl und sicher fühlen und die Möglichkeit haben, Inhalte zu teilen, die ihnen wichtig sind.
Auszug aus den Gemeinschaftsstandards von Facebook: „Die Begünstigung oder Propagierung von Gewaltverbrechen, Diebstahl und/oder Betrug auf unserer Plattform ist verboten, denn wir dulden keinerlei kriminelle Aktivitäten und möchten Nachahmungstaten verhindern. Des Weiteren untersagen wir die bildliche Darstellung krimineller Handlungen. (…) Allerdings ist es gestattet, über kriminelle Handlungen zu diskutieren oder deren Rechtmäßigkeit zu befürworten, wenn dies auf rhetorische oder satirische Art und Weise erfolgt.“

Die Löschteams werden tagtäglich mit schrecklichen Inhalten wie Vergewaltigungen oder Mord konfrontiert.Wie verarbeiten Ihre Mitarbeiter das Gesehene?

Facebook-Sprecher: Facebooks weltweit hohe Standards für die Schulung und Betreuung stellen sicher, dass alle Mitarbeiter, die im Bereich Content Moderation arbeiten, die nötige Unterstützung erhalten, sei es durch Prozesse, die eine schnellere Deeskalation bei schwierigen Entscheidungen ermöglichen oder psychologische Betreuung und Unterstützung rund um die Uhr.

Wie viele Beiträge sichten die Löscher pro Tag und wie viele werden gelöscht?

Facebook-Sprecher: Wichtig ist, dass die Mitarbeiter unseres Content Moderation Teams keine Quoten für die Sichtung von gemeldeten Beiträgen vorgegeben bekommen. Die Zahl der Inhalte, die wir beispielsweise wegen Hassrede löschen, hat sich global vergrößert, wenn man die Zeiträume Oktober bis Dezember 2017 und Januar bis März 2018 vergleicht.

  • Oktober bis Dezember 2017: 1.6 Millionen Inhalte wegen Hassrede gelöscht
  • Januar bis März 2018: 2.5 Millionen Inhalte wegen Hassrede gelöscht

Warum müssen die Löscharbeiten von Menschen durchgeführt werden? Könnte diese Arbeit stattdessen von einem Algorithmus übernommen werden?

Facebook-Sprecher: Unsere Richtlinien sind nur so gut wie die Wirksamkeit und Präzision unserer Durchsetzung. Eine Herausforderung besteht darin, potenzielle Verstöße gegen unsere Standards zu identifizieren, sodass wir diese überprüfen können. Hierbei können Technologien hilfreich sein. Wir setzen auf eine Kombination aus künstlicher Intelligenz und Meldungen von Nutzern, um Beiträge, Bilder und andere Inhalte zu identifizieren, die möglicherweise gegen unsere Gemeinschaftsstandards verstoßen. (…) Bis künstliche Intelligenz und maschinelles Lernen die Komplexität bei der Beurteilung z. B. von Hassrede bewältigen können, ist es jedoch noch ein langer Weg. Noch gibt es kein perfektes Tool, das in der Lage wäre, Kontext, Bedeutung und die Intention gemeldeter Beiträge ausreichend zu erfassen und die oftmals feine Linie zwischen ausdrucksstarker Meinung und z. B. unzumutbarer Hassrede zuverlässig unterscheiden zu können.

Warum müssen Löscher anonym bleiben?

Facebook-Sprecher: Wir nennen aus Rücksicht auf die Privatsphäre und Sicherheit der Mitarbeiter in diesem Bereich keine Namen.

Was kann ich tun, wenn ich z. B. einen rassistischen Beitrag entdecke?

Facebook-Sprecher: Jeder Facebook-Nutzer kann Inhalte mithilfe des Melden-Links melden (über einen Klick oben rechts neben dem Beitrag auf die drei Punkte). Die meisten Meldungen werden binnen 24 Stunden überprüft, einige auch schneller.

Was sind die Konsequenzen für den verantwortlichen Nutzer?

Facebook-Sprecher: Jede Meldung wird vom Community Operations Team geprüft. Anschließend wird eine passende Maßnahme ergriffen. Das beinhaltet beispielsweise die Löschung von Inhalten, die Hassrede enthalten. Wir haben auch die Möglichkeit, die verantwortliche Person zu verwarnen oder deren Account vorübergehend zu deaktivieren.

Kann der gesperrte Nutzer sehen, wer ihn gemeldet hat?

Facebook-Sprecher: Wenn etwas bei Facebook gemeldet wird, prüfen wir den Fall und entfernen alles, was gegen unsere Gemeinschaftsstandards verstößt. Der Name und andere persönliche Informationen der Person, die Inhalte oder Profile meldet, werden vollkommen vertraulich behandelt.

Herausgeber

fuks e.V. – Geschäftsbereich Karlsruher Transfer

Waldhornstraße 27, 76131 Karlsruhe
Telefon +49 (0) 721 38 42 313
transfer@fuks.org

Urheberrecht:

Alle Rechte vorbehalten. Die Beiträge sind urheberrechtlich geschützt. Vervielfältigungen jeglicher Art sind nur mit Genehmigung der Redaktion und der Autoren statthaft. Namentlich gekennzeichnete Artikel geben nicht unbedingt die Meinung der Redaktion wider. Der Karlsruher Transfer erscheint einmal pro Semester und kann von Interessenten kostenlos bezogen werden.

Share
This