Zurück zur Glossar-Übersicht

Content Moderation

Content Moderation bezeichnet die Kontrolle und Bewertung digitaler Inhalte. Darunter fallen Beiträge in Bild-, Video- oder Textform, welche vornehmlich im Social-Media-Bereich zu finden sind. Content Moderation kann von den Betreibern der Unternehmen selbst oder von externen Dienstleistern vorgenommen werden.

Holen Sie das Beste aus Ihren Inhalten mit unserem E-Book zum Content-Audit  inklusive eines kostenlosen Content-Audit Templates. Hier klicken und  herunterladen!

Definition von Content Moderation

Wer Content Moderation betreibt, kontrolliert Beiträge im Internet und bewertet sie auf Grundlage der vorherrschenden Regularien und Vorschriften. Werden diese verletzt, können entsprechende Beiträge gesperrt, ausgeblendet oder entfernt werden. Die Aufgabe eines Content Moderators besteht in den meisten Fällen darin, Daten zu ordnen und Internetkriminalität dort zu unterbinden, wo sie entsteht. Dazu zählen beispielsweise Hasskommentare oder Beiträge, die zu Gewalt anstiften und somit gegen die Regularien der Plattform verstoßen. Im Grunde lassen sich die Aufgaben eines Content Moderators mit jenen einer “digitalen Müllabfuhr” vergleichen – sie beseitigen den Dreck und Abfall innerhalb sozialer Netzwerke, um deren Nutzer zu schützen.

Einsatzgebiete von Content Moderatoren

Unangemessene Inhalte oder Kommentare entstehen dort, wo User Generated Content erstellt wird. Dies passiert hauptsächlich im Rahmen von Social-Media-Netzwerken wie Facebook, Instagram, Twitter oder YouTube. Die Plattformen engagieren zumeist externe Mitarbeiter, die entsprechende Inhalte beseitigen und die Reputation des Netzwerks erhalten sollen. Im weiteren Sinne ist eine Content Moderation mitsamt eines angemessenen Community Managements dann erforderlich, wenn es sich um eine Website mit Kommentarfunktion handelt, welche für unpassende Inhalte missbraucht werden kann. So können auch Blog Kommentare eine Moderation erfordern, insofern diese sich wiederholt als problematisch herausstellen.

Bedeutung von Content Moderation

Dass unangemessene Beiträge innerhalb von Social-Media-Netzwerken nicht an die Oberfläche gelangen, ist in mehrfachem Sinne im Interesse des Betreibers. Nicht nur wahrt er somit die eigens aufgestellten Community-Regeln (interne Regularien) und hält die Reputation des Netzwerks intakt. Übergeordnet müssen die anderen entsprechenden Rechtsnormen (externe Regularien) eingehalten werden, die auf nationaler oder internationaler Basis festgelegt wurden. Vor allem ein Verstoß gegen letztere aufgrund von anstößigen Inhalten kann hohe Geldstrafen oder eine notwendige Reconsideration Request nach sich ziehen. Aus diesen Gründen sollten sich Betreiber alleine aus finanziellen und rechtlichen Gründen um eine verlässliche Content Moderation kümmern.

Content Moderatoren und künstliche Intelligenz

Weltweit sind derzeit rund 100.000 Personen – vornehmlich für die größten Netzwerke – als Content Moderatoren tätig. Deren Arbeit kann als anstrengend beschrieben werden, denn das Suchen und Sperren unangemessener Inhalte ist sehr repetitiv. Die andauernde Konfrontation mit teilweise verstörenden Beiträgen strapaziert die Psyche zusätzlich. Im Zuge dessen ist der Vorschlag aufgetaucht, den anstrengenden Job eines Content Moderators durch künstliche Intelligenz – genauer gesagt Algorithmen – zu ersetzen. Diese würden die Leistungsfähigkeit eines Menschen bei weitem übersteigen und schneller arbeiten.
Ein solcher Algorithmus weist allerdings die Schwäche auf, dass er Sarkasmus und Ironie nicht von ernsthaften Aussagen unterscheiden kann und Inhalte sperrt, hinter welchen keine böse Absicht, sondern Satire steckt. In diesem Bereich moderieren Menschen zuverlässiger, da sie sich den Kontext präziser erschließen und daher entscheiden können, ob ein Beitrag gesperrt werden sollte oder nicht.

Kritik an Content-Moderation

Die Tätigkeiten von Content Moderatoren sind nicht unumstritten. Grundsätzlich sind die Moderatoren dazu angewiesen, Beiträge objektiv hinsichtlich ihrer Eignung einzuschätzen und zu entscheiden, ob eine Beseitigung angemessen ist. Problematisch wird es allerdings, sobald die eigene Meinung hinsichtlich der Bewertung von Content eine Rolle spielt. Auf diese Weise ist es Content-Moderatoren möglich, ihre Verantwortung zu missbrauchen und eine gezielte Zensur oder Manipulation vorzunehmen. Letzteres ist insofern zu begründen, dass Falschinformationen (“Fake News”) ebenfalls zu unangemessenen Beiträgen zählen, welche es gilt, zu beseitigen. Befindet der zuständige Moderator solche Aussagen für richtig, macht er sie für alle Nutzer zugänglich und verstößt somit gegen die Regeln.

In den sozialen Medien ist es wichtig, Kunden als Ansprechpartner online zur Verfügung zu stehen und regelmäßig Content zu produzieren. Advidera betreut Ihre Social-Media-Kampagne und kümmert sich um Ihr Community Management. Schauen Sie sich für weitere Referenzen und Informationen gerne die Leistungsseite unserer Social-Media-Marketing Agentur an!



Häufige Fragen

Was sind Content Moderatoren?

Content Moderatoren sind dafür zuständig, unangemessene Botschaften auf Websites, die über von Nutzern produzierte Inhalte verfügen, zu beseitigen. Somit werden die allgemeinen Geschäftsbedingungen der Plattform sowie externe Regularien gewahrt und die User geschützt.

Wo kommt Content Moderation zum Einsatz?

Überall dort, wo User Generated Content vorhanden ist, sorgen Content Moderatoren für das Einhalten der Richtlinien. Solche Inhalte können unabhängig erstellt und veröffentlicht werden, weshalb strafbare Beiträge nicht auszuschließen sind und nachträglich entfernt werden müssen.

Kann ein Algorithmus menschliche Content Moderation ersetzen?

Künstliche Intelligenz ist zum jetzigen Zeitpunkt nicht in der Lage, sarkastische oder ironische Aussagen, die der Satire zuzuordnen sind, von ernsthaften Beiträgen zu unterscheiden. Menschliche Moderatoren arbeiten in dieser Hinsicht zuverlässiger arbeiten, da sie sich strafbare Hintergründe auch aus dem Kontext erschließen können.

Quellen

5/5 - (3 votes)