Für Satire und Parodie verändertes Bildmaterial ist gestattet, da das soziale Netzwerk nicht die Tür für jede Art von manipulierten Inhalten zuschlägt.

Facebook möchte die Verbreitung manipulierter Inhalte (Fake News, Deep Fakes, …) weiter eindämmen und führt deshalb neue Regelungen ein. Immer wieder versuchen überzeugende Deep Fake Videos öffentliche Meinungen zu beeinflussen, wie beispielsweise bei den Präsidentschaftswahlen in den USA.

Eine Ankündigung der Vizepräsidentin für globales Policy Management, Monika Bickert, zeigt, dass Facebook einen pluralistischen Ansatz verfolgt, um den wachsenden Bedrohungen durch Desinformationskampagnen und Beeinflussungen zu begegnen.

Künftig entfernt Facebook manipulierte Inhalte, die folgende zwei Kriterien erfüllen:

  • Inhalte wurden auf eine Art und Weise künstlich erzeugt oder bearbeitet – was über Verständnis- und Qualitätssteigerung hinaus geht – dass es einer durchschnittlichen Person nicht auffällt. Beispielsweise ist ein Video so bearbeitet wurden, dass eine Person darin etwas sagt, dass sie in Wahrheit in der Art gar nicht wiedergab.
  • Inhalte sind das Produkt von künstlicher Intelligenz oder maschinellem Lernen. Teile eines Videos werden beispielsweise so zusammengefügt, ersetz oder überlagert, dass es authentisch erscheint – obwohl sich das gezeigte so nie abspielte.

Daraus geht hervor, dass die strengeren Richtlinien besonders auf Deep Fakes abzielen. Sie sind ein Beispiel dafür, wie Algorithmen von maschinellem Lernen für niederträchtige Zwecke missbraucht werden.

So weit, so gut. Das Verbot erstreckt sich jedoch nicht auf andere Arten von geschönten Inhalten. Genauer gesagt, werden aus dem sozialen Netzwerk keine Videos verbannt, die lediglich gesagte Wörter weglassen oder deren Reihenfolge umstellen, oder, deren Inhalte man für Parodien oder Satiren änderte.

Ein dabei oft auftretendes Problem: Wo zieht man die Grenze und unterscheidet, was humorvoll ist und was nicht?

Dessen ungeachtet gelobt Facebook, bei geschönten Inhalten, die die Kriterien für das Entfernen nicht erfüllen, nicht ganz wegzuschauen. Auch solcher Content kann zu einer unabhängigen Faktenprüfung herangezogen und anschließend reglementiert werden.

„Wenn ein Foto oder Video von einem Faktenprüfer als falsch oder teilweise falsch eingestuft wird, reduzieren wir die Verbreitung im News-Feed erheblich oder lehnen es gar ab, wenn es als Anzeige geschaltet wurde. Viel entscheidender: Menschen, die das Bildmaterial bereits sehen, es versuchen, zu teilen, oder das bereits getan haben, erhalten Warnungen über diesen Fake", sagte Bickert.

Sie argumentiert, dass das Deaktivieren dieser Videos die Nutzer nicht davon abhalte, sie auf anderen Plattformen anzusehen – dort wüssten sie dann nicht, dass das Video ein Fake sei. Da ist es besser, die Fake-Videos auf Facebook bestehen zu lassen, aber mit dem wichtigen Hinweis, dass es nicht der Wahrheit entspricht und möglicherweise aus dem Kontext gerissen wurde.

ESET Security Specialist Jake Moore erkennt Facebooks Entscheidung an, aber weist auch darauf hin, dass Verbote nur so weit gehen können, wie beschrieben. Außerdem müsste man kritischer sein und sich auf das einstellen, was noch kommen wird.