Instagram könnte bald überdenken, wie es Trans-Körper moderiert

Das Aufsichtsgremium von Meta befasst sich mit zwei Fällen im Zusammenhang mit der Zensur von queeren Urhebern.
  Instagram könnte bald überdenken, wie es Trans-Körper moderiert SOPA-Images/Getty-Images

Das Aufsichtsgremium von Meta bereitet sich darauf vor, einen Fall in Bezug auf Geschlechtsidentität und Nacktheit auf Instagram zu prüfen, dessen Ergebnis die Benutzererfahrungen von transsexuellen und nicht-binären Menschen überall beeinflussen wird.



Das Oversight Board, ein externes Gremium, das sich mit Fragen der Durchsetzung von Inhalten auf Facebook und Instagram befasst, angekündigt Dienstag, dass es vier neue Fälle überprüfen würde. Einer der Fälle befasst sich mit zwei getrennten Fällen, in denen bei einem transsexuellen und nicht-binären Paar Bilder aus dem gemeinsamen Konto entfernt wurden, das sie führen. Das erste Bild aus dem Jahr 2021 zeigte beide Personen von der Taille an nackt, mit fleischfarbenem Klebeband über ihren Brustwarzen. Auf dem zweiten Bild, das 2022 gepostet wurde, bedeckt eine Person die Brustwarzen der anderen Person mit ihren Händen. Die Bildunterschriften für beide Bilder diskutierten, wie die Person mit nacktem Oberkörper auf beiden Bildern bald eine Top-Operation haben würde, und vermerkten „ihre Pläne, den Operationsprozess zu dokumentieren und Trans-Gesundheitsfragen zu diskutieren“ und enthielten eine Ankündigung einer Spendenaktion. Das Oversight Board hat sowohl die Beiträge als auch die Konten anonym gehalten.

Meta entfernte beide Beiträge unter Berufung auf die Community-Standard für sexuelle Werbung , eine Richtlinie zu sexuellen Inhalten auf den Eigenschaften von Meta, einschließlich Facebook und Instagram. Dieser Standard schränkt Inhalte ein, die „sexuelle Begegnungen oder kommerzielle sexuelle Dienstleistungen zwischen Erwachsenen erleichtern, fördern oder koordinieren“ sowie „sexuell explizite Sprache, die zu sexueller Aufforderung führen kann“. Trotz der Tatsache, dass keiner der Beiträge eine solche Sprache enthielt, meldeten drei Benutzer den ersten Beitrag wegen „Pornografie und Selbstverletzung“. Obwohl menschliche Moderatoren, die diese Beschwerden überprüften, zunächst feststellten, dass der Beitrag keinen Verstoß darstellte, wurde der Inhalt ein viertes Mal gemeldet, und ein separater Moderator entfernte den Beitrag.



Der zweite Beitrag wurde von Meta als „potenziell verletzend“ eingestuft Moderation KI , obwohl menschliche Prüfer es als nicht verletzend empfanden. Auch nachdem der Beitrag zweimal wegen potenziell verletzender Inhalte gemeldet wurde, wurden die Meldungen automatisch geschlossen. Aber als die KI von Meta den Beitrag ein drittes Mal überprüfte und feststellte, dass er möglicherweise einen Verstoß darstellt, beschloss ein separater Prüfer, den Beitrag zu entfernen.



Obwohl das Paar versuchte, an Meta zu appellieren, um die Posten wieder herzustellen, weigerte sich das Unternehmen, sich zu rühren. Erst nachdem das Ehepaar beim Vorstand Berufung eingelegt hatte, betrachtete Meta diese Entfernungen als „Durchsetzungsfehler“ und stellte sie wieder her. Jetzt bittet der Vorstand um öffentliche Kommentare zu dem Fall.

Das Board schrieb in seiner Ankündigung vom Dienstag, dass es Kommentare dazu begrüßen würde, ob die Richtlinien von Meta zu Nacktheit und sexueller Aufforderung die Rechte von trans- und nicht-binären Benutzern ausreichend respektieren. Der Vorstand bittet unter anderem auch um Stellungnahme dazu, ob Meta über ausreichende Verfahren verfügt, um gemeldete nicht verletzende Inhalte zu beheben, und wie das Risiko einer irrtümlichen Entfernung gemindert werden kann. Die Frist für Abgabe öffentlicher Kommentare ist Dienstag, 9. August, um 11:00 Uhr EDT.

Die Nachricht kommt inmitten einer verstärkten Prüfung von Meta, sowohl wegen seiner Beschränkungen für abtreibungsbezogene Inhalte in einem Post- Rogen Ära und für seine Einsatz von KI in der Inhaltsmoderation . Die Facebook-Whistleblowerin Frances Haugen kritisierte kürzlich das Vertrauen des Unternehmens in KI, im Gegensatz zu einer fairen Bezahlung menschlicher Inhaltsmoderatoren, und sagte, dass KI „nur so präzise sein“ könne.



„Leute, die tatsächlich daran arbeiten, nennen es maschinelles Lernen, weil es nicht intelligent ist“, sagte Haugen in Kommentaren, die von berichtet wurden Geschäftseingeweihter .

Dieser Mangel an Präzision hat auch einen menschlichen Preis. EIN jüngsten Bericht von GLAAD fand heraus, dass Meta, zusammen mit jeder anderen großen Social-Media-Plattform, immer noch nicht in der Lage ist, seine LGBTQ+-Nutzer zu schützen. Die Organisation forderte den Social-Media-Riesen auf, umfassende Daten darüber zu veröffentlichen, wie seine Richtlinien zum Schutz von LGBTQ+-Nutzern durchgesetzt werden, wenn man bedenkt, dass immer noch Anti-LGBTQ+-Inhalte auf Facebook und Meta kursieren und sich den Augen von Moderatoren entziehen, ob menschlich oder nicht.

Seit der Verabschiedung der „Anti-Trafficking“-Gesetzgebung SESTA-FOSTA im Jahr 2018 sind LGBTQ+-Personen im Internet konfrontiert zunehmende Zensur und Shadowbanning . Das liegt daran, dass die Gesetze entscheidende Schutzmaßnahmen aufhoben, die besagten, dass Plattformen nicht für nutzergenerierte Inhalte haftbar gemacht werden könnten, und machten eine Ausnahme für Inhalte im Zusammenhang mit „Sexhandel“, mit denen ebenfalls fälschlicherweise in Verbindung gebracht wurde einvernehmliche Sexarbeit . Aber wie der Fall Meta zeigt, werden queere und transsexuelle Körper, die nur existieren, viel zu oft als unangemessen sexuell angesehen, und das alles zusätzlich zu den Schwierigkeiten, mit denen echte queere und transsexuelle Sexarbeiterinnen konfrontiert sind.