Twitters neuer Pitch für Einstellungen zum Schutz vor Belästigung wird aus irgendeinem Grund Trollen überlassen
Dies ist eine automatische Übersetzung.
Klicken Sie hier, um die Publikation in der Originalsprache zu lesen.

Twitter ist nicht gerade gut darin, Idioten aus den Antworten der Leute herauszuhalten, wie jeder, der jemals einen Tweet mit "Zahlen" hatte, sicherlich bestätigen kann. Aber was wäre, wenn – was wäre, wenn – die Dinge anders wären?
Das hat Paula Bercante, eine Designerin des Social-Media-Unternehmens, in einem Freitags-Thread gehänselt, in dem sie um Benutzerfeedback zu einigen neuen Ideen gebeten hat. Neu konzipierte, aber noch nicht implementierte „Filter“- und „Limit“-Steuerungen würden neue Einstellungsschalter bieten, die den Fluss von Tweets an Kontoinhaber regulieren sollen.
Die beiden Schalter sind ziemlich selbsterklärend. Filter würde nach schädlichen oder Spam-Antworten Ausschau halten und sie für alle außer dem Autor jedes problematischen Tweets sperren. Limit geht noch einen Schritt weiter und verhindert, dass Konten, "die dazu neigen, schädliche Sprache zu verwenden oder sich wiederholende, ungebetene" Tweets zu senden, auf Konten antworten, bei denen die Einstellung aktiviert ist.
„Bei Filter und Limit geht es darum, Sie in die Lage zu versetzen, potenziell schädliche Interaktionen proaktiv zu verhindern und den Ton Ihrer Gespräche zu kontrollieren“, schrieb Barcante in dem Thread. "Unstimmigkeiten, Debatten und Kritik sind weiterhin erlaubt."
Barcante sagt es nicht direkt, aber ihr Thread deutet darauf hin, dass die beiden Einstellungen in gewissem Maße von einer Datenbank mit schlechten Twitter-Schauspielern abhängen. Vielleicht könnte "Filter" von einem KI-Gehirn betrieben werden, aber es ist schwer vorstellbar, wie "Limit" Antworten von Konten abschaltet, "die dazu neigen", sich auf eine bestimmte Weise zu verhalten, ohne eine Liste zu haben, aus der man schöpfen kann.
Seltsamerweise würde die Entscheidung, eine der beiden Funktionen zu verwenden (wie sie derzeit entwickelt wurde), jedoch allen Lesern im Voraus bekannt gegeben. Das bedeutet, dass ein Möchtegern-Troll im Voraus wissen würde, ob er sich mit jemandem anlegen will, der möglicherweise nicht sieht, was er sagen wird, weil eine Einstellung aktiviert ist.
Barcantes Thread schlägt vor, dass dies auf diese Weise funktioniert, da die Warnung einen Möchtegern-Troll dazu ermutigen könnte, seine Reaktion zu überdenken und sich vielleicht respektvoller zu engagieren. Wenn dies der Fall ist, könnte dies in den ersten Jahren nach dem Start von Twitter im Jahr 2006 sinnvoll gewesen sein. Aber jetzt? 2021? Nicht so viel.
Jemanden einen Hinweis darauf zu geben, dass seine Antwort möglicherweise nicht in Ordnung ist, ist eine seltsam ehrerbietige Bewegung, die sich an potenziell schlechte Schauspieler richtet. Es ist Twitter, das jemandem mitteilt, der möglicherweise schlechte Absichten hat, dass seine Bemühungen, zu beleidigen, wahrscheinlich vergeblich sind.
„Die Warnung könnte einen Möchtegern-Troll dazu bringen, respektvoller zu reagieren“ ist nicht nur eine naive Annahme, an der man sich heute festhält, sondern auch grundsätzlich der falsche Weg, an solche Features heranzugehen. Warum überhaupt Respekt vor potentiellen schlechten Akteuren zeigen? Sollte das Ziel der "Filter"- und "Limit"-Steuerelemente nicht direkt darauf ausgerichtet sein, das Poster eines Tweets zu schützen?
Als ich ursprünglich auf diese Geschichte (h/t The Verge) gestoßen bin, dachte ich: "Wow, Twitter wagt es tatsächlich, sich eine Welt vorzustellen, in der es die Menschen schützt, die seine Plattform nutzen." Aber das ist es bei genauerem Hinsehen nicht wirklich passiert hier, oder? Diese Tools bieten möglicherweise einen gewissen Schutz für diejenigen, die sie verwenden, aber so wie sie jetzt aufgebaut sind, können sie Trolle auch mit den Informationen ausstatten, die sie benötigen, um effektiver zu trollen.
Es ist eine bizarre Wahl. Aber es ist auch kein fertiges Feature, daher hier ein Feedback für Sie Twitter: Die grundlegende Philosophie für Einstellungen wie diese sollte ausschließlich den Schutz der Benutzer priorisieren. Wenn Sie ihren Belästigern auch die Werkzeuge geben, um sich effizienter wie Idioten zu verhalten, machen Sie es falsch.
Eine Quelle: https://mashable.com/article/twitter-limit-filter-harassment-protection-feedback
Dies ist eine automatische Übersetzung.
Klicken Sie hier, um die Publikation in der Originalsprache zu lesen.
Kommentaar (0)