Twitter`s nieuwe pitch voor instellingen voor bescherming tegen intimidatie wordt om de een of andere reden uitgesteld tot trollen
Dit is een automatische vertaling.
Klik hier om de publicatie in de originele taal te lezen.

Twitter is niet bepaald geweldig in het weghouden van schokkende reacties van mensen, zoals iedereen die ooit een tweet heeft gehad met "doe nummers" zeker kan bevestigen. Maar wat als - wat als - de zaken anders waren?
Dat is wat Paula Bercante, een ontwerper voor het socialemediabedrijf, plaagde in een vrijdagthread waarin gebruikers om feedback gevraagd werden over een aantal nieuwe ideeën. Nieuw bedachte maar nog niet geïmplementeerde "Filter"- en "Limit"-besturingselementen zouden nieuwe instellingsschakelaars bieden die zijn ontworpen om de stroom van tweets gericht op accounthouders te regelen.
De twee schakelaars spreken redelijk voor zich. Filter zou letten op schadelijke of spam-antwoorden en deze uit het zicht blokkeren voor iedereen behalve de auteur van elke probleem-tweet. Limit gaat nog een stap verder en voorkomt dat accounts "die de neiging hebben om schadelijke taal te gebruiken of repetitieve, onuitgenodigde" tweets te sturen, reageren op accounts waarvoor de instelling is ingeschakeld.
"Filter and Limit zou je in staat stellen om proactief potentieel schadelijke interacties te voorkomen en je de toon van je gesprekken te laten bepalen", schreef Barcante in de thread. "Onenigheid, debatten en kritiek zijn nog steeds toegestaan."
Barcante zegt het niet ronduit, maar haar draad suggereert dat de twee instellingen tot op zekere hoogte zouden afhangen van een database met slechte Twitter-acteurs. Misschien kan "Filter" worden aangedreven door een AI-brein, maar het is moeilijk voor te stellen hoe "Limit" antwoorden zou afsluiten van accounts "die de neiging hebben" zich op een bepaalde manier te gedragen zonder een lijst te hebben om uit te putten.
Vreemd genoeg zou de beslissing om een van beide functies te gebruiken (zoals ze momenteel zijn ontworpen) vooraf aan alle lezers worden bekendgemaakt. Dit betekent dat een potentiële trol van tevoren zou weten of ze op het punt staan in de war te raken met iemand die misschien niet ziet wat ze gaan zeggen, omdat er een instelling is ingeschakeld.
De thread van Barcante suggereert dat het op deze manier werkt, omdat de waarschuwing een potentiële trol zou kunnen aanmoedigen om hun reactie te heroverwegen en misschien meer respectvol te reageren. Als dat het geval is, is het een redenering die misschien logisch was in de eerste jaren na de lancering van Twitter in 2006. Maar nu? In 2021? Niet zo veel.
Iemand een tip geven dat hun antwoord misschien niet goed is, is een merkwaardig respectvolle zet die gericht is op potentiële slechte acteurs. Het is Twitter die iemand met slechte bedoelingen vertelt dat hun inspanningen om te beledigen waarschijnlijk verspild zijn, dus het is beter om verder te gaan en die energie ergens anders te richten.
"De waarschuwing zou een potentiële trol kunnen overtuigen om op een meer respectvolle manier te reageren" is niet alleen een naïeve overtuiging om in deze tijd aan vast te houden, het is ook een fundamenteel verkeerde manier om dit soort functies te benaderen. Waarom überhaupt respect tonen voor potentiële slechte acteurs? Zou het doel van de bedieningselementen "Filter" en "Limit" niet volledig gericht moeten zijn op het beschermen van de poster van een tweet?
Toen ik dit verhaal (h/t The Verge) voor het eerst tegenkwam, dacht ik: "Wauw, Twitter durft zich echt een wereld voor te stellen waarin het de mensen beschermt die zijn platform gebruiken." Maar bij nader inzien is dat niet echt wat gebeurt hier, is het? Deze tools bieden misschien een zekere mate van bescherming aan degenen die ze gebruiken, maar zoals ze nu zijn gebouwd, kunnen ze trollen ook wapenen met de informatie die ze nodig hebben om effectiever te trollen.
Het is een bizarre keuze. Maar het is ook geen definitieve functie, dus hier is wat feedback voor jou Twitter: De fundamentele filosofie voor instellingen als deze zou uitsluitend prioriteit moeten geven aan het beschermen van gebruikers. Als je hun aanvallers ook de tools geeft om zich efficiënter als eikels te gedragen, doe je het verkeerd.
Een bron: https://mashable.com/article/twitter-limit-filter-harassment-protection-feedback
Dit is een automatische vertaling.
Klik hier om de publicatie in de originele taal te lezen.
Komentáře (0)