Hasta arriba

Publicación en la comunidad "X Networks - Agregador de TI n.° 1"

Esta es una traducción automática.
Haga clic aquí para leer la publicación en el idioma original.

Twitter no es exactamente bueno para mantener a los idiotas fuera de las respuestas de la gente, como seguramente puede atestiguar cualquiera que haya tenido un tweet "hacer números". Pero, ¿y si ... y si ... las cosas fueran diferentes?

Eso es lo que Paula Bercante, diseñadora de la compañía de redes sociales, bromeó en un hilo del viernes solicitando comentarios de los usuarios sobre algunas ideas nuevas. Los controles de "Filtro" y "Límite" recién concebidos pero aún no implementados ofrecerían nuevos interruptores de configuración diseñados para regular el flujo de tweets dirigidos a los titulares de cuentas.

Los dos interruptores se explican por sí mismos. El filtro buscaría respuestas dañinas o spam y las bloquearía de la vista para todos los demás que no fueran el autor de cada tweet problemático. Limit lleva esto un paso más allá, evitando que las cuentas "que tienden a usar lenguaje dañino o enviar tweets repetitivos, no invitados" respondan a cuentas que tienen la configuración activada.

"Filter and Limit se trataría de empoderarte para prevenir de manera proactiva interacciones potencialmente dañinas y permitirte controlar el tono de tus conversaciones", escribió Barcante en el hilo. "Todavía se permiten los desacuerdos, los debates y las críticas".

Barcante no lo dice abiertamente, pero su hilo sugiere que las dos configuraciones dependerían hasta cierto punto de una base de datos de malos actores de Twitter. Quizás "Filter" podría ser impulsado por un cerebro de IA, pero es difícil imaginar cómo "Limit" cerraría las respuestas de las cuentas "que tienden a" comportarse de cierta manera sin tener una lista de la cual extraer.

Sin embargo, curiosamente, la decisión de utilizar cualquiera de las funciones (como están diseñadas actualmente) se transmitirá directamente a todos los lectores. Lo que significa que un posible troll sabría de antemano si está a punto de enredarse con alguien que podría no ver lo que va a decir, porque una configuración está activada.

El hilo de Barcante sugiere que funciona de esta manera porque la advertencia podría alentar a un posible troll a reconsiderar su respuesta y tal vez participar de manera más respetuosa. Si ese es el caso, es un razonamiento que podría haber tenido sentido en los primeros años después del lanzamiento de Twitter en 2006. ¿Pero ahora? ¿En 2021? No tanto.

Avisar a alguien de que su respuesta puede no estar bien es un movimiento extrañamente deferente dirigido a los posibles malos actores. Es Twitter diciéndole a alguien que puede tener malas intenciones que sus esfuerzos por ofender probablemente serán en vano, así que es mejor seguir adelante y dirigir esa energía a otra parte.

"La advertencia podría convencer a un posible troll de responder de una manera más respetuosa" no es solo una creencia ingenua a la que aferrarse en la actualidad, también es fundamentalmente la forma incorrecta de abordar este tipo de características. ¿Por qué mostrar deferencia a los posibles malos actores? ¿No debería el objetivo de los controles de "Filtro" y "Límite" centrarse directamente en proteger el cartel de un tweet?

Cuando me encontré por primera vez con esta historia (h / t The Verge), pensé: "Vaya, Twitter se atreve a imaginar un mundo en el que proteja a las personas que usan su plataforma". Pero después de mirar más de cerca, eso no es realmente lo que pasando aquí, ¿verdad? Estas herramientas pueden ofrecer una medida de protección a quienes las usan, pero por la forma en que están construidas ahora, también sirven para armar a los trolls con la información que necesitan para que los trolleen de manera más efectiva.

Es una elección extraña. Pero tampoco es una característica finalizada, así que aquí tienes algunos comentarios para ti Twitter: La filosofía fundamental para configuraciones como estas debe priorizar exclusivamente la protección de los usuarios. Si también les está dando a sus acosadores las herramientas para actuar como idiotas de manera más eficiente, lo está haciendo mal.

Una fuente: https://mashable.com/article/twitter-limit-filter-harassment-protection-feedback

Esta es una traducción automática.
Haga clic aquí para leer la publicación en el idioma original.