carregando...
Para cima

Publicação na comunidade "X Networks - Agregador de TI nº 1"

Esta é uma tradução automática.
Clique aqui para ler a publicação no idioma original.

O Twitter não é exatamente ótimo em manter os idiotas longe das respostas das pessoas, como qualquer pessoa que já teve um tweet do tipo "faça números" pode certamente atestar. Mas e se - e se - as coisas fossem diferentes?

Isso é o que Paula Bercante, uma designer da empresa de mídia social, provocou em um tópico de sexta-feira solicitando feedback do usuário sobre algumas novas ideias. Controles recém-concebidos, mas ainda não implementados, de "Filtro" e "Limite" ofereceriam novas opções de configuração projetadas para regular o fluxo de tweets direcionados aos titulares de contas.

As duas opções são bastante autoexplicativas. O filtro observaria as respostas prejudiciais ou com spam e as bloquearia da visualização de todos, exceto o autor de cada tweet com problema. O Limit leva isso um passo adiante, evitando que contas "que tendem a usar linguagem prejudicial ou enviar tweets repetitivos e indesejados" respondam a contas que têm a configuração ativada.

"Filter and Limit seria tudo sobre capacitá-lo a prevenir interações potencialmente prejudiciais de forma proativa e permitir que você controle o tom de suas conversas", escreveu Barcante no tópico. "Desentendimentos, debates e críticas ainda são permitidos."

Barcante não diz isso abertamente, mas seu tópico sugere que as duas configurações dependeriam, até certo ponto, de um banco de dados de atores mal-intencionados do Twitter. Talvez "Filter" pudesse ser alimentado por um cérebro de IA, mas é difícil imaginar como "Limit" fecharia as respostas de contas "que tendem a" se comportar de uma certa maneira sem ter uma lista para desenhar.

Estranhamente, no entanto, a decisão de usar qualquer um dos recursos (como estão projetados atualmente) seria transmitida antecipadamente a todos os leitores. O que significa que um suposto troll saberia de antemão se ele está prestes a se envolver com alguém que pode não ver o que ele vai dizer, porque uma configuração está ativada.

O tópico de Barcante sugere que funciona assim porque o aviso pode encorajar um suposto troll a repensar sua resposta e talvez se envolver de maneira mais respeitosa. Se for esse o caso, é um raciocínio que pode ter feito sentido nos primeiros anos após o lançamento do Twitter em 2006. Mas agora? Em 2021? Não muito.

Dizer a alguém que sua resposta pode não ser boa é uma atitude estranhamente deferente destinada a possíveis atores mal-intencionados. É o Twitter dizendo a alguém que pode ter más intenções que seus esforços para ofender provavelmente serão em vão, então é melhor seguir em frente e direcionar essa energia para outro lugar.

"O aviso poderia convencer um aspirante a troll a responder de uma maneira mais respeitosa" não é apenas uma crença ingênua para se agarrar nos dias de hoje, é também fundamentalmente a maneira errada de abordar esses tipos de recursos. Por que mostrar deferência para com potenciais atores ruins? O objetivo dos controles "Filtro" e "Limite" não deveria ser focado diretamente na proteção do pôster de um tweet?

Quando me deparei com esta história (h / t The Verge), pensei: "Uau, o Twitter está realmente ousando imaginar um mundo onde proteja as pessoas que usam sua plataforma." Mas, depois de olhar mais de perto, isso não é realmente o que acontecendo aqui, não é? Essas ferramentas podem oferecer uma medida de proteção para aqueles que as usam, mas da forma como são construídas agora, também podem armar os trolls com as informações de que precisam para fazer trolls de maneira mais eficaz.

É uma escolha bizarra. Mas também não é um recurso finalizado, então aqui estão alguns comentários para você Twitter: A filosofia fundamental para configurações como essas deve priorizar exclusivamente a proteção dos usuários. Se você também está dando aos assediadores as ferramentas para agirem como idiotas com mais eficiência, você está agindo errado.

Uma fonte: https://mashable.com/article/twitter-limit-filter-harassment-protection-feedback

Esta é uma tradução automática.
Clique aqui para ler a publicação no idioma original.