راهکار جدید توییتر برای تنظیمات حفاظت از مزاحمت به دلایلی به ترول ها موکول می شود
این ترجمه اتوماتیک است.
برای خواندن نشریه به زبان اصلی اینجا را کلیک کنید.

توییتر دقیقاً در دور نگه داشتن تقلب از پاسخ های افراد فوق العاده نیست ، همانطور که هرکسی که تا به حال یک توییت "انجام اعداد" داشته است مطمئناً می تواند گواهی دهد. اما اگر - و اگر - همه چیز متفاوت بود چه؟
این همان چیزی است که پائولا برکانته ، طراح شرکت رسانه های اجتماعی ، در یک موضوع جمعه در مورد نظرات کاربران در مورد ایده های جدید جلب کرد. کنترل های جدید "Filter" و "Limit" که تازه تصور شده اند اما هنوز اجرا نشده اند ، سوئیچ های تنظیم جدیدی را برای تنظیم جریان توییت هایی که به صاحبان حساب طراحی شده است ، ارائه می دهد.
این دو سوئیچ کاملاً خود گویا هستند. فیلتر به دنبال پاسخهای مضر یا اسپم بوده و آنها را برای همه غیر از نویسنده هر توییت مشکلی مسدود می کند. Limit این کار را یک قدم جلوتر می گذارد و مانع از پاسخگویی حساب های "که تمایل به استفاده از زبان مضر یا ارسال پیام های تکراری و ناخواسته دارند" به حساب هایی که تنظیمات آن روشن است ، می شود.
بارکانته در تاپیک می نویسد: "Filter and Limit به معنای توانمندسازی شما برای جلوگیری از تعاملات مضر احتمالی و کنترل لحن مکالمات شما خواهد بود." "اختلاف نظرها ، بحث ها و انتقادات هنوز مجاز است."
بارکانته به طور کامل آن را نمی گوید ، اما موضوع او نشان می دهد که این دو تنظیم تا حدودی به پایگاه داده بازیگران بد توییتر بستگی دارد. شاید "فیلتر" را بتوان از مغز AI تغذیه کرد ، اما تصور اینکه چگونه "Limit" پاسخ های حساب ها را "که به شیوه خاصی رفتار می کنند بدون داشتن فهرستی برای استخراج از آنها" بسته می کند.
اما به طرز عجیبی ، تصمیم به استفاده از هر دو ویژگی (همانطور که در حال حاضر طراحی شده اند) برای همه خوانندگان پخش می شود. این بدان معناست که یک ترول احتمالی از قبل می داند که آیا قصد دارد با کسی که ممکن است آنچه را که می خواهد بگوید نبیند درگیر شود ، زیرا یک تنظیم روشن است.
موضوع بارکانته نشان می دهد که به این ترتیب کار می کند زیرا هشدار می تواند یک ترول احتمالی را تشویق کند تا در پاسخ خود تجدید نظر کند و شاید با احترام بیشتری درگیر شود. اگر چنین باشد ، این استدلال است که ممکن است در اولین سالهای پس از راه اندازی توییتر در سال 2006 منطقی باشد. اما حالا؟ در سال 2021؟ نه چندان زیاد.
آگاهی دادن به کسی مبنی بر اینکه پاسخ او خوب نیست یک حرکت عجیب غریبانه است که به دنبال بازیگران بد است. این توییتر به کسی که ممکن است قصد بدی داشته باشد می گوید که تلاش آنها برای توهین به احتمال زیاد به هدر می رود ، بنابراین بهتر است حرکت کنید و این انرژی را به جای دیگری هدایت کنید.
"هشدار می تواند یک ترول احتمالی را متقاعد کند تا با احترام بیشتری پاسخ دهد" نه تنها یک باور ساده لوحانه برای حفظ این روزها نیست ، بلکه اساساً روش نادرستی برای نزدیک شدن به این نوع ویژگی ها است. چرا اصلاً به بازیگران بد بالقوه احترام بگذاریم؟ آیا هدف کنترل های "Filter" و "Limit" نباید صرفاً بر حفاظت از پوستر توییت متمرکز شود؟
وقتی در اصل با این داستان (h/t The Verge) روبرو شدم ، فکر کردم: "وای ، توییتر در واقع جرات دارد دنیایی را تصور کند که از افرادی که از پلتفرم خود استفاده می کنند محافظت می کند." اما پس از یک نگاه دقیق ، این واقعاً آن چیزی نیست اینجا اتفاق می افتد ، اینطور است؟ این ابزارها ممکن است برای کسانی که از آنها استفاده می کنند ، حفاظتی را ارائه دهند ، اما به شیوه ای که اکنون ساخته شده اند ، آنها همچنین می توانند ترول ها را با اطلاعات مورد نیاز برای ترول م effectivelyثرتر مسلح کنند.
این یک انتخاب عجیب است. اما این نیز یک ویژگی نهایی نیست ، بنابراین در اینجا چند بازخورد برای شما توییتر وجود دارد: فلسفه اساسی برای تنظیماتی مانند این باید منحصراً محافظت از کاربران را در اولویت قرار دهد. اگر شما همچنین به مزاحمان آنها ابزاری می دهید تا مانند افراد تندرو عمل کنند ، این کار را اشتباه انجام می دهید.
منبع: https://mashable.com/article/twitter-limit-filter-harassment-protection-feedback
این ترجمه اتوماتیک است.
برای خواندن نشریه به زبان اصلی اینجا را کلیک کنید.
注释 (0)