你是一个分叉的shirthead -

Twitter的最新Robo-Nag将在发布之前标记“有害”的语言

跟随Twitter努力让您在分享之前阅读新闻。

一个充满模糊咒语的卡通讲话泡沫旁边是模糊的一只非常小的歌鸟。
放大 /在推文之前,您可能会询问您是否意味着如此粗鲁。

想确切地知道Twitter的文本梳理舰队,字典解析机器人定义为“均值”?从现在开始任何一天,至少只要斯特恩的自动主持人说你不礼貌地发推,你就可以即时访问该数据。

星期三,Twitter的产品设计团队成员确认了这一点新的自动提示将开始为所有推特用户推出,无论平台和设备如何,当帖子的语言交叉Twitter的“潜在有害或冒犯语言”的阈值时激活。这是下面的许多有限用户测试的通知从去年五月开始。很快,任何Robo-inded推文都会被告知询问,“想在推特之前审查这一点?”

通知如何看待行动的屏幕截图样本。该功能似乎专门对网站上的目标回复。
放大 /通知如何看待行动的屏幕截图样本。该功能似乎专门对网站上的目标回复。
未享有的此功能的早期考验,有他们的问题份额。“推动[警告]提示的算法努力在许多对话中捕捉细微差别,并且往往没有区分潜在的攻击性语言,讽刺和友好的聊天,”推特的公告国。新闻邮政澄清了Twitter的系统现在占两个账户与彼此互动的频率,我可能会举行咒骂魔鬼和侮辱我从不在Twitter上交谈,但我可能会清楚地通过Twitter向朋友或ARS同事发送同样的句子。

此外,Twitter承认其先前需要更新的系统,“考虑到语言可以由不熟悉的社区接收并以非有害方式使用。”我们希望使用用于使这些确定的数据点迄今为止,请查看Twitter帐户的个人资料照片,特别是因为巨魔账户通常使用假或被盗图像。(Twitter尚未澄清如何为这些上述“情况”确定。)

截至发稿时间,Twitter没有提供友好的字典,供用户仔细阅读 - 或巧妙地拼写他们最喜欢的侮辱和诅咒,以便从Twitter的自动审核工具掩盖它们。

那么,三分之二保持真实,然后?

要向用户销售此nag-inform新闻,Twitter以数据的形式拍摄背部,但它并不完全令人信服。

During the kindness-notice testing phase, Twitter says one-third of users elected to either rephrase their flagged posts or delete them, while anyone who was flagged began posting 11 percent fewer "offensive" posts and replies, as averaged out.(意思是,有些用户可能已经变得更善良,而其他用户则可能在武器化的演讲中变得更加坚定。)所有听起来都像大多数大多数用户一样,他们的个人寻求仍然存在坚定的用户,以告诉它。

Twitter的奇怪数据点是那些收到旗帜的人“不太可能接受冒犯和有害回复。”目前尚不清楚Twitter试图与该数据一起制定什么点:为什么会对那些有关的礼貌土地收到讨厌的推文?

这将在2020年底推出推特的另一个纳克通知计划,鼓励用户在“重新推文”之前,“阅读”由另一个推特用户链接的文章。换句话说:如果你看到一个Juicy标题并打击了RT按钮,你可以不知不觉地分享你可能不同意的东西。然而,这一变化似乎是一个更大的Twitter问题的爆发绷带:服务如何激励猖獗,并在寻找喜欢和互动的搜索中使用服务,诚实和文明被诅咒。

没有NAG通知可能会解决Twitter的斗争凭借如何不断的演员和巨魔继续游戏系统并毒害该网站的话语。最大的例子仍然是点击“喜欢”和回复的帖子时发现的问题,通常来自高调或“验证”帐户。Twitter通常颠簸的帖子到这些线程的顶部的回复,通常来自可疑活动和缺乏有机交互的账户。

也许Twitter可以从这个NAG通知推出到心脏的教训,特别是关于加权互动,基于账户之间的确认的前后关系。或者公司可以摆脱所有算法驱动的帖子权重,尤其是那些将非关押的内容驱动到用户的饲料的帖子,并回到纯粹的时刻内容的更美好的日子 - 因此我们可以更容易地耸耸肩在BS的肩膀上耸耸肩。

你必须评论。

渠道ARS Technica.