您当前的位置:首页 > 指南 > 正文

Facebook利用下一代AI来帮助它发现仇恨言论

导读: 目前,Facebook只能在用户报告之前发现在平台上传播的仇恨言论的一半左右。但是,建立人工智能的新方法有望帮助公司发现更多。为了打击仇恨...

目前,Facebook只能在用户报告之前发现在平台上传播的仇恨言论的一半左右。但是,建立人工智能的新方法有望帮助公司发现更多。

为了打击仇恨言论和骚扰,Facebook正在使用一种新的编程方法,可以更快地生成AI驱动的内容标记算法。

周三,Facebook首席技术官Mike Schroepfer谈到了一种名为“自我监督学习”的人工智能建设方法,该方法有望帮助社交网络以不断变化的形式发现攻击性内容。

“这里的未来非常令人兴奋,”Schroepfer在公司年度开发者大会上发言时说道。“在过去的两年里,我们已经看到了自我监督学习的一些突破。”

目前,Facebook只能发现关于仇恨言论流传在平台用户报告之前的一半。在网络骚扰和欺凌方面,这一比例甚至降至约15%。

一个很重要的原因是因为内容通常不会以简单易懂的语言发布 - 至少不适用于计算机。 “当涉及到各种(仇恨言论)术语时,它们可能具有非常不同的含义,具体取决于具体情况,”Facebook分析主管Veronika Belokhvostova告诉PCMag。

使问题复杂化的是如何将仇恨言论打包成巧妙的模因。措辞也可以根据当前的事件和政治迅速改变。例如,在讨论来自拉丁美洲的美国移民时,“大篷车”成为一个流行的术语。

Facebook现有的人工智能系统已经可以打击其他形式的有问题的内容,例如垃圾邮件,裸露和恐怖主义宣传。然而,这些系统采用了一种称为“监督学习”的旧编程方法。从本质上讲,这涉及拍摄大量数据,如图片或视频,并教导AI识别其中的各种特征,例如是否存在乳头或是否描绘了图形暴力。

虽然有效的,有监督的学习有一个很大的缺点:人类程序员必须标记AI训练的所有数据,这可能涉及标记图片或视频中的每个项目。 “这是令人惊讶的手动和缓慢,”Facebook的首席技术官说。“整个过程可能需要几天到几周到几个月的时间。”

另一方面,自我监督学习可以让你基本上跳过很多标签过程。相反,AI被编程为首先预测原始训练数据中可能存在的内容。然后可以使用一组较小的标记训练数据对AI进行微调。

因此,程序员可能只需要收集和标记80小时的培训数据,而不是12,000,以使他们的AI工作。这同样适用于构建AI来打击仇恨言论。 根据Facebook的人工智能总监Manohar Paluri的说法,这种方法帮助该公司使用“十倍”的培训数据来处理各种形式的仇恨言论。

“这是自我监督的力量,”Paluri在Facebook开发者大会上发言时说道。“它让我们快速行动。”

时间将证明技术是否有所作为。但Facebook的一些内容审核问题可能与政策有关,而不是内容检测。例如,3月份,该公司开始禁止将“白人民族主义”一词视为仇恨言论,一些批评者认为此举是为时已晚。与此同时,其他人指责社交网络在其停止在线滥用的使命中压制言论自由。

Facebook的首席技术官承认,人们可能对Facebook持怀疑态度,称AI可以帮助解决公司的问题。但Schroepfer表示,人工智能的不断进步确实使他对未来持乐观态度。“没有一个简单的答案,但还有很多工作要做,”他说。“解决方案永远不会是完美的,但我们必须坚持下去。”


声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,谢谢。

上一篇: 猛鬼学堂国语高清完整版 猛鬼学堂国语高清

下一篇: 鹧鸪蛋怎么做 鹧鸪蛋



推荐阅读