没有人类监督 AI能帮FB和YouTube应对新冠病毒危机吗?-冯金伟博客园

  腾讯科技讯,3 月 21 日消息,据外媒报道,当地时间 3 月 17 日晚,在全球最大上市咨询公司埃森哲都柏林总部负责监控 YouTube 内容的审核团队,通过群聊得知了他们的办公室即将关闭的消息。新型冠状病毒的传播对他们来说太危险了,他们不能继续这样在开放式办公室近距离工作。

  为了确保安全,这些内容审核人员被送回了家,尽管合同限制意味着他们不能继续工作,过滤掉每分钟远程上传到平台的 500 小时视频。这些内容审核人员都属于承包商,当时在场的一人解释说,大多数人都赞成这样的决定。而且他们还被告知,在办事处关闭期间,将可以继续获得财政支持。

  承包商是保持社交网络“干净”的秘密工人大军。这些人工资很低,但工作量相当大,需要完成的目标高得离谱。曾有通过埃森哲签约的 YouTube 内容审核人员称,他们识别内容的准确率被要求保持在 98% 以上,每个月只允许犯几个错误。承包商们的工作是过滤有问题的内容,并决定这些内容在主导我们世界的网站规则下是否可以被接受。

  这些人中,有 10000 人帮助审核谷歌的服务,超过 30000 人签约帮助监控 Facebook。在过去的两年里,随着科技公司因流程中的问题而面临的批评激增,帮助审核平台内容的承包商数量也急剧增加。这种细致的人类工作经常被淡化,以便支持科技公司推广他们的自动监控系统,标记和删除不适当的内容。但我们都知道,人类审核依然至关重要。

  当哈罗德·奥德菲尔德(Harold Oldfield)试图在 Facebook 上发布几个关于美国对新型冠状病毒爆发的反应帖子时,他意识到有些不对劲。这些帖子都来自著名的新闻媒体,但却立即被标记为垃圾内容。奥德菲尔德解释说:“我觉得很好笑,因为我真的写了一本关于监管 Facebook 等平台的书,并用了整整一章来阐述内容审核中保持公平和透明的重要性。Facebook 回应说,上述错误不符合其规则似乎有点儿言不由衷。”

  奥德菲尔德向 Facebook 提出了抗议,他的这些帖子很快被恢复。但他说:“对我来说,这是次要的,甚至是有趣的。但不利的一面是,它会让时间敏感的演讲中断,这总是让人担心。每个人都指出,有不好的东西被漏掉了,所以他们以更为激进的方式使过滤器,这反而导致那些对时间敏感的好东西很难被发现。”

  奥德菲尔德不是唯一遇到这个问题的人。那些始终试图分享有关新型冠状病毒的重要真实新闻故事和信息的人发现,他们的帖子触发了 Facebook 的反垃圾内容过滤器,后者旨在维持社区标准。前 Facebook 高管亚历克斯·斯塔莫斯(Alex Stamos)在推特上说,他认为这是“反垃圾内容规则发疯的迹象,我们可能会看到机器学习在人类监督减少的情况下开始疯狂。”

  Facebook 首席执行官马克·扎克伯格(Mark Zuckerberg)在 3 月 18 日的一次电话会议中提到了这一点:“即使在像美国这样可以自由表达的国家,也有很长一段时间的先例,不允许人们在拥挤的房间里大喊大叫。我认为,这类似于人们在这样的疫情爆发期间传播危险的错误信息。”结论很简单,最好的情况是无意中压制了“好信息”的传播,以确保“坏信息”绝对无立足之地。YouTube 承认“用户和创作者可能会看到更多的视频被删除,包括某些可能没有违反政策的视频”。

  Mozilla 的技术政策研究员弗雷德里克·卡修纳(Frederke Kaltheuner)表示:“内容监管涉及做出极其微妙的决定,特别是当你试图删除的东西没有明确的定义时。自动化系统不能做出这些细微差别的决定,而手动标记机制也经常被那些对他们不喜欢的内容或账户进行协调标记的人滥用。”

  然而,人们对此感到恼火。朱莉娅·里达(Julia Reda)表示:“长期以来,扎克伯格始终在向政策制定者推广 AI,将其作为解决每个问题的方案。从商业角度来看,这是有道理的,发展 AI 需要访问海量数据,这让 Facebook 在竞争中占据优势。”里达曾是欧洲议会绿党议员,长期以来一直主张对科技公司进行更好的控制。

  但她认为,科技公司在缺乏人类监督的情况下似乎存在不足。里达说:“许多公告表明,平台公司很清楚上传过滤器无法区分合法和非法内容。这些错误会系统性地导致歧视出现,例如阿拉伯语内容被更多地标记为恐怖分子宣传。在像现在这样的危机情况下,政府和公司建立了以前不可想象的规范。我们必须保持警惕,确保它们不会成为新常态。”

  Facebook 负责诚信的副总裁盖伊·罗森(Guy Rosen)很快表示,最初的问题已经解决。3 月 18 日,他在推特上写道:“我们已经恢复了所有被错误删除的帖子,其中包括所有主题的帖子,而不仅仅是那些与新型冠状病毒相关的帖子。这是一个自动系统引发的问题,该系统删除了指向辱骂网站的链接,但也错误地删除了许多其他帖子。”问题在于,人们的帖子仍然被错误地屏蔽。在罗森宣布问题解决了之后,人们回复他说,Facebook 的算法触发了违反该网站社区标准的行为。

  剑桥大学副研究员兼讲师詹妮弗·科布(Jennifer Cobbe)专门监控和研究内容审核,她说:“这就像过去十年里关于 Facebook 的每篇报道一样。他们说已经解决了问题,但实际上并非如此。我认为任何人都不应该对 Facebook 处理这件事的能力抱有太大信心。”

  这个问题一直都存在。早在 2019 年 6 月,就曾有研究 YouTube 算法的谷歌软件工程师表示,算法存在需要修复的问题,但他们热衷于强调,机器学习算法一直在以惊人的速度改进。他们总结说,如果有足够的训练数据,几乎所有的问题都可以通过算法解决。但这仅仅是科技乌托邦式的傲慢吗?

  谢菲尔德大学研究社交媒体内容审核的伊莎贝尔·杰拉德(Ysabel Gerard)表示:“AI 现在不能(永远也不可能)完美地进行内容审核。你不可能将人类互动这样复杂的事情自动化,我们已经看到了无数基于 AI 审核错误的例子,比如过去几天有关新型冠状病毒疫情的新闻和帖子被删除。”

  最终,随着新型冠状病毒的传播,保证幕后人员的安全是很重要的。全世界数以百万计的人现在选择在家工作。科布说:“这涉及到大量的人,可能所有人都坐在小房间里,近距离地审查内容。”

  科布发现走向更自动化的内容审核“可能非常令人担忧”。她担心有两个原因:首先,将权力从人类移交给技术,让社交媒体平台有更多的权力来决定什么是合适的内容,什么是不合适的内容,而不是政府监督。其次是更简单化的技术问题。她说:“这些系统并不能真正胜任这项工作,目前也不能真正取代人类。”众所周知,算法反映了它们创建者的偏见,而人类内容审核人员目前在消除某些最严重的偏见方面发挥了重要作用。

  我们之所以能走到这一步,是因为科技行业对利润的执着,科布指出。“科技公司最看重的一件事就是规模。他们试图用尽可能多的内容成长为尽可能大的规模,尽可能多地获得手中的内容。一旦你达到了一定的规模,就很难和人类一起做事情了,因为你需要雇佣太多的人,以至于做事情的成本变得令人望而却步。因此,他们求助于 AI,试图取代这些人类,这样他们就可以按照自己想要的水平进行扩大规模。”

  然而,正如我们现在正在了解的那样,AI 还远远没有准备好担当重任。科布说:“科技行业对自己的系统太有信心了,作为一个社会,我们对 AI 投入了太多。我们刚刚意识到,在最糟糕的时候,这个备受吹捧的 AI 解决方案背后的人类力量。我们很可能会看到 AI 内容审核带来的问题比我们目前看到的要大得多。我要说的是,我非常肯定,即使是人类来审核内容也同样存在很多问题。” (腾讯科技审校/金鹿)