社交网络称,Facebook的人工智能无法检测到上周五新西兰清真寺袭击的现场视频,因为系统根本不够聪明,无法识别攻击者拍摄的大规模射击。
在周三的博客文章中,Facebook提供了详细的报道,说明它如何回应恐怖袭击的视频,该攻击是在平台上直播的。
Facebook一直在使用基于人工智能的算法来自动删除包含色情内容和恐怖主义赞助内容的视频和图像。这些算法可以做到这一点,因为他们已经获得了大量有关违规内容的真实案例。
由于Facebook没有描述直播大规模枪击事件的训练数据,因此上周五的枪击事件超过了该系统。Facebook副总裁盖伊罗森写道,这些活动非常罕见。
使问题复杂化的是Facebook上的视频流行,描绘了第一人称射击游戏的视频游戏镜头。“另一个挑战是从视觉上相似,无害的内容中自动识别这些内容 - 例如,如果我们的系统标记了数千个来自直播视频游戏的视频,我们的评论者可能会错过我们可以提醒第一响应者的重要真实视频为了获得实地帮助,“罗森补充道。
因此,该公司不得不依赖用户了解拍摄的镜头。但是,在直播期间,视频仅被观看了200次,其中没有一个生成单个用户报告。在Facebook用户最终报道内容后直播结束仅12分钟。
在原始视频在Facebook上播放之前,它已被观看了4000次。但最终有更多用户开始在Facebook上分享和发布视频的新副本。
罗森把视频的流通归咎于三个群体:那些故意试图保持镜头的坏演员; 涉及此事件的媒体; 和普通用户好奇这个事件。没有帮助的问题是视频的新副本是如何以不同格式共享的,这使得Facebook的自动化系统更难以检测和降低视频。
“总的来说,我们发现并阻止了800多个视觉上截然不同的视频变体,”罗森说。Facebook的系统最终变得足够智能,可以在上传过程中自动删除超过120万的攻击视频。但是,大约300,000份额外副本仅在发布后才被删除。
那么Facebook怎么可能阻止另一次射击病毒?该公司没有提供任何明确的解决方案。“有人问我们是否应该为Facebook Live添加时间延迟,类似于电视台有时使用的广播延迟。[但]每天有数百万的直播,这意味着延迟无法解决问题,因为视频数量庞大,“罗森说。
然而,该公司确实计划改进其AI系统,以快速检测并防止有问题的视频传播病毒。一个实验涉及使用基于音频的技术来识别同一视频的不同格式。