而这种速度对于让Facebook变得有趣和安全至关重要,而不是有毒评论,错误信息,滥用和诈骗的污水池。
Facebook首席技术官Mike Schroepfer在一次主题演讲中表示,“很容易失去希望,打包并回家。”“但我们做不到。我们在这里为拥有技术的人们带来更美好的未来。”
Paluri吹嘘Facebook的AI正在改善世界上最大的社交网络上的许多问题:欺凌,仇恨言论,暴力,恐怖主义宣传,儿童裸体,垃圾邮件,成人内容和虚假账户。
但是,正如发言人在会议上所承认的那样,还有很长的路要走,特别是在承认3月份新西兰清真寺枪击事件等有问题的视频时。这甚至没有触及Facebook首席执行官马克扎克伯格说他正试图解决的隐私问题。Facebook高管们在会议上对他们惯常的傲慢态度嗤之以鼻,这表明他们知道自己还没有走出困境。
CTO Mike Schroepfer在该公司的F8开发者大会上表示,Facebook越来越依赖人工智能来解决垃圾邮件和仇恨言论等问题。
使用AI帮助解决一些问题对于以工程为重点的Facebook来说是一个自然的想法。它是一个人工智能巨头,将这项技术应用于调试自己的软件这样艰巨的任务,并聘请了先锋Yann LeCun,他是今年人工智能工作的着名图灵奖的三位获奖者之一。
Facebook并不是唯一一个追求人工智能的人,人工智能正在超越科技世界。德勤咨询公司周三公布的一项调查显示,全球57%的企业早期采用该技术,期望人工智能改变其业务- 现在经常投资以试图超越预期的更广泛转型。
但是,尽管人工智能可以解决计算机科学问题,但它也增加了新的问题,例如消除人工智能偏见的困难,这可以加强某些人在社会中存在的问题或优势。
自我监督学习是人工智能关键培训阶段的新转折。
今天的AI培训数据通常是“监督的”,这意味着它依赖于经过仔细标记的培训数据。这些数据很难收集 - 特别是在最佳训练AI系统所需的大量数据中。标记的猫照片很丰富,但使用AI的公司必须发现从欺诈性信用卡交易到计算机错误的所有内容。
Schroepfer说,通过自我监督学习,AI使用未标记的训练数据。但它不是完全原始的数据。相反,删除了一些位,例如来自文本的单词或来自照片的像素的矩形。
这让AI系统通过弄清楚如何重建缺失的东西来学习模式,并且更容易提供对于自然语言处理(NLP)或理解人类语音和文本等任务非常有用的“海量数据”。Schroepfer说,Facebook也正在使用自我监督的学习来处理照片,视频和文字。
“你可以立即生成训练集和答案,”Schroepfer说。“因为你正在使用如此多的数据,这些NLP系统开始越来越深入地了解语言。”