来自虐待玩家的种族主义,性别歧视和同性恋恐惧症可能会破坏在线游戏会话。因此,英特尔和总部位于伦敦的公司Spirit AI正在采用原型技术,该技术使用人工智能来标记语音聊天和直播流中的有毒行为。
Spirit AI创建了Ally,这是游戏公司可以用来检测骚扰和滥用的工具。它目前仅限于处理基于文本的聊天,但最近几个月英特尔一直与Spirit AI合作,允许Ally处理人类语音。
“现在很多游戏都有语音聊天,这就是许多更具恶意的行为发生的地方,”英特尔虚拟和增强现实首席技术官Kim Pallister说。
Ally不仅仅是在在线游戏聊天中挑选咒骂词和其他攻击性词语。它旨在处理整个对话及其背景,包括玩家是否与朋友,自己的游戏“公会”成员或陌生人交谈。
为了使其理解语音,英特尔将其语音到文本技术与Ally合并,以便它可以将口语转换为单词,然后系统可以解析。 “我们现在处于一个阶段,'嘿,它有点工作',”Pallister说。
要明确的是,Ally的目标不是阻止青少年说出诅咒话语或阻止朋友们进行喋喋不休的谈话。“我们对此并不感兴趣,”Spirit AI的业务发展总监Peter Alau说。“我们专注于阻止俄罗斯机器人,诈骗者以及破坏您的在线游戏社区的人们。”
虽然毒性行为可以以不同的方式表现出来,但它也遵循不同的模式,Ally已经从友好的聊天中学会了这些模式。然后将智能传递给游戏的在线社区管理员,然后他可以决定如何响应,无论是暂停还是用户禁止。
Alau拒绝透露哪些游戏公司已经在使用Ally。“没有人愿意承认他们的毒性水平,”他说。但Spirit AI确实有很多感兴趣的客户。
“我们所有的潜在客户都在问,'你支持声音吗?'”Alau补充道。
当然,Ally的语音识别功能也面临着挑战,例如将人类的话语与音乐和其他噪音区分开来。它还必须足够聪明才能理解不同的人类口音。
但即使该系统的语音识别功能仅达到了概念验证阶段,Alau预计Spirit将在未来三个月内开始与实际客户一起测试该技术。“到今年年底,我预计会有几个客户全力投资,”他补充说。
人工智能监控您的在线游戏会话的想法可能会让您感到沮丧。其他人可能担心该工具为审查铺平了道路。但同样正确的是,游戏是一项专注于吸引尽可能多的客户的业务,这些客户需要受到保护,免受滥用。
“如果我真的不得不描述Ally,它就是一个巧妙地伪装成反毒性聊天工具的客户智能工具,”Alau说。“目前,我们的大多数开发商和被许可人都只专注于最糟糕的因素,因为它们对他们的底线有直接影响。”
Ally如何用于帮助执行游戏的行为准则取决于客户。但在隐私方面,Alau表示,Spirit AI是一家GDPR投诉公司,它将Ally收到的所有数据匿名化。“我们不知道是谁在说什么,总的来说,我们不在乎,”他说。“我们正在寻找最坏的情况。”
“互联网上有很多地方可以找到最糟糕的情况,并说出可怕的事情。但它不一定要在我的游戏中,”阿劳补充道。