题为当人工智能都被打乱:从事实分离科幻,该报告着眼于AI和安全软件的当前景观和设想,在不久的将来,在AI增强恶意软件会造成更剧烈和强大的威胁。虽然AI在恶意软件检测中发挥了有益的作用,但它有自己的弱点。例如,人工智能不断需要调整,Malwarebytes解释说,因此它可以检测尽可能多的合法恶意软件而不会引发太多的误报。但这是恶意软件作者可以利用的非常弱点。
通过确定AI驱动的安全软件在尝试识别恶意软件时所寻找的内容,网络犯罪分子可以调整其有效负载以更轻松地避免检测。恶意软件编写者甚至可能弄脏他们的样本以欺骗AI将合法文件标记为恶意软件,从而引发大量误报。
网络犯罪分子和不良行为者可以通过其他方式利用AI,而无需将其构建到自己的恶意软件中。使用机器学习,他们可以解决CAPTCHA以隐藏这种类型的身份验证方法。他们可以使用人工智能来扫描社交媒体,找到合适的人群,使用鱼叉式网络钓鱼活动。他们可以创建更有说服力的垃圾邮件,更好地为潜在的受害者定制。
尽管目前没有任何支持AI的恶意软件的例子在野外流传,但该报告设想了这种恶意软件在不久的将来可能构成威胁的几种方式。
蠕虫可以通过了解过去绊倒它们然后避免这种行为来避免检测。例如,如果AI确定蠕虫背后的代码触发了它的检测,则该蠕虫的作者可以轻松地重写代码。如果蠕虫的行为挫败了它的成功,作者可以添加一种随机性来获得过去的模式匹配规则。
特洛伊木马可以创建自己的新版本来欺骗检测方法。报告中提到的Swizzor木马已经通过不断下载新版本的恶意代码采用了类似的策略。
IBM专门创建了DeepLocker攻击工具,以展示现有AI技术如何增强恶意软件攻击。通过采用AI,DeepLocker使用隐身来实现其目标。该工具伪装成视频会议软件并隐藏起来,直到它通过面部和语音识别以及其他属性识别其预期的受害者。然后它弹出它的攻击。网络犯罪分子可以装备他们自己的具有类似智能的恶意软件来感染系统而不被发现。
另一个已被广泛开发的领域是社会工程。虚假消息在世界范围内造成了严重破坏,导致影响2016年美国大选,影响了英国退出欧盟的决定,并引发了印度的谋杀狂潮。在2018年的Malwarebytes博客文章中讨论过,DeepFakes是一个术语,描述了一种通过使用AI将某人的嘴巴和脸部与其他人说出的话语相匹配来创建真实人物的虚假视频的方法。在报告的场景中,DeepFakes可以用来创建一个老板的视频消息,告诉别人的话告诉你将现金汇到账户进行商务旅行。因此,这种类型的技术可能导致高度令人信服的鱼叉式网络钓鱼攻击。
简而言之,掌握在网络犯罪分子手中的人工智能可以为更难以发现的恶意软件,更具针对性的威胁和受害者,更有说服力的垃圾邮件和网络钓鱼攻击,更有效的传播方式以及更有说服力的假新闻铺平道路。
我们离这一切有多远?Malwarebytes预计会在接下来的一到三年内看到使用人工智能对抗恶意目的的威胁,但这种威胁只能以极少的方式出现。现在的问题是:我们可以做些什么来防范这种威胁?
积极主动是报告中分享的一条建议。消费者,组织和员工都必须了解威胁状况,并为支持AI的恶意软件做好准备。
政府需要采取行动保护自己免受人工智能的武器化。报告称,大多数政府尚未为此做好准备。在这方面,只有包括美国在内的几个国家制定了某种类型的人工智能战略。但必须制定一个更加健全的标准和监管计划。
安全厂商还必须通过人工智能和机器学习来保护他们自己的产品,以防止网络犯罪分子利用漏洞。
“然而,快进10年,如果我们不积极主动,我们可能会陷入困境,”报告认为。“最好以负责任的方式开发这项技术,以360度的方式看待它如何用于善恶,而不是让它在我们身上滚动,超越我们的范围。”