就连一生从事神经网络学术研究的图灵奖得主、有“AI教父”之称的计算机科学家杰弗里•辛顿(Geoffrey Hinton)近日也对人工智能的发展产生了新的思考。为了警告AI技术潜在的风险而又免于利益冲突,辛顿本周公开宣布,他已离开工作了十余年的谷歌,转而成为AI技术的“吹哨人”。
辛顿表示:“我现在倾向于认为,我们正在创造的数字智能与生物智能非常不同。”
类似于ChatGPT这样的聊天机器人正在对各行各业形成颠覆性的效应。这种聊天机器人基于AI大模型,能够迅速地学习知识。事实上,在某些方面,它们的能力已经超越了人类。
“如果我有1000个这样的数字代理(AI agent),那么每当一个代理学习如何做一件事情的时候,其他所有的代理也都会立即知道,生物智能是不具备这样的能力的。”辛顿解释道,“因此,相同数字代理的集合可以获得比任何单个生物智能都多得多的知识,这就是为什么GPT-4比任何人都知道的多。”
教育、媒体行业已受到显著冲击
OpenAI公司3月曾发布一篇论文,预言美国80%的工作都会受到AI的影响。根据高盛的预测,生成式AI会导致劳动力市场受到重大冲击,使全球3亿个工作岗位实现自动化,并且美国7%的工作岗位将被AI取代。
AI大模型的能力已经开始改变一些行业,并对企业业务产生了实质性的影响,尤其是在教育行业,AI的影响体现在企业的财报中。
5月2日,总部位于美国加州的在线教育公司齐格(Chegg)股价暴跌50%。该公司CEO丹•罗森斯维格(Dan Rosensweig)在与分析师的财报电话会议上表示:“我们现在开始相信ChatGPT正在对我们的新客户增长率产生影响。”
这一警告也令其他公司感到不安,英国教育上市公司培生当天股价下跌15%,语言学习平台多邻国(Duolingo)股价下跌10%。
为了应对ChatGPT带来的挑战,上个月,Chegg基于AI大模型推出了一个叫做CheggMate的应用程序,学生能够通过与AI交谈来访问量身定制的内容。
由于担心“AI会让学生作弊”,全球的一些高校已经禁止了ChatGPT在校园里的使用。而一些企业出于对安全隐私的保护,也禁止员工使用ChatGPT等生成式AI工具。
最近几个月,包括高盛在内的大公司都已禁止或限制使用生成人工智能AI平台。最新加入的是三星电子。三星电子周二表示,在一份内部文件中指出生成式AI技术的“滥用案例”后,它已禁止部分员工使用ChatGPT等AI工具。
三星称正在努力寻求确保员工在安全环境中使用生成式人工智能服务的方法,但在这些措施准备就绪之前,暂时禁止在公司拥有的计算机上使用生成式人工智能服务。
生成式AI的出现已经让网络充斥着真假难辨的内容。辛顿日前也警告称,虚假照片、视频和文字已经让普通人“无法再辨别真假”。对此,他提出了担忧。
反虚假信息机构NewsGuard近日的一项调查,更是有了惊人的发现。统计显示,该机构监测到的伪装成“记者”的聊天机器人竟然运行着近50个人工智能生成的“内容农场”。
研究人员发现,这些网站大量生产与、健康、环境、金融和技术相关的内容,生成速度惊人,并充斥着商业广告。
Newsguard的研究人员表示:“有些’记者’每天发表数百篇文章,一些内容充斥着虚假叙述,并且几乎所有的内容都以乏味的语言和重复的短语为特征,这是人工智能的标志。”
监管机构试图阻止“危险游戏”
网络空间的混乱引发了业内对人工智能风险的激辩,批评人士认为,大型科技公司争相开展基于生成式人工智能(AIGC)的产品开发活动,“这是在与危险赛跑”。
特斯拉CEO马斯克多次重申,应该对人工智能保持谨慎。他呼吁政府进行监管,因为人工智能可能对公众构成威胁。
谷歌CEO皮查伊也表示,所有公司的产品都将受到人工智能快速发展的影响,社会需要为已经推出的技术做好准备。但他表示:“我们的适应速度与技术发展的速度相比,似乎还不太匹配。”
各国监管机构也早已坐不住了。白宫官员近日向美国科技公司发出邀请,希望与行业企业领导者共同探讨针对人工智能的监管问题。参加的科技公司包括谷歌、微软和OpenAI等公司高管。美国拜登称,希望科技公司在向公众提品之前必须确保其产品安全。
欧洲消费者组织(BEUC)也呼吁欧盟消费者保护机构关注人工智能对消费者的潜在危害。上个月,欧洲数据保护委员会已经成立了一个专门针对ChatGPT的工作组,并朝着制定人工智能隐私规则的共同政策迈出的重要一步。
欧盟立法者还在讨论如何引入欧盟人工智能法案,并且生成式AI(AIGC)成为最受关注的内容之一。欧盟委员会将于5月11日对相关协议进行投票,如果通过,将进入下一阶段的三方谈判,届时欧盟成员国将与欧盟委员会以及欧洲议会就谈判内容进行辩论。
斯坦福大学网络政策中心国际政策主任、欧盟委员会执行副维斯塔格的特别顾问玛丽耶杰•沙克(Marietje Schaake)在5月2日公开发表的一篇专栏文章中指出:“突然间,每个人都想规范人工智能,包括撰写公开信并讨论立法提案。但不幸的是,AI的特性与所提供的解决方案之间的不匹配,暴露了AI产品的开发者与政策制定者及立法者之间的鸿沟。”
沙克写道,一些人工智能行业领袖希望在大约6个月的时间内,建立对生成式AI的监管法规,但事实上,通过并实施人工智能法案的过程通常会长达数年时间。
她认为,成功的人工智能监管必须解决三个领域的问题。首先是人工智能开发者与社会其他个体之间的权力需要重新平衡。“这种不对称性已经非常严重,只有最大的科技公司才能开发人工智能。” 沙克指出,“这意味着只有科技巨头可以访问数据集,并有能力训练和处理它们。”
她补充道,即使是像斯坦福大学这样培养顶级人工智能工程师的大学,也不具备硅谷公司的数据或计算能力。“因此人工智能内部运作的秘密仍然锁在企业系统中。” 沙克表示,“这使得这些企业具有巨大的社会影响力。”
这就引申出第二个问题,也就是获取信息必须有公共利益保障措施作为前提,让立法者能够看到企业内部人工智能是如何运作的。“由于公众对影响社会的应用程序的管理和算法缺乏了解,这反过来又阻碍了有针对性的公共政策和必要的问责机制的建立。” 沙克写道。
她指出的第三点是“不能忽视人工智能不断变化的本质”,监管在严格执行的同时也要灵活变通。
“目前生成式AI表现了三个方面的特点,超强的学习能力、超广的连接能力、超能的逻辑推演能力,尤其是逻辑推理能力令人震惊。”史占中表示,“未来它还可能会突变出超凡的自我意识,这一点我们较为关注。”
史占中认为,从国家的层面来讲,要加快AI相关领域的立法,特别在金融、安全、健康等领域严格监管,厘清AI的设计者、使用者、内容生成者的权责关系,完善AI决策的问责机制,保护大众合法权益;而从社会层面来讲,应加强AI技术的监管,推进AI研发者遵守伦理准则与规范AI的发展。
“我们希望人工智能的能力成为改善人类生活、促进人类文明发展的’助推器’,以及人类走向星际文明的’摆渡人’。”史占中表示。