出品|虎嗅科技组
作者|陈伊凡
头图|视觉中国
近日,全球开始了一场对于生成式AI的监管“围剿”。
4月13日,法国国家信息自由委员会决定对ChatGPT提出5项指控,并展开调查。同日,西班牙数据保护局也发表声明,称该机构已经正式对ChatGPT可能的违反法律行为展开初步调查程序。4月11日,下属的国家电信与信息管理局将开始调查企业和监管机构如何确保人工智能系统是值得信赖、合法及合乎道德的。与此同时,中国国家互联网信息办公室也下发了《生成式人工智能服务管理办法(征求意见稿)》的通知。更早之前,3月份,意大利数据保护局就提出在本国禁止使用ChatGPT,理由是涉嫌违反隐私法规。
“生成式AI对于监管行业来说,是一个太新的事物,而且新技术发展很快,但我们现在针对算法、技术等立法监管并不能完全覆盖目前出现问题,对于监管来说,是很大的考验。”观韬中茂律师事务所合伙人王渝伟表达了他的看法,王渝伟长期进行网络安全数据合规方面的法律工作,近期他和团队十分忙碌,因为许多客户也在找他们做生成式AI方面的合规咨询。 “难点是如何找到一条既能做好监管,又能不影响行业发展的路径。”王渝伟说。
在他观察来看,关于生成式AI的法规争议问题主要集中在三个方面,一是涉及知识产权方面,例如版权 、商业秘密保护等问题,二是涉及数据安全与个人信息保护,三是涉及数据跨境问题。
1月底,美国三名漫画家就对包括stability AI在内的三家AIGC公司提出集体诉讼,指控这三家企业推出的、基于上述模型开发的付费AI图像生成工具构成版权侵权。这样的担忧同样存在于其他基于大模型生态所创建APP中。王渝伟举了个例子,对于这些基于大模型的应用,面临的合规风险可能比大模型公司本身还多。例如,一些公司基于大模型来训练自己的小模型,面向许多细分垂直行业,例如咨询、设计、工业等,他们将自己的语料和数据存在云上,让GPT学习,就会碰到语料库的调用,其中可能就涉及版权的问题。
另外,这样的小模型训练也同样涉及数据安全问题,3月23日,有推特网友爆料称,在ChatGPT网页左侧的聊天记录栏中出现了别人的聊天记录内容,一些活跃用户的姓名、电子邮件地址、支付地址、信用等信息甚至能够被看到。尽管OpenAI很快修复了漏洞,但也引发了人们在使用ChatGPT时数据隐私泄露的隐忧。甚至企业也担心,一旦接入ChatGPT,公司的商业机密也会面临泄露。而只要使用ChatGPT训练,就会涉及数据跨境的问题。
这些安全问题,OpenAI本身并非没有注意到,其官网上有专门针对安全的版块,并在产品发布之前,花了半年时间考察背后的安全风险,但即便如此,一些问题仍然不可避免地发生了。
生成式AI的监管难点除了上述数据跨境、个人信息保护等问题,外部监管环境的变化、还在于,涉及的角色太多,有提供大模型的服务商、在大模型之上做应用的提供商、还涉及存储数据的云厂商。
另一个难点在于算法的可解释性的问题。一直以来,算法透明是世界各国公认的算法治理原则。例如欧盟2021年颁布的《人工智能法案》提出,为有助于用户了解与其进行交互或为其服务的人工智能系统的相关信息,实现算法向用户侧的透明。但另一面的问题是,深度神经网络一直难以突破“算法黑箱”的问题,或许就连技术开发者本身来说,也很难说清算法如何运行、如何工作的问题,也很难做到相应的监管。
因此这种可解释性,即“在AI系统特定功能的背景下,AI系统输出结果的原因和过程”是相对的。王渝伟看来,技术及服务提供者如何才能达到监管部门所要求的“可解释性”仍然面临着诸多需要探索的问题。
第三个难点在于生成式AI的供应链过长,涉及角色过多。大模型服务商、开源厂商、应用商、云厂商等,这个问责带来很大的挑战。“下游产品对人工智能的使用可能远超于人工智能系统开发人员最初的设想,此时应如何平衡与区分各方主体的责任?再者,就具体的责任承担而言,应当要求人工智能系统的开发人员和部署人员在多大程度上、多长时间内保留何种类型的系统文档材料,以实现问责判断。”金杜研究院合伙人宁宣凤、吴涵等人在一篇文章中提及。
在王渝伟看来,美国NIST在今年1月26日发布的《AI风险管理框架1.0》是一个很好的参考。美国在数据安全上的监管没有欧洲严格,更多是各州的法律以及行业自律。在美国的这份框架,包括治理、映射、测量和管理的四个部分,治理指要在组织的制度流程、组织建设、组织文化、技术能力等方面践行AI风险管理框架;映射主要用于确定特定场景与其对应的AI风险解决方案;测量主要采用定量和/或定性的工具、技术和方法来分析、评估、测试和监控AI风险及其相关影响;管理主要是将相关资源分配给相应的AI风险,进行风险处置。治理是一个交叉模块,融入并影响其他三个模块。
在框架中也提到了AI系统的可说明性、可解释性、可追责、透明性的问题。这份框架中提及,AI可信度特性之间可能相互影响,全面的AI风险管理需要在AI可信度特性之间进行权衡取舍。例如,优化可解释性和隐私增强性之间会存在矛盾;或者在数据较稀疏的情况下,隐私增强技术可能导致有效性降低。过度关注某一方面特性,例如:高度安全但不公平的系统、有效但不透明和不可解释的系统以及不准确但安全、隐私增强和透明的系统都是不可取的。
从这份框架以及美国4月颁布的《人工智能问责政策征求意见》可以看出美国在制定人工智能监管方面政策时,重点在于问责明确。金杜研究院在一篇文章中详细提到了这一点,美国在制定政策时,强调两个问责,一是如何看待问责目标,二是问责对象的确定。
抛开人工智能监管的实施上的难点 ,最难的在于如何既能够实现有效监管,又不妨碍AI的发展。欧盟的《人工智能法案》也提到了风险的分级管理。不过随着ChatGPT的出现,新的争议和讨论更加激烈,哪些AI系统会被列为高风险、如何为AI大模型进行监管和风险分级,目前看来还没有确定的结论。
“在具体执行中,对于人工智能,立刻出台一个全面监管显然不现实。”王渝伟说。中国目前还没有一个专门针对AI的整体立法框架,在此之前,也没有明确可参考的法律,并且,人工智能方面的立法,还需要立法者对于通用AI大模型本身的底层技术足够理解。“敏捷治理”或许是一种思路,在一开始先制定顶层框架,在过程中不断调整监管治理和风险控制的措施,在一些案例中不断表明监管的态度,并不断调整监管思路并释放这种信号。