现有AI仍是人工为主,无法闭环学习
第一财经:3月1日OpenAI开放ChatGPT,震动各界。很快,ChatGPT-4推出,ChatGPT插件平台发布,进展迅速。但是仅仅到3月底,针对人工智能的监管呼声就在世界各地涌现。这相对于人工智能过去80年的发展历程而言,是不是非常不同?
马毅:是非常不一样。我们回顾历史可以看到,神经网络也经过几次起伏。但是现在的科技、网络等,将现在一件事物的历史进程,包括ChatGPT这样的创新,时间轴压缩地非常非常快。在几天之内,就有天翻地覆的变化。
这确实也带来了很多的顾虑。但我觉得,从技术的角度,我们对现有的AI本身的机理不用太担心,因为它不是自动的,基本还是人工的方式为主。更不用担心它有自主意识,甚至统治世界,甚至毁灭人类,这都是杞人忧天。当真的有独立自学习的能力的时候,当机器人可以从开放的外部世界,闭环地学习对自己有用的东西的时候,我们再重新审视这个问题不迟。
其实很多讨论是针对这种机器具有的能力会对各行各业产生的影响。比如教育行业,我的学生已经在用GPT编程了。再有就是这样涉及千家万户的信息,哪怕只是“胡说一道”,如果传递的信息不是那么准确,以后再纠正,也会造成很大的顾虑。
我觉得技术本身不会给社会带来危险,而是技术后面的人可能会带来危险。任何技术都是双刃剑。这可能是我们需要考虑的问题。
GPT成功背后,要看到OpenAI的“纹丝不动”
第一财经:你认为现在很多担心都是杞人忧天,但是确实可以看到大家都非常“焦虑”。很多大厂在星夜兼程地做自己的模型,投资领域“找项目的投资顾问比项目还多”。你怎么看待这种现象?有什么建议?
马毅:大厂我觉得应该有焦虑的地方。因为他们本身在这些产业里面,比如微软,集成了OpenAI的一些性能之后,对谷歌的影响最大。比如搜索,以自然语言呈现搜索结果,改变了搜索界面,更加友善。光是这一点,谷歌就要担心。
另外就是所有的办公软件。包括中国的阿里、头条,都有自己的钉钉、飞书等,如果不跟上的话,这些工具很快就会过时。因为微软出来的这些工具会大大提升工作效率。出于生存,也必须要赶上。至于如何赶上,这是大家需要思考的。
比如完成一个深层模型的预训练,完成一个可以“胡说几道”的模型还是可以实现的,因为已经开源了。大厂只要有足够的投入,运作的好的话,这件事不难。
但实际上Meta也在焦虑。他们焦虑的是,OpenAI从GPT3.5就没有开源,他们背后到底是做了什么,导致他们编程的水平能从5%提高到70%或80%以上,这是真的可以用了。这是他们真正焦虑的东西。这也很可能是他们在用大规模集群在做的事情。
需要提醒的是,大厂去追,也要把问题搞清楚,而不是一味大干快上。而且我也不赞成所有大厂、实验室或者学校都去做这件事。否则同质化很严重。
我们看OpenAI的成功,当大家在炒区块链、忙自动驾驶、忽悠元宇宙、折腾蛋白质的时候,他们纹丝不动。即使烧了这么多钱,始终一代一代迭代。我们有没有这种定力,这种风气、文化?包括Deepmind,也是纹丝不动去实现它的使命,实现它的梦想。所以大厂即使要去追,也要把战略搞清楚。
做产业投资同样也要把历史和现状搞清楚。如果不清楚,只是道听途说,都是二手三手的信息,这样投资会比较麻烦,一不小心投资的项目可能就会被大厂消灭。我认为,大公司可以去做平台性的东西,垂直领域对小公司而言则是充满机会。
大家一拥而上去追去抢,并非各个都适合。首先,现在技术路线还不是很清楚。其次,正面追击资源耗费巨大。当然有的公司确实是需要去做的,但如果大家都去追,这是很不理智的。
原理是绕不开的,且往往是唯一正确道路
第一财经:刚才你一直在强调,无论是人工智能的研究还是产业的投资,都要回到数学、信息论等原理性的起点。但是当GPT-4可以自己给GPT-5写代码的时候,我们还来自己从头开始,会不会一直落后,甚至差距越拉越大?
马毅:这是绝对不会的。
不可能所有的事情都是大模型,小的机器人也需要去学习世界。这种机会其实是非常多的。当你搞清楚来龙去脉,搞清楚历史发展,学科、方法在干什么的话,你会发现有很多机会。
举个很简单的例子。伯克利和斯坦佛过去几年出了两件工作,彻底改变了很多问题。一个是NERF,一个是DiffusionModel,都是年轻的教授做的。他们并没有去跟随所谓主流的东西。当铺天盖地的对抗生成网络出来的时候,几万篇文章,打得一塌糊涂,人家在老老实实根据更本质的原理改进方法。甚至刚开始文章都发不出来。但现在,彻底改变世界。这就是机会!
过去机器学习的十年,很多人担心不跟随就落后。但回头看,当时很可能是在往错误的方向上跑。现在炒作的很多东西,放在历史上都不过是尘埃而已。而原理性的东西,十年、二十年、五十年甚至一百年,绕是绕不开的。而且往往是唯一正确的道路。希望现在年轻人多做些反思。
叫停智能研究是杞人忧天,AI监管重在管人
第一财经:人工智能现在确实还处于起步阶段,但是“杞人忧天”的担忧还是非常多。比如马斯克最近就表达了担忧,人为当AI发展发展到真正智能的时候,再去做监管很可能就为时已晚。在你看来,如何在人工智能最初期就建立好治理框架?
马毅:我有不同看法。科学家或者研究人员,做任何事情,都不能用条条框框去框他们。比如核物理、生物研究等等都会有利有弊。对于人工智能,我们应该规范的不是机器,也不是背后的客观规律和事实,而是后面的人类。对目前的人工智能,在我们真正了解其机制之后,就会发现现在还不用过度担心。
不过在另外的方面,我觉得有些焦虑是对的。比如对数据安全隐私,以及可能被利用于剽窃、作弊等的副作用,以及如何规范使用行为等,这是需要考虑的。
第一财经:但是人工智能有其特殊性。比如你提到的“核”,核只涉及“我们如何看待它”的问题,但人工智能还要面对“他们如何看待我们”的问题。这也不需要担心?
马毅:现在我们看到机器开始体现一些接近人的推理或者分析能力,尽管可能这只是模仿或者人授予的能力。但从本质上,我认为这还不是基于理解。除非OpenAI做了一些我们完全不知道的事情。如果没有,那我觉得从技术层面,不用太担心。
以后,如果我们真正找到了自主学习的机制的话,机器具有了这种能力,那大家可能需要提前考虑一些问题。比如,规模化之后,人工智能能力的极限在哪里,是否能完全独立的做一些事情。
第一财经:现在还是可以充分享受人工智能便利的一个阶段?
马毅:我相信是这样的。历史上一个新技术出来,人们往往就会说很多工作就将失去了。蒸汽机出来,不需要体力劳动了;计算机出来,就不需要人工了。很多革命性的技术出来,实际上提升了生产力,新的工种会出来,而且会以更高的效率产生更多的工种。
我相信,大家利用好新的技术发明,文明是会更快向前进步的。
第一财经:刚才你说到“某个时刻”我们是需要提前准备的,人类是否有能力在“那个时刻”到来之前提前识别出来?如果面临的是一个用偏见的数据训练出的有偏见的模型,怎么办?
马毅:能不能提前识别,我不知道。不过很多问题都是人的问题,不是机器的问题。
GPT的能力会不会造出信息层面的“病毒”?这是不为所知的。不过即使这样,最后还是掌握技术或者公司的人,需要进行很好的监管和规范。包括使用产品的人,也需要充分理解所在使用的工具。
比如,香港的大学都在考虑,是否允许学生用ChatGPT。我是支持大家用的,就跟搜索引擎出来之后,也面临过同样的问题。但是我们还是找到了方法来解决这一问题。
第一财经:去年有一个案例曾引起一定关注,但后来又被人淡忘。直到近期又被提出,并被认为人类可能从那时候就已经跨越了“奇点”时刻,那就是谷歌的“拉姆达”。你是否认同?
马毅:那个时候,我相信当时的表现可能还不如ChatGPT。机器是否因为具备自主意识才有这样的能力,还是因为有这样的能力才被定义为自主意识,我相信这是不同的概念,大家可以去思考一下。
我认为,现在大部分机器我们能看到,还是在模仿人的一些东西,还不是真正的自主学习。
教育迎来很大变革,智能学科亟待重建
第一财经:你是香港大学数据科学学院的首任院长。你打算如何打造这个学院,让学生在数据科学领域有更好的发展,也让我们在人工智能领域有一个更好的提升?
马毅:我们这个领域,不管是数据科学,还是人工智能,过去十年发生了很大的变化。现在我认为这个学科需要重新建设,以适应产业与社会的新需求。
从基础的课程设置,学生需要学习的工具、系统,以及这些工具、平台的应用,以及我们该教学生什么、如何教,都需要重新考虑。以后的发展,一定是需要原理才能把正确的框架、平台、机制建立好,人工智能才能更上一步,才能接近真正动物和人的智能。
我们也在考虑如何将跟智能相关的原理和思想更快地传播给学生。现有介绍原理的课程很多内容是有些过时的,传统的信息理论、控制理论、信号处理、优化方法等等可能都要重新设计。学科建设是非常重要的。学生只有对基础原理真正理解,对计算工具、平台真正掌握和使用,然后才能到各行各业去放大。
对学生的教育,也不能再是填鸭式教育了。我们不能再一味生硬地传授学生知识了。因为将来得到知识会越来越容易,而如何去运用这些知识,如何发展出新的知识,才是学生需要具备的能力,否则跟机器比将没有任何竞争力。所以这将是一场很大的变革。