注册Plaintext,利用 Steven 的独特见解和无与伦比的人脉,从长远角度了解科技。
我关心的是,从长远来看,这将如何改变我们,以及我们与他人的关系。我们与他人的许多互动将由机器人代替我们进行。机器人助手与人类助手不同的是:它们不会休息,它们可以立即秒回信息。我们使用它们的次数越多,我们就越容易离不开它们。
目前人工智能助手仍不完善。我们还没有达到智能机器人能够接管那些复杂且容易出错的事情,比如订机票、预约医生和管理金融投资组合。但这种情况将会改变,因为它在进步。我们似乎注定要像长途航空公司的飞行员那样生活——在设定了某条固定航线后,就可以让人工智能驾驶飞机,从而解放我们的双手。只有在必要时,切换到手动模式即可。但令人担心的是,最终决定飞机飞行方向的可能是人工智能机器人。
抛开世界末日论不谈,我们所有人都将不得不应对他人的超级聪明、可能具有操控欲的代理人。我们将把自己的日常活动和日常选择的控制权,从购物清单到约会日程,交给人工智能助手,他们也将与我们的家人、朋友和陌生人的代理人进行互动。随着它们越来越具有独立性,我们的智能助手可能最终会代表我们做出不好的决定或交易。
为了获得对未来的乐观看法,我咨询了穆斯塔法·苏莱曼(Mustafa Suleyman)。他是人工智能初创公司DeepMind的联合创始人,现在是谷歌人工智能开发的核心,他现在是Inflection的首席执行官。AI是一家开发聊天机器人的公司。最近,苏莱曼的著作《即将到来的浪潮》(The Coming Wave)登上了《纽约时报》(New York Times)畅销书排行榜,该书提出了人类如何应对人工智能带来的生存危险。总的来说,他是一个乐观主义者,当然对软件代理的前景也很乐观。他将自己公司制造的机器人“派”( Pi)描述为个人的“幕僚长”,不仅为人类提供智慧,还提供善解人意的鼓励和支持。
苏莱曼说:“如今,派不能帮你订餐厅、安排汽车,也不能帮你买东西。但在未来,它将有合同和法律代理权限,这意味着你将授权派能够代表自己签订合同,花你的钱,并将你约束在现实世界的实质性协议中。”此外,派还将代表其所有者打电话,并与客户服务代理进行谈判。
这似乎很公平,因为现在太多的服务代理已经是机器人了,也许是被设计出来的?——不接受企业雇主欺骗自己客户。不可避免地,在生活的各个领域,人工智能助手之间要进行谈判。苏莱曼承认,我们不希望这些机器人彼此之间过于亲密,也不希望它们以人类无法知晓的方式互动。苏莱曼说:“我们实际上希望人工智能与人工智能之间的交流仅限于简单的英语。这样,我们就可以掌控它们。”
这是一个善意的担忧,但它可能会迫使代理工作效率变慢,甚至可能阻止我们的超级智能助手可能提出的一些更具创新性的解决方案。我怀疑,让人工智能与人工智能之间的交流变得高效和有效会压抑这种美好的情感。
另一个潜在的危害是广告资助的机器人将用户引导到受赞助的产品和服务。苏莱曼不喜欢这一点,但他似乎不排除这种可能性。他说,他器人能带来巨大的价值,而且价值不菲。通常我们每小时付给律师数百美元,但出于某种原因,我对于每月支付超过10美元的任何在线服务都很敏感。这种情况必须改变。那么,那些负担不起费用的用户是否会被提供无广告版本呢?他承认,并非所有人都愿意为这项技术付费。苏莱曼说,无论如何,信任和问责是至关重要的。他说:“我们还需要很多年才能对人工智能的自主行为完全放心和满意,我认为短期内我们不应该这么做。”
技术将使个人更强大——我担心的一个问题是,人们会用这种力量做什么?
乔纳森·格拉奇,Jonathan gratch,南加州大学
对我来说,这就是我所担心的。一旦我们安于现状了,我们就完蛋了。当我在浏览研究论文时,我的注意力被标题“伤害的力量:人工智能助手为不道德行为铺平道路”吸引了。这篇论文由南加州大学科学家乔纳森-格拉奇(Jonathan Gratch)和纳塔内尔-法斯特(Nathanael Fast)合著,假设智能代理可以将富人的不良习惯民主化,富人通过律师、发言人和恶棍下属外包他们的不良行为。他们写道:“我们回顾了一系列研究,这些研究说明了在广泛的社会任务中,当人们通过人工智能代理采取行动时,他们的行为可能更不道德,也更愿意欺骗他人。”
我找到了格拉奇,他在德国维尔茨堡的一个会议上接受了我的采访。“每个男人或女人都可以让他们的私人助理代表他们做事,”他说,“我们的研究表明,人们可能更愿意让助手去做一些道德上有问题的事情,而不是他们自己愿意做的事情。”
格拉奇多年来一直在研究智能代理可能产生的影响。在过去的一年里,这一领域发生了巨大的变化。他说:“过去,你要花整篇博士论文的时间来构建你想测试的那个该死的代理。而现在,只要花两天时间利用GPT或其他东西,你就能得到一些非常有价值的内容信息”。格拉奇说,“他所在的领域现在充满了兴奋和担忧。”
他说:“这项技术将使个人变得更加强大,从而为人们带来更多的自由时间。我担心的是,人们如何利用这种力量?例如,他说,如果我指示代理人代表我给某个与打电话,就会失去潜在的人际联系。”格拉奇说:"这些人际关系是我们保持友好和促进共鸣的基础。当人工智能使其更多地涉及算法、法律和交易时,它就会削弱我们作为人的作用。”
格拉奇的领域曾经以假设为中心,而现在却能让人感觉到,它就像一本指南,指引着即将到来的商业人工智能服务。请看维尔茨堡会议上的一些演讲:“代理在人类代理谈判中的体现效果”,“在保持虚拟酒精滥用顾问安全的同时适应用户表达”,“融洽关系对虚拟代理授权的影响”。令人欣慰的是,其他论文是关于在一个充满智能代理的世界中如何保持道德。格拉奇最近在麻省理工学院参加的一次会议上也看到了类似的文章。他说,所有大型科技公司都在那里,他希望这些公司能雇用他的学生。
格拉奇介绍说,在本周的一次会议上,研究人员探讨了人工智能软件如何通过情感或非语言行为或手势来操纵人们,并找到最有效的技术。他说:“你可以对ChatGPT进行微调,让它做到这一切,然后以更高的价格卖给你。你觉得自己被赋予权力了吗?”
时间旅行
2010年12月,《连线》抢先一步宣布:“人工智能革命开始了。”在我的文章中,我谈到了弄清楚人工智能产品的用途的困难,即使它们做得很好。
我们正在与机器进行一场持久战。然而,由于机器人的行为不是基于人类的思维过程,我们往往无力解释它们的行为。由科学家斯蒂芬·沃尔夫勒姆创建的网站Wolfram Alpha可以解决许多数学问题。它似乎也显示了这些答案是如何得出的。但人类看到的逻辑步骤与网站的实际计算完全不同。“它不做任何推理,”Wolfram说。“那些步骤纯粹是假的。我们想,我们如何向那些人解释这一点?”
我们得到的教训是,人工智能有时不得不迁就我们,否则它们会把我们吓坏。埃里克·霍维茨(Eric horvitz)现在是微软(Microsoft)的高级研究员,也是人工智能促进协会(Association for the Advancement of Artificial intelligence)的前。他在上世纪80年代帮助建立了一个人工智能系统,帮助病理学家进行研究,分析每个结果,并建议下一步要进行的测试。只有一个问题——它给出答案的速度太快了。霍维茨说:“我们发现,如果给它们加一个延迟时间,人们就会更相信它,就好像它是经过认真思考才想出的答案。”
但我们必须学会适应。人工智能对一些系统至关重要,比如金融基础设施,要摆脱它比简单地断开HAL 9000的模块要困难得多。“从某种意义上说,你可以说科幻中的场景已经开始发生了,”思维机器公司的希利斯说。“电脑掌控着一切,而我们只是生活在它们的世界里。”Wolfram说,随着人工智能承担新的任务,这个难题将会加剧,进一步超出人类的理解范围。他问道:“你监管底层算法吗?这太疯狂了,因为在大多数情况下,你无法预见算产生什么后果。”
问答环节
香蒂(Shanti)问:“电子邮件还会有后继者吗?”
谢谢你的问题,香蒂。电子邮件已过时了。现在,人们可以通过短信、社交网络上的直接消息或Slack来接收信息。我认为,其他软件的出现将进一步削弱电子邮件曾经的地位。我记得比尔·盖茨有一次到我在《新闻周刊》的办公室拜访我,告诉我垃圾邮件问题将在一年内被解决。 再过几个月,我将迎来拜访的20周年纪念日,而我每天都会收到几十封垃圾邮件,其中有很大一部分都躲过了垃圾邮件过滤器的拦截。
抛开垃圾邮件不谈,我其实仍旧喜欢使用电子邮件接受信息。很难想象还有比这更简单的方式发送或接收文件,或搜索互动信息。
另一方面,如果有人建议对那些单方面将我加入邮件列表(尤其是商业邮件列表)的人处以强制性最低刑罚,我也不会反对。
写在最后
除了提供建议和与客服人员争论,机器人还能写作。
Dall-E 3让插画家失业变得更容易。
发明CRISPR-Cas9基因组编辑方法对诺贝尔奖得主詹妮弗·杜德纳来说还不够,她现在正研究微生物进行基因编辑。
特斯拉创始人埃隆·马斯克创办的大脑芯片公司Neuralink被指控虐待猴子。
译者:Araon_