换句话说,KAIST可能正在研究如何制造军用级AI武器。
根据这封公开信,世界各地的人工智能专家在了解到KAIST与韩国领先的武器公司韩华系统公司合作后,于2月20日开设了一家名为国防和国际融合研究中心的新设施。人工智能。
鉴于联合国(UN)已经在讨论如何保护国际社会免受杀手AI机器人的影响,“令人遗憾的是,像KAIST这样的知名机构希望加速军备竞赛以开发此类武器,”研究人员在信中写道。 。
为了强烈反对KAIST的新任务,研究人员正在抵制大学,直到其总统明确表示该中心不会发展“ 缺乏有意义的人为控制的自主武器 ”,信函作者说。
这种抵制将是无所不包的。“例如,我们将不会访问KAIST,接待来自KAIST的访客或参与任何涉及KAIST的研究项目,”研究人员说。
研究人员说,如果KAIST继续追求自主武器的发展,它可能会导致战争的第三次革命。他们说,这些武器“有可能成为恐怖武器”,他们的发展可以鼓励战争更快,更大规模地进行。
研究人员补充说 ,获得这些武器的暴君和恐怖分子可以利用它们对抗无辜人群,消除常规战士可能面临的任何道德限制。
这种对致命技术的禁令并不新鲜。例如,“日内瓦公约”禁止武装部队直接对人使用致盲激光武器,Live Science此前报道。此外,“化学武器公约”禁止使用沙林和VX等神经毒剂,其中有190多个国家参加。
但是,并非每个国家都同意采取这些措施。与KAIST合作的公司Hanwha帮助生产集束弹药。研究人员说,这种弹药是“联合国集束弹药公约”所禁止的,已有100多个国家(虽然不是韩国)签署了反对它们的公约。
韩华因其行为而受到影响; 研究人员表示,基于道德理由,挪威公开发行的3800亿美元养老基金并未投资于汉华的股票。
研究人员表示 ,KAIST不应该致力于自动杀戮技术,而应该致力于改善而不是伤害人类生命的人工智能设备。
与此同时,其他研究人员多年来一直在警告杀手AI机器人,包括Elon Musk 和已故的Stephen Hawking。