您的位置:首页>科技 >内容

杀手机器人实验室面临来自人工智能专家的抵制

2019-04-21 16:02:01来源:
导读人工智能(AI)社区向韩国研究人员传达了一个明确的信息:不要制造杀手机器人。来自近30个国家的近60名AI和机器人专家签署了一封公开信,呼吁

人工智能(AI)社区向韩国研究人员传达了一个明确的信息:不要制造杀手机器人。

来自近30个国家的近60名AI和机器人专家签署了一封公开信,呼吁抵制韩国大田公立大学KAIST,据报道,该公司将“开发人工智能技术应用于军事武器,加入全球竞争,发展自主武器,“ 公开信说。

换句话说,KAIST可能正在研究如何制造军用级AI武器。

根据这封公开信,世界各地的人工智能专家在了解到KAIST与韩国领先的武器公司韩华系统公司合作后,于2月20日开设了一家名为国防和国际融合研究中心的新设施。人工智能。

鉴于联合国(UN)已经在讨论如何保护国际社会免受杀手AI机器人的影响,“令人遗憾的是,像KAIST这样的知名机构希望加速军备竞赛以开发此类武器,”研究人员在信中写道。 。

为了强烈反对KAIST的新任务,研究人员正在抵制大学,直到其总统明确表示该中心不会发展“ 缺乏有意义的人为控制的自主武器 ”,信函作者说。

这种抵制将是无所不包的。“例如,我们将不会访问KAIST,接待来自KAIST的访客或参与任何涉及KAIST的研究项目,”研究人员说。

研究人员说,如果KAIST继续追求自主武器的发展,它可能会导致战争的第三次革命。他们说,这些武器“有可能成为恐怖武器”,他们的发展可以鼓励战争更快,更大规模地进行。

研究人员补充说 ,获得这些武器的暴君和恐怖分子可以利用它们对抗无辜人群,消除常规战士可能面临的任何道德限制。

这种对致命技术的禁令并不新鲜。例如,“日内瓦公约”禁止武装部队直接对人使用致盲激光武器,Live Science此前报道。此外,“化学武器公约”禁止使用沙林和VX等神经毒剂,其中有190多个国家参加。

但是,并非每个国家都同意采取这些措施。与KAIST合作的公司Hanwha帮助生产集束弹药。研究人员说,这种弹药是“联合国集束弹药公约”所禁止的,已有100多个国家(虽然不是韩国)签署了反对它们的公约。

韩华因其行为而受到影响; 研究人员表示,基于道德理由,挪威公开发行的3800亿美元养老基金并未投资于汉华的股票。

研究人员表示 ,KAIST不应该致力于自动杀戮技术,而应该致力于改善而不是伤害人类生命的人工智能设备。

与此同时,其他研究人员多年来一直在警告杀手AI机器人,包括Elon Musk 和已故的Stephen Hawking。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章