Elon Musk,DeepMind创始人和研究人员,签署承诺不开发致命的AI武器系统
AI Elon Musk,DeepMind创始人和研究人员,签署承诺不开发致命的AI武器系统 AI | 2018-07-18 15:28 Elon Musk,DeepMind创始人和研究人员,签署承诺不开发致命的AI武器系统 冬冬

今天在斯德哥尔摩举行的2018年国际人工智能联合会议(IJCAI)上,全球研究人员和高管联盟签署了承诺不发展“致命自主武器”的承诺。

一鸣网7月18日消息:(记者|谢东霞)今天在斯德哥尔摩举行的2018年国际人工智能联合会议(IJCAI)上,SpaceX和特斯拉首席执行官埃隆马斯克; 谷歌DeepMind子公司的三位联合创始人Shane Legg,Mustafa Suleyman,Demis Hassabis,Skype,Jaan Tallinn; 以及一些世界上最受尊敬和最杰出的人工智能研究人员,包括Stuart Russell,Yoshua Bengio和JürgenSchmidhuber已经签署了承诺不发展“致命自主武器”的承诺。

这是一份非官方来自全球研究人员和高管联盟的最新举措,他们反对这种技术的传播。该承诺警告,使用人工智能“无需人为干预”选择和参与目标的武器系统“构成道德和实用威胁。”签署者认为,在道德上,“人命永远不应该委托给一台机器”,在现实层面,“这种武器的扩散将危及每个国家和个人的稳定”。

人工智能(AI)在军事系统中发挥越来越大的作用,公民、政策制定者和领导者有必要区分人工智能的可接受和不可接受的用途。致命的自主武器,在没有人为干预的情况下选择和参与目标,将危及每个国家和个人的稳定。成千上万的人工智能研究人员一致认为,致命的自主武器可能成为暴力和压迫的有力工具,尤其是在与监视和数据系统相关联时。

此外,致命的自主武器具有与核武器,化学武器和生物武器截然不同的特点,国际社会缺乏管理的技术工具和全球治理体系。单一集团的单方面行动很容易引发军备竞赛,防止这种军备竞赛应成为国家和全球安全的首要事项。

开发人工智能武器的技术已经很普遍,遏制“致命自主武器”的发展具有很大挑战。到目前为止,试图建立自主武器的国际监管一直是无效的。我们很难明确区分自主系统和非自主系统,此外参与开发此技术的国家,没有真正的动机去阻止自主武器的发展。

军事分析家保罗·沙尔(Paul Scharre)表示,没有足够的“势头”来推动国际限制。“没有一个核心的西方民主国家集团参与其中,而这与过去的武器禁令一样至关重要。”

今天包括伊隆马斯克在内的技术领导者,以及来自DeepMind的签署人表示,我们既不参与也不支持致命自主武器的开发,制造,贸易或使用。呼吁各国政府和政府领导人建立一个强大的国际规范和法规,反对致命自主武器未来的发展。


-END-

本文由冬冬投稿一鸣网,本文仅代表作者个人观点,文章非经授权请勿转载,

向一鸣网投稿,请点击投稿按钮,详情请参阅《一鸣网投稿须知》。

互联网人都在关注的微信号

难道你还没有关注?