新闻是有分量的

科技领袖表示,杀手机器人将成为世界上“危险的不稳定”力量

发布时间:2018年7月20日下午3:35
更新时间:2018年7月20日下午3:35

麝香。埃隆马斯克是160个组织的领导者之一,这些组织签署了反对自动化武器的承诺。文件照片由Hector Guerrero /法新社提供

麝香。 埃隆马斯克是160个组织的领导者之一,这些组织签署了反对自动化武器的承诺。 文件照片由Hector Guerrero /法新社提供

该名单非常广泛,包括技术,科学和学术界重叠世界中一些最有影响力的名字。

其中包括亿万富翁发明家和OpenAI创始人Elon Musk,Skype创始人Jaan Tallinn,人工智能研究员Stuart Russell,以及Google DeepMind的三位创始人 - 该公司首屈一指的机器学习研究小组。

来自90个国家的160多个组织和2,460个人本周承诺不参与或支持致命自主武器的开发和使用。 该承诺表示,预计人工智能将在军事系统中发挥越来越大的作用,并呼吁各国政府和政界人士制定管理此类武器的法律,努力“创造一个具有强大国际规范的未来”。

“成千上万的人工智能研究人员一致认为,通过消除人类生命的风险,归因和难度,致命的自主武器可能成为暴力和压迫的有力工具,特别是在与监视和数据系统相关时,”该承诺说。

“此外,致命的自主武器具有与核武器,化学武器和生物武器截然不同的特点,单一集团的单方面行动很容易引发国际社会缺乏管理的技术工具和全球治理体系的军备竞赛,”承诺补充道。 (阅读: )

根据生命未来研究所(Future of Life Institute)的说法,致命的自主武器系统可以在没有人类输入的情况下识别,瞄准和杀死,这是一家总部位于波士顿的慈善机构,负责组织承诺并寻求降低人工智能所带来的风险。 该组织声称自主武器系统不包括无人机,这些无人机依靠人类飞行员和决策者来运作。

据人权观察组织称,全世界许多国家正在开发自主武器系统 - “尤其是美国,中国,以色列,韩国,俄罗斯和英国”。 FLI声称自主武器系统将面临黑客攻击的风险,并可能最终进入黑市。 该组织认为,这些系统应该受到与生物和化学武器相同的国际禁令。

FLI甚至为这些武器系统创造了一个名称 - “屠宰机器人”。

悉尼新南威尔士大学人工智能科学教授托比沃尔什(Toby Walsh)帮助组织了这项承诺,缺乏人为控制也引发了令人不安的道德问题。

根据FLI的一份声明,沃尔什说:“我们不能交出谁决定生活和死于机器的决定。” 他们没有这样做的道德规范。 我鼓励你和你的组织承诺确保战争不会以这种方式变得更加可怕。“

马斯克 - 可以说是承诺中最知名的名字 - 已成为对自主武器和自动机器崛起的直言不讳的批评。 特斯拉首席执行官表示,与朝鲜相比,人工智能对世界构成了更大的风险。

去年,他加入了100多名机器人和人工智能专家,呼吁联合国禁止自主武器。

“致命的自主武器有可能成为战争的第三次革命,”马斯克和其他115名专家,包括Alphabet的人工智能专家Mustafa Suleyman在8月的一封公开信中警告说。

“一旦发展,他们将允许武装冲突的规模比以往任何时候都大,并且时间尺度比人类能够理解的速度更快。”

根据这封信,“这些可能是恐怖武器,恐怖分子和恐怖分子用来对付无辜人民的武器,以及以不良方式行事的武器。”

与公开声明作斗争的杀手机器人似乎无效,但是蒙特利尔学习算法研究所的人工智能专家Yoshua Bengio告诉“卫报”,该承诺可以反对公众舆论反对自主武器。

“由于国际条约和公众羞辱,这种做法实际上对地雷起作用,尽管像美国这样的主要国家没有签署禁止地雷的条约,”他说。 “美国公司已经停止建造地雷。” 华盛顿邮报 - ©2018