马斯克,沃兹尼亚克和霍金敦促禁止战争AI和自主武器

1000多名备受瞩目的人工智能专家和主要研究人员签署了一份关于“军事人工智能军备竞赛”的公开信,并呼吁禁止“进攻性自主武器”

这封信是在阿根廷布宜诺斯艾利斯举行的国际人工智能联合会议上,由特斯拉的Elon Musk,Apple联合创始人史蒂夫沃兹尼亚克,谷歌DeepMind首席执行官Demis Hassabis和斯蒂芬霍金以及1,000名AI和机器人研究员签署的

信中指出:“人工智能技术达到了一定程度,[自主武器]的部署 - 事实上,如果不合法 - 在几年而不是几十年内是可行的 - 并且风险很高:自主武器被描述为第三个革命性的火药和战争核武器

“作者认为,人工智能可以用来使战场成为军事人员更安全的地方,但那些自己战斗的进攻性武器将降低战斗的门槛并导致更大的战斗力人类生命

作者认为,如果一支军队开始建立一个可以选择目标并在没有人为直接控制的情况下自主运行的系统,它将开始类似于原子弹的军备竞赛

但是,与核武器,人工智能不同不需要特定的硬件来制作材料,而且很难监控

“这个技术轨迹的结束是显而易见的:自主武器wi将于明天成为卡拉什尼科夫突击步枪

“今天人类面临的关键问题是,是否要开始全球人工智能军备竞赛或阻止其开始,”作者说

新南威尔士大学人工智能教授托比亚斯沃尔什说:“我们需要做出决定今天,这将决定我们的未来,并决定我们是否顺利

我们支持一些不同的人道主义组织呼吁联合国禁止进攻

自主武器,类似于最近禁止使用致盲激光器

“马斯克和霍金警告说,人工智能是”我们最大的生存威胁“,全人工智能的发展可以”拼写人类的终结

“但包括沃兹尼亚克在内的其他人最近改变了他们对人工智能的看法,而苹果公司也是如此

- 创始人说机器人对人类有益,使它们像“家庭宠物一直在照顾

”4月在日内瓦举行的联合国会议讨论了武器的未来,包括所谓的“杀手机器人”和英国反对禁止发展自主武器的禁令,尽管各种压力团体呼吁停止杀手机器人运动

•卫报将机器人视为武器:人为因素•DeepMind:'人工智能是人类可以控制和引导的工具'

上一篇 :雷德利斯科特瞄准墨西哥毒品战争惊悚片卡特尔
下一篇 当天最佳照片当天的照片集