要闻 军评 图片 武器 秘闻 航空

28国明确禁止使用的自主武器,新消息披露,美研究“杀人机器人”

强国兵器 2019-09-19 16:31:12
A+ A-

28国明确禁止使用的自主武器,新消息披露,美研究“杀人机器人”

据外媒最新消息,劳拉·诺兰,一位前Google顶级软件工程师,辞职后参加了反自主武器研究,并向世人曝光了她的秘密工作:2007年她被派去开展一项大幅提升美国军用无人机技术的项目。她的工作是建立一个能够以无限快的速度区分人和物体的人工智能机器(AI)。危险就潜伏在AI之中。

诺兰披露,他们的研究与离单纯地控制无人机已越走越远。与由军事小组控制,通常距飞行武器部署地点数千英里的无人机不同,他们制造出来的新一代自主武器(常被称为“杀手机器人”)有可能做出“他们的编程中没有的灾难级事件”。

“比如,你可能会遇到这样一种情况:派出的AI武器发现了一群似乎是敌人的武装人员;但他们只是正在寻找食物的普通人。机器没有人类所具有的辨别力或常识。”它可能会对着这些平民进行攻击,后果不可挽回。

28国明确禁止使用的自主武器,新消息披露,美研究“杀人机器人”

在此之前就有专家认为,“自主武器系统的风险程度远高于人类操控的等效半自主武器”。鉴于AI系统缺乏人类适应新环境的灵活性,在意外情况下,它们可能会犯下人类不会犯的错误。这种风险体现在两个大方面。

首先,在战斗行动中,敌人可能会试图操纵武器系统。通过“欺骗”进行对抗性攻击——发送虚假数据,或进行黑客攻击——利用可预测的行为来“欺骗”系统以某种方式执行,或者通过直接接管系统导致武器故障。

例如2015年,计算机黑客远程骇入无人驾驶的“自动驾驶汽车”,并控制了转向和制动等重要驾驶功能。如果“汽车”变成“武器”,技术被有心之人利用,枪口是否会指向平民?

28国明确禁止使用的自主武器,新消息披露,美研究“杀人机器人”

其次,复杂的环境可能意外导致致命错误。据报道,在越过本初子午线时,F-22喷气式飞机在技术上遇到了困难,导致所有机载计算机系统关闭,造成了几乎灾难性的飞机损失。而随着系统及其环境变得更加复杂和不确定,致命错误的可能性也会增加。

那么,如何训练AI系统检测微妙的人类行为(比如猎人和叛乱分子之间的区别)?目前的科技还不能给出令人满意的答案。而诺兰说,将无人机的控制权交给AI“现在只是一个软件的问题”,“可以相对容易地解决”。这意味着,只要美军方愿意,就可以轻易制造出许多这种有极度危险的AI机器。

虽然有28个国家和数千名科学家和人工智能专家明确支持禁止使用完全自主武器,但美国仍在继续。美国海军的AN-2Anaconda炮艇,是一艘正在开发的“具有人工智能能力的完全自主的船只”,可以“长时间在一个地区行动而无需人为干预”。

28国明确禁止使用的自主武器,新消息披露,美研究“杀人机器人”

同时,美国五角大楼称海上猎人自主战舰是机器人战争的重大进步。他们已经发射了一个非武装的40米长的原型机,可以在没有任何机组人员的情况下进行两到三个月的海面巡航。

智能和国防咨询公司ASRCFederal提出建议,“像化学武器和生物武器一样,对于武器化的人工智能,唯一的胜利就是不能发挥作用”。在安全隐患被确保完全排除之前,美国研究极度危险的杀人机器人是对整个人类社会和人类文明的不负责任。(于洪)

点击查看全文(剩余0%)

热点新闻

精彩推荐

加载更多……