新华网 > > 正文

霍金:彻底开发人工智能可能导致人类灭亡

2016年05月19日 07:58:20 来源: 解放军报

    今年3月的“人机大战”过后,一些军事专家预言,未来战场上,人类和机器人、机器人和机器人作战的场景将会成为常态。近日,美国国防部一名官员对媒体表示,随着军事活动向智能化延伸,最终可能导致机器人能够自主地决定使用武器。

    随着技术的不断进步,制导炸弹逐步完成由“精确化”向“智能化”的过渡。美国装备的第四代制导炸弹——JDAM“联合直接攻击弹药”采用了更为先进的惯性制导全球定位系统卫星制导技术,炸弹上安装的接收器能够接收导航卫星传来的信号,随时了解自己的方位,在接收到攻击目标的坐标之后,炸弹就“知道”该向什么方向飞行,完全实现了“发射后不管”,“人工智能”的特性凸显。

    理论物理学家霍金告诫人们:“彻底开发人工智能可能导致人类灭亡。”尽管被媒体热炒的“机器终结论”看起来像是杞人忧天,但军事智能化无疑是一把“双刃剑”。比如,无人机的大量使用给美军带来了巨大战争收益,美国媒体曾大肆吹捧无人机反恐是“最人道的战争形式”,但由于打击授权的门槛设置过低和无人化作战平台自身的不可靠性,相关作战行动造成了一种事实上的武力滥用行为,导致了大量平民伤亡。早在2013年,巴基斯坦官方就曾宣布,自2008年以来,美军在巴境内共发动了300多起无人机空袭,造成超过2000人丧生。同一时期,国际组织发布报告称,美国在巴基斯坦、也门两个国家的无人机轰炸,造成大量平民死亡。对此,战争专家P.W.辛尔提醒人们,无人机战争造成了美国人“战争不需要付出代价”的错觉。美国前中情局律师维基.迪沃尔在《纽约客》杂志上表示:“机械化的杀戮,仍然是杀戮。”

    再比如地面战斗机器人。毋庸置疑,战斗机器人具有持续作战时间长、反应能力快、生存能力强等特点,特别是在执行危险任务时,无惧牺牲、执行命令彻底,与人类战士相比具有巨大的优势。但机器没有情感、没有理性、没有是非判断,只是对指令“无条件”地执行,客观上存在“临阵倒戈”的可能。2007年10月,美军第三机步师一部带着3台“利剑”机器人进攻一个反美武装盘踞的据点时,由于没有及时更换软件,其中一台“利剑”竟把枪口瞄准美军操作者,而且无论操作员如何发出“行动取消”的指令,失控的“利剑”就是停不下来,直至一名美军上尉用火箭筒把它炸翻才化险为夷。

    军事智能化,在带给世界惊喜的同时,也极有可能是人类未来战争中挥之不去的“魔咒”。(张凤坡 易磊)

【纠错】 [责任编辑: 王楠楠 ]
新华炫闻客户端下载

相关稿件

010020030330000000000000011199071289962171