新华网 > > 正文

无人作战:谁有最终“开火权”

2017年08月11日 10:40:24 来源: 解放军报

    原标题:没有机器人,人将变为机器;有了机器人,人仍然是主人——

    无人作战:谁有最终“开火权”

    人与武器的关系,是战争领域永恒的话题,影响着战争全局。特别是随着人工智能技术的不断成熟以及未来无人自主作战平台的大量运用,无人作战将成为一种颠覆性的新型作战样式。正如美国《21世纪战略技术》中所说:“20世纪的核心武器是坦克,21世纪的核心武器是无人系统。”

    如果无人作战系统被赋予“生杀大权”,完全由机器替代人作战,实施“机器人代理战争”,就可能如英国物理学家霍金所言,自主机器人会像“人类无意中踩死一只蚂蚁”那样伤及人类。这也是到目前为止,人类始终不下放“开火权”的主要原因。

    战场需求+技术驱动——

    无人作战已经“蜂拥而至”

    有战争就有流血,有暴力就不可避免伤残和死亡。既要打仗,又怕伤亡,最好的办法是寻找替身。无人作战系统正是由于“平台无人”,不存在作战伤亡的问题,因而适用于执行各种高危险和人员难以承受的复杂环境任务,甚至完全取代士兵冲锋陷阵,完成有人作战力量无法完成或不便于完成的任务。比如,在高原、高寒、深海等环境下抵近目标执行侦察、干扰、攻击等任务。

    正是基于“零伤亡”的优势,无人作战系统几乎参与了自越战以来的历次主要战争,且数量规模愈来愈大。比如,在阿富汗战争中,无人机和地面机器人的投入数量都创下了历史之最,并且改写了无人作战史上多项纪录。其中,地面机器人与士兵的数量比例达到1∶50,美军操纵的机器人甚至超过了装甲战车,有人曾夸张地将阿富汗战争称为人类战争史上第一次“机器人战争”。

    在战争需求的刺激下,无人作战技术不断完善和提升,无人作战系统行动空间已拓展至陆上、海上、水下、空中、临近空间,任务领域已涵盖侦察监视、电子干扰、通信中继、引导评估、排雷排爆、物资运输、火力打击等有人作战的任务领域,而且其多能化、精确化和智能化不断提升,已经成为主要军事强国武器装备发展的重点方向。

    美军每两年发布一次《无人系统路线图》,计划未来10年内拥有的地面作战机器人超过陆军士兵数量,到2020年约有1000艘无人潜航器参与水下作战,到2025年90%的作战飞机将是无人机。依据《2025年先进军用机器人技术装备研发专项综合计划》,俄军于2017年开始大量列装机器人,到2025年无人系统在俄军装备结构中的比例将达到30%,其中无人机将占空军飞机总数的40%。

    可以说,无人作战作为全新的作战方式,已经不再是战争舞台上悄然出演的“新童话”,而是信息化战争中频繁上演的“常态剧”。

    有限自主+适时调控——

    无人作战终为“人机协同”

    无论无人作战系统如何高度智能化,人作为主导因素没有变,改变的只是人与武器装备的协作方式。未来的无人作战与有人作战之间应是各取其长,也就是“谁能干什么就让谁干、谁干的更好就让谁干”,联合行动、联动作战,最终达到“互补增效、整体释能”,共同完成作战任务。

    在战略战术设计上,以人为主。“用兵之具,尽于人事”。未来无人作战中,根据作战目的、作战对手、战场环境等,在作战力量编成部署,作战时机、打击目标、作战方法选择,作战规模、作战强度、作战节奏掌控等都要由人主导。而无人作战力量可“拥有一定程度的自主权——可调节自主权、受监督的自主权或者任务允许的完全自主权”,按照为其设定作战程序、交战规则、自主权限,独立完成具体作战任务,充分发挥自身优势,为有人作战行动创造条件。

    未来无人作战,人机协同是最主要的运用方式。在有人与无人作战力量的协同模式上,一是以无人作战力量为先锋,实施侦察监视、障碍排除、火力摧毁等,破击作战体系、形成有利态势,为后续有人作战开辟安全走廊;二是将有人与无人作战力量混合编组、协同行动,以少量有人力量指挥大量无人作战力量行动,共同遂行多样化作战任务,或以无人作战力量伴随行动,为有人作战提供立体警戒、火力支援和物资补给等。

    目前,美军正在进行“有人-无人”协同作战试验,以C-130为“空中母舰”释放并指挥无人机群作战,或以F-35战斗机为中心平台控制武装无人“僚机”作战,或以M113装甲车为机动控制站指挥地面机器人战斗。

    失控风险+伦理约束——

    必须保留最后“拔插销”的权力

    当前,各类无人作战平台主要在后方人员的操控下,以“半自主式”模式单独或少量协同执行任务。但随着无人作战力量规模化运用,这种模式将难以应对复杂多变的战场环境,容易错失战机、制约作战效能发挥。

    研究表明,一个操作手同时控制两台机器人时,会使其性能平均降低50%。这就需要赋予无人作战系统较高的自主性,能够基于人工智能进行自动搜索、跟踪目标,自主识别环境选择机动路线,独立完成侦察、定位、攻击等任务。高度智能化有时可能是高度“傻瓜化”,存在因系统失效而失控的风险,特别是复杂战场环境下,更容易出现识别错误、通信降级甚至被敌电磁、网络攻击后“倒戈反击”等。

    从2005年伊拉克战场上美军“剑”战斗机器人无故将枪口指向己方指挥官,到2011年伊朗捕获美军RQ-170“哨兵”无人侦察机,无人作战系统失控风险一直伴随着无人作战的运用。

    人与武器装备的关系,不仅是作战问题,更涉及战争伦理问题。如何保证攻击目标的合法性?在出现对平民目标攻击时,谁愿意承担作战风险并合理区分责任?这都是无人作战系统运用中涉及的战争伦理问题。同时,人们也担心,一旦完全自主化无人作战系统的智力超过人类,将可能上演真实版《终结者》的场景,人类被完全排斥在“作战链”之外而束手无策,这可能是灾难性的。

    正因如此,无人作战仍需“人在回路”,留在作战“控制圈”内,并保留最后“拔插销”的权力。目前,美军在研制自主化武器系统时,为防止因其失效导致意外交战,要求“必须设计为在发挥效能时,允许指挥人员或者操作人员行使适当层级的判断”,并能够在必要时激活或者解除系统功能。(赵先刚 李植)

【纠错】 [责任编辑: 蔡琳琳 ]
新华炫闻客户端下载

相关稿件

010020030330000000000000011199031296783411