2021年,中国提议全球禁止无人武器,相关提案被美国带头否决
繁体2025年九三阅兵期间,中国拿出了大量的高精尖无人武器,不仅让中国人震惊了,而且让全世界都震惊了。
93阅兵展示的无人作战装备体系
陆上无人作战方队
◇ 侦打突击车:具备侦察攻坚能力,可远程操控与有人装备协同作战。
◇ 扫雷排爆车:采用履带式底盘适应复杂地形,降低人员触雷风险。
◇ 班组支援车:配备机枪与反坦克导弹,提供前线火力支援。
海上无人作战方队
◇ 隐身无人艇:全内倾隐身设计,配备30毫米主炮与多用途舱,兼具侦察监视与集群攻击能力。
◇ 无人潜航器:具备隐蔽布放封锁与自主探测能力,可执行水下封锁任务。
◇ 无人布雷系统:与无人艇协同,实现智能化海上封锁。
空中无人作战集群
◇ 察打一体无人机:具备长航时巡航与精确打击能力,覆盖半径超1500公里。
◇ 隐身无人僚机:飞翼布局设计,可与歼﹣20协同形成6机编队,承担高危空战任务。
◇舰载无人直升机:适配航母编队,执行海上侦察与快速打击任务。
别的不多说,就那个所谓的班组支援车,带机枪带反坦克导弹。
这不就是个无人坦克,虽然在中国只叫“班组支援车”,听起来土土的,但要是换成欧美肯定给起一个狂霸酷炫拽的名字。
而这么科幻的无人坦克,只是中国庞大无人武器集群的一小部分。
虽然无人武器很厉害,但发展无人武器实际上是有道德枷锁的。
因为无人武器的本质是杀手机器人,而全世界绝大部分国家都是强烈反对杀手机器人的。
早在一个世纪以前,全人类就在忧虑杀手机器人出现后被颠覆的世界规则,美国科幻小说作家阿西莫夫在1941年就提出了机器人三定律,享誉世界并得到了普遍认可。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
根据阿西莫夫的设想,机器人三定律应该被写死在机器人的底层逻辑中,任何情况下不得违反。
而杀手机器人以击杀人类为目标,很明显的违反了阿西莫夫的机器人三定律。
自2014年开始,联合国就开始普遍讨论杀手机器人(全称致命性自主武器系统,即LAWS)的危害,并有大量国家推动彻底封杀人类对LAWS的发展,因为此时人类部分国家研发的LAWS已经看到了成功的曙光。
反对LAWS的国家很多很多,而且提出了很多的正当理由。
反对者认为,杀手机器人将"决定生死"的权力交由算法,违背了"人类生命神圣性"的基本伦理原则。
《日内瓦公约》明确约定要对平民和士兵进行区分,但杀手机器人在战场上识别目标可能因数据偏差误伤平民,而算法只考虑战争利弊,无法像人类一样进行道德权衡。
同时欧美的康德伦理学强调"人不能作为工具",而杀手机器人却将人类生命变为算法输出的结果。
同时杀手机器人责任归属模糊,一旦杀手机器人在战场上造成了误杀,那么无法进行追责,因为杀手机器人无法承担法律责任,而开发者、指挥官和算法设计师都是无责的,责任具体归属于谁,认定是很困难的。
同时杀手机器人的出现还会降低战争的门槛,导致战争决策可能更轻率。2016年美国哈佛大学的研究结果显示,拥有LAWS的国家更易发动先发制人打击,因为无需承担士兵伤亡的政治代价。
而以色列哲学家尤瓦尔◇赫拉利则明确指出:"用机器杀人会剥离战争的道德重量,使暴力行为像电子游戏一样被轻描淡写。"
2017年,美国媒体曾报道说美军操作员向记者透露,说无人机袭击后"下班接孩子"的割裂感加剧了道德麻木。
总之,大力发展杀手机器人是被大量国家广泛认为不道德的,其中美国和以色列为此提供了大量的理论支撑,随时准备批判发展杀手机器人的国家。
对于美国和以色列的态度,中国表示完全理解并强烈支持。
2021年,中国在《特定常规武器公约》(CCW)第六次审议大会上,明确提出对杀手机器人(致命性自主武器系统,LAWS)的禁止立场,并提出了五大禁止理由。
第一,中国认为杀手机器人违反国际人道法基本原则。
中国援引了《日内瓦公约》及其附加议定书,强调自主武器系统存在三大法律缺陷:
比如自主武器系统无法可靠区分战斗人员与平民,在依赖图像识别的自主武器在复杂战场环境(如城市巷战)中,可能因算法漏洞误判平民目标。
比如自主武器系统难以评估攻击的"比例性",机器无法像人类指挥官一样权衡军事必要性与附带损害(如医院、学校等受保护场所的识别)。
比如自主武器系统缺乏"人性化判断"的伦理能力。
中国代表团特别指出,算法无法理解“恻隐之心”,而这是战争法的精神内核。(中国大使李松发言原文)。
第二,中国认为杀手机器人破坏全球战略稳定。
杀手机器人的诞生会显著降低战争门槛,中国提交的工作文件列举了大量的证据,警告世界各国自主武器可能诱发"先发制人"的军事冒险行为,尤其在小国与军事强国之间制造安全困境。
中国还特别拿美国"无人机蜂群"和俄罗斯"铀-9"无人战车举例子,指出技术扩散将迫使各国卷入"自主武器竞赛",重现核军控困境。
第三,中国认为杀手机器人存在技术失控的现实风险
中国从工程学角度提出了三项质疑。
首先,杀手机器人的算法存在不可靠性,其深度学习存在“黑箱问题”,训练数据的偏差(如数据集过度偏向特定人种)可能导致系统性误杀。
然后,杀手机器人存在网络安全隐患,自主武器系统可能被黑客劫持,甚至被恐怖组织逆向破解夺取控制权,然后引发不可控的灾难。
最后,杀手机器人存在战争适应性缺陷,无法应对复杂电磁环境或欺骗性战术,在伪装目标以及电子干扰下,可能出现不可预知的情况。
第四,中国认为杀手机器人存在责任机制真空。
中国强调现有国际法无法解决追责主体缺失的问题,当自主武器误伤平民时,程序员、制造商、指挥官的法律责任难以界定,现行战争罪条款(如《罗马规约》)未涵盖机器自主决策场景。
第五,中国认为杀手机器人违背了人类伦理和技术发展初心。
中国以欧美的康德伦理学为证据,认为将人命交由算法决定等同于物化人类。
而游戏化的界面将大幅降低杀戮的心理负担,这可能导致社会认知扭曲,引发严重人道主义灾难。
中国站在道德的角度,站在以仁心治世的角度,以上面这五大原则为核心,列举了大量的证据,整理成了厚厚的文件提交给了联合国,并经过沟通和协调,得到了125个成员国的赞成票支持。
眼看着禁止发展杀手机器人的提案就要通过,反对者出手了。
在这场投票上,美国、俄罗斯、以色列和印度等国家投出了反对票,否决了中国提出的在全球禁止发展杀手机器人的提案。
美国和以色列的代表先后发言,认为使用“杀手机器人”可以减少的士兵的伤亡,可以减少战争的惨烈,是“人道主义”的体现,反而禁止发展杀手机器人,非逼着人类上战场才是不人道,不道德的行为,所以道德的美国和以色列投票反对。
对于美国和以色列的发言,英国、俄罗斯和印度等国认为说得对,发展杀手机器人,避免人类上血腥的战场才是道德的人道主义行为。
美国、英国和俄罗斯是联合国的五大常任理事国,都有一票否决权。
这三个国家表态反对,那这个提案肯定是通不过的,提案要求的全球禁令注定无法实施。
因为这一些国家的反对,全球范围内禁止发展杀手机器人的国际立法进程受阻,中国的提案被作废。
面对这一现实,中国表示非常遗憾。
然后中国表示既然木已成舟,那为了维护国家安全,中国将不得不加强在人工智能军事应用领域的研究,以确保自身防御能力,同时中国再次强调国际社会应共同规范人工智能的军事应用。
2024年,中国解放军全球“遛”机器狗,美国众议院议员在国会发言,声称无法接受解放军装备武装机器狗。
2025年9月3日,中国大批无人军事武器亮相,数量和种类都太多太多,美国议员连发言称“无法接受”的心情都没了。
但连道德谴责都没办法做,因为中国已经搞足了程序正义。
严格来说,中国九三阅兵所展示的大批无人武器,都是按照美国的要求进行发展的。
因为中国已经带头反对了,还要求全球范围内严格禁止,还沟通拉拢了全球125个国家投赞成票,只是相关提案被美国带头否决了而已。
来源:远方青木