AI武器:未来战争的全面升级
文/张田勘
发于2019.10.14总第919期《中国新闻周刊》
9月14日,沙特国家石油公司,即阿美石油公司的布盖格炼油厂及胡赖斯油田两处石油设施遭到无人机和导弹袭击,导致沙特每天大约570万桶的原油产量暂停供应,这占到了沙特产能的50%,也相当于全球5%的石油日消耗量。无人机袭击的一个直接后果,是国际油价应声而涨,16日一度飙升近20%。
9月18日,沙特国防部公布石油设施受攻击的详情。在此次袭击中,攻击方使用了18架无人机和7枚导弹。
此前,中东地区的无人机大战已经在各派之间频频展开。无人机(UAV)是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,或者由车载计算机完全或间歇自主地操作的飞行器和武器,因此它是AI产品。也许,无人机的加入战争和进一步改进,将与核武器的攻击力旗鼓相当,甚至更厉害。
无人机加入战争意味着,AI深度加入战争的时代已经来临,且将导致重大的伤害和全面的战争升级,AI不介入军事或战争的承诺已沦为笑话,潘多拉的魔盒已经被打开。
无人机加入战争是对人类已经意识到并愿意遵循的伦理的违背。人类在20世纪的核武器研发与应用曾一度是无意识的。提出了曼哈顿计划的爱因斯坦后来曾说,如果知道原子弹能造成如此大的伤害,是决不会写信给美国总统罗斯福建议研发原子弹的。
当今,全球最大的一些科技公司都提出了关于AI的伦理原则,其共同点就是不用于军事和战争。2017年,116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动禁止“自主杀人机器”(恐怖武器或智能武器)。此后,美国太空探索技术公司(SpaceX)CEO马斯克与全球2400名机器人研发人员在斯德哥尔摩宣誓称,“绝不参与致命性自主武器系统的开发、研制工作。”微软员工也提出,反对参与美军项目,因为这不符合公司AI伦理原则。
2018年4月,3000多名谷歌员工向谷歌首席执行官桑德尔·皮查伊联名上书,反对该公司参与五角大楼的军用人工智能Project Maven项目。这个项目是利用机器人深度学习和人工智能分析、应用计算机视觉技术,帮助美国国防部从图像和视频中提取识别重点对象目标。由于员工的反对,谷歌被迫做出决定,在Project Maven合同2019年到期后,不再与五角大楼续签。
然而,仅仅一些人和一些公司遵守“AI不加入军事不用于战争不杀人”的伦理准则是不够的,现在无机人机频频参与战争,袭击人类住所与重大经济目标,已经说明当今AI的伦理是非常脆弱的。2019年4月7日,谷歌新成立的AI伦理委员会只存活了不到10天即宣告解散,原因之一是,无人机公司首席执行官吉布斯(Dyan Gibbens)加入伦理委员会后,重组了自己公司的旧部门,试图将AI用于军事领域。这一行为遭到了谷歌员工的反对,这说明,由公司发起的伦理委员会根本无法阻止这一势头。
军事人员与一些科研人员支持AI武器的理由是,AI介入战争是为了避免大规模伤及无辜,如像核武器不分青红皂白地杀死平民和常规武器地毯式轰炸滥杀无辜。所以,如果真是为了和平,就用精确制导武器消灭敌人来制止战争。因此,AI武器的出现和加入战争,是战争的第三次革命。
然而,实际上,无人机加入战争只会更肆无忌惮地袭击军事目标以外的民用和经济目标,现在,沙特两处石油设施遭无人机攻击已是最好的证明。尽管这次袭击未造成人员伤亡,但对沙特经济和全球石油供应的影响是持续而深远的,这也向世人公开展示,要想取得军事胜利与实现政治目标,使用更新更好的AI武器是首选。
无人机会加剧未来战争的残酷程度。2017年11月12日,一部由美国加州大学伯克利分校的教授斯图尔特·拉塞尔与生命未来研究所合作拍摄的一部虚构影片开始在网络上传播。影片里,一种手掌大小的无人机杀人武器(Slaughterbots)配备了面部识别技术并携带炸药,先由一架或几架无人机炸开围墙,后面的无人机进入大学和国会,通过面部识别,对准锁定的目标大学生与国会议员进行爆头屠杀。
虽然这只是虚拟场景,但在不远的未来,小型无人机都可以配备人脸识别系统及聚能炸药,在程序输入后,可根据命令单独作战,或集群作战,寻找和杀灭已知的个体或类似具有统一特征的人群,让每个人无法逃脱大屠杀。这样的AI武器比起原子弹来甚至更为厉害——至少原子弹爆炸时人们还有地下掩体可以保护,但在未来,任何人都无法逃脱AI武器的精准追杀。
依靠人脸识别技术追杀人的无人机,也还属于初级的人工智能武器。根据对人工智能的分类,目前的AI武器可以分为三类。一类是完全由人类决定并由人远程操作的无人机,现在美国的MQ-1“捕食者”侦察机就是代表。
第二类是机器人可以自己做一定的判断,但在执行任务期间,人类可以中断或取消无人机的任务,如以色列的“哈比”自杀式无人机就属于这一类。加州大学的拉塞尔教授所演示的无人机炸弹也属于这一类。上述两类武器都已经用于实战。
第三类,是人类完全不参与决策过程的自主型杀手无人机或机器人。这类机器本质上还是要由人来决定,即由人编程并在一定程度上让无人机自己决策,但是,这类无人机的最大隐患在于,可能出现程序错误而导致误伤,自主判断做出人类意想不到或不会让其进行的行动,如扩大打击范围和强度。另外,如果这类武器扩散到恐怖分子手中,会造成更大灾难。
AI武器的这三种分类也来源于人工智能的三种分类:弱人工智能,只能完成某一项特定任务或者解决某一特定问题的人工智能;强人工智能或通用人工智能,可以像人一样胜任任何智力性任务的智能机器;超人工智能或超级智能,可以像人类实现智能上的生物进化,对自身进行重编程和改进,即“递归自我改进功能”。
目前,在技术上,用超人工智能来打造杀人武器尚难以实现,但现有的两类人工智能武器已经显示了比常规武器更大的杀伤力,而且,由于可能出现程序错误,谁也不能保证无人机和机器人武器不会滥杀无辜。现在已经到了正视AI武器的危害并制定禁止AI武器规定的时候了!
迄今为止,联合国已经有《禁止核武器条约》《不扩散核武器条约》《关于禁止发展、生产、储存和使用化学武器及销毁此种武器的公约》《禁止细菌(生物)及毒素武器的发展、生产及储存以及销毁这类武器的公约》等条约,唯独没有禁止AI武器的国际法。
美军曾明确表示不会禁止使用无人自动化武器,包括无人机、无人船舰等。他们提出的一个相当有力的理由是,当人们尚未完全了解AI武器时就要求禁止使用它,此举无异于杞人忧天。实际上,美军非但不会禁止,还会大力推广AI武器的使用。
在这样的背景下,即便国际社会愿意探讨控制与禁止AI武器,可能也不会获得广泛支持和达成共识。人们还担心,制定了禁止AI武器的国际公约,可能也无法阻止有人研发AI武器和使用AI武器。AI武器对未来人类战争的影响目前还难以估量,但必将是重大而深远的。
《中国新闻周刊》2019年第37期
声明:刊用《中国新闻周刊》稿件务经书面授权