人工智能军事对抗技术发展趋势

转自公号人工智能学家2019-12-25

来源:战略前沿技术

人工智能军事对抗技术

人工智能(AI)作为新一代科技革命的典型代表性技术,目前已在世界各国的工业、金融、娱乐和公共安全等领域广泛应用,而其在军事领域的应用也正在快速发展。随着人工智能技术与军事知识与应用的迅速结合,新型智能化决策算法、无人化武器装备将在军事中普遍运用,信息和算法对抗将发展成为未来军事行动中的主流场景。为应对对抗新形势,一方面需要利用AI技术研发新型军事装备,另一方面要了解对手所可能采用的AI对抗技术和装备,并寻找其中的算法漏洞,研发相应的防御和反制AI措施也尤为重要。军事AI将在这种攻与防的环境中不断发展。

1、人工智能对抗技术概述

近年来,人工智能在人脸识别、图像识别等民用领域已广泛应用,在发挥诸多正面作用的同时,黑客也在逐步利用AI的漏洞实施定向攻击。例如,黑客攻击手机刷脸解锁,戴上制作简易的拥有伪装效果的眼镜,就可以攻破人脸识别算法解锁他人的智能手机;黑客利用深度伪造DeepFake算法伪造奥巴马、特朗普、扎克伯格等多位政要名人发布虚假观点的视频在社交媒体上大量传播。这些AI对抗技术一方面能够欺骗AI模型给出攻击者意图的计算输出结果,另一方面可以制造以假乱真的伪造内容欺骗目标受众,因而这些技术对国家社会的安全稳定造成了巨大威胁。

2、军事人工智能算法漏洞对抗场景及对策

AI图像识别系统已在军事场景中广泛应用,可被用于遥感卫星和无人飞行器自动侦查、自动确认攻击目标乃至武器装备的AI辅助瞄准系统等。然而,当攻击者利用了AI图像检测或识别算法模型的漏洞,在装备目标上加装特定伪装图案后,便可对卫星、无人飞行器和各类智能装备背后所依赖的军事图像识别系统进行攻击,使其无法正常识别视频图像内容,无法正常工作。这类对抗技术中最典型的针对图像AI模型的攻击技术称为对抗样本攻击。图一所示,通过对图片添加轻微扰动噪音,AI模型便产生了错误的分类结果,将熊猫识别成为长臂猿。现实图二所示,测试者和测试卡车通过携带由对抗样本生成的特殊图案,即可成功逃过AI模型的检测识别。现实应用中,攻击者可以利用类似的方法,使图像识别系统将视频中的军事武器识别或个人识别为无害的物体,亦或是无法识别出带伪装的武器或人员。

(图一)

(图二)

军事单位通过这类反智能化的对抗样本技术,可以对自身装备和建筑进行伪装,实现AI隐身迷彩服、AI隐身军事装备、AI隐身建筑等,具体操作示意图如下:

图三

加装这些反智能化伪装的军事装备可以逃避对手的AI自动侦查和打击,保证自身在智能化作战中抢占先机。

而当敌对方的军事装备采用了以上AI对抗技术,我方则需开发相应的漏洞防火墙来加固自身AI系统,实现对这类反智能的“AI隐身”目标的有效侦查。目前的防御方案主要分为两种:数据预处理和对抗训练。数据预处理即通过对图像数据中的攻击噪声进行识别并过滤掉,来达到防御的效果。对抗训练即通过将对抗样本图像数据和正常图像数据放到模型里训练,进行有监督学习,得到安全加固后的模型。

3、AI伪造情报问题及对策

目前的军事自动情报系统会对互联网上的文本、视频进行自动采集和分析,以获取相关情报。而针对图像场景,以DeepFake为代表的基于深度学习的视频伪造技术发展迅速。如图三所示,现在已经可以实现通过对伪造目标人脸照片的学习,实时地将伪造者的行为以被模仿者的形象输出,令人真假难辨。这类假冒政要的虚假视频以及其他采用AI技术伪造特定情报可以误导情报分析人员得到错误的分析结论,对战局产生重大影响。

图四

对于虚假视频的检测,较早的方案是通过对视频中人脸细节的检测以进行判别,例如是否长时间不眨眼、脸部有不自然高光等。在伪造技术进一步发展后,对于以上细节的模仿也越来越逼真,导致检测难度提升。目前检测方法主要依据深度学习的方法进行检测:利用大量的伪造视频和真实视频,让算法模型通过学习的方式自动学习出两者的差异,然后获得分辨视频真假的能力。

4、人工智能对抗技术发展趋势

目前各类攻击、伪造技术正在快速发展中,且呈现出训练需要的原始数据需求越来越少、生成时间越来越快的趋势,导致攻击门槛越来越低。面对AI安全威胁,2019年美国国防部高级研究计划局(DARPA)发起了一项针对媒体取证的研究计划(名为Media Forensics)以加速虚假数字视觉媒体检测方法的开发。除此之外,国外市场也涌现出了AI安全公司(如Claypso AI)提供针对有关政府部门的AI模型攻击测试、模型加固服务。针对这种新形势,我国也已有科研单位与领先科技公司(如RealAI瑞莱智慧)在这一领域开展基础研究与应用开发,并在人工智能对抗国际比赛中取得领先成绩。随着AI对抗的不断深入,这一新的竞争领域将越来越显示出其重要性。