奥鹏易百

 找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 373|回复: 0

卷积神经网络在雷达自动目标识别中的研究进展

[复制链接]

2万

主题

27

回帖

6万

积分

管理员

积分
60146
发表于 2021-2-13 16:04:21 | 显示全部楼层 |阅读模式
扫码加微信
卷积神经网络在雷达自动目标识别中的研究进展
贺丰收*①② 何 友①③ 刘准钆① 徐从安③
①(西北工业大学自动化学院 西安 710129)
②(航空工业雷华电子技术研究所射频综合仿真实验室 无锡 214063)
③(海军航空大学信息融合研究所 烟台 264001)
摘 要:自动目标识别(ATR)是雷达信息处理领域的重要研究方向。由于卷积神经网络(CNN)无需进行特征工程,图像分类性能优越,因此在雷达自动目标识别领域研究中受到越来越多的关注。该文综合论述了CNN在雷达图像处理中的应用进展。首先介绍了雷达自动目标识别相关知识,包括雷达图像的特性,并指出了传统的雷达自动目标识别方法局限性。给出了CNN卷积神经网络原理、组成和在计算机视觉领域的发展历程。然后着重介绍了CNN在雷达自动目标识别中的研究现状,其中详细介绍了合成孔径雷达(SAR)图像目标的检测与识别方法。接下来对雷达自动目标识别面临的挑战进行了深入分析。最后对CNN新理论、新模型,以及雷达新成像技术和未来复杂环境下的应用进行了展望。
关键词:自动目标识别;目标检测;合成孔径雷达;卷积神经网络
1 引言
雷达具有较好的穿透特性,可全天时,全天候使用。雷达工作在成像模式下,可实现远程遥感,战场侦察和目标识别。雷达成像技术根据应用场景有所差异:对空/天目标成像主要使用高分辨距离像(High Range Resolution Profiles, HRRP)技术;对地面和海面目标成像主要使用合成孔径雷达(Synthetic Aperture Radar, SAR)成像技术。为了获取更为精确的信息,成像后还需要进行图像的解译,识别感兴趣的目标。传统的人工图像解译效率低,错误率高,耗费资源多,不满足时间敏感性应用需求。
当前主流的自动目标识别(Automatic Target Recognition, ATR)方法是基于模板的方法和基于模型的方法。基于模板的方法,其核心在于特征的提取和选择,需要有深厚的领域知识作为基础。基于特征的方法本质上是一种特征空间的稀疏处理方法,一些隐含的但可能关键的特征并不能被有效利用,限制了其性能提升。而基于模型的方法的核心在于目标模型设计。将目标电磁散射特性设计到目标模型之中,通过高频电磁计算软件模拟电磁波照射在目标的散射过程,实时预测目标在不同姿态、配置和环境条件下的图像或特征。但这种方法太过于依赖目标模型信息的获取。
基于大数据的深度学习方法提供了一条无需进行手动特征工程和目标建模的全新技术路线。2012年,在ImageNet竞赛上(Imagenet Large Scale Visual Recognition Competition, ILSVRC),深度学习方法以绝对优势取得冠军[1],掀起了深度学习的热潮。深度学习的诸多方法中,卷积神经网络(Convolution Neural Network, CNN)已经成功地应用于人脸检测、行为识别、语音识别、推荐系统、图像分类和自然语言处理等众多领域。卷积神经网络不需要进行复杂的手动特征提取和使用,避免了对图像进行复杂的前期预处理,能够识别出图像潜在的特征,具有优良的图像分类和识别能力,引起了雷达图像处理领域研究者的高度关注。CNN被认为是雷达ATR的重要发展方向,已成为了新的研究热点。
文章余下部分的结构组织如下:第2节介绍雷达图像的特性,分析了传统ATR方法的缺陷;第3节介绍了CNN的原理、构成和历史进展;第4节为本文的重点,介绍了常用的目标识别数据集,详细分析了CNN在当前雷达目标检测与目标识别领域的进展情况;第5节分析了雷达ATR面临的挑战;第6节展望雷达ATR未来的发展趋势;第7节为结束语。
2 雷达自动目标识别
2.1 雷达图像特性
不同于光学图像处理,雷达图像解译和信息获取必须基于对基本的电磁(Electro Magnetic, EM)散射机制的理解。光学图像和雷达图像的差异如表1所示。
相比于光学图像,雷达自动目标识别在全天时,全天候和探测距离等方面具有显著优势,但也面临着一些挑战如:图像纹理信息不显著,相干斑噪声严重,存在几何畸变和结构缺失,对角度的敏感性等等。
表 1 光学图像和雷达图像的差异

2.2 雷达自动识别的传统方法与缺陷
基于模板的识别方法的主要工作集中在特征库构建方面。传统的特征提取方法涉及基于空间、光谱、纹理、形态和其它信息,以手动设计的特征为主。典型的特征包括:纹理描述图、gist特征、尺度不变特征变换、梯度直方图、局部二进制模式等[2,3]。基于模板的方法符合直观理解,在计算量方面具有显著的优势。但基于模板的方法有明显的缺陷:(1)由于杂波异质性和运行环境等因素的影响,特征稳健性难以保证;(2)需要有丰富工程经验和理论基础知识来构建实用的特征库;(3)特征维数多,计算复杂,多特征维度间的关系不明确,特征缺乏充分的理论支撑,(4)缺乏智能推理能力来学习和适应动态环境,泛化能力较差;(5)在面对分层特征、不规则或者复杂决策问题时,分类方法可能会变得非常复杂[4]。
基于模型的方法主要工作量在于目标的物理模型构建,包括其外形、几何结构、纹理、材质等。对感兴趣目标的物理结构进行表征,贴近其物理本质,因此有更好的鲁棒性和通用性。基于模型的方法同样有明显缺陷:(1)需要获取目标模型的详细信息,在军事应用中实现比较困难;(2)物理模型仿真计算复杂,难以实时应用;(3)需要领域相关知识,结果受到特征提取和模板匹配技术的影响;(4)ATR系统无法自主学习SAR图像的最优分类特征[5]。
基于模板和模型的方法,都需要有深厚的领域知识来构建特征库或模型库。深度神经网络方法可从实测数据中习得目标的各种隐藏特征,无需构造复杂的高逼真度模型,也无需进行耗时的高频电磁计算,已成为当前雷达自动目标识别领域的新热点。
3 卷积神经网络(CNN)
3.1 CNN的原理
CNN是当前图像领域应用最为广泛的深度神经网络模型。CNN的学习过程中,有3个思想起到了重要的作用:稀疏交互、参数共享和等变表征[6]。稀疏交互减少了模型的存储需求,提高了它的统计运行效率;参数共享减少了卷积核中的参数数量,利用图片空间的局部相关性实现了自动特征提取;等变表征意味着每当输入发生变化时,输出都会以相同的方式发生变化,实现了图像特征的平移不变性。LeCun等人[7]于1998年提出了LeNet-5模型,它是第1个成功应用于数字识别问题的卷积神经网络。不含输入层在内,LeNet-5模型一共有7层,主要包括输入层、卷积层、池化层、全连接层以及输出层,如图1所示。

图 1 LeNet-5网络的结构示意图
3.2 CNN的组成
尽管CNN已经发展出了很多种不同的结构形式,但其基本的结构中都包含了卷积层,池化层和全连接层这3种类型的处理层。CNN的主要操作有:卷积、池化、全连接、非线性激活等。
卷积主要的作用是抽取特征,使网络具有一定转移不变性,也起到了降维作用。卷积层由多个不同的卷积核组成,每个卷积核用来计算不同的特征映射图,而多个不同的核描述了完整的特征映射图。卷积操作的参数共享机制缩减了模型的复杂度,使得网络更易于训练。
池化操作也被称为子采样或下采样,设定的池化窗口按着设定的规则,如求最大或求平均,在输入特征映射图中按顺序移动,输出特征图中的一个元素。主要起降维的作用,同时也使得神经网络对于小的位移和形变具有较好的鲁棒性[6]。
全连接层将前一层中的所有特征图连接到当前层的特征图,从而可以生成全局的语义信息,其本质上是一种感知器。
因为非线性性质使得网络具有一致逼近能力,而激活函数可将非线性性质引入到网络中。整流线性单元(Rectified Linear Unit, ReLU)避免了梯度消失问题,而且计算快,收敛也快,更易于学习优化,其单边特性更符合生物神经元的特征,使网络具有稀疏性,缓解了过拟合问题的发生,因此得到了广泛的应用。
3.3 CNN在机器视觉领域的研究进展
在图像分类和目标检测领域,CNN方法展现了强大的能力,在领域内的许多公开竞赛中取得了优势显著的结果。在LeNet-5模型的基础上,研究人员陆续提出了新的CNN的模型。下面以在ImageNet[8]上举行的著名的ILSVRC历年的竞赛结果为主线,重点关注目标分类任务竞赛,介绍CNN在图像处理领域的研究进展。
2012年,最具代表性的研究成果是Krizhevsky等人[1]提出的大型深层卷积神经网络AlexNet,以绝对优势夺取了竞赛冠军。2014年,Zeller等人[9]提出了反卷积网络可视化技术,并且据此提出了ZFNet模型体系结构,赢得了2014年的ImageNet分类挑战赛冠军。2014年,GoogleNet[10]赢得了2014年度ILSVRC冠军,Inception结构是其最大贡献,既增加了网络的深度, 又减少了网络参数,提高了对尺度的适应性和训练的效率。2014年的VGG[11]网络获得了ImageNet挑战赛亚军。2016年,He等人[12]提出了可用于更深层网络的ResNet,在图像分类、目标检测、目标定位任务上都取得了最好竞赛成绩。2016年,Trimps-Soushen团队利用多模型融合算法,以2.99%的错误率获得冠军。2017年,WMW设计了一个名为“挤压激励(Squeezeand-Excitation, SE)”的架构SENet[13],每个模块通过“挤压”操作嵌入来自全局感受野的信息,并且通过“激励”操作选择性地诱导响应增强,获得了年度冠军。表2给出了一些网络的主要结构参数。
图2列出了ILSVRC竞赛的历年冠军队伍和成绩。
4 卷积神经网络在雷达目标识别领域的应用进展
随着CNN技术的快速发展,各个领域对它的关注程度也在逐渐增加。从web of science的检索统计来看,CNN在遥感和雷达目标识别领域的发表文章数量也在稳步增长。如图3所示。可以看出,在雷达图像处理领域,CNN在深度网络(DNN)中的占比已经显著超过了1/2,充分说明了CNN正处在方兴未艾的阶段。
表 2 部分典型网络的参数总结


图 2 ILSVRC历年的冠军成绩

图 3 深度网络和深度卷积网络在雷达图像领域发表的文章数示意图
4.1 数据集与预处理
雷达成像技术这些年来得到了快速的发展,一批高分辨率星载SAR系统和高分辨的机载SAR系统得到了成功的应用。当前的对地观测系统主要基于机载平台,而同时具有对地和对海观测能力的系统主要基于星载平台。
4.1.1 雷达目标识别数据集
(1) 机载雷达SAR数据集:大多数机载雷达图像检测与识别算法采用了MSTAR作为基准数据集。20世纪90年代中期,美国国防高级研究计划局(DARPA)和空军研究实验室(AFRL)联合开展了MSTAR计划。基于圣地亚国家实验室(SNL)的STARLOS X波段SAR传感器平台,采用0.3×0.3 m分辨率聚束模式,极化方式为HH,从不同的俯仰角度以圆形飞行路径采集而得。数据集包含公开目标和混合目标数据集。公开目标数据集有3大类目标(T72, BMP2和BTR70),混合目标数据集有9种不同俯仰角关于7类目标(BRDM 2, BTR60, D7,T62, ZIL 131, ZSU 234, 2S1)的SAR图像数据。在0°~360°方位角下,每隔1°~2°获取到1次目标切片。表3为MSTAR数据集的目标类型和图像数目。
(2) 星载目标识别数据集:星载雷达以SAR成像为主要感知手段,往往只提供原始SAR图像。一般获取想要的数据后,还需要进行辐射标定,地形校正,斑点噪声抑制等处理后,再进行数据集的生成。一般情况下,还需要用户自行进行目标数据的标注。主要的星载雷达数据源包括:TerraSAR-X,Sentinel-1, RadarSat-2,高分3号等。
4.1.2 数据预处理
首先对原始的SAR数据进行降噪处理,一般采用核大小为3×3的Lee滤波器对每幅图像进行处理。再将每个图像分割为预定大小的图像块。在此步骤中,一般只保留与至少1个目标相交的图像块。然后手动进行图像数据块的样本标注。SAR数据的获取和标注都是成本很高的活动,所以SAR目标识别常常面临样本匮乏的问题。
表 3 MSTAR数据集的目标类型和样本数量

4.1.3 数据增强
为了解决小样本问题,增加训练数据集显然是一个重要的思路。在现有数据有限的情况下,通过改变数据的结构、数据之间的组合以及增加数据复杂性,可创造出“增广数据集”,与原有的训练集进行混合后,对网络进行训练。表4列举了常用的数据增强技术[14]。
表 4 常见数据增强技术

4.2 SAR图像目标检测与识别
4.2.1 SAR图像目标检测
目标检测的目的是指出可能存在的目标类别,以及其在图像中的具体的坐标位置。需要说明的是,和传统的基于时频图的目标检测不同[15],这里主要指基于SAR图像的目标检测。基于深度学习模型的目标检测算法有两大类:(1)基于候选窗口的two-stage检测算法:先从输入图像中提取出候选目标的区域,然后使用目标检测网络对候选区域进行分类和边框回归[16];(2)基于回归的one-stage检测算法:直接产生物体的类别概率和位置坐标。
(1) 基于候选窗的方法:基于候选窗的目标检测框架需要在检测图像上产生很多候选窗口,判别这些候选窗,判别其类别并进行窗回归,最终得到的包含物体的候选窗就是目标窗。
基于区域的卷积神经网络(Region based Convolutional Neural Network, RCNN)[17],首次将目标检测与卷积网络结合,由3部分组成:候选窗生成、提取特征、分类和窗口回归。RCNN的每个候选窗都需要进行处理,效率很低,所以空间金字塔池化网络[18](Spatial Pyramid Pooling net, SPPnet)和快速RCNN[19](Fast RCNN)被提出来。Ren等人[20]提出的Faster RCNN将RCNN的3个组成部分聚合为一个整体的深度网络框架,用CNN完成候选区域的生成,同时候选区域生成网络(Region Proposal Net, RPN)和目标检测网络共享特征提取层,系统的处理效率更高,检测性能也更好。Dai等人[21]提出的R-FCN,融合了全卷积网络和RPN,更进一步提高了处理速度,而且精度与Faster RCNN相当。超级网络[22](HyperNet),特征金字塔网络[23](Feature Pyramid Network, FPN), Mask RCNN[24]等多种方法的思路都有相通之处:融合低层的高分辨信息,中层的辅助信息以及高层的语义信息,使得底层的高分辨网络层也获得语义信息,提高检测准确率;在此基础上使用RPN生成候选窗,然后使用Fast RCNN进行分类和窗口回归。
Faster RCNN具有优良的检测性能和不错的处理效率,被普遍地应用在SAR图像检测中[25]。杜兰等人[16]研究了在训练样本不足的情况下,基于Faster RCNN框架的强大特征提取能力,获得了较好的检测效果。Li等人[26]分析了Faster RCNN检测算法应用于SAR图像舰船检测领域的局限性,包括目标特征不同,成像原理不同以及数据集不同带来的局限性,提出了特征聚合、模型迁移、损失函数设计和细节调整等一些改进方法。Kang等人[27]针对SAR图像的多尺度目标检测问题,利用Faster R-CNN算法对传统的恒虚警率(Constant False Alarm Rate,CFAR)算法的保护窗口提出的目标方案进行改进,提取小尺寸目标。通过对检测网络中分类分数较低的边框进行重新评价,获得了较好的性能。Kang等人[28]还提出了一种基于上下文区域的多层融合卷积神经网络,采用中间层与缩小的浅层和向上采样的深层相结合的方法来生成建议区域。这种框架融合可深层次的语义和浅层次的高分辨率特征,提高了小型舰船的检测性能。Jiao等人[29]提出了一种基于Faster RCNN框架的密集连接多尺度神经网络,将特征映射与高分辨率特征映射合并,在每个融合特征图上附加RPN,用于解决多尺度,多场景SAR舰船检测问题。Zhong等人[30]借鉴R-FCN的思想,提出了多类地理空间目标检测的位置敏感平衡框架,解决了分类阶段的平移不变性与目标检测阶段的平移方差之间的矛盾。
(2) 基于回归的方法:基于候选窗的方法是目前主流的目标检测方法,但相对来说速度比较慢,不能满足实时性要求。基于回归的目标检测框架不需要产生候选窗口,给定输入图像,直接在图像的多个位置上回归出这个位置的目标边框和目标类别。其中的代表性方法是YOLO[31]和SSD[32]。
YOLO将图像分成若干×若干个网格(grid cell),每个网格预测若干个边框。每个边框要回归自身的位置,还要预测目标置信度和类别概率。去除置信度值较低的边框后,采用(Non-Maximum Suppression, NMS)去除冗余窗口。YOLO大大加快了处理速度,每个网络预测目标窗口时使用了全图充分的上下文信息,使得背景错误比例大幅降低。但是YOLO不能精准地定位目标,而且对相邻目标准确率较低。SSD将YOLO的回归思想与Faster RCNN的锚定方法相结合,利用不同尺度的特征图进行预测。SSD在特征图上采用卷积核来预测边框的类别分数和偏移量;为提高检测的准确率,采用不同尺度的特征图进行预测,实现了端到端的训练,是一种高精度的实时目标检测方法。SSD的处理速度比YOLO还要快,也保证了检测性能接近于Faster-RCNN的水准。
Wang等人[33,34]将SSD技术应用于SAR图像中的舰船检测。SSD的第1级是类似于VGG16的基础网络,第2级使用多尺度特征映射和卷积层相结合的方法进行目标检测,第3级使用NMS来生成最终结果。文献[33,34]对比了SSD-300和SSD-512两种模型,在训练过程中应用了迁移学习来解决船舶数量样本有限的问题。
综上,基于候选窗口的目标检测算法通常检测准确率较高,而基于回归窗口的目标检测方法在检测效率上结果较好。目前也有方法试图在这两类之间建立联系,RON[35]网络就试图利用RPN建立目标先验以提升回归模型的检测效率。表5给出了几种热门的目标检测方法的对比。Cui等人[36]结合基于回归的方法和RPN的方法,提出了一种面向大场景数据快速滑动分割的区域间非最大抑制方法,定位最合适的候选目标区域,有效解决了大场景SAR数据的目标直接检测问题。
4.2.2 SAR图像目标识别
(1) 网络结构设计:2012年,AlexNet在ILSVRC上的成功,吸引了SAR自动目标识别系统研究者的注意力。
2013年,Ni等人[37]提出了一种基于视觉皮层系统的SAR自动目标识别方法,在图像预处理后,采用自适应交叉皮质模型进行图像分割,采用4层的稀疏自编码器模拟人体皮质系统的深层结构来提取特征,获得了较好的识别率。尽管Ni的方法保留了传统的特征提取步骤,但采用深层网络结构来实现目标识别功能,是一种突破性的尝试。
2014年,CNN在SAR目标识别领域得到了快速的发展。Chen等人[38]采用单层卷积神经网络对SAR图像进行特征自动识别。但仅采用单层网络,其性能表现尚不如人工特征提取方法。Wagner[39]将CNN和SVM相结合,从CNN中采用特征提取部分,在决策阶段采用SVM代替完全连通的多层感知器。既提高了分类器的泛化能力,又保持了较低的计算时间。
2015年,CNN的SAR应用开始进入了蓬勃发展时期。Wang等人[40]提出用稀疏连通卷积层代替完全连通层,改善了训练数据集有限带来的过拟合问题。Wagner[41]在之前工作的基础上,提出了用形态学成分分析做预处理的方式,将分类准确率提升到了99%。
2016年,在目标识别领域发展出了很多新的CNN结构,进一步提高了处理性能。Schwegmann等人[42]提出了使用卷积高速公路单元(Convolutional Highway Unit, CHU)构建非常深的网络,由于CHU的自适应选通机制,可以实现灵活的网络配置,以防止跨多层的梯度衰减。可以在数据集较小的情况下,对典型的SAR的船舶数据进行有效的检测训练。
2017年,CNN在SAR雷达目标识别领域的发展进入了高潮。网络训练技术和相关理论发展进一步完善。Cho等人[43]为了提高网络对不同姿态、噪声和旋转条件下的稳健性,提出了一种基于特征抽取的CNN结构。Lin等人[44]提出了卷积高速公路单元网络(CHU-Net)用于小数据集条件下的SAR目标识别,可以在有限数据下训练更深层次的网络,提供更好的泛化性能。He等人[45]利用MSTAR数据集训练出一个较浅的CNN,提取前向传播中第1层的输出;然后通过最大采样和聚类确定目标在图像中的位置,实现了SAR目标的快速无监督检测。
表 5 基于CNN的目标检测方法对比

(2) 算法优化:代价函数也是性能改进的一种思路,田壮壮等人[46]在误差代价函数中引入类别可分性度量来提高网络的类别区分能力。出于过拟合和计算量等方面的考虑,网络结构优化也是研究的热点之一。Chen等人[47]提出了一种新的低自由度稀疏连通卷积结构取代传统的全连接,减少自由参数的数量,优化训练图像数量限制带来的严重过拟合问题;采取了“Dropout”技术和“早期停止”提升网络的泛化能力;采用了“带动量的小批量随机梯度下降法”进行优化,快速寻找全局最优点。Wilmanski等人[48]致力于学习算法的改进,采用了AdaGrad和AdaDelta技术,避免手动调节学习率等参数,对于参数选择具有更好的鲁棒性。
由于SAR图像的成像原理,图像往往会出现相干斑噪声,几何畸变和结构缺失等现象,使人工标注过程中难以避免的引入噪声,导致学习能力和泛化能力急剧下降。针对含噪声标签的SAR图像优化分类问题,赵娟萍等人[49]提出了一种基于概率转移模型的CNN方法。在传统CNN模型基础上,基于含噪标记与正确标记之间的概率转移模型,建立噪声标记转移层,这种新的CNN模型可潜在地校正错误标记,增强了含噪标记下分类模型鲁棒性。
(3) 特征融合:多通道,多特征融合也是一个重要的研究方向。Amrani等人[50]采用传统的级联和判别相关分析算法对提取的深层特征进行融合。Wang等人[51]提出了一种强度特征和梯度幅度特征的双通道特征融合方法。将每个通道的深层特征重新构造成1个2维数组,再将两个2维数组合成1个2维数组。这种表征方法可以保持两种特征之间的空间关系,达到更好的特征融合效果。Zheng等人[52]提出了一种具有较高泛化能力和较少过拟合概率的CNN改进形式,将CNN的卷积层与2维PCA算法相结合,进一步提高效率和鲁棒性。Pei等人[5]在多视角SAR模式的基础上,提出了一种灵活的方法来生成足够的多视角SAR数据。在此基础上,提出了一种包含多输入并行网络拓扑的结构,逐层学习提取不同视角的SAR图像的特征,并将不同视点的特征逐步融合在一起,对视角变化具有较好的鲁棒性。
4.3 主要思想与方法小结
各类雷达图像的卷积神经网络检测与识别技术的研究,主要可以归结于在3个方面的努力:致力于减少训练复杂度和训练时间的快速算法,致力于改进网络结构、优化网络性能的提高算法和致力于应对雷达小样本含噪数据集的扩展算法。具体情况如表6所示。
5 雷达自动目标识别面临的挑战
5.1 SAR与可见光图像的成像机理差异带来的挑战
SAR成像的图像分辨率相对较低,尤其对于低频段雷达和带宽较窄的雷达来说,情况更为严重;当背景杂波较强或电磁干扰条件下,目标电磁散射特征退化严重,图像信噪比降低,从而导致图像质量退化,难以获取目标的有用信息;而且SAR图像的相干斑点噪声为非高斯乘性噪声,而光学图像处理的加性高斯噪声模型难以应用于SAR图像;SAR图像的纹理信息不够显著,网络更容易过拟合;SAR目标成像结果与环境相关联,且有显著的角度敏感性。以上这些都对SAR图像识别提出了不一样的需求。
5.2 多尺度目标检测挑战
雷达可能关注的目标类型较多,特征差异较大,尤其是海面目标的多样化特征较为显著。从几米尺度的小船和快艇,到数百米尺度的大型货轮、邮轮、航母,尺度差异大。多尺度目标检测问题是现在CNN研究的热点问题。如特征金字塔网络[23]的每层特征图来源于当前层和更高级层的特征融合,既可以在不同分辨率的特征图上检测对应尺度的目标,同时又具有足够的特征表达能力。SSD方法中也同样带有多尺度结构。这类多尺度目标检测技术在雷达SAR图像目标检测中得到了快速应用[26–29,33,34,59]。多尺度SAR目标检测问题已得到一定程度的缓解,但还有一些问题需要进一步研究:复杂背景下的多尺度目标检测,如地海交界区域的多尺度目标检测;噪声条件下的小目标检测,尤其是在强斑点噪声条件下,仅有几个像素点的小尺寸目标的检测;受天线副瓣影响或者主瓣加权后展宽影响,在大尺度目标的附近的小目标检测性能下降。这些挑战都是后续可以深入的研究方向。
5.3 小样本数据集挑战
考虑到雷达图像获取的成本限制和条件限制,大规模数据样本的获取相对困难。另外,雷达图像的成像原理导致了雷达图像容易受到结构缺失、斑点噪声、角度敏感等问题的困扰,而且军事领域的非合作目标图像获取尤为困难,更加难以对提取的图像块进行准确的标注。所以在雷达军事应用领域的小样本数据集问题更加突出。
表 6 CNN在雷达图像识别应用进展的思想与方法概要

5.3.1 迁移学习
迁移学习的本质,就是要找出源数据集和目标数据集的共同点,在通用特征的层面上进行迁移。通过对其它图像数据集如ImageNet进行训练,或者是对来自于相似雷达的其它图像进行学习,获得可以使用的中低层特征。实际使用中,用源数据集训练好一个网络,然后把前面若干层复制到目标网络中,剩下的其他层随机初始化后开始训练[55]。网络进行误差反向传播时,可以选择冻结迁移过来的前面若干层;也可以不冻结,而进行微调。在雷达图像检测与识别应用中,由于带标签数据集小,相对而言,参数个数较多,更加容易出现过拟合现象,因此建议采用冻结的方式[26,53,55]。另外,源数据集和目标数据集不同,学习率、Dropout比率等细节都需要有适应性调整。
5.3.2 使用辅助数据
在一些特定的应用场合,目标数据的获取非常困难,此时仿真数据也是一种可行的手段。有时候获取全方位角和所有俯仰角的数据很困难,数据集不完整的情况也很常见。文献[56]用真实数据和仿真数据进行训练,用真实数据进行测试,取得了预期的效果。文献[57]设计了10种不同舰船类型的计算机辅助设计模型,考虑了不同的方位和俯仰角目标散射特性,并利用这些模型剖面生成了2维数据图像,仿真结果表明用这种方式进行分类是完全可行的。
5.3.3 无监督训练
数据集生成工作中,最为困难的步骤就是为目标样本的类别打上标签。尤其是在广域监视图像中,需要对目标块进行检测,然后对目标类型进行分类。在没有外部辅助信息的条件下,仅凭人工标注,正确率往往难以保证。因此高质量的大规模雷达目标样本数据集一直是制约实际应用的重要瓶颈。可行的思路是,根据少量的标注样本,结合无监督训练方法,或者直接采用无监督训练方法进行聚类的预处理,同样可以提高系统的检测识别能力[41,58]。
5.3.4 小样本训练网络
小的样本集容易过拟合,往往只能采用较为浅层的结构。目前提出的针对雷达图像的深度网络层数都比较有限,绝大多数的特征抽取层和分类层都在5~10层左右。卷积高速公路单元能够有效缓解梯度弥散的问题,可以在小样本条件下训练深度网络[44,60]。刘晨等人[53]提出用大样本对卷积神经网络进行预训练,通过迁移学习保持网络的卷积层和下采样层不变,并用超限学习机替换CNN的全连接层,降低网络对训练样本数量的要求。
6 未来的发展趋势分析
6.1 CNN理论发展
神经网络是一个黑盒子模型,欠缺坚实的理论基础,一直被业界所诟病。但是随着卷积神经网络技术的不断发展,相关的理论研究也在不断进步之中。目前的CNN模型发展迅速,适用于各种应用的改进算法层出不穷,但是依然有必要在研究CNN的基本原理上做出更多的努力。比如说,如何利用自然视觉感知机制进一步改进CNN的设计;如何缩小生物神经网络和CNN之间的理论差距。Bengio等人[61]提出的关于生物大脑如何在深层层次上执行信用分配的动机,或许是将深度计算模型与人脑机制联系起来的重要思路。将循环神经网络和卷积神经网络结合起来,并使用增强学习来精准定位目标对象也是值得期待的研究方向[62]。Facebook 首席人工智能科学家、纽约大学教授 Yann LeCun在IJCAI 2018发表了以“Learning World Models:the Next Step towards AI”为主题的演讲,提出了“基于背景知识推理的世界模型”是未来人工智能发展的重要方向。因此,未来基于雷达成像理论和相关应用领域的专家知识,结合深度卷积网络技术进行设计,依然是一条值得发展的路线。
6.2 高性能实时处理快速网络模型
当前的模型研究逐渐聚焦于速度和准确度的权衡,网络模型正在从巨型网络向轻量化网络演变,又快又准的网络具有更广泛的实用价值。对于雷达图像处理的军事应用来说,实时性更是必须要考虑的问题。这个问题对一些高度时敏的移动应用场景来说尤为关键。而具备在移动平台部署潜力的轻量化网络是目前的研究热点。面向移动应用的Mobile-Net[63]通过使用空间可分离卷积方法,选择宽度因子和分辨率因子,综合考虑大小,延迟和精度,构造速度更快的网络。而ShuffleNet同样使用了空间可分离卷积,同时结合通道“洗牌”,能以超少量参数获得媲美AlexNet的准确率。DenseNet[64]在小模型场景下也展现了相当好的性能。
综上,未来的快速网络结构将会有以下一些特征:多个小卷积核代替大卷积核,如1×N 和N×1的卷积核代替N×N的卷积核;使用1×1卷积核的bottleneck结构;组卷积和深度可分离卷积;通道洗牌和通道自主加权;低精度浮点数存储;密度连接等。相信未来还将会有更多针对快速网络的新型结构出现。
6.3 多通道雷达图像处理模型
雷达成像技术的发展,丰富了雷达成像的手段。多波段/多极化雷达成像,MIMO雷达多通道成像,以及多角度成像技术,都对雷达目标检测与识别提出了新的需求。多通道雷达图像的处理可以按照传统的多通道卷积处理,在每个通道做完卷积后,将多个通道卷积得到的输出直接相加,得到输出结果。但为进一步提高网络性能,需要考虑如何更好地利用不同通道的数据特性差异。可以采用类似AlexNet[1]的思路,进行组卷积,分别抽取每个通道的特征,再通过多个全连接层来融合特征;也可以采用ShuffleNet的思路,在每一次堆叠组卷积层之前,都进行一次“通道洗牌”,将打散的特征分配到不同的组,获得更好的特征表示;也可以采用SENet[13]的思想,通过“挤压”和“抽取”操作,显式地建模特征通道之间的相互依赖关系,并学习获取每个特征通道的重要程度,据此提升有用的特征并抑制无用特征。
6.4 复杂对抗环境下小规模含噪样本数据的训练问题
含噪样本有两个方面的内涵:一是成像过程中产生的不想要的噪声图像点;二是在人工标注过程中,由于标注错误产生的噪声样本。低质量含噪样本数据的检测和识别迫切需要探索低质量数据深度学习模型。生成式对抗网络(Genevative Adversarial Networks, GAN)[65]通过生成式网络自动生成与观测数据类似的新数据;而判别式网络用于判别数据的真实性。通过两者的动态博弈和学习,最终的平衡点就是学习的目标。在图像风格迁移,图像修复等方面,GAN已经获得了成功的应用。GAN在某种程度上可以学习到高分辨率图像的分布,从而生成质量比较好的高分辨率图像,进一步提高训练模型的泛化能力。因此,在雷达图像的小规模样本数据的迁移学习,图像降噪,超分辨细节生成等应用方面,GAN很好的应用前景。在无标签和部分标签数据情况下,GAN能大幅度提升训练效果。
7 结束语
雷达目标识别技术是当前的研究热点方向,得到了越来越多的关注。深度学习技术的快速发展,给目标识别技术带来了新的思路。尤其是深度卷积神经网络在光学图像领域的卓越表现,促进了其在雷达图像处理领域的全面应用。本文的主要贡献如下:(1)了解雷达图像处理领域现有方法的局限性;(2)快速掌握CNN的原理和核心概念,了解CNN的发展路线;(3)CNN在雷达图像处理领域的进展和应用;(4)雷达图像处理领域的数据集、数据增强方法和小样本数据的应对思路;(5)未来在理论、模型和数据等方面的发展趋势。
未来CNN在雷达图像处理领域的工程化应用有以下4个趋势:(1)CNN是当前雷达目标识别领域最有可能取得理想工程应用效果的技术方向;(2)数据集依然是突破应用瓶颈的关键障碍,好的数据集甚至比好的网络模型还要重要;(3)不宜盲目追求网络深度,在雷达图像处理领域,巨型网络向轻量化网络的发展是大势所趋,应考虑数据集和应用需求,合理设计网络结构;(4)轻量化网络中的优化方法尤为重要,值得进行深入研究。
总的来说,卷积神经网络的发展为雷达目标识别领域带来了令人鼓舞的研究前景,必将为这个领域的发展提供强劲动力。
参 考 文 献
[1]KRIZHEVSKY A, SUTSKEVER I, and HINTON G E.Imagenet classification with deep convolutional neural networks[C]. The 25th International Conference on Neural Information Processing Systems, Lake Tahoe, USA, 2012:1097–1105. doi: 10.1145/3065386.
[2]CHENG Gong, HAN Junwei, and LU Xiaoqiang. Remote sensing image scene classification: benchmark and state of the art[J]. Proceedings of the IEEE, 2017, 105(10):1865–1883. doi: 10.1109/JPROC.2017.2675998.
[3]陈小龙, 关键, 何友, 等. 高分辨稀疏表示及其在雷达动目标检测中的应用[J]. 雷达学报, 2017, 6(3): 239–251. doi: 10.12000/JR16110.CHEN Xiaolong, GUAN Jian, HE You, et al. Highresolution sparse representation and its applications in radar moving target detection[J]. Journal of Radars, 2017, 6(3):239–251. doi: 10.12000/JR16110.
[4]BALL J E, ANDERSON D T, and CHAN C S.Comprehensive survey of deep learning in remote sensing:theories, tools, and challenges for the community[J]. Journal of Applied Remote Sensing, 2017, 11(4): 042609. doi: 10.1117/1.JRS.11.042609.
[5]PEI Jifang, HUANG Yulin, HUO Weibo, et al. SAR automatic target recognition based on multiview deep learning framework[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(4): 2196–2210. doi: 10.1109/tgrs.2017.2776357.
[6]GOODFELLOW I, BENGIO Y, and COURVILLE A. Deep Learning[M]. Cambridge, Massachusetts: MIT Press, 2016.
[7]LECUN Yann, BOTTOU Léon, BENGIO Yoshua, et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE, 1998, 86(11): 2278–2324. doi:10.1109/5.726791.
[8]RUSSAKOVSKY O, DENG Jia, SU Hao, et al. Imagenet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115(3): 211–252. doi:10.1007/s11263-015-0816-y.
[9]ZEILER M D and FERGUS R. Visualizing and understanding convolutional networks[C]. The 13th European Conference on Computer Vision, Zurich,Switzerland, 2014: 818–833. doi: 10.1007/978-3-319-10590-1_53.
[10]SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1–9.doi: 10.1109/CVPR.2015.7298594.
[11]SIMONYAN K and ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. http://arxiv.org/abs/1409.1556, 2014.
[12]HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. The IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas, USA, 2016: 770–778. doi: 10.1109/CVPR.2016.90.
[13]HU Jie, SHEN Li, ALBANIE S, et al. Squeeze-andexcitation networks[EB/OL]. https://arxiv.org/abs/1709.01507, 2017.
[14]许强, 李伟, LOUMBI P. 深度卷积神经网络在SAR自动目标识别领域的应用综述[J]. 电讯技术, 2018, 58(1): 106–112. doi:10.3969/j.issn.1001-893x.2018.01.019.XU Qiang, LI Wei, and LOUMBI P. Applications of Deep convolutional neural network in SAR automatic target recognition: a summarization[J]. Telecommunication Engineering, 2018, 58(1): 106–112. doi: 10.3969/j.issn.1001-893x.2018.01.019.
[15]苏宁远, 陈小龙, 关键, 等. 基于卷积神经网络的海上微动目标检测与分类方法[J]. 雷达学报, 2018, 7(5): 565–574. doi:10.12000/JR18077.SU Ningyuan, CHEN Xiaolong, GUAN Jian, et al.Detection and classification of maritime target with micromotion based on CNNs[J]. Journal of Radars, 2018, 7(5):565–574. doi: 10.12000/JR18077.
[16]杜兰, 刘彬, 王燕, 等. 基于卷积神经网络的SAR图像目标检测算法[J]. 电子与信息学报, 2016, 38(12): 3018–3025. doi:10.11999/JEIT161032.DU Lan, LIU Bin, WANG Yan, et al. Target detection method based on convolutional neural network for SAR image[J]. Journal of Electronics & Information Technology,2016, 38(12): 3018–3025. doi: 10.11999/JEIT161032.
[17]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA,2014: 580–587. doi: 10.1109/CVPR.2014.81.
[18]HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al.Spatial pyramid pooling in deep convolutional networks for visual recognition[C]. The 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 346–361. doi:10.1007/978-3-319-10578-9_23.
[19]GIRSHICK R. Fast R-CNN[C]. The IEEE international Conference on Computer Vision, Santiago, Chile, 2015:1440–1448. doi: 10.1109/ICCV.2015.169.
[20]REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[C]. The 28th International Conference on Neural Information Processing Systems, Montreal, Canada,2015: 91–99.
[21]DAI Jifeng, LI Yi, HE Kaiming, et al. R-FCN: Object detection via region-based fully convolutional networks[C].The 30th International Conference on Neural Information Processing Systems, Barcelona, Spain, 2016: 379–387.
[22]KONG Tao, YAO Anbang, CHEN Yurong, et al. Hypernet:Towards accurate region proposal generation and joint object detection[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016:845–853.
[23]LIN T Y, DOLLÁR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]. The IEEE Conference on Computer Vision and Pattern Recognition,Honolulu, USA, 2017: 936–944.
[24]HE Kaiming, GKIOXARI G, DOLLÁR P, et al. Mask R-CNN[C]. The 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 2980–2988.
[25]WANG Sifei, CUI Zongyong, and CAO Zongjie. Target recognition in large scene SAR images based on region proposal regression[C]. The 2017 IEEE International Geoscience and Remote Sensing Symposium, Fort Worth,USA, 2017: 3297–3300. doi: 10.1109/IGARSS.2017.8127702.
[26]LI Jianwei, QU Changwen, and SHAO Jiaqi. Ship detection in SAR images based on an improved faster R-CNN[C]. The 2017 SAR in Big Data Era: Models, Methods and Applications, Beijing, China, 2017: 1–6. doi: 10.1109/BIGSARDATA.2017.8124934.
[27]KANG Miao, LENG Xiangguang, LIN Zhao, et al. A modified faster R-CNN based on CFAR algorithm for SAR ship detection[C]. The 2017 International Workshop on Remote Sensing with Intelligent Processing, Shanghai,China, 2017: 1–4. doi: 10.1109/RSIP.2017.7958815.
[28]KANG Miao, JI Kefeng, LENG Xiangguang, et al.Contextual region-based convolutional neural network with multilayer fusion for SAR ship detection[J]. Remote Sensing, 2017, 9(8): 860. doi: 10.3390/rs9080860.
[29]JIAO Jiao, ZHANG Yue, SUN Hao, et al. A densely connected end-to-end neural network for multiscale and multiscene SAR ship detection[J]. IEEE Access, 2018, 6:20881–20896. doi: 10.1109/ACCESS.2018.2825376.
[30]ZHONG Yanfei, HAN Xiaobing, and ZHANG Liangpei.Multi-class geospatial object detection based on a positionsensitive balancing framework for high spatial resolution remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 138: 281–294.doi: 10.1016/j.isprsjprs.2018.02.014.
[31]REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]. The 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 779–788. doi: 10.1109/CVPR.2016.91.
[32]LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016:21–37. doi: 10.1007/978-3-319-46448-0_2.
[33]WANG Yuanyuan, WANG Chao, ZHANG Hong, et al.Combing single shot multibox detector with transfer learning for ship detection using Chinese Gaofen-3 images[C]. The 2017 Progress in Electromagnetics Research Symposium - Fall, Singapore, 2018: 712–716. doi: 10.1109/PIERS-FALL.2017.8293227.
[34]WANG Yuanyuan, WANG Chao, and ZHANG Hong.Combining a single shot multibox detector with transfer learning for ship detection using sentinel-1 SAR images[J].Remote Sensing Letters, 2018, 9(8): 780–788. doi:10.1080/2150704X.2018.1475770.
[35]KONG Tao, SUN Fuchun, YAO Anbang, et al. Ron:Reverse connection with objectness prior networks for object detection[C]. The 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017:5244–5252. doi: 10.1109/CVPR.2017.557.
[36]CUI Zongyong, DANG Sihang, CAO Zongjie, et al. SAR target recognition in large scene images via region-based convolutional neural networks[J]. Remote Sensing, 2018,10(5): 776. doi: 10.3390/rs10050776.
[37]NI Jiacheng and XU Yuelei. SAR automatic target recognition based on a visual cortical system[C]. The 6th International Congress on Image and Signal Processing,Hangzhou, China, 2013: 778–782. doi: 10.1109/CISP.2013.6745270.
[38]CHEN Sizhe and WANG Haipeng. SAR target recognition based on deep learning[C]. The 2014 International Conference on Data Science and Advanced Analytics,Shanghai, China, 2014: 541–547. doi: 10.1109/DSAA.2014.7058124.
[39]WAGNER S. Combination of convolutional feature extraction and support vector machines for radar ATR[C].The 17th International Conference on Information Fusion,Salamanca, Spain, 2014: 1–6.
[40]WANG Haipeng, CHEN Sizhe, XU Feng, et al. Application of deep-learning algorithms to MSTAR data[C]. The 2015 IEEE International Geoscience and Remote Sensing Symposium, Milan, Italy, 2015: 3743–3745.
[41]WAGNER S. Morphological component analysis in SAR images to improve the generalization of ATR systems[C].The 3rd International Workshop on Compressed Sensing Theory and its Applications to Radar, Sonar and Remote Sensing, Pisa, Italy, 2015: 46–50. doi: 10.1109/CoSeRa.2015.7330261.
[42]SCHWEGMANN C P, KLEYNHANS W, SALMON B P, et al. Very deep learning for ship discrimination in Synthetic Aperture Radar imagery[C]. The 2016 IEEE International Geoscience and Remote Sensing Symposium, Beijing, China,2016: 104–107. doi: 10.1109/IGARSS.2016.7729017.
[43]CHO J H and PARK C G. Additional feature CNN based automatic target recognition in SAR image[C]. The 40th Asian Conference on Defence Technology, Tokyo, Japan,2017: 1–4.
[44]LIN Zhao, JI Kefeng, KANG Miao, et al. Deep convolutional highway unit network for SAR target classification with limited labeled training data[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(7):1091–1095. doi: 10.1109/lgrs.2017.2698213.
[45]HE Hao, WANG Shicheng, YANG Dongfang, et al. SAR target recognition and unsupervised detection based on convolutional neural network[C]. The 2017 Chinese Automation Congress, Jinan, China, 2017: 435–438. doi:10.1109/CAC.2017.8242807.
[46]田壮壮, 占荣辉, 胡杰民, 等. 基于卷积神经网络的SAR图像目标识别研究[J]. 雷达学报, 2016, 5(3): 320–325. doi:10.12000/JR16037.TIAN Zhuangzhuang, ZHAN Ronghui, HU Jiemin, et al.SAR ATR based on convolutional neural network[J].Journal of Radars, 2016, 5(3): 320–325. doi: 10.12000/JR16037.
[47]CHEN Sizhe, WANG Haipeng, XU Feng, et al. Target classification using the deep convolutional networks for SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4806–4817. doi: 10.1109/tgrs.2016.2551720.
[48]WILMANSKI M, KREUCHER C, and LAUER J. Modern approaches in deep learning for SAR ATR[J]. SPIE, 2016,9843: 98430N. doi: 10.1117/12.2220290.
[49]赵娟萍, 郭炜炜, 柳彬, 等. 基于概率转移卷积神经网络的含噪标记SAR图像分类[J]. 雷达学报, 2017, 6(5): 514–523. doi:10.12000/JR16140.ZHAO Juanping, GUO Weiwei, LIU Bin, et al.Convolutional neural network-based SAR image classification with noisy labels[J]. Journal of Radars, 2017,6(5): 514–523. doi: 10.12000/JR16140.
[50]AMRANI M and JIANG Feng. Deep feature extraction and combination for synthetic aperture radar target classification[J]. Journal of Applied Remote Sensing, 2017,11(4): 042616. doi: 10.1117/1.Jrs.11.042616.
[51]WANG Ning, WANG Yinghua, LIU Hongwei, et al.Feature-fused SAR target discrimination using multiple convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(10): 1695–1699. doi:10.1109/lgrs.2017.2729159.
[52]ZHENG Ce, JIANG Xue, and LIU Xingzhao. Generalized synthetic aperture radar automatic target recognition by convolutional neural network with joint use of twodimensional principal component analysis and support vector machine[J]. Journal of Applied Remote Sensing, 2017,11(4): 046007. doi: 10.1117/1.Jrs.11.046007.
[53]刘晨, 曲长文, 周强, 等. 基于卷积神经网络迁移学习的SAR图像目标分类[J]. 现代雷达, 2018, 40(3): 38–42. doi: 10.16592/j.cnki.1004-7859.2018.03.009.LIU Chen, QU Changwen, ZHOU Qiang, et al. SAR image target classification based on convolutional neural network transfer learning[J]. Modern Radar, 2018, 40(3): 38–42. doi:10.16592/j.cnki.1004-7859.2018.03.009.
[54]LI Xuan, LI Chunsheng, WANG Pengbo, et al. SAR ATR based on dividing CNN into CAE and SNN[C]. The 5th IEEE Asia-Pacific Conference on Synthetic Aperture Radar,Singapore, 2015: 676–679. doi: 10.1109/APSAR.2015.7306296.
[55]李松, 魏中浩, 张冰尘, 等. 深度卷积神经网络在迁移学习模式下的SAR目标识别[J]. 中国科学院大学学报, 2018, 35(1):75–83. doi: 10.7523/j.issn.2095-6134.2018.01.010.LI Song, WEI Zhonghao, ZHANG Bingchen, et al. Target recognition using the transfer learning-based deep convolutional neural networks for SAR images[J]. Journal of University of Chinese Academy of Sciences, 2018, 35(1):75–83. doi: 10.7523/j.issn.2095-6134.2018.01.010.
[56]ØDEGAARD N, KNAPSKOG A O, COCHIN C, et al.Classification of ships using real and simulated data in a convolutional neural network[C]. The 2016 IEEE Radar Conference, Philadelphia, USA, 2016: 1–6. doi:10.1109/RADAR.2016.7485270.
[57]KARABAYIR O, YUCEDAG O M, KARTAL M Z, et al.Convolutional neural networks-based ship target recognition using high resolution range profiles[C]. The 18th International Radar Symposium, Prague, Czech Republic,2017. doi: 10.23919/IRS.2017.8008207.
[58]BENTES C, VELOTTO D, and LEHNER S. Target classification in oceanographic SAR images with deep neural networks: Architecture and initial results[C]. The 2015 IEEE International Geoscience and Remote Sensing Symposium, Milan, Italy, 2015: 3703–3706. doi:10.1109/IGARSS.2015.7326627.
[59]WANG Zhaocheng, DU Lan, WANG Fei, et al. Multi-scale target detection in SAR image based on visual attention model[C]. The 5th IEEE Asia-Pacific Conference on Synthetic Aperture Radar, Singapore, 2015: 704–709.
[60]YUAN Lele. A time-frequency feature fusion algorithm based on neural network for HRRP[J]. Progress in Electromagnetics Research, 2017, 55: 63–71. doi: 10.2528/PIERM16123002.
[61]BENGIO Y, MESNARD T, FISCHER A, et al. STDPcompatible approximation of backpropagation in an energybased model[J]. Neural Computation, 2017, 29(3): 555–577.doi: 10.1162/NECO_a_00934.
[62]LECUN Y, BENGIO Y, and HINTON G. Deep learning[J].Nature, 2015, 521(7553): 436–444. doi: 10.1038/nature14539.
[63]HOWARD A G, ZHU Menglong, CHEN Bo, et al.Mobilenets: Efficient convolutional neural networks for mobile vision applications[EB/OL]. http://arxiv.org/abs/1704.04861, 2017.
[64]HUANG Gao, LIU Zhuang, VAN DER MAATEN L, et al.Densely connected convolutional networks[C]. The IEEE Conference on Computer Vision and Pattern Recognition,Honolulu, USA, 2017: 2261–2269. doi: 10.1109/CVPR.2017.243.
[65]GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. The 27th International Conference on Neural Information Processing Systems,Montreal, Canada, 2014: 2672–2680.
Research and Development on Applications of Convolutional Neural Networks of Radar Automatic Target Recognition
HE Fengshou①② HE You①③ LIU Zhunga① XU Cong’an③
①(Institute of Automation, Northwestern Polytechnical University, Xi’an 710129, China)
②(Aviation Key Laboratory of Science and Technology on AISSS, AVIC Leihua Electronic Technology Research Institute, Wuxi 214063, China)
Abstract: Automatic Target Recognition(ATR) is an important research area in the field of radar information processing. Because the deep Convolution Neural Network(CNN) does not need to carry out feature engineering and the performance of image classification is superior, it attracts more and more attention in the field of radar automatic target recognition. The application of CNN to radar image processing is reviewed in this paper.Firstly, the related knowledges including the characteristics of the radar image is introduced, and the limitations of traditional radar automatic target recognition methods are pointed out. The principle,composition, development of CNN and the field of computer vision are introduced. Then, the research status of CNN in radar automatic target recognition is provided. The detection and recognition method of SAR image are presented in detail. The challenge of radar automatic target recognition is analyzed. Finally, the new theory and model of convolution neural network, the new imaging technology of radar and the application to complex environments in the future are prospected.
Key words: Automatic Target Recognition (ATR); Object detection; Synthetic Aperture Radar (SAR);Convolutional Neural Network (CNN)
中图分类号:TN953
文献标识码:A
文章编号:1009-5896(2020)01-0119-13
DOI: 10.11999/JEIT180899
收稿日期:2018-09-18;改回日期:2019-02-18;网络出版:2019-03-21
*通信作者: 贺丰收 hefengshou1979@163.com
基金项目:国家自然科学基金(61672431, 61790550, 91538201)
Foundation Items: The National Natural Science Foundation of China (61672431, 61790550, 91538201)
③(Research Institute of Information Fusion, Naval Aeronautical University, Yantai 264001, China)
贺丰收:男,1979年生,高级工程师,博士生,研究方向为雷达数据处理,多源信息融合,深度神经网络等.
何 友:男,1956年生,中国工程院院士,博士生导师,研究方向为多源信息融合,信号检测,雷达数据处理等.
刘准钆:男,1984年生,教授,研究方向为多源信息融合,证据推理,模式识别.
徐从安:男,1987年生,博士,讲师,研究方向为多目标跟踪,信息融合等.
奥鹏易百网www.openhelp100.com专业提供网络教育各高校作业资源。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|www.openhelp100.com ( 冀ICP备19026749号-1 )

GMT+8, 2024-11-1 16:16

Powered by openhelp100 X3.5

Copyright © 2001-2024 5u.studio.

快速回复 返回顶部 返回列表