奥鹏易百

 找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 422|回复: 0

基于半监督学习的SAR目标检测网络

[复制链接]

2万

主题

27

回帖

6万

积分

管理员

积分
60146
发表于 2021-2-13 16:06:06 | 显示全部楼层 |阅读模式
扫码加微信
基于半监督学习的SAR目标检测网络
杜 兰* 魏 迪 李 璐 郭昱辰
(西安电子科技大学雷达信号处理国家重点实验室 西安 710071)
摘 要:现有的基于卷积神经网络(CNN)的合成孔径雷达(SAR)图像目标检测算法依赖于大量切片级标记的样本,然而对SAR图像进行切片级标记需要耗费大量的人力和物力。相对于切片级标记,仅标记图像中是否含有目标的图像级标记较为容易。该文利用少量切片级标记的样本和大量图像级标记的样本,提出一种基于卷积神经网络的半监督SAR图像目标检测方法。该方法的目标检测网络由候选区域提取网络和检测网络组成。半监督训练过程中,首先使用切片级标记的样本训练目标检测网络,训练收敛后输出的候选切片构成候选区域集;然后将图像级标记的杂波样本输入网络,将输出的负切片加入候选区域集;接着将图像级标记的目标样本也输入网络,对输出结果中的正负切片进行挑选并加入候选区域集;最后使用更新后的候选区域集训练检测网络。更新候选区域集和训练检测网络交替迭代直至收敛。基于实测数据的实验结果证明,所提方法的性能与使用全部样本进行切片级标记的全监督方法的性能相差不大。
关键词:合成孔径雷达;目标检测;半监督学习;卷积神经网络
1 引言
合成孔径雷达(Synthetic Aperture Radar,SAR)是一种主动式的对地观测系统,能够全天时全天候对地观测,广泛应用于民用监测领域和军事侦察领域。近年来,随着SAR领域相关技术的发展,对SAR图像进行快速准确的目标检测是该领域的关键技术,也是目前的技术研究热点。
现有的SAR图像目标检测方法中,双参数CFAR检测算法[1–3]是一种应用广泛的检测方法。该方法要求SAR图像中目标与背景杂波的对比度较高,并且假定背景杂波服从高斯分布,同时需要根据目标大小设置参考窗尺寸。在场景简单的情况下,该方法的检测效果较好,但是在复杂场景下检测性能较差。
随着深度学习技术的发展,卷积神经网络(Convolutional Neural Network, CNN)[4–9]的特征提取能力不断提升,基于CNN的目标检测算法[10–12]层出不穷。基于CNN的目标检测方法具有强大的特征提取能力和检测性能,因此将其应用于SAR图像目标检测能够获得较高的性能。文献[13]提出的基于CNN的SAR图像目标检测方法,可以在训练数据充足的情况下获得优异的检测性能,但是网络的训练依赖于切片级标记的训练样本以及扩充数据集,在切片级训练样本数量少的情况下,该方法的性能不佳。
现有的SAR图像目标检测方法依赖于大量的切片级标记训练样本,然而实际中对样本进行切片级标记十分耗时耗力。训练样本指训练时输入网络的SAR图像,切片级标记是对SAR图像中感兴趣目标的位置进行标记。对SAR图像进行切片级标记需要人工观察图像,在图像中复杂的人造杂波和自然杂波干扰的情况下,对感兴趣目标的位置和类别进行标记,人工标记的速度很慢;有的目标与杂波的区分度不高,人工标记很有可能漏标或者错标。相比之下,对SAR图像进行图像级标记较为容易,只需要标记SAR图像中是否含有感兴趣目标,不需要对目标位置进行标记。因此,在切片级标记的训练样本数量少的情况下,使用半监督学习方法对图像级标记的训练样本进行有效利用,是提升目标检测性能的一种解决方案。
早期的半监督学习方法主要利用人工特征和分类器进行自学习,文献[14]提出一种基于半监督自学习的目标检测方法,该方法首先对训练图像提取疑似目标切片,并对部分切片进行标记,接着利用标记样本训练分类器,然后利用训练好的分类器对未标记的切片进行分类,将分类置信度较高的样本加入到有标记样本集中,最后用更新的有标记样本集重新训练分类器。上述过程迭代进行直到不存在无标记样本。该方法在仅有少量目标切片标记的情况下,可以取得较好的性能,但是该方法需要选择合适的特征和分类器,在实际应用中较为困难。
将半监督学习方法与深度网络进行结合,可以避免选择特征和分类器的问题,并且网络的特征提取和分类器联合训练,可以取得较好的性能。文献[15]提出一种基于卷积神经网络的半监督学习方法,该方法提出候选区域提取网络和定位网络来提取候选区域和定位飞机,利用半监督学习框架从原始图像中自动挖掘和扩充训练数据集。该方法在对训练图像进行少量目标级标记的情况下,可以取得较好的性能,但是该方法仅从原始图像中挖掘负样本,会造成正负切片比例不均衡的问题,对结果造成不利影响;另外,该方法预测的目标尺寸固定,不能针对目标自动修正尺寸,对目标位置的预测不够精确。
针对以上问题,本文基于Faster R-CNN目标检测框架[12],在切片级标记SAR图像数量较少的情况下,将图像级标记SAR图像有效利用,提出一种基于CNN的半监督SAR图像目标检测方法。本文的主要工作包括:(1)基于Faster R-CNN目标检测框架,提出一种迭代挑选正负切片和训练网络交替进行的半监督学习方法,降低了网络对切片级标记样本的依赖程度;(2)通过网络获取负包,并将负包中的负切片加入候选区域集中,提高负切片的数量和多样性。由于本文方法同时挑选正切片和负切片,可以保证正负切片的比例均衡;此外,本文方法使用多任务深度网络,可以同时预测类别和位置,能够针对不同目标自适应地预测出准确的尺寸,对目标位置的预测较为精确。基于实测数据的实验结果表明,本文方法可以有效提升目标检测的性能,其性能与使用全部样本进行切片级标记的全监督方法的性能相差不大。
2 基于CNN的半监督SAR目标检测方法
本文提出的基于CNN的半监督SAR图像目标检测方法如图1所示。
本文方法的网络结构主要包括候选区域提取网络和检测网络。候选区域提取网络对SAR图像进行特征提取,并获得潜在的候选区域;然后将候选区域送入检测网络,检测网络对候选区域进一步分类和位置调整,获得最终的检测结果。
如图1,本文方法的训练过程分为3步:第1步使用蓝色框和蓝色箭头表示,使用切片级标记的SAR图像对候选区域提取网络和检测网络进行训练,并获得这些图像对应的候选区域集;第2步使用黄色框和黄色箭头表示,将图像级标记的杂波SAR图像输入网络,对输出切片进行挑选得到负包,将负包中的杂波切片加入候选区域集;第3步使用绿色框和绿色箭头表示,将图像级标记的目标SAR图像输入网络,对输出的正负切片进行挑选并去重复,然后挑选的切片加入到候选区域集中,最后使用更新的候选区域集对网络进行训练。第3步需要交替迭代进行直到收敛。
接下来分别介绍本文方法的网络结构和半监督学习方法。
2.1 网络结构
目标检测网络的网络结构主要包括候选区域提取网络和检测网络。候选区域提取网络和检测网络共享特征提取网络。
特征提取网络的结构如图2所示,该网络有3个卷积层,每个卷积层后面接着批归一化(Batch Normalization, BN)[16]层和修正线性单元(Rectified Linear Unit, ReLU)[17]层,前两个ReLU层的后面使用池化层对特征进行降维,3个卷积层的卷积核个数分别是64, 128和256,卷积核大小分别是11×11, 7×7和3×3,卷积步长分别是2, 1和1。
候选区域提取网络通过特征提取网络提取图像的特征,然后使用一个滑动的小网络,通过滑动窗口的方式访问特征图的每个位置,使用每个位置的特征预测得到候选区域。这个滑动的小网络将n×n大小的滑动窗口对应的特征作为输入,通过全连接映射到一个低维的特征,然后将低维特征送入两个全连接层,分别是边框回归层和分类层,全连接层的输出是预测的候选区域。
检测网络通过特征提取网络提取图像的特征,使用ROI池化获得候选区域对应的特征,然后将特征通过全连接层对候选区域进一步分类和位置调整。ROI池化首先在特征图上截取候选区域对应的特征块,然后将特征块均匀划分为 m×m个小格,对每个小格通过最大值池化降维,得到尺寸为m×m的特征。
2.2 半监督学习
2.2.1 半监督学习训练过程
本文提出的基于CNN的半监督SAR图像目标检测方法如图1所示,网络的半监督训练过程分为3步,具体算法步骤如下:
步骤 1
(1) 使用切片级标记的SAR图像,通过4步训练法[12]对候选区域提取网络和检测网络进行训练。

图 1 半监督SAR图像目标检测方法

图 2 特征提取网络
(2) 将切片级标记的SAR图像输入训练好的候选区域提取网络,网络的输出是输入图像对应的候选区域,通过与真实切片级标记进行比对,获得每个候选区域的标签,即可得到切片级标记的SAR图像对应的正切片和负切片,构成初始候选区域集。
步骤 2
将图像级标记的SAR图像集中的杂波类图像输入步骤1训练好的目标检测网络中,对网络的输出切片进行选择得到负包,将负包中的杂波切片加入候选区域集。
步骤 3
(1) 将图像级标记的SAR图像集中的目标类图像输入目标检测网络,对输出结果进行NMS去重复处理,得到检测结果,检测结果包括预测得到的正切片和负切片。
(2) 使用切片挑选模块对检测结果中的正负切片进行挑选,首先挑选出置信度大于阈值的切片,然后去掉与候选区域集中已有切片重复的切片,得到挑选出的切片。如果挑选出的切片数量占候选区域集中所有切片数量的比例小于设定的比例阈值,则说明已经收敛,停止训练;否则将挑选出的切片加入候选区域集,并继续进行下一步。
(3) 使用更新后的候选区域集对检测网络再次进行训练。训练时,使用上次训练好的模型进行参数初始化,并使用更新的数据集进行微调,训练好之后对网络进行测试,获得测试准确率,如果准确率与上次训练的准确率相比没有提升,则说明已经收敛,停止训练,否则继续进行下一步。
步骤(1)—步骤(3)交替进行直到收敛。
接下来详细介绍步骤2中的负包生成过程和步骤3中的切片挑选过程。
2.2.2 负包生成过程
将图像级标记的SAR图像集中的杂波图像输入到训练好的目标检测网络中,获取对应的检测结果,因为输入的是杂波图像,所以输出的所有切片都是杂波切片,选择每一幅图像的检测结果中置信度最高的前K 个杂波切片,作为该杂波图像的杂波切片集,称之为负包。由于此过程需要尽可能挑选出难分的杂波切片,并且要保证候选区域集中目标切片和杂波切片的比例不会失衡,因此 K不能设置的较高。
将杂波图像输入目标检测网络,可以获得大量尺寸不同并且背景多样的杂波切片,加入的杂波切片可以提升候选区域集中切片的多样性,提升检测网络的泛化能力。
2.2.3 切片挑选过程
将图像级标记的SAR图像集中的目标类图像输入目标检测网络,预测得到其对应的检测结果,检测结果包括每个预测目标切片和杂波切片的分类置信度和边框坐标。
对检测结果进行NMS去重复处理,并选择检测结果中目标切片和杂波切片的分类置信度大于阈值T s的切片,将挑选的切片与候选区域集中重复的切片删除。接下来介绍判断切片是否为重复切片的方法:
步骤 1 计算初始切片集中的切片与候选区域集中所有切片重叠率的最大值I OUmax。

初始切片集中第i个 切片的I OUmax,i的计算方法为其中C new,i表 示初始切片集中的第i个 切片,C old,j表示候选区域集中的第j 个切片,C new,i ∩Cold,j表示两个切片区域交集的面积, Cnew,i ∪Cold,j表示两个切片区域并集的面积。
步骤 2 如果 IOUmax,i 大于设定的阈值I OUT,则认为该切片是重复的,应该删除掉。
经过阈值挑选和去除重复后,计算挑选出的切片数量与候选区域集中切片数量的比例 β。如果β 大于等于β T,说明挑选出的新切片较多,这些新切片可以提升数据集中的切片的数量和多样性,新切片对网络的训练还会有较大的帮助,因此将挑选的切片加入候选区域集。如果 β小于设定的阈值βT,说明挑选出的新切片数量非常少,如果将新切片加入候选区域集,更新后的候选区域集与更新前相比差别非常小,训练后网络的泛化能力基本不会提升。所以当 β 小于β T时,迭代过程终止,半监督学习过程结束。
交替迭代的过程中,如果网络的测试准确率与上次训练的网络准确率相比没有提升,说明此时网络的性能与上次迭代训练好的网络的性能也没有提升,如果使用当前的网络继续挑选切片,挑选出的切片与上次迭代挑选出的切片就会非常相似,那么候选区域集就基本不会更新,再次训练的网络的性能也就不会提升。因此为了减小不必要的训练时间,如果准确率与上次训练的准确率相比没有提升,则说明网络的性能已经达到顶峰,可以停止交替迭代的过程。
3 实验结果与分析
3.1 实验数据集介绍
MiniSAR实测数据集[18]和FARADSAR实测数据集[19]是美国Sandia国家实验室分别在2006年和2015年公开的SAR图像数据集,分辨率为0.1 m×0.1 m,都是场景复杂的地面图像。实验将SAR图像中的车辆目标作为感兴趣目标。图3是MiniSAR数据集和FARADSAR数据集的示例。
3.2 评价准则和实验细节
为了验证本文方法的有效性,使用F1-score作为检测结果的性能评价指标。F1-score的计算公式为

其中, TP 是检测结果中的正确目标个数, FP是错误目标个数, NP是 真实目标个数, P是检测精度,R是召回率,F1-score是评价性能的主要指标。实验中随机选择30%的SAR训练子图像进行切片级标记,剩余的图像进行图像级标记。通过10次随机选择样本并进行10次重复实验,将得到的测试结果取平均作为最终的测试结果。实验中挑选切片的阈值Ts 为0.925,判断是否重复的重叠率阈值I OUT为0.8,判断网络是否收敛的新切片数量的比例阈值βT为0.03。
3.3 切片挑选方案和负包对网络性能的影响
对于MiniSAR数据集,实验对比了使用不同的挑选切片方案的性能,包括只挑选正切片,只挑选负切片,以及正负切片都挑选共3种方案,实验也对比了加入负包对性能的影响,负包是通过杂波SAR图像获得的杂波切片集合,负包数量是指使用杂波SAR子图像的数量。
使用不同的切片挑选方案以及加入负包的数量对应的实验结果如表1所示,表中数字加粗表示对应方案的F1-score最高。
实验结果表明对正切片和负切片都进行挑选的性能最佳。主要原因是只挑选正切片或负切片会使得候选区域集中某种切片的数量越来越多,造成正负切片比例不均衡的问题,影响网络的性能;对正负切片都进行挑选能保证候选区域集中正负切片的数量同时增加,不会造成正负切片的数量比例失衡,还可以提高切片的多样性,提升检测网络的性能。

图 3 数据集示例
表 1 不同方案的实验结果

实验结果还表明,当加入负包的数量增大时,在一定范围内,网络的性能不断提升,超过一定范围,网络的性能就会降低。主要原因是加入的负包提升了候选区域集中负切片的多样性,检测网络就具有更好的泛化性能;如果加入负包的数量过多,那么候选区域集中负切片的数量过多,会造成正负切片比例不均衡的问题,网络的性能就会降低。
3.4 与其他方法的检测结果对比
表2对比了不同方法的实验结果,其中Gaussian-CFAR使用文献[1]中的方法;Faster R-CNN-少部分切片级标记使用文献[13]中的网络,仅使用了少部分切片级标记的训练样本;Faster R-CNN-全部切片级标记使用文献[13]中的网络,对全部训练样本都进行了切片级标记;文献[14]方法使用原文的半监督算法框架,利用CFAR提取疑似切片,使用林肯特征训练SVM分类器;文献[15]方法使用原文的半监督算法框架,使用候选区域提取网络和定位网络,多次迭代挑选负切片并训练网络;本文方法基于Faster R-CNN网络,使用网络挑选杂波切片并得到负包,通过网络迭代挑选正负切片进行半监督学习。
从表2可以看出,Gaussian-CFAR方法的F1-score非常低,虚警很多,有很多检测结果是错误的;Faster R-CNN-少部分切片级标记的方法仅使用了少量的训练样本,其F1-score较低;文献[14]方法虽然召回率很高,能将大部分目标检测出来,但是检测精度较低,虚警较多;文献[15]方法的召回率较高,但是检测精度较低,虚警也较多;本文方法的检测精度, 召回率和F1-score都较高,相比其他方法有较大优势,本文方法检测虚警量较少,能检测出大部分的目标。对于MiniSAR数据集,本文方法的F1-score相比Faster R-CNN-少部分切片级标记的结果提升了0.1332,仅比Faster R-CNN-全部切片级标记的检测结果低0.0207;对于FARADSAR数据集,本文方法的F1-score相比Faster R-CNN-少部分切片级标记的结果提升了0.0379,仅比Faster R-CNN-全部切片级标记的检测结果低0.0128。因此,本文方法在仅使用少量切片级标记训练样本和大量图像级标记训练样本的情况下,与全监督方法的性能相差不大。
图4,图5,图6,图7,图8和图9分别表示Gaussian-CFAR, Faster R-CNN-少部分切片级标记,Faster R-CNN-全部切片级标记,文献[14]方法,文献[15]方法和本文方法在MiniSAR数据集上的测试结果;图10,图11,图12,图13,图14和图15分别表示上述方法在FARADSAR数据集上的测试结果,由于该数据集的测试图片较多,本节只展示了其中两幅测试图片的结果。图中绿色框表示检测正确的目标,红色框表示检测错误的目标,蓝色框表示未检测到的目标。实验结果表明在建筑物,树木和其它军事目标的区域中,Gaussian-CFAR的虚警非常多,Faster R-CNN-少部分切片级标记的方法的检测结果虚警较多,文献[14]方法和文献[15]方法也有较多虚警;本文方法的检测结果中的虚警最低;在车辆较为集中的区域,Gaussian-CFAR和Faster R-CNN-少部分切片级标记的方法的检测结果含有一些漏警,本文方法的漏警较少;本文方法与Faster R-CNN-全部切片级标记的测试结果相差不大。
表 2 不同方法的实验结果


图 4 MiniSAR数据集:Gaussian-CFAR的检测结果

图 5 MiniSAR数据集:Faster R-CNN-少部分切片级标记的检测结果

图 6 MiniSAR数据集:Faster R-CNN-全部切片级标记的检测结果

图 7 MiniSAR数据集:文献[14]方法的检测结果

图 8 MiniSAR数据集:文献[15]方法的检测结果

图 9 MiniSAR数据集:本文方法的检测结果

图 10 FARADSAR数据集:Gaussian-CFAR的检测结果

图 11 FARADSAR数据集:Faster R-CNN-少部分切片级标记的检测结果

图 12 FARADSAR数据集:Faster R-CNN-全部切片级标记的检测结果
本文方法性能较高的主要原因有两个方面:第一,本文方法使用半监督学习的方案训练目标检测网络,使用迭代挑选正负切片的方法对图像级标记图像进行有效利用,提升了网络的泛化性能;第二,本文方法通过将负包中的负切片加入候选区域集中,提高了候选区域集中负切片的多样性,提升了网络的泛化性能。

图 13 FARADSAR数据集:文献[14]方法的检测结果

图 14 FARADSAR数据集:文献[15]方法的检测结果

图 15 FARADSAR数据集:本文方法的检测结果
4 结论
本文研究了利用半监督学习方法对目标检测网络进行训练的方法,解决了现有方法对切片级标记的训练样本依赖程度高的问题。本文所提的半监督学习方法仅需要对训练样本中少部分样本进行切片级标记,剩余大部分样本进行图像级标记。本文方法不依赖于具体的目标检测算法,可以适用于任何两阶段目标检测器。基于实测数据的实验结果证明了在切片级标记训练样本数量少的情况下,本文方法在SAR图像目标检测中可以获得较好的性能,并且使用本文方法训练得到的模型的性能,与全部训练样本切片级标记训练的全监督方法的性能相差不大。
参 考 文 献
[1]NOVAK L M, BURL M C, and IRVING W W. Optimal polarimetric processing for enhanced target detection[J].IEEE Transactions on Aerospace and Electronic Systems,1993, 29(1): 234–244. doi: 10.1109/7.249129.
[2]XING X W, CHEN Z L, ZOU H X, et al. A fast algorithm based on two-stage CFAR for detecting ships in SAR images[C]. The 2nd Asian-Pacific Conference on Synthetic Aperture Radar, Xi’an, China, 2009: 506–509. doi: 10.1109/APSAR.2009.5374119.
[3]LENG Xiangguang, JI Kefeng, YANG Kai, et al. A bilateral CFAR algorithm for ship detection in SAR images[J]. IEEE Geoscience and Remote Sensing Letters, 2015, 12(7):1536–1540. doi: 10.1109/LGRS.2015.2412174.
[4]LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278–2324. doi: 10.1109/5.726791.
[5]HINTON G E and SALAKHUTDINOV R R. Reducing the dimensionality of data with neural networks[J]. Science,2006, 313(5786): 504–507. doi: 10.1126/science.1127647.
[6]KRIZHEVSKY A, SUTSKEVER I, and HINTON G E.ImageNet classification with deep convolutional neural networks[C]. The 25th International Conference on Neural Information Processing Systems, Lake Tahoe, USA, 2012:1097–1105.
[7]SIMONYAN K and ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J].arXiv: 1409.1556, 2014.
[8]SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1–9.doi: 10.1109/CVPR.2015.7298594.
[9]HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition,Las Vegas, USA, 2016: 770–778. doi: 10.1109/CVPR.2016.90.
[10]GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA,2014: 580–587. doi: 10.1109/CVPR.2014.81.
[11]GIRSHICK R. Fast R-CNN[C]. 2015 IEEE International Conference on Computer Vision, Santiago, Chile, 2015:1440–1448. doi: 10.1109/ICCV.2015.169.
[12]REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster RCNN: Towards real-time object detection with region proposal networks[C]. The 28th International Conference on Neural Information Processing Systems, Montréal, Canada,2015: 91–99.
[13]杜兰, 刘彬, 王燕, 等. 基于卷积神经网络的SAR图像目标检测算法[J]. 电子与信息学报, 2016, 38(12): 3018–3025. doi:10.11999/JEIT161032.DU Lan, LIU Bin, WANG Yan, et al. Target detection method based on convolutional neural network for SAR image[J]. Journal of Electronics & Information Technology,2016, 38(12): 3018–3025. doi: 10.11999/JEIT161032.
[14]ROSENBERG C, HEBERT M, and SCHNEIDERMAN H.Semi-supervised self-training of object detection models[C].The 7th IEEE Workshops on Applications of Computer Vision, Breckenridge, USA, 2005: 29–36. doi: 10.1109/ACVMOT.2005.107.
[15]ZHANG Fan, DU Bo, ZHANG Liangpei, et al. Weakly supervised learning based on coupled convolutional neural networks for aircraft detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(9): 5553–5563.doi: 10.1109/TGRS.2016.2569141.
[16]IOFFE S and SZEGEDY C. Batch normalization:Accelerating deep network training by reducing internal covariate shift[C]. The 32nd International Conference on Machine Learning, Lille, France, 2015: 448–456.
[17]GLOROT X, BORDES A, and BENGIO Y. Deep sparse rectifier neural networks[C]. The 14th International Conference on Artificial Intelligence and Statistics, Fort Lauderdale, USA, 2011: 315–323.
[18]GUTIERREZ D. MiniSAR: A review of 4-inch and 1-foot resolution Ku-band imagery[EB/OL]. https://www.sandia.gov/radar/Web ... ight-SAR-images.pdf, 2005.
[19]FARADSAR public Release Data[EB/OL]. https://www.sandia.gov/radar/complex_data/FARAD_KA_BAND.zip.
SAR Target Detection Network via Semi-supervised Learning
DU Lan WEI Di LI Lu GUO Yuchen
(National Laboratory of Radar Signal Processing, Xidian University, Xi’an 710071, China)
Abstract: The current Synthetic Aperture Radar (SAR) target detection methods based on Convolutional Neural Network (CNN) rely on a large amount of slice-level labeled train samples. However, it takes a lot of labor and material resources to label the SAR images at slice-level. Compared to label samples at slice-level, it is easier to label them at image-level. The image-level label indicates whether the image contains the target of interest or not. In this paper, a semi-supervised SAR image target detection method based on CNN is proposed by using a small number of slice-level labeled samples and a large number of image-level labeled samples. The target detection network of this method consists of region proposal network and detection network. Firstly, the target detection network is trained using the slice-level labeled samples. After training convergence, the output slices constitute the candidate region set. Then, the image-level labeled clutter samples are input into the network and then the negative slices of the output are added to the candidate region set. Next, the image-level labeled target samples are input into the network as well. After selecting the positive and negative slices in the output of the network, they are added to the candidate region set. Finally, the detection network is trained using the updated candidate region set. The processes of updating candidate region set and training detection network alternate until convergence. The experimental results based on the measured data demonstrate that the performance of the proposed method is similar to the fully supervised training method using a much larger set of slice-level samples.
Key words: SAR; Target detection; Semi-supervised learning; Convolutional Neural Network (CNN)
中图分类号:TN957.51
文献标识码:A
文章编号:1009-5896(2020)01-0154-10
DOI: 10.11999/JEIT190783
收稿日期:2019-10-12;改回日期:2019-12-05;网络出版:2019-12-09
*通信作者: 杜兰 dulan@mail.xidian.edu.cn
基金项目:国家自然科学基金(61771362, U1833203, 61671354),高等学校学科创新引智计划(B18039),陕西省重点科技创新团队计划
Foundation Items: The National Science Foundation of China (61771362, U1833203, 61671354), 111 Project (B18039), Shaanxi Provience Innovation Team Project
杜 兰:女,1980年生,教授,博士生导师,研究方向为统计信号处理、雷达信号处理、机器学习及其在雷达目标检测与识别方面的应用.
魏 迪:男,1995年生,硕士生,研究方向为雷达目标检测与识别,机器学习等.
李 璐:女,1992年生,博士生,研究方向为机器学习和目标检测识别等.
郭昱辰:男,1992年生,博士生,研究方向为雷达目标检测与识别.
奥鹏易百网www.openhelp100.com专业提供网络教育各高校作业资源。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|www.openhelp100.com ( 冀ICP备19026749号-1 )

GMT+8, 2024-11-1 16:22

Powered by openhelp100 X3.5

Copyright © 2001-2024 5u.studio.

快速回复 返回顶部 返回列表