奥鹏易百

 找回密码
 立即注册

扫一扫,访问微社区

QQ登录

只需一步,快速开始

查看: 358|回复: 0

基于多通道调频连续波毫米波雷达的微动手势识别

[复制链接]

2万

主题

27

回帖

6万

积分

管理员

积分
60146
发表于 2021-2-13 16:06:29 | 显示全部楼层 |阅读模式
扫码加微信
基于多通道调频连续波毫米波雷达的微动手势识别
夏朝阳 周成龙 介钧誉 周 涛 汪相锋 徐 丰*
(复旦大学电磁波信息科学教育部重点实验室 上海 200433)
摘 要:该文提出一种基于多通道调频连续波(FMCW)毫米波雷达的微动手势识别方法,并给出一种微动手势特征提取的最优雷达参数设计准则。通过对手部反射的雷达回波进行时频分析处理,估计目标的距离多普勒谱、距离谱、多普勒谱和水平方向角度谱。设计固定帧时间长度拼接的距离-多普勒-时间图特征,与距离-时间特征、多普勒-时间特征、水平方向角度-时间图特征和三者联合特征等,分别对7类微动手势进行表征。根据手势运动过程振幅和速度差异,进行手势特征捕获和对齐。利用仅有5层的轻量化卷积神经网络对微动手势特征进行分类。实验结果表明,相较其他特征,设计的距离-多普勒-时间图特征能够更为准确地表征微动手势,且对未经训练的测试对象具有更好的泛化能力。
关键词:毫米波雷达;微动手势识别;调频连续波;卷积神经网络
1 引言
手势识别技术在人机交互领域具有重要的应用价值,可用于智能家居[1]、智能驾驶[2]、VR[3]、手语实时翻译[4]、游戏控制[5]等多种应用场景。
现有的手势识别方法主要包括基于穿戴式传感器[4],基于可见光[6]、红外[7]、深度[8]等视觉图像,基于超声波[9],基于TV[10], RFID[10,11], Wi-Fi[12]等非宽带无线通信信号和基于雷达5种。其中穿戴式传感器方法要求人体携带设备,适用场景有限;视觉图像方法受光照条件影响明显,且存在泄露用户隐私的风险;超声波方法受传播速度和衍射影响明显;非宽带无线通信信号方法分辨率低,难以滤除背景干扰。
基于雷达的手势识别方法主要采用连续波多普勒雷达[1 3]、脉冲超宽带雷达[2]和调频连续波(Frequency Modulated Continuous Wave, FMCW)雷达[14–19]3种雷达体制。其中连续波多普勒雷达抗干扰能力差,且雷达带宽较小,距离向分辨率低,无法通过信号处理的手段滤除距离向干扰。脉冲超宽带雷达利用目标回波信号与发射信号之间的时间差测量距离,相比FMCW雷达,精确的时间差测量、信号调制和信号处理等过程对系统硬件性能要求较高,因此成本较高。
近年来,随着FMCW毫米波雷达芯片的大规模商用,FMCW毫米波雷达在手势识别技术上的应用潜力引起了关注。FMCW雷达的优势在于硬件成本低,测距、测速方案简单,抗干扰能力强,而高频率大带宽的毫米波能够带来更好的速度分辨率和距离分辨率。2015年,谷歌公开演示了利用60 GHz频段FMCW毫米波雷达芯片实现近距离微动手势识别的Soli[14–16]项目。Soli团队采用基于多达七百多种特征的随机森林方法[14]和基于距离多普勒特征的端到端卷积循环神经网络方法[15]进行手势分类,分别能够实现4种微动手势92.1%和11种中小运动幅度手势87%的平均分类准确率。Soli的芯片供应商英飞凌采用基于序列的距离多普勒特征图像训练的长循环全卷积神经网络方法[16]进行手势识别,能够实现5种微动手势94.34%的平均分类准确率。德州仪器公司基于自研77 GHz频段毫米波雷达芯片,利用隐马尔可夫方法[17]能够实现6种中等运动幅度手势83.3%的平均分类准确率。文献[18]中采用基于手势动作的距离、多普勒和角度多维参数特征进行卷积神经网络分类的方法,能够实现6种大运动幅度手势95.3%的平均分类准确率。
然而,现有的基于FMCW毫米波雷达的手势识别方法主要侧重于分类特征的融合或分类方法的研究,未对雷达参数设计和手势特征表征能力对分类的影响进行深入研究,仍然存在手势特征不能有效融合、难以表征微动手势的问题。例如,文献[14]采用过多的手势特征进行组合,一些较差的手势特征容易导致最终的手势表征能力变差;文献[15,16]中采用原始的距离多普勒特征,文献[17]中采用速度能量分布特征,均不足以准确表征类别较多、存在相似特征的多种手势动作;文献[18]中采用距离谱、多普勒谱和角度谱联合的多维参数特征,其中距离谱和角度谱难以准确表征距离、角度变化不明显的微动手势,因而与多普勒谱特征联合后表征能力反而变差,仅适用于运动幅度较大的手势表征。
针对上述问题,本文提出基于多通道FMCW毫米波雷达的微动手势识别方法,设计固定帧时间长度的距离多普勒振幅分布拼接特征,通过最优雷达参数设计实现高速度分辨率,从而能够有效表征微动手势,并通过多通道距离多普勒谱非相干叠加平均,获得信噪比明显提升的距离-多普勒-时间图特征。
2 原理与方法
本文所提基于多通道FMCW毫米波雷达的微动手势识别方法,主要包括雷达最优参数设计、手势特征提取、手势数据集构建和卷积神经网络(Convolutional Neural Network, CNN)结构设计4个部分。其中,雷达最优参数设计部分阐述了如何设计合适的雷达参数,从而能够准确表征微动手势;手势特征提取部分阐述了从雷达回波中获得距离多普勒谱、距离谱、多普勒谱和角度谱的过程;手势数据集构建部分阐述了构造手势特征图像和构建特征图像数据集的过程;CNN结构设计部分阐述了针对雷达手势特征图像设计的轻量化卷积神经网络的主要结构。
2.1 最优雷达参数设计
为了能够对微小的手势动作进行表征,需要进行合适的雷达参数设计,这里给出一种利用FMCW雷达提取微动手势特征的最优雷达参数设计准则。
雷达参数主要包括发射天线数N Tx、接收天线数N Rx 、调频起始频率f 1 、调频斜率K s、调频周期Tc 、每帧调频周期数N chirp 、帧周期T f、一个周期ADC采样点数 Nadc 、ADC采样周期T adc、ADC采样率 Fs等,这些参数由应用场景的最大测量距离dmax 、距离分辨率d res 、最大测量速度v max、速度分辨率v res 与帧率f rate等主要指标来确定,几种指标分别满足公式

其中,c为光速, λ为调频中心频率对应波长,B为有效调频带宽,B由调频斜率 Ks和ADC采样周期Tadc共同确定

因此,可通过对任一调频周期m对应的时域中频采样信号做快速傅里叶变换(Fast Fourier Transform, FFT)得到与目标距离相关的中频信号频率分布f IF(n)(n =1,2,···,Nadc),也可通过对任一采样点n对应的一个调频周期序列做FFT得到与目标速度相关的多普勒频移分布∆ fd(m) (m =1,2,···,Nchirp),其中N adc =Fs·Tc为 每调频周期采样数,N chirp为每帧调频周期数。
对一个帧周期内N chirp 个调频周期的N adc 个中频信号采样点数据分别做距离FFT和多普勒FFT后即可得到帧时间即慢时间t slow时刻目标场景的距离多普勒谱分布。
对距离多普勒谱分布做恒虚警率(Constant False Alarm Rate, CFAR)检测可以得到单个目标的距离索引和速度索引,分别将目标距离索引对应的多普勒分布和目标速度索引对应的距离分布按帧时间拼接,可以得到多普勒谱和距离谱,将多个水平或垂直方向虚拟通道、同一距离索引和速度索引对应的复振幅组合,做角度FFT可以得到水平或垂直方向角度分布,将其按帧时间拼接,可以得到水平或垂直方向角度谱。
2.3 手势数据集构建
为了构建包含距离、速度和角度信息的手势数据集,在雷达视场角范围内做预设计的手势动作,对接收到的雷达回波数据进行2.2节中的处理。为了能够实时捕捉完整的手势,设计帧时间长度为Nf的滑动帧窗,对应观测时长大于所设计手势动作时长,将角度谱、单通道距离多普勒谱、通道平均距离多普勒谱、通道平均距离谱和通道平均多普勒谱分别送入滑动窗,当帧窗填充满时,滑动窗中前Nf −1帧 的数据被前一帧时刻后N f −1帧的数据替换,最后一帧填充新的数据;设定振幅阈值和速度阈值,进行动作帧判定,进而进行滑动帧窗内的特征分割,确定特征的开始帧和结束帧,捕获超过阈值的完整手势特征,并将手势特征对齐到滑动窗的中央位置,然后保存当前帧窗内的特征分布,并清空当前帧窗内数据;重复多次以上过程,保存多个人、多类手势的多组手势特征数据,建立多种手势特征对应的数据集,用于手势分类模型的训练。
由于毫米波雷达的阵元间距小,天线阵列集中在一个很小的区域,各个数据通道获得的距离与多普勒特征基本一致,而背景噪声是呈随机分布的,可以通过多通道非相干叠加平均来抑制距离与多普勒特征的背景噪声,提高手势特征的信噪比。
手势特征的帧窗长度设置需要综合考虑所设计手势动作的时间长度和实时性选取,如果帧窗长度偏短,无法完整捕捉持续时间长或有些对象做的慢的手势动作,如果帧窗长度太长,得到一次手势特征的时间较长,不利于实时手势识别的应用。
2.4 卷积神经网络结构设计
根据雷达特征图像的像素尺寸较小、特征区域呈上下或左右对称分布等特点,设计了仅包含5层的轻量化卷积神经网络结构,包括3个2维卷积层,每一卷积层后分别连接1个RELU激活函数层、1个批标准化层和 1个池化层;后接2个全连接层,第1个全连接层连接1个dropout层,第2个全连接层连接第4个RELU激活函数层;最后是softmax层,用于输出分类结果和相似度分布数组。
3 实验与结果分析
3.1 实验环境
Client/Server是一种请求-响应模型,在一次完整的通信过程中,Client与Server之间将完成以下步骤:
3.2 构建手势数据集

图 1 实验流程图
设计如图2所示的食指双击、食指顺时针绕圈、食指逆时针绕圈、食指拇指分开、食指拇指并拢、拇指在食指上前搓动和拇指在食指上后搓动等7类手部整体不发生明显平移、仅有手指运动的微动手势。由7名实验人员分别在距离雷达0.5 m以内,雷达视场角范围内的不同3维空间位置做指定手势动作,根据2.2节和2.3节的过程获取7类微动手势对应各50组如图2所示的单通道距离-多普勒-时间图(Single Channel Range-Doppler-Time-Map,SC-RDTM)、通道平均距离-多普勒-时间图(Channel Average Range-Doppler-Time-Map, CA-RDTM)、通道平均多普勒-时间图(Channel Average Doppler-Time-Map, CA-DTM)、通道平均距离-时间图(Channel Average Range-Time-Map, CA-RTM)、水平方向角度-时间图(Horizontal-Angle-Time-Map, HATM)等5种手势特征图像(缩放为64×64大小后),每种手势特征对应7人×7类×50张图像样本构成的手势数据集。
3.3 训练与分类
根据输入手势特征图像的通道数,将CNN的图像输入层尺寸设置为64×64×1或64×64×3,输入的特征图像需要被进行缩放,缩放后的手势特征图像如图2所示,为了弥补手势特征在图像水平方向的位置差异,设置水平方向左移5个像素到右移5个像素的数据增强,采用动量梯度下降优化器,0.001的恒定学习率,迭代20个Epochs,每次迭代的批样本数(batch size)为64,每个Epoch迭代次数为112,采用GPU加速训练,在训练过程中进行测试集的验证,每迭代50次测试一次数据集,一次完整的训练和测试过程需要耗时3 min左右。

图 2 7类微动手势的动作示意图与5种特征图
为了验证手势特征中帧窗长度对手势识别性能的影响,分别获取6帧、8帧、10帧和15帧时间长度,5名实验对象7类微动手势各50组的CA-RDTM特征对应的手势特征数据集,利用相同的单通道CNN方法进行训练和测试,训练测试比为6:4,准确率对比如表1所示,可以看出少于10帧的数据集由于不能完整捕捉部分手势,分类表现较差,而15帧的数据集相比10帧的数据集,虽然帧数增加了5帧,分类准确率并没有明显的提升,在带来更大的内存开销的同时也会影响实时性,因此本文选择10帧时间长度来表征7种微动手势。
表 1 不同时间长度特征的分类准确率对比(%)

3.4 多种手势表征方法对比
实验采用的多通道FMCW毫米波雷达设备为TI公司的AWR1642-BOOST开发板,支持77~81 GHz最大4 GHz的调频带宽,水平和垂直方向视场角均为±60°,支持最多2个发射天线和4个接收天线。采用TI公司的DCA1000高速数据采集卡获取毫米波雷达芯片输出的中频信号采样数据,并经由以太网传输到戴尔OptiPlex 7010 Mino Tower台式机上(Windows10 64位操作系统,Inter®CoreTM i7-3370 4核CPU@3.40 GHz, 16 GB内存,2 GB显存NVIDIA GeForce GTX 760显卡),在MATLAB 2018b中进行数据处理以及CNN训练与分类。实验使用2发4收的天线阵列以时分复用的MIMO方式构成1维虚拟天线阵列,包含8个数据通道。雷达主要参数设置为特征帧长10,每帧Chirp数128,每个Chirp采样点数64,调频频率范围77~81 GHz,实验流程如图1所示。
首先将7名实验对象的手势数据集按实验对象划分为5:2的比例,其中5名实验对象作为训练对象,另外2名实验对象作为测试对象,之后将5名训练对象的手势数据集按照6:4的比例分成训练集和测试集,每类训练样本数150,每类测试样本数100,共计1050个训练样本和700个测试样本,顺序被随机打乱后输入卷积神经网络进行训练和测试,对6种手势特征对应的7类微动手势的平均分类准确率如表2所示。
将包含2名测试对象,6种手势特征,7类手势各50张图像样本的手势数据集作为对象未经训练的测试集,分别用来测试6种手势特征对应的CNN分类模型的泛化能力,对7类微动手势的平均分类准确率如表3所示。
对比表2和表3可以看出,本文设计的通道平均距离-多普勒-时间图(CA-RDTM)特征对训练对象和测试对象的7类微动手势分类均能够获得最高的平均分类准确率,CA-RDTM特征优于SC-RDTM特征的原因是多通道平均能够有效提升雷达特征图像的信噪比(SNR)。为了定量对比两种特征的SNR,取图2中7类手势的CA-RDTM与SC-RDTM的第5帧(平均振幅最大的帧)中最大振幅和背景区域40个点的振幅均值的比值作为其SNR参照,如图3所示,手势类别索引1~7分别对应图2中(a)~(g)的7类手势,可以看出7类手势的RDTM特征经过8个通道的非相干叠加平均,能够提升2.5~4倍的信噪比。
单通道距离-多普勒-时间图(SC-RDTM)特征的平均分类准确率仅次于通道平均距离-多普勒-时间图(CA-RDTM)特征,两者分类表现差异不大,实际应用中可以综合考虑是否需要角度信息以及多通道的内存占用消耗来选择采用单通道还是通道平均。
CA-DTM特征取得了与RDTM特征接近的分类表现,明显优于CA-RTM与HATM特征,说明单独的DTM特征也能够比较有效地区分7类微动手势,是决定RDTM特征和多通道联合特征分类表现的主要特征,而融合了距离特征的RDTM特征能够进一步获得更好的分类表现,验证了融合的有效性。
单一的CA-RTM特征和HATM特征表现不佳,主要是因为微动手势的距离和角度变化不明显,而将微动手势表征能力差的CA-RTM特征和HATM特征与CA-DTM特征在CNN中进行通道融合会明显降低分类表现,说明这种融合方法不可取。
表 2 多种手势表征方法的对比

表 3 多种手势表征方法的对比


图 3 单通道与8通道平均的手势帧RD图信噪比对比
对比表2和表3中利用相同分类特征和分类方法对5名训练对象和2名测试对象的平均分类准确率可以看出,本文设计的分类特征和分类方法对训练集中有对应样本的训练对象的分类表现优异,但对训练集中没有对应样本的测试对象的分类表现不佳,说明模型的泛化能力还有进一步的提升空间,一方面可以考虑采集大量训练对象的样本进行训练,另一方面可以考虑改进CNN的结构和参数设计。
基于本文设计的CA-RDTM特征对5名训练对象和2名测试对象做的7类微动手势分类的混淆矩阵分别如表4、表5和表6所示。表4中,食指拇指并拢和拇指在食指上后搓动2类手势有一定程度混淆,是因为当2类手势的距离变化差异不大,且前者的运动速度较小时,2种手势的距离多普勒谱随时间变化过程比较近似;表5中,食指顺时针绕圈和食指逆时针绕圈2类手势的混淆程度较高,是因为这2类手势的定义规定了起始点为所绕圆圈的最右端,未经训练的测试对象在做这两类手势时,若起始点位置不合理,距离多普勒特征容易混淆。因此,在设计手势动作时应该考虑特征参数的相似性,在进行特征参数计算时可以考虑对分类特征相似的手势加入一些约束条件进行进一步区分。
4 结论
本文提出了一种基于多通道FMCW毫米波雷达的微动手势识别方法,给出了能够有效表征微动手势的雷达参数设计方法。针对雷达特征图像设计了仅有3个卷积层和2个全连接层的轻量化卷积神经网络,利用SC-RDTM, CA-RDTM, CA-DTM,CA-RTM, HATM以及RTM、DTM与HATM联合等6种雷达特征对应的7类微动手势数据集进行训练和测试,并分别对5名包含在训练样本中的训练对象和2名未包含在训练样本中的测试对象进行分类。分类结果显示,相比其他特征,本文设计的距离-多普勒-时间图特征能够有效融合距离-时间和多普勒-时间特征,取得最优的分类表现,对5名训练对象的平均分类准确率为99.14%,对2名测试对象的平均分类准确率分别为87.71%和85.43%,证明本文提出的微动手势识别方法不仅具有更好的微动手势表征能力,而且具有较好的测试对象泛化能力。
表 4 7种微动手势分类的混淆矩阵

表 5 测试对象A 7类微动手势分类的混淆矩阵

表 6 测试对象B 7类微动手势分类的混淆矩阵

参 考 文 献
[1]WAN Qian, LI Yiran, LI Changzhi, et al. Gesture recognition for smart home applications using portable radar sensors[C]. The 2014 36th Annual International Conference of the IEEE Engineering in Medicine and Biology Society, Chicago, USA, 2014: 6414–6417.
[2]KHAN F, LEEM S K, and CHO S H. Hand-based gesture recognition for vehicular applications using IR-UWB radar[J]. Sensors, 2017, 17(4): 833. doi: 10.3390/s17040833.
[3]XIA Zia, SANG Xinzhu, CHEN Duo, et al. An interactive VR system based on full-body tracking and gesture recognition[C]. The SPIE 10021, Optical Design and Testing VⅡ, Beijing, China 2016: 1002129.
[4]LEE B G and LEE S M. Smart wearable hand device for sign language interpretation system with sensors fusion[J].IEEE Sensors Journal, 2018, 18(3): 1224–1232. doi:10.1109/JSEN.2017.2779466.
[5]TARANTA Ⅱ E M, SIMONS T K, SUKTHANKAR R, et al. Exploring the benefits of context in 3D gesture recognition for game-based virtual environments[J]. ACM Transactions on Interactive Intelligent Systems, 2015, 5(1):Article No.1.
[6]BONATO V, FERNANDES M M, and MARQUES E. A smart camera with gesture recognition and SLAM capabilities for mobile robots[J]. International Journal of Electronics, 2006, 93(6): 385–401. doi: 10.1080/0020 7210600565465.
[7]孟春宁, 吕建平, 陈萱华. 基于普通红外摄像机的手势识别[J].计算机工程与应用, 2015, 51(16): 17–22. doi: 10.3778/j.issn.1002-8331.1504-0303.MENG Chunning, LÜ Jianping, and CHEN Xuanhua.Gesture recognition based on universal infrared camera[J].Computer Engineering and Applications, 2015, 51(16):17–22. doi: 10.3778/j.issn.1002-8331.1504-0303.
[8]PLOUFFE G and CRETU A M. Static and dynamic hand gesture recognition in depth data using dynamic time warping[J]. IEEE Transactions on Instrumentation and Measurement, 2016, 65(2): 305–316. doi: 10.1109/TIM.2015.2498560.[9]YANG Qifan, TANG Hao, ZHAO Xuebing, et al. Dolphin:Ultrasonic-based gesture recognition on smartphone platform[C]. The 2014 IEEE 17th International Conference on Computational Science and Engineering, Chengdu,China, 2014: 1461–1468.
[10]KELLOGG B, TALLA V, and GOLLAKOTA S. Bringing gesture recognition to all devices[C]. The 11th Usenix Conference on Networked Systems Design and Implementation, Seattle, USA, 2014: 303–316.
[11]ZOU Yongpan, XIAO Jiang, HAN Jinsong, et al. GRfid: A device-free RFID-based gesture recognition system[J]. IEEE Transactions on Mobile Computing, 2017, 16(2): 381–393.doi: 10.1109/TMC.2016.2549518.
[12]ABDELNASSER H, YOUSSEF M, and HARRAS K A.WiGest: A ubiquitous WiFi-based gesture recognition system[C]. Proceedings of IEEE Conference on Computer Communications, Hongkong, China, 2015: 1472–1480.
[13]ZHANG Jiajun, TAO Jinkun, and SHI Zhiguo. Dopplerradar based hand gesture recognition system using convolutional neural networks[C]. The 2017 International Conference on Communications, Signal Processing, and Systems, Singapore, 2019: 1096–1113.
[14]LIEN J, GILLIAN N, KARAGOZLER M, et al. Soli:Ubiquitous gesture sensing with millimeter wave radar[J].ACM Transactions on Graphics, 2016, 35(4): Article No.142.
[15]WANG Saiwen, SONG Jie, LIEN J, et al. Interacting with Soli: Exploring fine-grained dynamic gesture recognition in the radio-frequency spectrum[C]. The 29th Annual Symposium on User Interface Software and Technology,Tokyo, Japan, 2016: 851–860.
[16]HAZRA S and SANTRA A. Robust gesture recognition using Millimetric-wave radar system[J]. IEEE Sensors Letters, 2018, 2(4): 7001804.
[17]MALYSA G, WANG Dan, NETSCH L, et al. Hidden Markov model-based gesture recognition with FMCW radar[C]. 2016 IEEE Global Conference on Signal and Information Processing, Washington, USA, 2016: 1017–1021.
[18]王勇, 吴金君, 田增山, 等. 基于FMCW雷达的多维参数手势识别算法[J]. 电子与信息学报, 2019, 41(4): 822–829. doi:10.11999/JEIT180485.WANG YONG, WU Jinjun, TIAN Zengshan, et al. Gesture recognition with multi-dimensional parameter using FMCW radar[J]. Journal of Electronics & Information Technology,2019, 41(4): 822–829. doi: 10.11999/JEIT180485.
[19]刘熠辰, 徐丰. 基于雷达技术的手势识别[J]. 中国电子科学研究院学报, 2016, 11(6): 609–613. doi: 10.3969/j.issn.1673-5692.2016.06.009.LIU Yichen and XU Feng. Gesture recognition based on radar technology[J]. Journal of CAEIT, 2016, 11(6):609–613. doi: 10.3969/j.issn.1673-5692.2016.06.009.
Micro-motion Gesture Recognition Based on Multi-channel Frequency Modulated Continuous Wave Millimeter Wave Radar
XIA Zhaoyang ZHOU Chenglong JIE Junyu ZHOU Tao WANG Xiangfeng XU Feng
(Key Laboratory for Information Science of Electromagnetic Waves(MoE),Fudan University, Shanghai 200433, China)
Abstract: A micro-motion gesture recognition method based on multi-channel Frequency Modulated Continuous Wave (FMCW) millimeter wave radar is proposed, and an optimal radar parameter design criterion for feature extraction of micro-motion gestures is presented. The time-frequency analysis process is performed on the radar echo reflected by the hand, and the range Doppler spectrum, the range spectrum, the Doppler spectrum and the horizontal direction angle spectrum of the target are estimated. Then the range-Doppler-timemap feature is designed, range-time-map feature, Doppler-time-map feature, horizontal-angle-time-map feature,and three-joint feature with fixed frame time length are used to characterize the 7 classes micro-motion gestures, respectively. And these gesture features are captured and aligned according to the difference in amplitude and speed of the gesture motion process. Then a five-layer lightweight convolutional neural network is designed to classify the gesture features. The experimental results show that, the range-Doppler-time-map feature designed in this paper characterizes the micro-motion gesture more accurately and has a better generalization ability for untrained test objects compared with other features.
Key words: Millimeter wave radar; Micro-motion gesture recognition; Frequency Modulated Continuous Wave(FMCW); Convolutional Neural Network(CNN)
中图分类号:TN958.94
文献标识码:A
文章编号:1009-5896(2020)01-0164-09
DOI: 10.11999/JEIT190797
收稿日期:2019-10-16;改回日期:2019-11-27;网络出版:2019-12-09
*通信作者: 徐丰 fengxu@fudan.edu.cn
基金项目:国家自然科学基金(61822107)
Foundation Item: The National Natural Science Foundation of China (61822107)
夏朝阳:男,1993年生,博士生,研究方向为雷达信号处理、目标识别和深度学习.
周成龙:男,1995年生,硕士生,研究方向为雷达目标识别和深度学习应用.
介钧誉:男,1993年生,硕士生,研究方向为雷达目标识别和深度学习应用.
周 涛:男,1996年生,硕士生,研究方向为雷达目标识别和深度学习应用.
汪相锋:男,1995年生,硕士生,研究方向为雷达目标识别和深度学习应用.
徐 丰:男,1982年生,教授,博士生导师,研究方向为SAR图像解译、电磁散射建模和类脑人工智能.
奥鹏易百网www.openhelp100.com专业提供网络教育各高校作业资源。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|www.openhelp100.com ( 冀ICP备19026749号-1 )

GMT+8, 2024-11-1 16:36

Powered by openhelp100 X3.5

Copyright © 2001-2024 5u.studio.

快速回复 返回顶部 返回列表