源自:雷达学报
作者:黄钟泠, 吴冲, 姚西文
“人工智能技术与咨询” 发布
摘 要
合成孔径雷达(SAR)目标识别智能算法目前仍面临缺少鲁棒性、泛化性和可解释性的挑战,理解SAR目标微波特性并将其结合先进的深度学习算法,实现高效鲁棒的SAR目标识别,是目前领域较为关注的研究重点。SAR目标特性反演方法通常计算复杂度较高,难以结合深度神经网络实现端到端的实时预测。为促进SAR目标物理特性在智能识别任务中的应用,发展高效、智能、可解释的微波物理特性感知方法至关重要。该文将高分辨SAR目标的非平稳特性作为一种典型的微波视觉特性,提出一种改进的基于时频分析的目标特性智能感知方法,优化了处理流程和计算效率,使之更适用于SAR目标识别场景,并进一步将其应用到SAR目标智能识别算法中,实现了稳定的性能提升。该方法泛化性强、计算效率高,能得到物理可解释的SAR目标特性分类结果,对目标识别算法的性能提升与属性散射中心模型相当。
关键词
合成孔径雷达(SAR) / 目标识别 / 目标特性 / 微波视觉 / 时频分析(TFA)
1. 引 言
合成孔径雷达(Synthetic Aperture Radar, SAR)作为一种主动微波成像系统,通过发射微波脉冲并在运动过程中接收地物的后向散射电磁信号进行成像处理,合成高分辨率的二维图像,具有全天时全天候的观测优势。由于SAR特殊的成像机制,SAR图像和光学遥感图像相比解译难度更高,非专业判读人员从视觉角度理解一些复杂的散射现象较为困难,例如方位向模糊、建筑物叠掩、多径散射等。了解SAR成像原理从而熟练掌握目标微波物理特性对高效准确的SAR图像解译至关重要。
自深度学习首次应用于合成孔径雷达图像解译以来,基于深度学习的SAR图像解译算法发展迅速,在大数据驱动下能获得较高的准确率指标[1−3]。尽管如此,当前SAR图像应用领域对算法鲁棒性、泛化性、可解释性、可信赖程度等方面也有较高的要求,将SAR领域知识与深度神经网络紧密结合在一定程度上能解决上述问题,目前也逐渐成为本领域研究的重点问题。例如,国内学者提出的“微波视觉”[4]、“物理可解释深度学习”等概念[5−8],以及国际上备受关注的“理论引导数据科学”[9]、“知信机器学习”[10]等。
以SAR目标识别为例,现有深度学习方法在主流的MSTAR (the Moving and Stationary Target Acquisition and Recognition)数据集上能达到超过99%的准确率指标[11,12],但在样本特征变化或数据分布变化的测试条件下,模型性能会出现显著下降,算法鲁棒性和泛化性受限[13,14]。目前一些研究主要针对属性散射中心模型(Attributed Scattering Center, ASC)对SAR目标进行建模,从SAR观测数据中反演出散射中心的散射幅度、几何参数和位置信息以描述SAR目标特性,进而设计基于特征融合的方法结合深度神经网络进行更鲁棒的识别[15,16]。文献[17]对ASC模型的发展历史及应用进行了详细的综述,在此不再赘述。
ASC模型参数反演方法普遍基于迭代优化,计算复杂度较高,对单个SAR目标难以实现实时地提取散射中心,与深度神经网络进行级联势必会增加推理时间。除了ASC模型以外,SAR目标极化特性、色散特性以及各向异性等电磁物理特性分析也能促进SAR目标识别任务[18−20]。为了推动SAR领域知识高效赋能智能识别模型,需要思考如何优化现有的物理模型、设计感知目标物理特性的一体化混合神经网络,从而达到与传统数据驱动方法相当的计算复杂度,以及在小样本条件下鲁棒性和泛化性更强的结果。
目标在高分辨SAR成像过程中存在色散特性和各向异性等物理特性,基于时频分析技术能揭示SAR目标在距离向和方位向不同频段的后向散射变化情况[21−24],本文则将其作为SAR目标的一种“微波视觉特征”进行研究。本文提出一种基于混合建模的SAR目标微波视觉特性提取方法,利用时频分析模型提取散射体的色散特性和各向异性等特征,基于神经网络进行自动特征学习与归类,得到物理可解释的SAR目标微波视觉特性表征,进一步结合深度神经网络将其应用到SAR目标识别任务中。本文所提方法改进了前期研究存在的运算量大、微波物理特征不完整、物理可解释性较差的问题,并在后续SAR目标识别任务中进行了应用验证。
本文主要的贡献如下:
(1) 提出一种基于时频分析模型的SAR目标微波视觉特性智能感知框架,实现高效的目标特性分类,相比属性散射中心模型效率提升约80倍;
(2) 相较于已有算法,本文针对SAR目标识别任务改进了目标特性智能感知的算法流程,增加了数据预处理等步骤,改善了微波视觉特性表征方法,并在实验中分析了目标特性分类结果的物理可解释性;
(3) 将目标微波视觉特性应用到SAR目标识别深度学习模型中,实验结果表明与基准模型相比,算法鲁棒性和泛化能力得到了稳定提升,相比于结合属性散射中心模型的方法在效率和性能上取得了平衡。
2. 相关工作
2.1 SAR目标的非平稳特性
根据SAR的成像机理,SAR图像的距离向和方位向分辨率分别与距离向带宽和波束宽度有关。传统的SAR成像算法一般基于被观测目标是各向同性的假设,然而在大带宽发射信号以及大观测角合成孔径成像的情况下,一些具有色散特性(Disperse)和各向异性(Anisotropic)的目标对不同频率的电磁波和不同方位观测角具有不同的响应,一般也称为非平稳特性(Non-stationary)。SAR目标的非平稳特性在例如目标检测、分割等任务中能够作为一种除图像以外有用的额外信息来使用。经成像算法处理后的SAR图像本身无法体现目标的非平稳特性,Duquenoy等人[24]提出了超图(Hyper-image)的概念,将目标的后向散射系数扩展为与距离向频率和方位向观测角相关的函数,通过小波分析等技术将二维SAR图像拓展到观测区域位置横坐标及纵坐标、距离向频率、方位向观测角4个维度来表示。由此,超图能够描述任意位置目标随频率和方位角散射强度变化的情况。还有一些研究结合目标极化特性进行了相关的分析,验证了某些目标的极化特性也具有非平稳特性[22,25,26]。本文将高分辨SAR目标在不同频率和方位角下的后向散射变化作为一种描述SAR目标的微波视觉特征进行研究,旨在区分出平稳目标和非平稳目标,并对非平稳目标进行更精细的目标特性学习与分析。
2.2 深度层级聚类目标特性分析算法
为分析高分辨率单极化SAR图像复杂场景中的目标特性,Huang等人[27]提出了基于时频分析模型的层级深度嵌入式聚类算法(Hierarchical Deep Embedding Clustering based on Time Frequency Analysis, HDEC-TFA)。该方法利用时频分析理论对复数SAR图像进行连续二维子带分解,得到目标在不同方位角和不同电磁波频段下后向散射强度的变化情况,以反映目标的非平稳特性,然后采取两个阶段的深度嵌入聚类方法同时学习子带散射图的特征和聚类中心,形成子带散射特性分类结果图。该文将极化分析结果作为参考,设计了基于互信息的定量化评估方法,验证了所提方法能够有效地描述并区分不同的SAR目标特性。
文献[27]首次提出基于神经网络学习的方法分析归类SAR目标的非平稳特性,但仍存在以下不足。首先,HDEC-TFA采用的频域分析窗宽度固定,对目标非平稳特性的描述不够全面;其次,深度聚类算法的物理可解释性不足,缺乏对实验结果结合特定目标的解释;最后,所提方法需要对场景中所有目标进行训练和测试,运算复杂度较高。本文针对该方法中存在的问题进行了改进,并将结果应用到SAR目标识别任务上。
3. 方法介绍
3.1 微波视觉特性智能感知流程设计
前期工作中发现SAR图像背景杂波等均匀区域与人造目标的子带散射特性有显著的区别,HDEC-TFA方法为此采用了多层级的深度聚类方法,在第2阶段专门对人造目标的相关类别进行了更精细的学习和分类。为了降低运算复杂度,高效、直接地对感兴趣人造目标进行精细分析,本文提出了如图1所示的微波视觉特性智能感知流程。
图 1 微波视觉特性智能感知与应用流程
输入一张复数SAR目标图像,首先通过目标区域提取算法确定待分析的位置坐标,然后基于位置坐标对SAR目标进行逐点的时频分析,得到该位置的目标后向散射强度随频率和方位角的变化情况。利用索贝尔算子进行梯度计算和归一化,得到反映目标非平稳特性的微波视觉特征,然后输入深度聚类网络进行自动识别,得到微波视觉特性分类结果。最后结合SAR目标识别模型验证其应用效能。
与文献[27]相比,该流程增加了目标区域提取和数据预处理部分,并简化了深度聚类算法,提高了处理效率,并结合SAR目标识别应用场景进行验证。
图 3 分割算法处理T-72目标的示例
3.2 目标区域提取
为了针对SAR图像的目标区域进行快速的微波视觉特性分析,本文提出了一种简单快速的目标分割方法,如图2所示。分割算法对T72目标的处理结果如图3所示。为了适应不同SAR图像的整体后向散射强度,本文采用了一种基于动态阈值的二值化方法并进一步采用计数滤波消除背景噪声,最后,通过提取并填充最大连通域来消除残余背景噪声并获取完整目标区域。算法具体流程如下:
图 2 分割算法流程
(1) 动态阈值选取。对于H×W的输入图像I,设置目标区域比例α,对图片像素进行排序得到向量If,选取动态阈值T=If[H×W×α]。使用T对I二值化处理可得二值化目标切片It。
(2) 计数滤波去噪。设置判断阈值为β,搜索范围为n,选取It上(x,y)的邻域s,大小为n×n,进行如下判定:
(1)
(3) 最大连通域提取。提取最大连通域并对最大连通域内部进行填充得到分割结果。
该方法相比于基于深度学习的分割算法更加快速灵活,适用于SAR目标切片的处理。对于较为复杂的SAR场景,可略过最大连通域提取步骤取得更理想的结果。
3.3 非平稳特征提取
本文针对文献[27]中提出的时频分析方法进行了改进,首先简要回顾前期算法,为结合计算机对信号的离散化处理,以下符号均为采样后的表示。对于图像中位于(x0,y0)的待分析目标,在复数SAR图像上选取大小为Nrg和Naz邻域s(m,n)(一般设Nrg=Naz),通过傅里叶变换得到信号S(u,v)=FFT[s(m,n)],u和v表示距离向频率和方位角的采样点。在频域进行二维连续滤波,滤波器组记为
,其中
分别是频率和方位角维度滤波器的个数,简单起见设置
,如图4所示。将滤波后的频域信号经傅里叶逆变换得到低分辨率的子带图像,然后将每个子带图像的中心点散射强度取出,得到待分析目标的二维连续子带散射图,过程
。按以上算法,该过程需要
次傅里叶变换的运算量。从图4中可以看到,Nf的取值直接影响了频谱分析窗的尺寸和计算复杂度,Nf越大,则频谱分析窗越窄,得到的子带图像分辨率越低。
图 4 参数Nrg, Naz, Nf and Nwin等示意图
参考文献[28]的方法,将上述过程进行等效变换。首先进行变量化简,将时域和频域的中心点坐标设为(0,0),则w(u−i,v−j)表示中心频率在频域第i,j个采样点的滤波器。
令
,则上述二维子带散射图的逐步提取可写为
(2)
根据滤波器的对称性
,将式(2)的傅里叶逆变换展开,并将w进行对称变换,式(2)可写为
(3)
由于式(3)中时域坐标取(0,0),因此exp(⋅)=1,即信号r可直接由信号
计算卷积得到,根据卷积定理,即为时域信号乘积的傅里叶变换。可得
,从而r可通过一步计算得到。
其中,
(4)
(5)
后续本文将Gnorm作为网络输入学习目标微波物理特性的低维表征。
本节对改进后的时频分析方法进行介绍,通过优化计算流程大大提高了算法的运算效率,在获取二维子带散射图的基础上,我们加入了索贝尔算子进行处理,对目标后向散射强度随距离向和方位向的变化情况进行更加直观的描述。
3.4 深度嵌入表征学习与聚类
为进一步优化运算效率,本文利用卷积神经网络自动学习微波视觉特征Gnorm的低维嵌入表示,然后将其输入K-means聚类算法进行单阶段的微波视觉特性类型识别。我们选用文献[27]中提出的卷积自编码器进行重构任务,通过自监督预训练得到编码部分作为特征提取器,由此得到微波视觉特性的嵌入表征Φ(Gnorm)。然后在数据集中随机选取一张SAR目标样本,将目标区域的二维子带散射图提取嵌入式表征后输入K-Means模型进行训练,得到嵌入式表征的聚类中心。由于SAR目标图像相比复杂场景中的多样化人造目标较为单一,因此本文只选取一张SAR目标样本进行聚类训练即能得到泛化较好的聚类结果,本文选择聚类中心数K=4进行后续实验。
本文采用的深度嵌入表征学习与聚类方法,基于深度嵌入表征学习提取微波视觉特征的关键信息,在此基础上,本文对低维特征聚类并获取聚类结果分布图Mk(k=1,2,⋯,K),将具备相似微波特性的散射点视为同类的部件,进而获取基于微波特性高级语义信息。
3.5 微波视觉特性引导的目标识别网络
本文采用文献[29]中提出的物理引导混合注意力机制(Physics Inspired Hybrid Attention, PIHA)对微波视觉特性的作用在SAR目标识别任务上进行应用验证。PIHA是一个即插即用的注意力模块,一般置于卷积操作之前对当前特征进行处理,可以与任意卷积神经网络相结合组成PIHA-Net。PIHA模块包括数据驱动和物理信息驱动两个分支,数据驱动的分支采用SE (Squeeze-and-Excitation)[30]模块处理视觉特征,本文依照文献[29]中,在物理信息驱动分支进行如下步骤:
(1) 基于3.4节得到的Mk,首先对其进行组卷积得到K组维度为(C/K)×H×W的物理信息激活图。
(6)
式(6)中Convk表示第k个组卷积层,每个卷积均有C/K个卷积核。
(2) 将输入特征F沿通道维度均匀拆分成K组(F1,F2,⋯,FK),每组特征维度为(C/K)×H×W,将每组输入特征和物理信息激活图通过元素相乘进行融合得到物理激活特征Pk。
(7)
(3) 将K组物理激活特征输入选择性通道注意力模块,首先对特征基于阈值ρ 进行二值化获取目标区域:
(8)
表示第k组物理激活特征的第i通道。通过选择性均值池化对目标区域特征进行压缩:
(9)
与传统通道注意力的实现方法相似,特征经过两层MLP后输出:
(10)
其中,W0,W1代表两层MLP层的权重,δ代表ReLU激活函数,σ代表Sigmoid函数。
(4) 将特征输入基于物理知识的校准模块,该模块通过基于部件维度的Softmax层建立各个部件之间的联系。
(11)
最终特征通过通道维度的乘法即可获得
(12)
(13)
本文将文献[29]中基于ASC参数物理信息的部件替换为3.4节中得到的聚类结果,对应文献[29]中的Mk,将其输入PIHA模块进行物理注意力的计算,如图1所示,并基于DenseNet-121[31]以及A-ConvNet (All-Convolutional Networks)[11]网络架构进行实验验证,PIHA-Net的基本结构如图5所示,具体可参考文献[29]和对应的开源代码。
图 5 基于PIHA的网络的结构
4. 实验与分析
4.1 实验设置
4.1.1 实验数据
MSTAR数据集是由美国桑迪亚国家实验室(Sandia National Laboratory)的X波段和HH极化的SAR传感器收集的。该数据集包含多种类型的静态军用车辆及其变种,包括全范围的方向角和不同的俯角。
在训练自编码器的过程中,本文使用MSTAR十分类训练集中的T72数据共232张图片。在MSTAR识别任务中,现有算法在SOC (Standard Operating Condition)与EOC (Extended Operating Condition)情况下均能较好完成识别任务,因此该算法评价方法已经难以充分评估算法的鲁棒性和泛化性,本文采用文献[29]提出的OFA (Once-For-All)检验微波视觉特性在目标识别上的应用效能。如表1所示,俯角为17°的样本被视为已知数据用于训练和验证。随机选择90%, 50%, 30%和10%的样本作为训练集,相应地使用17°俯角剩余数据中的总样本数量的10%, 50%, 50%和50%的样本作为验证集。OFA测试场景有3种,OFA-1与训练集和验证集数据分布相似,其俯仰角为15°。OFA-2在OFA-1的基础上在T-72和BMP-2类别中引入了额外的型号变体。OFA-3则是包含3种类别的15°, 30°和45°俯仰角变体。OFA通过一对多,即仅在训练集训练一次,在3种不同未知场景的测试集同时测试,进而大大提高了任务的挑战性,充分检验了算法的鲁棒性和泛化性。
表 1 MSTAR数据集OFA评价方法设置
4.1.2 实现细节
在子带散射特性的提取中,我们分别设置Nrg和Nf为64和32。在自编码器的训练中,网络权重随机初始化,将输入数据缩放到40×40,学习率设置为0.1,Batchsize设置为200,采用随机梯度下降(Stochastic Gradient Descent, SGD),权重衰减设置为0.0005,训练200轮。在PIHA实验中,我们设置阈值ρ为0.05,网络权重随机初始化,未使用数据增强。
DenseNet-121和A-ConvNet的学习率分别设置为5e–4和5e–3,Batchsize大小设置为32,采用随机梯度下降,动量和权重衰减分别设置为0.9和0.001。本文采用的早停策略如下,如果验证集的准确率在200轮内没有提高,则停止训练。最大训练轮数设置为1000,每个实验重复进行5次并记录均值和方差。
4.2 时频分析实验结果
4.2.1 参数讨论
我们讨论了在基于短时傅里叶变换的时频分析微波视觉特征提取过程中两个重要参数Nrg和Nf的取值对结果的影响。Nrg(同Naz)代表选取的待分析目标周围邻域大小,同时也决定了频谱的分辨率;Nf代表子带分析的频率点数,决定了频率分析窗的大小Nwin=Nrg−Nf,如图4所示,Nf越大意味着频谱分析窗越小,得到的子带图像空间分辨率越低,但子带分析能覆盖更大的频谱,对目标子带散射特性的描述更完整。
图6展示了Nrg=64的情况下,不同Nf对应的子带滤波器组可视化结果,对应图7(a)的结果进行分析,可以看到Nf取值过小会导致频谱分析窗分辨率较低,难以描述远离中心频率的子带散射特性,二维子带散射变化图相比Nf较大的设置只显示出目标局部的非平稳特性。较大的Nf设置使得目标在远离频谱中心的分析窗中表现出微弱的后向散射,导致重要的非平稳特性仍集中在子带散射图的中间部分。
图 6 当Nrg= 64时,不同Nf设置下的汉明窗滤波器组
图 7 不同参数设置下的目标二维子带散射特性
图7(b)讨论了固定Nf=Nrg/2的情况下,选取目标不同邻域大小对二维子带散射图特征的影响。结果表明,Nrg的取值对目标特性的主要特征影响较小,只是降低了频谱分辨率。综上,本文余下实验均采用Nrg=64,Nf=32的设置进行。
4.2.2 对比实验
本节首先对比了二维子带散射图r与索贝尔算子处理之后的图像特征Gnorm的区别,如图8所示。原始的二维子带散射图在三维空间的可视化结果能体现出目标随距离向频率和方位角的后向散射变化规律,经索贝尔算子处理后,归一化梯度计算更能体现出目标的非平稳特性。图8中的目标1和目标4分别为人造目标和背景杂波,如第1行所示,二者的子带散射图在形状上难以体现差异性,相比之下梯度特征处理后的Gnorm能更显著地区分两种目标,因此将其作为深度嵌入表征与聚类算法的输入能更有效地根据目标非平稳特性对其进行区分。
图 8 索贝尔算子处理结果(红色标记代表人造目标,黄色标记代表背景杂波)
4.2.3 典型目标实验结果
本文首先通过属性散射中心模型模拟了两种散射中心,如图9所示。图9(a)仿真了一个45°角度放置的长度为1 m的圆柱体,图9(b)的例子是一个理想球体的点目标。虽然在SAR图像上都呈现出较亮的点,但两种目标的子带散射特性显示出了明显的差异。其中理想球体是典型的各向同性目标,圆柱体在距离向上体现出周期性的变化规律,类似文献[28]中提到的共振现象,一般发生在管道、梯状等结构规则的目标中。
图 9 ASC模型散射中心仿真结果的子带散射特性分析
图10展示了T72坦克目标(编号HB03938.015)不同部位散射点的非平稳特性分析结果,x轴和y轴分别为方位向和距离向。从结果可以看出,炮筒头部的散射点展现出显著的各向同性特征,炮管与车身的连接处在方位向中心频率附近有较大的散射回波,车身的散射点对距离向频率比较敏感,体现出目标不同部位具有不同的电磁散射特性。
图 10 对T-72目标不同部件的子带散射特性分析(x轴和y轴分别为方位向和距离向)
4.2.4 微波视觉特性聚类分析
实验选取MSTAR十分类训练集中232个T-72目标数据训练3.4节的卷积自编码器,通过自编码器对经索贝尔算子处理后的微波视觉特性Gnorm进行特征学习。卷积自编码器的编码部分将输入的微波视觉特征嵌入到128维的特征表示,然后选取一张T-72目标SAR图像(编号HB03883.015),经过目标区域提取后筛选出319个点,将它们的微波视觉特征嵌入式表示Φ(Gnorm)进行K-means聚类,取K=4得到4个聚类中心,即完成了深度聚类算法。本文进一步将训练集所有散射点的微波视觉特征输入自编码器的编码部分,并可视化距离4个聚类中心最近的散射点的二维子带散射特性如图11。
图 11 距离4种聚类中心最近的二维子带散射图
结果表明,类别1和类别4聚类中心具有较强的频率不变性,但散射强度存在差异,类别2和类别4聚类中心均体现出对方位角敏感的各向异性,其中类别2聚类中心代表目标后向散射在方位向存在由低到高的变化模式,类别3聚类中心则代表目标后向散射在方位向存在震荡的变化。因此,对这4种聚类中心我们可以给出相应的物理解释。类别1对应强散射的各向同性目标,类别2对应方位向具有由低到高变化模式的各向异性目标,类别3对应方位向存在震荡变化的各向异性目标,类别4对应较弱散射的各向同性目标。
4.3 无监督深度聚类结果
我们对HB03883.015样本的聚类结果进行可视化。对目标区域的每个散射点,依次统计其7×7邻域内所有散射点被分到各类别的数量,作为该类别微波视觉特性分布表示,结果如图12所示,颜色越深代表统计数量越多。结果表明本文所提方法可以将SAR目标解构为4部分目标组件,每部分具有相似的微波视觉特性,从而描述了目标的局部语义。为验证少量样本的聚类可以满足泛化性要求,我们选择了一个BMP目标(编号HB04020.000)进行同样操作进行可视化如图13。从图13中可以看出,基于微波视觉特性的聚类在BMP目标上依然具有相似的效果,这验证了单个目标聚类得到的K-means分类器具有较强的泛化性。
图 12 T-72目标每种微波视觉特性的分布图
图 13 BMP目标每种微波视觉特性的分布图
4.4 微波视觉特性引导的目标识别结果
本节针对提出的微波视觉特征进行相关实验如表2和表3,我们将图13得到的微波视觉特性分类结果作为物理先验知识,引入PIHA混合注意力模块应用于SAR目标识别任务,并与基准模型和基于ASC物理知识的PIHA模型进行对比。实验首先对无监督聚类数量进行了讨论。考虑到PIHA模块中目标部件的数量与特征分组的数量一致,因此最好设置成能被特征图通道数整除的数量,另一方面为了与文献[29]中所提的方法进行对比,因此本文讨论了聚类中心数量为2, 4和8的结果,如表2所示,可以看到聚类中心数量为4的情况下,在数据量较多时性能优越,即使数据量较少时,性能绝大部分处于次优,且与最优结果相差不多,综合以上考虑,本文采用聚类中心数量为4的设置。
表 2 不同聚类中心数量对比试验(%)
表 3 基于ASC和微波视觉特性的PIHA对比实验(%)
表3展示了在DensetNet-121和A-ConvNet主干网络上进行的对比实验,与基准模型相比,本文提出的微波视觉特性分类结果可以显著提升目标识别的准确率,进一步验证了本文所提方法在目标识别应用中的有效性。
对比基于ASC和基于本文方法的PIHA模型性能可知,本文方法在少数的测试条件下能够优于基于ASC的方法,多数情况下性能也与基于ASC的方法相当。但从计算复杂度的角度分析,ASC的参数提取通常依赖复杂的迭代优化,其时间复杂度远超本文所提方法。在80核Intel (R) Xeon (R) Silver 4316 CPU与GTX 3090显卡环境下,对一张图片提取ASC所需时间达到203.9 s,而提取一个目标区域所有散射点的微波视觉特性仅需要0.17 s。与基于ASC的方法相比,本文所提方法在性能和计算复杂度的综合条件下更占优势。
此外,本文还对比了所提方法结合DenseNet-121骨干网络的识别模型与其他代表性SAR目标识别方法在不同测试条件下的性能,包括一种基于幅度图像的数据驱动方法A-ConvNet[11]、基于复数神经网络的复数数据驱动方法(Multi-Stream Complex Valued Networks, MS-CVNet)[3]以及一种基于ASC模型的视觉特征和物理模型混合驱动的方法(Feature Fusion Framework, FEC)[32]。实验结果如表4所示,传统的CNN方法由于缺少了物理模型的先验知识,泛化能力较差。而基于复数神经网络的方法简单使用复数数据的信息,在数据量较小时性能下降严重。而对比同为数据与物理模型混合的方法时,FEC简单的特征融合方法不足以发挥物理模型的优势。本文采用物理知识引导的方式结合物理模型的先验知识,在性能上获得了较大的提升。
表 4 本文方法与已有目标识别算法的对比(%)
5. 结语
本文提出了一种新的SAR目标微波视觉特性智能感知框架,首先通过分割算法获取目标区域,同时针对HDEC-TFA算法计算效率低下的问题进行改进,大大降低其运算复杂度,并基于改进后的HDEC-TFA算法提取物理可解释的微波视觉特性,将目标解构为具有物理意义的组件。为进一步验证所提微波视觉特性的有效性,本文将其应用到PIHA算法中,替代原有的属性散射中心模型完成SAR目标识别任务。实验表明所提方法能够快速、有效地提取目标微波视觉特性,并提高目标识别任务的准确率,在计算复杂度和性能的综合考量上优于基于ASC的目标识别模型。
声明:公众号转载的文章及图片出于非商业性的教育和科研目的供大家参考和探讨,并不意味着支持其观点或证实其内容的真实性。版权归原作者所有,如转载稿涉及版权等问题,请立即联系我们删除。
“人工智能技术与咨询” 发布