Processing math: 0%

上海交通大学学报, 2025, 59(2): 274-282 doi: 10.16183/j.cnki.jsjtu.2023.263

电子信息与电气工程

基于自适应特征增强和融合的舰载机着舰拉制状态识别

王可1,2,3, 刘奕阳1, 杨杰1, 鲁爱国4, 李哲1, 徐明亮,1,2,3

1.郑州大学 计算机与人工智能学院,郑州 450001

2.国家超级计算郑州中心,郑州 450001

3.智能集群系统教育部工程研究中心,郑州 450001

4.武汉数字工程研究所,武汉 430074

Landing State Recognition of Carrier-Based Aircraft Based on Adaptive Feature Enhancement and Fusion

WANG Ke1,2,3, LIU Yiyang1, YANG Jie1, LU Aiguo4, LI Zhe1, XU Mingliang,1,2,3

1. School of Computer and Artificial Intelligence, Zhengzhou University, Zhengzhou 450001, China

2. National Supercomputing Center in Zhengzhou, Zhengzhou 450001, China

3. Intelligent Swarm System Engineering Research Center of the Ministry of Education, Zhengzhou 450001, China

4. Wuhan Digital Engineering Institute, Wuhan 430074, China

通讯作者: 徐明亮,教授,博士生导师,电话(Tel.):0371-67781257;E-mail:iexumingliang@zzu.edu.cn.

收稿日期: 2023-06-25   修回日期: 2023-06-28   接受日期: 2023-07-11  

基金资助: 国家自然科学基金(62036010)
国防科技工业海洋防务技术创新中心创新基金(JJ-2022-709-01)
中国博士后科学基金(2020M682348)
河南省自然科学基金(232300421235)

Received: 2023-06-25   Revised: 2023-06-28   Accepted: 2023-07-11  

作者简介 About authors

王可(1985—),博士,讲师,从事机器学习、神经计算理论与应用研究.

摘要

拉制状态识别能辅助着舰信号官及时准确地形成后续指挥决策,是舰载机着舰引导的重要环节.提出一种基于自适应特征增强和融合的拉制状态识别方法,包含基于注意力机制的特征增强模块,通过分割特征图、串联空间域和通道域增强视觉表征能力;利用多尺度特征融合模块,将高分辨率浅层特征与语义信息丰富的深层特征进行融合,充分利用上下文语义信息.基于所提方法,设计基于可穿戴增强现实设备的着舰拉制状态识别原型系统;构建着舰作业虚实融合数据集以评估方法性能.结果表明,所提算法综合性能优于基线算法,能满足拉制状态识别的应用需求.

关键词: 舰载机; 阻拦着舰; 特征融合; 注意力机制; 状态识别

Abstract

The recognition of engagement state aids landing signal officers in formulating command decisions promptly and precisely, which is crucial for guiding carrier-based aircraft landings. A method is proposed for recognizing the engagement state, leveraging adaptive feature enhancement and fusion, which includes an attention mechanism-based feature enhancement module and a multi-scale feature fusion module. The front module enhances visual representation by segmenting feature maps and concatenating spatial and channel domains, and the back module merges high-resolution shallow features with semantically rich deep features to fully utilize contextual information. A prototype system is developed to recognize landing engagement states based on the wearable augmented reality devices. To evaluate the performance of the method proposed, hybrid datasets of landing operations are constructed. The results show that the proposed algorithm outperforms baseline algorithms and meets the application requirements of engagement state recognition.

Keywords: carrier-based aircraft; arrested landing; feature fusion; attention mechanism; state recognition

PDF (20611KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王可, 刘奕阳, 杨杰, 鲁爱国, 李哲, 徐明亮. 基于自适应特征增强和融合的舰载机着舰拉制状态识别[J]. 上海交通大学学报, 2025, 59(2): 274-282 doi:10.16183/j.cnki.jsjtu.2023.263

WANG Ke, LIU Yiyang, YANG Jie, LU Aiguo, LI Zhe, XU Mingliang. Landing State Recognition of Carrier-Based Aircraft Based on Adaptive Feature Enhancement and Fusion[J]. Journal of Shanghai Jiaotong University, 2025, 59(2): 274-282 doi:10.16183/j.cnki.jsjtu.2023.263

航母搭载投放的舰载机是航母战斗群的核心攻防力量,是航母编队实施海上封锁、反潜作战、两栖突击、反导作战、保卫海基核力量、支撑海上联合作战等任务的主体之一.舰载机的出动回收能力是影响航母作战效能的核心要素,而舰载机着舰是影响舰载机出动回收能力的关键环节[1-4].

舰载机返航着舰是一个非常复杂的作业流程,根据与航母间的距离可分为引导、待机、进近与着舰4个阶段[5].由于航母飞行甲板长度远小于陆基机场,所以舰载机在着舰阶段需要借助拦阻系统进行拉制减速[6].现代中大型航母的液压拦阻系统一般设置有4道拦阻索,首道拦阻索位于距舰尾约50 m处,每道拦阻索之间相隔12~18 m,与甲板的垂直距离为30~50 cm.理想状态下,舰载机尾钩、主起落架3点同时着舰,尾钩运动方向对准跑道中轴线,并钩住第3道拦阻索.

为了保证着舰的安全性,目前着舰作业中设置有多名着舰信号官(landing signal officer,LSO)向飞行员发出指令,引导其安全着舰.着舰信号官通常在位于甲板着舰区后部左舷的着舰信号官工作站中,通过无线电、灯光等方式引导舰载机飞行员完成一系列精准操作.在着舰的最后阶段,舰载机航迹偏差、尾钩故障、损坏等原因可能导致尾钩挂不上拦阻索,如果着舰信号官认为舰载机超出着舰安全边界或拉制失败,则飞行员必须快速执行逃逸复飞操作.舰载机着舰是强实时、高动态下的高复杂度作业,在某些情况下存在着舰信号官不能及时发出正确的引导指令或飞行员来不及执行指令的可能.因此,通过自动化、智能化的方式协助着舰信号官进行高效、可靠的拉制状态识别,尽早形成并发出引导指令,有助于提高着舰引导的效率及安全性.

拉制状态识别可通过基于力学传感器的侵入式和基于视觉信息的非侵入式两种方式实现.侵入式识别虽然实现思路简单,但需要对装备进行改造升级,影响现役装备的可靠性,且时敏性差.与之相比,基于视觉信息的非侵入式识别对现役装备影响小,具有较好的实时性甚至超前性,可行性较强.另外,影响舰载机着舰拉制状态的多种因素,包括舰载机着舰点、尾钩与拦阻索的几何构型、舰载机姿态及航速等都可以通过视觉信息进行有效识别和量化.

基于视觉信息的舰载机阻拦拉制状态的识别涉及多种舰面关键目标,包括阻拦索和舰载机尾钩等,因此对舰面关键目标的准确识别是实现阻拦拉制状态识别的基础.此外,舰载机尾钩与阻拦索啮合区域相对于整张图像的面积比例较小,因此阻拦拉制状态视觉识别可归为小目标识别问题.

针对舰面复杂场景下的目标识别问题,一些学者对传统目标识别算法和模型进行了优化改进.汪丁等[7]提出一种舰面多目标识别算法,在YOLOv4-tiny中引入卷积注意力和空间金字塔池化结构,并改用Mish激活函数提升泛化能力.范加利等[8]提出一种舰面多尺度目标识别算法,通过构建多尺度区域建议网络提取特征,使用K-means聚类算法生成锚框.朱兴动等[9]提出适用于舰面目标识别的改进YOLOv3算法,使用聚类算法确定先验锚框的尺寸和宽高比等参数,并在输出网络中改进函数的参数设定.针对小目标识别问题,目前已有多种提升识别性能的方法.一种方法是利用特征上下文信息,例如Xu等[10]提出一种基于双模块特征提取的学习网络,该网络增加了感受野的多样性,融合了网络中间层的多尺度特征.另一种方法是利用多尺度特性,例如Lin等[11]提出的特征金字塔网络,使用具有横向连接的架构,通过生成多尺寸图片并提取多尺度的特征进行识别.此外,改进锚点框设计也是提升识别性能的关键,例如Zhang等[12]通过合锚点框检测和关键点检测,优化了锚点探测器的性能.优化损失函数亦能提高小目标识别性能,例如Guo等[13]提出一种基于边界的度量指标,测量物体类别之间的空间相邻程度,并通过量化空间邻接项比率消除目标尺寸引入的偏差,从而优化小目标的损失计算过程.

从已有研究可以看出,采用深度学习模型进行小目标识别能显著提高识别精度.然而,目前缺乏针对舰面相关场景中目标识别任务的公共数据集.因此,有必要构建专用数据集进行模型训练与评估.另外,实际着舰作业中,受海上复杂天气、能见度及数据采集手段等因素影响,舰载机着舰拉制状态识别具有数据采集质量低、难度高以及啮合区域尺度小、纹理特征弱等难点,现有基于深度学习的目标识别方法难以直接满足舰载机尾钩及其与拦阻索啮合状态识别的需求.因此,有必要结合舰面目标及拉制状态识别问题的特点,有针对性地对模型进行优化和改进.

本文主要研究基于视觉信息的舰载机拉制状态识别,通过对舰载机尾钩及其与拦阻索的啮合状态的识别实现拉制状态的判定.设计了包含特征增强(feature enhancement,FE)和多尺度特征融合(multi-scale feature fusion,MSFF)的识别模型,通过特征增强模块,提高模型对小目标的特征表征能力,抑制复杂环境中的干扰目标特征;通过多尺度特征融合模块,实现低层空间信息和高层语义信息的有效融合,优化目标的识别性能.此外,构建了舰载机尾钩识别任务和钩索啮合状态识别任务的虚实融合数据集,验证了所提方法的有效性.

1 本文模型

模型采用VGG-16作为骨干网络,并根据识别任务的特点设计了特征增强及融合模块,模型架构如图1所示.骨干网络学习到的6个特征图分别输入FE模块,通过注意力机制自适应增强特征图对关键信息的表征能力.增强后的特征图输入MSFF模块,进行深层和浅层特征的融合并保留底层细节和高层语义信息,以提高模型对于小目标的识别精度.融合后的特征图输入到检测层,由检测层输出识别结果、位置及置信度.

图1

图1   模型网络架构

Fig.1   Network architecture of model proposed


1.1 基于注意力机制的特征增强

特征增强模块结构如图2所示,输入特征图为X(c, w, h),chw分别为通道数、高度和宽度,CiHiWi (i=0, 1, 2, 3)分别为输出特征图的通道数、高度和宽度,KjGj (j=1, 2, 3, 4)分别为卷积核大小和步长.在该模块中,首先将输入的特征图沿通道维度分成4部分,分割后的特征图表示为Fi.特征图Fi通过多尺度卷积核生成不同空间分辨率的特征图 F'i,多尺度卷积核的大小分别为1、3、5、7.其中,卷积核大小为1和3的卷积在图中表示为“Conv1”和“Conv2”.为了提高运算效率,采用一种替代策略,将卷积核大小为5和7的卷积替换为大小为3、空洞率分别为2和3的空洞卷积,在图中表示为“Conv3”和“Conv4”.输出的特征图定义如下:

\boldsymbol{F}_{i}^{\prime}=W_{k \times k, s, d}\left(\boldsymbol{F}_{i}\right), \quad i=0,1,2,3
(1)

式中:Wk×k, s, d表示大小为k、步长为s、空洞率为d的卷积核.卷积后的特征图经过通道维度上的拼接形成新的特征图

\boldsymbol{Y}=\operatorname{Concat}\left(\boldsymbol{F}_{1}^{\prime}, \boldsymbol{F}_{2}^{\prime}, \boldsymbol{F}_{3}^{\prime}, \boldsymbol{F}_{4}^{\prime}\right)
(2)

式中:Concat表示拼接.之后,通过空间注意力激励或抑制特征图Y不同空间位置上的信息.将特征图Y沿通道维度进行全局平均池化(global average pooling, GAP)和全局最大池化(global max pooling, GMP),聚合通道信息后形成两个二维空间特征图YaYm.再将两个空间特征图经过拼接、卷积生成空间特征向量.空间注意力的计算方式为

A_{\mathrm{s}}=\sigma\left(W_{5 \times 5,4}\left(\text { Concat }\left(\boldsymbol{Y}_{a}, \boldsymbol{Y}_{m}\right)\right)\right)
(3)

式中:σ表示sigmoid激活函数.输出的空间特征图再利用通道注意力生成一维通道特征图.具体地,采用GAP和GMP两种池化将特征图沿空间维度聚合后生成两个通道特征Y'aY'm,对两个通道特征分别进行卷积,并经过一个共享的卷积生成两个新特征,通过特征合并获得通道特征向量.通道注意力计算方式为

A_{\mathrm{c}}=\sigma\left(W_{3}\left(\delta\left(W_{1}\left(\boldsymbol{Y}_{a}^{\prime}\right)\right)+\delta\left(W_{2}\left(\boldsymbol{Y}_{m}^{\prime}\right)\right)\right)\right)
(4)

式中:δ为ReLU函数;W1W2为两个输入通道数为C、输出通道数为C/16的1×1卷积;W3为输入通道数为C/16、输出通道数为C的1×1卷积.得到空间与通道特征向量后,将其与特征图Y相乘得到特征图

\boldsymbol{Z}=\boldsymbol{Y} \odot A_{\mathrm{c}}\left(\boldsymbol{Y} \odot A_{\mathrm{s}}(\boldsymbol{Y})\right)
(5)

图2

图2   特征增强模块架构

Fig.2   Architecture of feature enhancement module


从上述计算过程不难看出,最终的特征图Z融合了两种注意力机制的优点,通过训练可以自适应地激励或抑制不同维度上的信息.通过对比图3中的热图,可以观察到特征增强前后的显著差异.结果表明,在应用本文FE模块进行特征增强后,关键目标信息更加突出,同时抑制了背景的响应.

图3

图3   特征增强前后的热图对比

Fig.3   Comparison of heat map before and after feature enhancement


图4展示了嵌入FE模块前后的骨干网络多层输出特征图的对比结果.上半部分为原始骨干网络学习到的特征图,下半部分为嵌入FE模块后学习到的特征图.从对比结果中可以看出,在嵌入FE模块之前的特征图中,目标与背景之间的差异相对较小,目标区域没有得到很好的突出.在嵌入FE模块后的特征图中目标与背景之间的差异得到了显著的增强,特征图中的目标区域更加清晰、明显,与背景区域形成了更加明显的对比.

图4

图4   特征增强前后的特征图对比

Fig.4   Comparison of feature maps before and after feature enhancement


1.2 多尺度特征融合

多尺度特征融合模块的结构如图5所示,其中Atrous Conv表示空洞卷积.该模块接收所有FE模块中输出的6个特征图作为输入,每个特征图的维度表示为(wn, hn, cn).首先通过1×1卷积将所有特征图的通道维度统一为256,卷积后的特征图记为zn (n=0,1,…,6).然后通过采样或池化操作,使特征图zn生成多尺度上下文信息,并将该信息映射到其余5个尺度的特征图.对于z1,利用自适应平均池化将其缩小到6个尺度的特征图,输出的特征定义为

T1m=α(z1)=downscale(z1),m=1, 2, …, 6
(6)

式中:downscale函数表示自适应平均池化操作;α(z1)指相应尺度的特征图.对于z6,特征融合模块将其上采样为6个尺度的特征图,输出的特征定义为

\begin{array}{c}\boldsymbol{T}_{6}^{m}=\beta\left(\boldsymbol{z}_{6}\right)=\delta\left(\operatorname{upsample}\left(\boldsymbol{z}_{6}\right)\right), \\m=1,2, \cdots, 6\end{array}
(7)

式中:upsample函数表示反卷积;β(z6)指该尺度下的特征图.对于z2z3z4z5,特征融合模块同时采用downscale和upsample将其采样至6个尺度,输出特征定义为

\begin{array}{c}\boldsymbol{T}_{n}^{m}\left(\boldsymbol{z}_{n}\right)=\alpha\left(\boldsymbol{z}_{n}\right) \cap \beta\left(\boldsymbol{z}_{n}\right), \\m=1,2, \cdots, 6 ; n=2,3,4,5\end{array}
(8)

最后,将具有相同维度的特征相加,再通过卷积将融合后的特征图还原成原始的通道数和尺度.新生成的融合特征图定义为

tm=σ(W2×2, 1, 2(W1×1, 1(T1m+ T2m+…+ T6m))),m=1, 2, …, 6
(9)

式中:W1×1, 1表示大小为1、步长为1的卷积核;W2×2, 1, 2表示大小为2、步长为1、空洞率为2的空洞卷积核.

图5

图5   多尺度特征融合模块架构

Fig.5   Architecture of multi-scale feature fusion module


2 实验

2.1 数据集构建

为了验证所提方法,通过可视仿真构建了舰载机着舰数据集.为简化计算,将舰载机视为一个质点,不考虑其外观形状,并忽略甲板风、空气涡流等环境影响因素.基于以上假设,可建立如下质点模型[14]:

x=vcosγcosψy=vcosγcosψz=vsinγv=g(nx-sinγ)γ=gv(nzcosμ-cosγ)ψ=gvcosγnzsinμ
(10)

式中:xyz为舰载机的三维坐标;v为舰载机速度;γ为爬升角;ψ为航向角;μ为滚转角;nx为水平过载;nz为纵向过载;g为重力加速度.

利用着舰模型生成的航迹坐标,结合Unity 3D仿真引擎,构建舰载机着舰作业可视仿真平台.基于该平台生成了舰载机尾钩识别数据集和钩索啮合状态识别数据集,评估所提方法在舰载机着舰拉制识别任务中的性能.

2.1.1 舰载机尾钩识别数据集

舰载机尾钩识别数据集(CATHR-DET)主要用于评估所提方法在舰载机尾钩识别任务上的性能.该数据集由真实和可视仿真两类样本构成,对数据集中包含舰载机尾钩的样本,通过人工方式标注出尾钩的边界框.真实样本来自通过公开渠道收集的多型舰载机的着舰作业视频、图片,在考虑光照、视角、背景等方面多样性的基础上,对收集到的原始图像进行成像质量、目标尺寸等方面的筛选,共计400张彩色图像,尺寸统一为 1 300 像素×600像素.针对仿真样本,首先对舰载机着舰作业进行可视建模和仿真,然后从仿真场景中获取图像样本.仿真样本涵盖了不同颜色、纹理特征的尾钩,晴天、阴天、雨天3种气象条件以及亮光、暗场两种光照条件,不同环境条件下的样本数量如表1所示,不同光照条件下的样本实例如图6所示.仿真样本共计 3 600 张彩色图像,尺寸统一为 1 300 像素×600像素.舰载机尾钩数据集的部分样本实例如图7所示,其中晴天、阴天和雨天为仿真样本,实景为真实样本,下同.

表1   CATHR-DET数据集的仿真样本数量

Tab.1  Number of simulation samples in CATHR-DET

因素类别样本数量
气象条件晴天1600
阴天1000
雨天1000
光照条件亮场2300
暗场1300

新窗口打开| 下载CSV


图6

图6   不同光照条件下的样本实例

Fig.6   Examples of samples in different lighting conditions


图7

图7   CATHR-DET样本实例

Fig.7   Sample of CATHR-DET


2.1.2 钩索啮合状态识别数据集

钩索啮合状态识别数据集(HCESI-DET)主要用于评估所提方法在舰载机尾钩与拦阻索的啮合状态识别任务上的性能.该数据集同样由真实和可视仿真两类样本构成,构建方式与舰载机尾钩数据集类似.该数据集的样本也包括晴、阴、雨3种气象条件以及亮光、暗场两种光照条件,不同环境条件下的样本数量如表2所示.样本图像中除作业舰载机外,还包括航母舰面保障人员、舰载机牵引车等其他常见干扰对象.该数据集包含700个真实样本和 4 200 个仿真样本,样本图像尺寸统一为 1 300 像素×600像素,部分样本实例如图8所示.该数据集通过人工方式标注出钩索啮合处,啮合状态分为成功和失败两种.

表2   HCESI-DET数据集的仿真样本数量

Tab.2  Number of simulation samples in HCESI-DET

因素类别样本数量
气象条件晴天2400
阴天1000
雨天800
光照条件亮场2200
暗场2000

新窗口打开| 下载CSV


图8

图8   HCESI-DET样本实例

Fig.8   Sample of HCESI-DET


2.2 实验设置

对于舰载机尾钩识别数据集,随机挑选 2 800 张图像作为训练集,剩余 1 200 张图像作为测试集.对于钩锁啮合状态识别数据集,随机挑选 3 430 张图像作为训练集,剩余 1 470 张图像作为测试集.为了提升模型训练速度,样本图像尺寸统一调整为300像素×300像素.实验的批处理大小为32,正则化系数为 0.000 5,初始学习率为0.001,动量为0.9,优化方法为随机梯度下降法(SGD).实验中选取的基线算法包括SSD300[15]、SSD512[15]、RetinaNet[16]、YOLOv3[17]、DSSD[18]等具有代表性的识别算法.

实验选用精度(P)、召回率(R)、F值作为模型识别性能评估指标,计算如下:

P= NTPNTP+NTP
(11)
R= NTPNTP+NFN
(12)
F= 2PP+R
(13)

式中:NTPNFPNFN分别表示预测为正的正样本、预测为正的负样本、预测为负的正样本.此外,实验还选取了常用的平均精度均值(mean average precision, mAP)、帧频(frames per second, FPS)作为模型目标识别性能的评价指标.

2.3 实验结果与分析

2.3.1 性能评估

本文方法与基线方法在两个自构数据集上的性能对比实验结果如表3表4所示.由表3可见,所提方法在CATHR-DET数据集上的识别精度低于最优算法SSD512,但小目标识别的召回率和综合指标F值均取得最优.由表4可见,所提方法在HCESI-DET数据集上的3个评价指标均取得最优.针对模型的识别性能,从表3表4可以看出,所提方法在两个数据集上均取得最优性能.相较于SSD300、SSD512和DSSD等方法,本文算法在识别精度上有明显提升,证明了FE模块和MSFF模块在两个识别任务上的有效性. 相较于RetinaNet、 YOLOv3, 所提算法在识别精度上具有明显优势,虽然检测帧率下降,但单张图片的识别时间仍小于飞行员的反应时间,能够满足实时识别的要求.

表3   CATHR-DET数据集实验结果对比

Tab.3  Comparative experimental results of CATHR-DET

方法分类检测
P/%R/%F/%mAP/%FPS/(帧·s-1)
SSD30077.833.246.556.657.1
SSD51293.227.242.162.231.2
RetinaNet67.779.573.165.233.2
YOLOv367.280.573.374.241.2
DSSD84.253.865.673.519.7
本文方法84.481.182.476.826.8

新窗口打开| 下载CSV


表4   HCESI-DET数据集实验结果对比

Tab.4  Comparative experimental results of HCESI-DET

方法分类检测
P/%R/%F/%mAP/%FPS/(帧·s-1)
SSD30067.222.233.454.157.1
SSD51266.338.442.558.531.2
RetinaNet61.860.561.159.333.2
YOLOv361.171.465.861.441.2
DSSD64.232.242.957.119.7
本文方法72.471.972.364.226.8

新窗口打开| 下载CSV


本文算法在部分样本上的识别结果如图9所示,其中图9(a)、9(b)的第2行为部分识别错误的样本.通过分析发现,识别错误的原因主要包括以下几种:①距离、光照、能见度等因素造成模型很难从模糊图像中识别出尾钩,例如图9(a)中第2行的前两列;②在某些拍摄角度下,拦阻索与尾钩具有高度相似性,造成误识别,例如图9(a)中第2行的第3列;③干扰目标与拦阻索形成类似钩锁啮合的构型,造成误识别,例如图9(b)中第2行的第1列;④在某些视角下钩索啮合难以判断,造成误识别,例如图9(b)中第2行的后两列.

图9

图9   本文方法在自构数据集上的结果

Fig.9   Results of method proposed in self-constructed datasets


此外,为了证明算法对小目标识别的有效性和通用性,对比了SSD算法与本文改进算法在VOC (visual object classes)数据集上的小目标识别结果,对比结果如表5所示.其中,4个类别分别为鸟(bird)、瓶子(bottle)、船(boat)和椅子(chair).由识别结果的对比可以看出,改进算法对小目标识别的准确率优于其他算法,验证了所提算法在小目标识别上的有效性.

表5   在VOC小目标数据集上的平均精度对比

Tab.5  Average accuracy values of different algorithms in small objects of VOC data set

方法平均精度/%
瓶子椅子
SSD30070.345.363.254.3
SSD51274.450.170.357.1
RetinaNet75.854.871.559.2
YOLOv378.357.270.960.2
DSSD79.853.967.558.2
本文80.359.275.461.5

新窗口打开| 下载CSV


2.3.2 消融实验

为验证本文设计的FE模块和MSFF模块的有效性,在VOC数据集上对所提算法进行消融实验,定量分析了两个模块对模型识别精度的影响.实验的基线方法为SSD算法,实验结果如表6所示.

表6   VOC数据集上的的消融实验结果

Tab.6  Results of ablation experiment in VOC

基线算法FEMSFFmAP/%FPS/(帧·s-1)
64.755.2
66.228.4
66.843.8
67.126.6

注:√表示模型中包含此模块或算法.

新窗口打开| 下载CSV


表6可知,通过在基线算法中引入FE模块,模型平均精度提升了1.5百分点,帧率下降了26.8 帧/s;通过引入MSFF模块,模型平均精度提升了2.1百分点,帧率下降了11.4 帧/s;同时引入 MSFF 模块和FE模块,模型平均精度则提升了2.4百分点,帧率下降了28.6 帧/s.

3 基于可穿戴增强现实设备的着舰拉制状态识别原型系统

针对舰载机阻拦着舰引导任务中LSO的工作场景,设计和构建了基于可穿戴增强现实设备的着舰拉制状态识别半实物原型系统.该系统的设计和设备实物图如图10所示,包括增强现实眼镜、边缘计算盒以及着舰作业视频显示屏.

图10

图10   着舰拉制状态识别原型系统设备实拍图

Fig.10   Design and equipment of arrested landing state awareness system


增强现实眼镜既是数据采集终端又提供用户交互界面,边缘计算盒用于部署采用本文方法离线训练的识别模型,增强现实眼镜与边缘计算盒之间可通过Wi-Fi或有线的方式进行通信.拉制状态识别的结果(如尾钩识别与钩锁啮合状态识别的结果及置信度)和决策提示信息(如正常着舰、逃逸、复飞等)通过增强现实眼镜的光学组件叠加到参与着舰引导作业的LSO视场中,实现高效、即时人机交互与协同.

4 结语

研究基于视觉信息的舰载机阻拦着舰拉制状态识别,通过对舰载机尾钩及其与拦阻索的啮合状态识别实现拉制状态判定.针对舰载机着舰作业场景中小尺寸目标的识别任务,设计了基于自适应特征增强和融合的识别模型,通过引入特征增强模块和多尺度特征融合模块,更好地捕捉图像中的关键目标信息,有效提高了对识别目标的表征能力,提升了模型对小目标的识别性能.在自构的虚实融合着舰作业数据集上,评估了方法在舰载机尾钩识别任务和钩索啮合状态识别任务上的性能,结果证明本文方法在舰载机着舰拉制状态识别任务上的有效性.同时设计研发了面向着舰引导与指控作业场景的基于可穿戴增强现实设备的着舰拉制状态识别系统.未来将继续在算法的效率方面进行优化,扩展到更复杂的任务中,设计面向舰载机着舰态势识别与引导的人机协同的学习与决策计算框架,实现基于混合增强智能的舰载机着舰可信引导决策.

参考文献

王可, 徐明亮, 李亚飞, .

一种面向航空母舰甲板运动状态预估的鲁棒学习模型

[J]. 自动化学报, 2024, 50(9): 1785-1793.

[本文引用: 1]

WANG Ke, XU Mingliang, LI Yafei, et al.

A robust learning model for deck motion prediction of aircraft carrier

[J]. Acta Automatica Sinica, 2024, 50(9): 1785-1793.

[本文引用: 1]

李亚飞, 吴庆顺, 徐明亮, .

基于强化学习的舰载机保障作业实时调度方法

[J]. 中国科学: 信息科学, 2021, 51(2): 247-262.

[本文引用: 1]

LI Yafei, WU Qingshun, XU Mingliang, et al.

Real-time scheduling for carrier-borne aircraft support operations: A reinforcement learning approach

[J]. Scientia Sinica (Informationis), 2021, 51(2): 247-262.

[本文引用: 1]

薛均晓, 徐明亮, 李亚飞, .

面向航空母舰电子显灵板的多智能体建模技术研究进展

[J]. 计算机辅助设计与图形学学报, 2021, 33(10): 1475-1485.

[本文引用: 1]

XUE Junxiao, XU Mingliang, LI Yafei, et al.

Research progress of multi-agent technology for aircraft carrier electronic display panel

[J]. Journal of Computer-Aided Design & Computer Graphics, 2021, 33(10): 1475-1485.

[本文引用: 1]

王华, 韩璐, 楚世理, .

基于Frenet标架下三维元胞自动机的航母舰载机集群运动建模

[J]. 计算机辅助设计与图形学学报, 2018, 30(9): 1719-1727.

[本文引用: 1]

WANG Hua, HAN Lu, CHU Shili, et al.

Shipboard aircraft swarm modeling using a 3D cellular automata model under the frenet frame

[J]. Journal of Computer-Aided Design & Computer Graphics, 2018, 30(9): 1719-1727.

[本文引用: 1]

江驹, 王新华, 甄子洋. 舰载机起飞着舰引导与控制[M]. 北京: 科学出版社, 2019.

[本文引用: 1]

JIANG Ju, WANG Xinhua, ZHEN Ziyang. Guidance and control of carrier-based aircraft taking off and landing[M]. Beijing: Science Press, 2019.

[本文引用: 1]

薛均晓, 孔祥燕, 郭毅博, .

基于深度强化学习的舰载机动态避障方法

[J]. 计算机辅助设计与图形学学报, 2021, 33(7): 1102-1112.

[本文引用: 1]

XUE Junxiao, KONG Xiangyan, GUO Yibo, et al.

Dynamic obstacle avoidance method for carrier aircraft based on deep reinforcement learning

[J]. Journal of Computer-Aided Design & Computer Graphics, 2021, 33(7): 1102-1112.

[本文引用: 1]

汪丁, 黄葵, 朱兴动, .

基于改进YOLOv4-tiny的舰面多目标检测算法

[J]. 兵工自动化, 2022, 41(10): 1-6.

[本文引用: 1]

WANG Ding, HUANG Kui, ZHU Xingdong, et al.

Multi-target detection algorithm for ship surface based on improved YOLOv4-tiny

[J]. Ordnance Industry Automation, 2022, 41(10): 1-6.

[本文引用: 1]

范加利, 田少兵, 黄葵, .

基于Faster R-CNN的航母舰面多尺度目标检测算法

[J]. 系统工程与电子技术, 2022, 44(1): 40-46.

DOI:10.12305/j.issn.1001-506X.2022.01.06      [本文引用: 1]

针对航母舰面复杂的多尺度目标检测环境, 且现有算法对牵引车、人员等小目标检测性能不佳的问题, 提出一种改进快速区域卷积神经网络(faster region convolutional neural netuorks, Faster R-CNN)的舰面多尺度目标检测算法。基于多尺度特征层提取了不同尺度的区域建议网络, 提高了算法对不同尺度目标尤其是对小目标的检测性能。基于K-means聚类算法生成了适合于舰面目标数据集的先验框尺寸, 进一步提升了算法的性能。实验表明, 所提算法有效地提升了不同尺度目标的检测性能,尤其是对小目标的检测效果, 并对所提算法进行了消融实验, 最后与不同算法的性能进行了对比, 所提算法检测准确率取得了最优水平。

FAN Jiali, TIAN Shaobing, HUANG Kui, et al.

Multi-scale object detection algorithm for aircraft carrier surface based on Faster R-CNN

[J]. Systems Engineering and Electronics, 2022, 44(1): 40-46.

DOI:10.12305/j.issn.1001-506X.2022.01.06      [本文引用: 1]

Aiming at the complex multi-scale object detection environment on the aircraft carrier surface, and the poor performance of existing algorithms for small objects such as tractors and personnel, an improved faster region convolutional neural netuorks(Faster R-CNN) aircraft carrier surface multi-scale object detection algorithm is proposed. Based on the multi-scale feature layer, the region proposal network of different scales is extracted, which improves the detection performance of the algorithm for objects of different scales, especially small objects. Based on the K-means clustering algorithm, a prior box suitable for the aircraft carrier surface object dataset is generated, which further improves the performance of the algorithm. Experiments show that the proposed algorithm effectively improves the detection performance for different scales of objects, especially the detection effect of small objects, and conducts ablation experiments on the improved algorithm. Finally, the performance of different algorithms is compared, which shows that the detection accuracy of the proposed algorithm achieveds the optimal level.

朱兴动, 汪丁, 范加利, .

复杂场景下基于增强YOLOv3的舰面多目标检测

[J]. 计算机工程与应用, 2022, 58(13): 177-184.

DOI:10.3778/j.issn.1002-8331.2012-0411      [本文引用: 1]

针对舰面场景复杂、目标相互遮挡导致检测率较低等问题,在YOLOv3算法基础上提出了适用于舰面目标检测的增强YOLOv3算法。在输入网络中加入融合的数据增强策略对图像进行色域变换、裁剪、遮挡等操作,设计了多种类图片选取、变换及组合方式来丰富样本信息;针对舰面目标尺寸的特点,利用K-means算法重新设计与检测目标相匹配的先验锚框并分配至对应的预测尺度,以加速模型收敛;在输出网络中通过线性函数对Soft-NMS算法的高斯软阈值函数参数设定进行了改进,以适应不同密集度下的抑制需要,提高网络检测能力。通过将增强的目标检测算法在目标数据集上进行实验对比,其结果显示,在5类舰面目标识别的精确率和召回率分别提高了1.4%和10.3%,平均准确率值(mAP)达到了95.24%,检测速度达到21.5?frame/s,有效解决了复杂场景下的舰面多目标检测问题。

ZHU Xingdong, WANG Ding, FAN Jiali, et al.

Multitarget detection based on enhanced YOLOv3 in complex scenarios

[J]. Computer Engineering and Applications, 2022, 58(13): 177-184.

DOI:10.3778/j.issn.1002-8331.2012-0411      [本文引用: 1]

Aiming at the low detection rate caused by complex shipboard scenes and mutual occlusion of targets, an enhanced YOLOv3 algorithm suitable for shipboard target detection is proposed based on the YOLOv3 algorithm. The integrated data augmentation strategy is added to the input network to carry out gamut transformation, clipping, shielding and other operations on the image, and then a variety of image selection, transformation and combination methods are designed to enrich the sample information. According to the characteristics of the target size on ship surface, K-means algorithm is used to redesign the prior box matching the detection target and allocate it to the corresponding prediction scale. In the output network, the parameter setting of Gauss soft threshold function of Soft-NMS algorithm is improved by linear function to meet the need of suppression under different densities. Through enhanced detection algorithm in the target data set on experimental comparison, the results show that five types of ship surface target are identified, and precision rate and recall rate are increased by 1.4% and 10.3% respectively, and the average accuracy value(mAP) reaches 95.24%, and then detection speed is 21.5 frame/s, which effectively solves the complicated situations of ship surface much target detection problem.

XU P C, GUO Z Y, LIANG L, et al.

MSF-net: Multi-scale feature learning network for classification of surface defects of multifarious sizes

[J]. Sensors, 2021, 21(15): 5125.

[本文引用: 1]

LIN T Y, DOLLÁR P, GIRSHICK R, et al.

Feature pyramid networks for object detection

[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE, 2017: 936-944.

[本文引用: 1]

ZHANG S F, CHI C, YAO Y Q, et al.

Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selection

[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 2020: 9756-9765.

[本文引用: 1]

GUO D Z, ZHU L G, LU Y H, et al.

Small object sensitive segmentation of urban street scene with spatial adjacency between object classes

[J]. IEEE Transactions on Image Processing, 2018: 28(6): 2643-2653.

[本文引用: 1]

谢磊, 丁达理, 魏政磊, .

AdaBoost-PSO-LSTM网络实时预测机动轨迹

[J]. 系统工程与电子技术, 2021, 43(6): 1651-1658.

DOI:10.12305/j.issn.1001-506X.2021.06.23      [本文引用: 1]

针对自主空战中轨迹预测难以同时保持高预测精度和短预测时间的问题, 提出一种自适应增强的粒子群优化长短期记忆网络预测方法。首先,建立三自由度无人机动力学模型, 解决机动轨迹的数据来源问题。其次,分析长短期记忆网络, 并引入在线预测的滑动模块输入矩阵, 利用粒子群优化算法代替传统基于时间的反向传播算法进行网络内部权值更新; 同时为解决优化算法非定向性问题, 提出数据共享方法。然后,为进一步提高预测精度, 采用自适应增强算法搭建外框架, 通过控制弱预测器的数量平衡预测精度与预测时间。最后, 在一段变化较为频繁的轨迹进行预测, 与5种神经网络预测方法进行比较, 结果表明所提方法能够较好地满足精度和时间要求。

XIE Lei, DING Dali, WEI Zhenglei, et al.

Real time prediction of maneuver trajectory for AdaBoost-PSO-LSTM network

[J]. Systems Engineering and Electronics, 2021, 43(6): 1651-1658.

DOI:10.12305/j.issn.1001-506X.2021.06.23      [本文引用: 1]

To solve the problem that trajectory prediction is difficult to maintain high prediction accuracy and short prediction time in autonomous air combat, an AdaBoost particle swarm optimization for long and short term memory network prediction method is proposed. Firstly, the dynamic model of unmanned aerial vehicle with three degrees of freedom is established to solve the problem of data source of maneuver trajectory. Secondly, the long and short term memory network is analyzed, and the sliding module input matrix of online prediction is introduced. Particle swarm optimization algorithm is used to replace the traditional back propagation algorithm through time to update the internal weights of the network. Meanwhile, in order to solve the problem of non-orientation of the optimization algorithm, a data sharing method is proposed. Then, in order to further improve the prediction accuracy, AdaBoost algorithm is used to build the outer framework, and the prediction accuracy and prediction time are balanced by controlling the number of weak predictors. Finally, compared with five neural network prediction methods in a period of more frequent changes in the trajectory prediction, the results show that the proposed method can meet the requirements of accuracy and time.

LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot MultiBox detector[M]//Computer Vision-ECCV 2016. Cham: Springer, 2016: 21-37.

[本文引用: 2]

LIN T Y, GOYAL P, GIRSHICK R, et al.

Focal loss for dense object detection

[C]// 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 2999-3007.

[本文引用: 1]

REDMON J, FARHADI A.

YOLOv3: An incremental improvement

[DB/OL]. (2018-04-08)[2022-06-09]. https://arxiv.org/abs/1804.02767.pdf.

URL     [本文引用: 1]

FU C Y, LIU W, RANGA A, et al.

DSSD: Deconvolutional single shot detector

[DB/OL]. (2017-01-23)[2022-07-10]. https://arxiv.org/abs/1701.06659.pdf.

URL     [本文引用: 1]

/