CN114399837B - 基于头部姿态捕捉与方位计算的匍匐战术动作评判方法 - Google Patents
基于头部姿态捕捉与方位计算的匍匐战术动作评判方法Info
- Publication number
- CN114399837B CN114399837B CN202111658042.0A CN202111658042A CN114399837B CN 114399837 B CN114399837 B CN 114399837B CN 202111658042 A CN202111658042 A CN 202111658042A CN 114399837 B CN114399837 B CN 114399837B
- Authority
- CN
- China
- Prior art keywords
- head
- backbone network
- angle
- main network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种动作评判方法,具体涉及一种基于头部姿态捕捉与方位计算的匍匐战术动作评判方法。解决了现有训练的头部姿态评判没有一套客观量化的通行标准且无法大规模复制经验使评判效率较低的技术问题。本发明方法包括以下步骤:1)构建第一主干网络,实时采集学员头部图像并识别学员头部图像;2)计算头部方位角;2.1)构建第二主干网络,第二主干网络为ResNet50主干网络;2.2)训练ResNet50主干网络并获取实际标注数据;2.3)将识别的学员头部图像,输送至训练后的ResNet50主干网络进行头部方位角计算;3)判断当前时刻头部的偏航角、滚转角或俯仰角是否落入相应的设定范围内;若否,则按照扣分规则进行相应的扣分操作,并给出得分;若是,则直接给出得分。
Description
技术领域
本发明涉及一种动作评判方法,具体涉及一种基于头部姿态捕捉与方位计算的匍匐战术动作评判方法。
背景技术
头部姿态即头部的位置信息和方向信息。现有针对训练的头部姿态评价没有一套客观的通行标准,比如,匍匐前进训练时学员观察前方是否符合标准,目前评判手段主要是依靠作训主官通过先前经验进行人为判断。人为评判就会导致结果主观化较多、无法量化且无法大规模复制经验也导致评判效率较低。
发明内容
本发明目的是解决现有针对训练的头部姿态评判没有一套客观量化的通行标准,往往靠作训主官通过先前经验判断,人为评判易导致评判结果主观化、结论无法量化且无法大规模复制经验使评判效率较低的技术问题,而提供一种基于人体头部姿态捕捉与方位计算的评判系统及方法。本发明是在一个全局坐标系统内通过图像识别的方法判断头部姿态的参数,通过人体头部姿态捕捉与方位计算技术,先采集得到学员头部姿态信息,然后对该姿态下所呈现的角度进行水平切面与垂直切面的分析,并计算得到偏航角度,最后通过设置阈值范围来限定或者判断学员头部姿态的偏航角是否符合训练大纲要求。本发明可以对训练者头部姿态进行客观评判且量化学员考核标准。
本发明的技术解决方案为:
一种基于头部姿态捕捉与方位计算的匍匐战术动作评判方法,其特殊之处在于,包括以下步骤:
1)构建第一主干网络,实时采集学员头部图像并识别学员头部图像;
2)计算头部方位角
2.1)构建第二主干网络,所述第二主干网络为ResNet50主干网络;所述ResNet50主干网络包括三个全连接层,所述三个全连接层分别对应头部方位角的偏航角、滚转角和俯仰角;所述ResNet50主干网络的映射区间范围为[-99,+99];每个全连接层在所述映射区间范围内单独做预测,且单独做预测的全连接数均为二进制数;
2.2)对构建的ResNet50主干网络进行训练,得到训练后的ResNet50主干网络,并获取实际标注数据;
2.3)将步骤1)中识别的学员头部图像,输送至步骤2.2)训练后的ResNet50主干网络进行头部方位角计算;
2.3.1)将学员头部图像中头部方位角的偏航角、滚转角或俯仰角分别映射到[-99,+99]区间内,并分别将映射区间范围中-99到+99共199个数值依次进行分类,三个为一组,中间间隔作为离散类别;
2.3.2)将步骤2.3.1)得到的离散类别通过softmax函数操作后归一化为概率值,全连接层中所有离散类别数据的概率值相加为1;
2.3.3)将步骤2.3.2)得到的概率值和对应的离散类别相乘并求和,得到期望值;通过期望值和实际标注数据的角度计算均方差,最终通过端到端训练输出头部方位角;
3)判断当前时刻头部方位角的偏航角、滚转角或俯仰角是否落入相应的设定范围内;若否,则按照扣分规则进行相应的扣分操作,并给出得分;若是,则直接给出得分。
进一步地,所述步骤1具体为:
1.1)构建第一主干网络,所述第一主干网络为Darknet-53主干网络;所述Darknet-53主干网络包括自输入端到输出端依次连接的多个卷积块和全连接层;每个卷积块包括依次连接的卷积层、并行设置的批归一化层和激活层;所述卷积层由1x1和3x3的卷积核组成;当卷积的步长默认为1时,填充默认为一致;当卷积步长为2时,填充为有效;
1.2)将Darknet-53主干网络进行下采样,每次采样步长为1或2;然后将Darknet-53主干网络的中间层和倒数第二层的上采样进行拼接,形成新的优化网络,用于不断迭代新的样本训练学习,得到头部模型;
1.3)通过损失函数优化训练头部模型;所述损失函数为目标定位偏移量损失、目标置信度损失以及目标分类损失中的一种或多种;
1.4)采集待考核学员头部图像信息,输送至头部模型,识别学员头部图像。
进一步地,步骤1.2)中,所述Darknet-53主干网络进行了5次下采样,每次采样步长为2,将输出特征图缩小到原图的1/32。
进一步地,步骤2.1)中,所述ResNet50主干网络的输出先被映射到0~99这个区间范围内,然后再将映射值乘以3后再减去99,使区间范围被映射到[-99,+99]这个区间范围。
进一步地,步骤2.3.1)中所述将映射区间范围中-99到+99共199个数值依次进行分类具体为,包含起点-99度,终点设为102度且不包含102度,每3个数为一个间隔,共66个间隔。
本发明的有益效果:
1、本发明可实时抓取被测试者在匍匐前进中头部的位置信息和方向信息,比如头部偏航、俯仰和滚转姿态,同时可量化考核信息并快速分析评判被测试者匍匐前进动作是否违规。
2、本发明结合采用Darknet-53主干网络和ResNet50主干网络,得到人体头部姿态检测与识别主干网络模型以及头部方位角计算模型,很好的平衡了计算量和准确率,可在不增加额外的计算开销的同时,保证准确率且提高网络模型的效率,在此基础上,本发明方法计算速率比传统方法快2~3倍。
3、本发明通过采集头部姿态信息,并通过人工智能进行数据分析从而对士兵训练进行客观、准确的评判。
4、本发明智能高效,可以快速且准确的实现多任务的头部姿态估计。
附图说明
图1是ResNet50主干网络的网络结构示意图,图中MSE为均方差。
具体实施方式
下面通过结合附图和实施例对本发明做详细的说明。
本发明一种基于头部姿态捕捉与方位计算的匍匐战术动作评判方法,包括以下步骤:
1)构建第一主干网络,实时采集学员头部图像并识别学员头部图像;
1.1)构建第一主干网络,第一主干网络为Darknet-53主干网络;;
Darknet-53主干网络包括自输入端到输出端依次连接的多个卷积块和全连接层;每个卷积块包括依次连接的卷积层、并行设置的批归一化层和激活层;卷积层由1x1和3x3的卷积核组成;当卷积的步长默认为1时,填充(padding)默认为一致;当卷积步长为2时,填充(padding)为有效。Darknet-53主干网络结构中有52个卷积层,最后一个是全连接层,一共53层,具体如表1所示。
表1 Darknet-53主干网络结构
1.2)将Darknet-53主干网络进行5次下采样,每次采样步长为2,将输出特征图缩小到原图的1/32,使特征图既不会太大,也不会太小,有利于模型训练的开展;然后将Darknet-53主干网络的中间层和倒数第二层的上采样进行拼接,形成新的优化网络,用于不断迭代新的样本训练学习,得到头部模型;
1.3)通过损失函数优化训练头部模型;损失函数为目标定位偏移量损失、目标置信度损失以及目标分类损失中的一种或多种。
当有目标中心落入网格时,实际是计算目标分类损失,目标置信度损失,预测框与实际标注数据的IOU(图像分割指标)较大的那个预测框坐标信息的损失。当没有物体中心落入网格时,只需要计算置信度损失。当置信度较大时,则说明物体中心存在改网格中,则再计算目标定位损失和目标分类损失才有意义。
1.4)采集待考核学员头部图像信息,输送至头部模型,识别学员头部图像;
2)计算头部方位角;
2.1)构建第二主干网络,第二主干网络为ResNet50主干网络;
如图1所示,ResNet50主干网络包括三个全连接层,三个全连接层分别对应头部方位角的偏航角、滚转角和俯仰角;ResNet50主干网络的映射区间范围为[-99,+99];每个全连接层在所述映射区间范围内单独做预测,且单独做预测的全连接数均为bin数(二进制数);ResNet50主干网络的输出先被映射到0~99这个区间范围内,然后再将映射值乘以3后再减去99,使区间范围被映射到[-99,+99]这个区间范围。
2.2)对构建的ResNet50主干网络进行训练,得到训练后的ResNet50主干网络,并获取实际标注数据;
2.3)将步骤1.4中识别的学员头部图像,输送至步骤2.2)训练后的ResNet50主干网络进行头部方位角计算;
2.3.1)将学员头部图像中偏航角、滚转角或俯仰角分别映射到[-99,+99]区间内,并分别将映射区间范围中-99到+99共199个数值依次进行分类,三个为一组,中间间隔作为离散类别;分类时,包含起点-99度,终点设为102度且不包含102度,每3个数为一个间隔,共66个间隔。
2.3.2)将步骤2.3.1)得到的离散类别通过softmax函数后归一化为概率值,全连接层中所有离散类别数据的概率值相加为1;
2.3.3)将步骤2.3.2)得到的概率值和对应的离散类别相乘并求和,得到期望值;通过期望值和实际标注数据的角度计算均方差,同时使用交叉损失熵对步骤2.3.1)得到的离散类别计算损失;最终通过端到端训练输出头部方位角;
3)判断当前时刻头部方位角的偏航角、滚转角或俯仰角是否落入相应的设定范围内;若否,则按照扣分规则进行相应的扣分操作,并给出得分;若是,则直接给出得分。相应的设定范围根据经验给定。
Claims (4)
1.一种基于头部姿态捕捉与方位计算的匍匐战术动作评判方法,其特征在于,包括以下步骤:
1)构建第一主干网络,实时采集学员头部图像并识别学员头部图像;
2)计算头部方位角
2.1)构建第二主干网络,所述第二主干网络为ResNet50主干网络;所述ResNet50主干网络包括三个全连接层,所述三个全连接层分别对应头部方位角的偏航角、滚转角和俯仰角;所述ResNet50主干网络的映射区间范围为[-99,+99];每个全连接层在所述映射区间范围内单独做预测,且单独做预测的全连接数均为二进制数;
2.2)对构建的ResNet50主干网络进行训练,得到训练后的ResNet50主干网络,并获取实际标注数据;
2.3)将步骤1)中识别的学员头部图像,输送至步骤2.2)训练后的ResNet50主干网络进行头部方位角计算;
2.3.1)将学员头部图像中头部方位角的偏航角、滚转角或俯仰角分别映射到[-99,+99]区间内,并分别将映射区间范围中-99到+99共199个数值依次进行分类,包含起点-99度,终点设为102度且不包含102度,每3个数为一个间隔,共66个间隔;以每个间隔作为离散类别;
2.3.2)将步骤2.3.1)得到的离散类别通过softmax函数操作后归一化为概率值,全连接层中所有离散类别数据的概率值相加为1;
2.3.3)将步骤2.3.2)得到的概率值和对应的离散类别相乘并求和,得到期望值;通过期望值和实际标注数据的角度计算均方差,最终通过端到端训练输出头部方位角;
3)判断当前时刻头部方位角的偏航角、滚转角或俯仰角是否落入相应的设定范围内;若否,则按照扣分规则进行相应的扣分操作,并给出得分;若是,则直接给出得分。
2.根据权利要求1所述的基于头部姿态捕捉与方位计算的匍匐战术动作评判方法,其特征在于,所述步骤1具体为:
1.1)构建第一主干网络,所述第一主干网络为Darknet-53主干网络;所述Darknet-53主干网络包括自输入端到输出端依次连接的多个卷积块和全连接层;每个卷积块包括依次连接的卷积层、并行设置的批归一化层和激活层;所述卷积层由1x1和3x3的卷积核组成;当卷积的步长默认为1时,填充默认为一致;当卷积步长为2时,填充为有效;
1.2)将Darknet-53主干网络进行下采样,每次采样步长为1或2;然后将Darknet-53主干网络的中间层和倒数第二层的上采样进行拼接,形成新的优化网络,用于不断迭代新的样本训练学习,得到头部模型;
1.3)通过损失函数优化训练头部模型;所述损失函数为目标定位偏移量损失、目标置信度损失以及目标分类损失中的一种或多种;
1.4)采集待考核学员头部图像信息,输送至头部模型,识别学员头部图像。
3.根据权利要求2所述的基于头部姿态捕捉与方位计算的匍匐战术动作评判方法,其特征在于,
步骤1.2)中,所述Darknet-53主干网络进行了5次下采样,每次采样步长为2,将输出特征图缩小到原图的1/32。
4.根据权利要求1或2或3所述的基于头部姿态捕捉与方位计算的匍匐战术动作评判方法,其特征在于:
步骤2.1)中,所述ResNet50主干网络的输出先被映射到0~99这个区间范围内,然后再将映射值乘以3后再减去99,使区间范围被映射到[-99,+99]这个区间范围。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202111658042.0A CN114399837B (zh) | 2021-12-30 | 2021-12-30 | 基于头部姿态捕捉与方位计算的匍匐战术动作评判方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202111658042.0A CN114399837B (zh) | 2021-12-30 | 2021-12-30 | 基于头部姿态捕捉与方位计算的匍匐战术动作评判方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN114399837A CN114399837A (zh) | 2022-04-26 |
| CN114399837B true CN114399837B (zh) | 2025-08-19 |
Family
ID=81228848
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202111658042.0A Active CN114399837B (zh) | 2021-12-30 | 2021-12-30 | 基于头部姿态捕捉与方位计算的匍匐战术动作评判方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN114399837B (zh) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115240010A (zh) * | 2022-08-11 | 2022-10-25 | 多伦科技股份有限公司 | 非点云的车辆角度检测方法、系统及电子设备 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101533467A (zh) * | 2009-04-28 | 2009-09-16 | 南京航空航天大学 | 一种基于决策树的多种人体姿态识别方法 |
| CN113705521A (zh) * | 2021-09-05 | 2021-11-26 | 吉林大学第一医院 | 一种结合YOLO-MobilenetV3人脸检测的头部姿态估计方法 |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190246036A1 (en) * | 2018-02-02 | 2019-08-08 | Futurewei Technologies, Inc. | Gesture- and gaze-based visual data acquisition system |
| CN209326466U (zh) * | 2018-12-29 | 2019-08-30 | 河北砺兵科技有限责任公司 | 一种机器人靶标多靶多姿态显示装置 |
-
2021
- 2021-12-30 CN CN202111658042.0A patent/CN114399837B/zh active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101533467A (zh) * | 2009-04-28 | 2009-09-16 | 南京航空航天大学 | 一种基于决策树的多种人体姿态识别方法 |
| CN113705521A (zh) * | 2021-09-05 | 2021-11-26 | 吉林大学第一医院 | 一种结合YOLO-MobilenetV3人脸检测的头部姿态估计方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN114399837A (zh) | 2022-04-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108154134B (zh) | 基于深度卷积神经网络的互联网直播色情图像检测方法 | |
| CN110084165B (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
| CN110378232B (zh) | 改进的ssd双网络的考场考生位置快速检测方法 | |
| CN107194418A (zh) | 一种基于对抗特征学习的水稻蚜虫检测方法 | |
| CN115050072A (zh) | 一种基于多数据流的抬头状态数据获取方法 | |
| CN119540752B (zh) | 基于位置引导病灶表征学习的植物叶片病害严重程度评估方法 | |
| CN119048736A (zh) | 基于改进的YOLOv8塔基底目标检测方法和装置 | |
| CN117333948A (zh) | 一种融合时空注意力机制的端到端多目标肉鸡行为识别方法 | |
| CN117078670B (zh) | 一种云相框的生产控制系统 | |
| CN114399837B (zh) | 基于头部姿态捕捉与方位计算的匍匐战术动作评判方法 | |
| CN112381072B (zh) | 一种基于时空信息及人、物交互的人体异常行为检测方法 | |
| CN117576781A (zh) | 基于行为识别的训练强度监测系统及方法 | |
| CN111241905A (zh) | 基于改进ssd算法的输电线路鸟窝检测方法 | |
| CN114387261A (zh) | 一种适用于铁路钢桥螺栓病害的自动检测方法 | |
| CN111540203B (zh) | 基于Faster-RCNN调节绿灯通行时间的方法 | |
| CN116977937A (zh) | 一种行人重识别的方法及系统 | |
| CN109902800B (zh) | 基于拟反馈神经网络的多级骨干网络检测通用物体的方法 | |
| CN113936237B (zh) | 基于对比自监督的无参考视频质量评估预测方法及系统 | |
| CN115147922A (zh) | 基于嵌入式平台的单目行人检测方法、系统、设备及介质 | |
| CN114529870A (zh) | 基于Faster-RCNN的人数检测系统 | |
| CN118379798B (zh) | 一种基于课堂密集场景的双阶段人员行为识别方法 | |
| CN116630909B (zh) | 基于无人机的无人值守智能监控系统及其方法 | |
| CN114399836B (zh) | 一种基于人体姿态估计的单兵战术动作评判方法 | |
| CN116645626B (zh) | 一种长尾数据下基于Transformer的采油违章识别方法 | |
| CN117274902A (zh) | 移动机器人的目标识别与定位方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |