基于运动特征增强双流网络的视频行为识别
DOI:
作者:
作者单位:

太原理工大学软件学院

作者简介:

通讯作者:

中图分类号:

TP391

基金项目:

国家自然科学基金项目(面上项目,重点项目,重大项目),海外青年学者合作研究基金


Video Action Recognitoin Based on Sport Feature Enhancement in Two-stream Network
Author:
Affiliation:

School of Software, Taiyuan University of Technology

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对目前行为识别中双流网络对运动特征提取的不充分导致识别准确度低的问题,提出一种运动特征增强双流网络。该网络分为空间流和时间流,空间流网络和时间流网络结构相同,输入不同。空间流网络输入为视频帧序列,而时间流网络输入为视频帧差序列。网络结构以Resnet50为骨干网络,将3×3卷积替换为本文提出的全局运动特征模块和局部运动特征模块,充分提取视频运动信息,最终将空间流和时间流结合输出结果。该模型在UCF101和HMDB51数据集上准确率达到96.8%和75.3%,与传统算法相比有一定优越性。

    Abstract:

    A sport enhanced two-stream network is proposed to address the issue of low recognition accuracy caused by insufficient extraction of motion features in current action recognition. The network is divided into spatial stream and temporal stream, with the same structure and different inputs. The spatial stream inputs a video frame sequence, while the temporal stream inputs a frame difference sequence. The network structure is based on Resnet50 as the backbone network, integrating 3 × 3 convolutions are replaced by the global sport feature module and local sport feature module proposed in this article, fully extracting video sport information, and ultimately combining spatial and temporal streams to output the results. The accuracy of this model on the UCF101 and HMDB51 datasets reached 96.8% and 75.3%, which has certain advantages compared to traditional algorithms.

    参考文献
    相似文献
    引证文献
引用本文

曹若琛. 基于运动特征增强双流网络的视频行为识别[J]. 科学技术与工程, , ():

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2024-03-04
  • 最后修改日期:2024-04-05
  • 录用日期:2024-04-25
  • 在线发布日期:
  • 出版日期:
×
亟待确认版面费归属稿件,敬请作者关注