基于动态token剪枝的高效压缩视频动作识别transformer,首发论文 -全讯担保网

您当前所在位置: 全讯担保网-0008全讯注册 > 首发论文
动态公开评议须知

1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

上传后印本

( 请提交pdf文档 )

* 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

发邮件给 王小芳 *

收件人:

收件人邮箱:

发件人邮箱:

发送内容:

0/300

论文收录信息

论文编号 202503-136
论文题目 基于动态token剪枝的高效压缩视频动作识别transformer
文献类型
收录
期刊

上传封面

期刊名称(中文)

期刊名称(英文)

年, 卷(

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

编者.论文集名称(中文) [c].

出版地 出版社 出版年-

编者.论文集名称(英文) [c].

出版地出版社 出版年-

上传封面

期刊名称(中文)

期刊名称(英文)

日期--

在线地址http://

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

英文作者写法:

中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

作者之间用逗号“,”分隔,最后为实心圆点“.”,

示例1:原姓名写法:albert einstein,编入参考文献时写法:einstein a.

示例2:原姓名写法:李时珍;编入参考文献时写法:li s z.

示例3:yelland r l,jones s c,easton k s,et al.

上传修改稿说明:

1.修改稿的作者顺序及单位须与原文一致;

2.修改稿上传成功后,请勿上传相同内容的论文;

3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

4.请选择doc或latex中的一种文件格式上传。

上传doc论文   请上传模板编辑的doc文件
上传latex论文

* 上传模板导出的pdf论文文件(须含页眉)

* 上传模板编辑的tex文件

回复成功!

基于动态token剪枝的高效压缩视频动作识别transformer

首发时间:2025-03-14

文鸿 1   

文鸿(2000-),女,硕士研究生,主要研究方向:视频识别,边缘计算

方维维 1   

方维维(1981-),男,教授,主要研究方向:边缘计算与智能,移动云计算

  • 1、北京交通大学计算机科学与技术学院,北京,100044

摘要:在线视频的快速增长推动了视频理解任务的需求,压缩视频凭借其稀疏存储的rgb帧和压缩的运动线索(如运动向量和残差)特性,在降低计算开销和存储成本方面展现出了巨大潜力,成为代替原始视频实现视频动作识别的有效方案。然而,现有的基于transformer的压缩视频动作识别方法面临精度和效率平衡的挑战,高昂的计算成本限制了其在实际场景中的应用。为此,本文提出了一种基于动态token剪枝的高效压缩视频transformer(dynamic token pruning for efficient compressed video transformer, dtp-ecvt)。具体来说,该框架首先构建了一个双流架构来分别处理压缩视频中的rgb模态和运动模态,随后通过跨模态交互和全局信息融合来增强识别性能。另一方面,为了降低模型复杂度,该框架在双流架构中集成了一个轻量的动态空间token剪枝(dynamic spatial token pruning, dstp)模块。该模块能够根据模态特征动态剪枝冗余token,从而降低训练和推理开销。实验结果表明,在hmdb-51、ucf-101和kinetics-400基准数据集上,dtp-ecvt在保持与现有最优方法相当或更优的识别精度的同时,显著降低了计算开销和推理延迟。

关键词:

for information in english, please click here

dynamic token pruning for efficient compressed video action recogition transformer

wen hong 1   

文鸿(2000-),女,硕士研究生,主要研究方向:视频识别,边缘计算

fang weiwei 1   

方维维(1981-),男,教授,主要研究方向:边缘计算与智能,移动云计算

  • 1、beijing jiaotong university, school of computer science and technology, beijing,100044

abstract:the rapid growth of online videos has driven the demand for video understanding tasks.compressed video, with its sparsely stored rgb frames and compressed motion cues (e.g., motion vectors and residuals), has emerged as a promising alternative to raw video for action recognition, offering significant advantages in reducing computational overhead and storage costs.however, existing transformer-based approaches for compressed video action recognition encounter a fundamental challenge in achieving an optimal trade-off between accuracy and computational efficiency, significantly hindering their deployment in real-world scenarios due to the substantial computational overhead. to address this, we propose dtp-ecvt (dynamic token pruning for efficient compressed video transformer), a novel framework integrating dual-stream processing and dynamic token pruning. specifically, dtp-ecvt first employs a dual-stream architecture to separately process rgb and motion modalities in compressed videos, followed by cross-modal interaction and global fusion to enhance recognition. furthermore, a lightweight dynamic spatial token pruning (dstp) module is introduced to dynamically eliminate redundant tokens based on modality-specific features, thereby reducing training and inference costs. extensive experiments on hmdb-51,ucf-101, and kinetics-400 benchmarks show that dtp-ecvt achieves comparable or superior accuracy to state-of-the-art approaches while significantly reducing computational overheadand inference latency.

keywords:

click to fold

点击收起

基金:

论文图表:

引用

导出参考文献

文鸿,方维维. 基于动态token剪枝的高效压缩视频动作识别transformer[eb/ol]. 北京:中国科技论文在线 [2025-03-14]. https://www.paper.edu.cn/releasepaper/content/202503-136.

no.****

动态公开评议

共计0人参与

动态评论进行中

评论

全部评论

0/1000

勘误表

基于动态token剪枝的高效压缩视频动作识别transformer

网站地图