您当前所在位置: 首页

论文收录信息

论文编号 201712-84
论文题目 一种基于CNN特征的域适应Egocentric视频有意义帧提取算法
文献类型
收录期刊

上传封面

中文期刊 英文期刊

期刊名称(中文)

期刊名称(英文)

年, 卷(

上传封面

中文专著 英文专著

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

中文译著 英文译著

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

中文论文集 英文论文集

编者 . 论文集名称(中文) [c].

出版地 出版社 出版年-

编者 . 论文集名称(英文) [c].

出版地 出版社 出版年-

上传封面

中文文献 英文文献

期刊名称(中文)

期刊名称(英文)

日期--

在线地址http://

上传封面

中文文献 英文文献

文题(中文)

文题(英文)

出版地

出版社, 出版日期--

上传封面

中文文献 英文文献

文题(中文)

文题(英文)

出版地

出版社, 出版日期--

后印本*

(请提交PDF文档)

一种基于CNN特征的域适应Egocentric视频有意义帧提取算法

引用

复制文本

导出参考文献

.txt .ris .doc

田贺英 12

田贺英(1993-),女,主要研究方向:机器学习、图像处理、深度学习、计算机视觉

尹辉 12

尹辉(1972-),女,教授、博士生导师,主要研究方向:计算机视觉、机器学习、智能信息处理

杨林 12

杨林(1993-),男,主要研究方向:深度学习、图像处理、计算机视觉

欧伟奇 12

欧伟奇(1992-),男,主要研究方向:机器学习、图像处理、计算机视觉。

发送私信

发送给

1、 北京交通大学计算机与信息技术学院,北京 100044 2、 北京交通大学交通数据分析与挖掘北京市重点实验室,北京 100044

摘要: Egocentric视频数据量大且信息冗余度高,有意义帧的提取对于Egocentric视频的分析和理解具有重要的意义。本文提出一种基于CNN特征的域适应Egocentric视频有意义帧提取算法,该算法避免了构建Egocentric视频人工标注训练数据的巨大工作量,以已标注有意义帧的固定视角视频数据为源样本,分别提取基于CNN的源域和目标域(Egocentric视频)特征空间,构建连接源域和目标域的域不变特征空间,采用基于测地线流内核的方法计算源样本和目标样本的相似度,根据相似度度量提取Egocentric视频中的有意义帧。通过在UT Egocentric数据集上的对比实验,本文算法较Web Prior + DA等算法提升了至少4个百分点,验证了本文提出算法的有效性。

关键词: Egocentric视频 卷积神经网络 特征选择 域适应 有意义帧

图表:

动态公开评议

评论

评论一下

全部评论
评论