您当前所在位置: 首页 > 首发论文
动态公开评议须知

1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

上传后印本

( 请提交PDF文档 )

* 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

发邮件给 王小芳 *

收件人:

收件人邮箱:

发件人邮箱:

发送内容:

0/300

论文收录信息

论文编号 201811-126
论文题目 基于边缘匹配的物体位姿追踪
文献类型
收录
期刊

上传封面

期刊名称(中文)

期刊名称(英文)

年, 卷(

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

编者.论文集名称(中文) [c].

出版地 出版社 出版年-

编者.论文集名称(英文) [c].

出版地出版社 出版年-

上传封面

期刊名称(中文)

期刊名称(英文)

日期--

在线地址http://

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

英文作者写法:

中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

作者之间用逗号“,”分隔,最后为实心圆点“.”,

示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

示例3:YELLAND R L,JONES S C,EASTON K S,et al.

上传修改稿说明:

1.修改稿的作者顺序及单位须与原文一致;

2.修改稿上传成功后,请勿上传相同内容的论文;

3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

4.请选择DOC或Latex中的一种文件格式上传。

上传doc论文   请上传模板编辑的DOC文件

上传latex论文

* 上传模板导出的pdf论文文件(须含页眉)

* 上传模板编辑的tex文件

回复成功!


  • 0

基于边缘匹配的物体位姿追踪

首发时间:2018-11-30

陈策 1   

陈策(1994—), 男, 硕士, 主要研究方向为计算机视觉、目标识别与姿态追踪

岳继光 1    董延超 1   

董延超(1982—), 男, 博士, 副教授, 硕士生导师, 主要研究方向为计算机视觉、ADAS、机器学习等

沈润杰 1   
  • 1、同济大学电子与信息工程学院,上海 201804

摘要:目标位姿追踪技术是指通过图像信息,解算物体坐标系相对于相机坐标系的旋转矩阵以及平移向量。该领域近年来发展迅速,基于特征点匹配以及姿态解算的位姿追踪方法在精度以及算法速度上已基本满足要求。但对于表面纹理贫乏的目标,由于无法对其进行特征点提取并匹配,导致算法失效。本文使用物体模型以及场景灰度图像构建方向倒角距离目标函数,将追踪问题转化为寻优问题。在现有算法基础上,结合物体位姿变换与图像坐标改变的雅可比矩阵,使用解析偏导数替换数值偏导数。针对追踪过程中出现的背景扰动问题,使用场景梯度方向与模型边缘方向计算模型点优化权重,及时降低误匹配或干扰点对姿态解算的影响,提高复杂情况下的追踪精度。测试阶段,在渲染视频测试中,平均角度误差在1.30 以内,平均平移向量误差在0.85毫米内;且在难度较高的 Rigid Pose 数据集中也取得了不错的效果。测试结果表明该算法在复杂条件下仍能实现高精度追踪。

关键词: 位姿追踪 工业视觉 模型匹配 解析寻优

For information in English, please click here

Edge Matching Based Pose Tracking

CHEN Ce 1   

陈策(1994—), 男, 硕士, 主要研究方向为计算机视觉、目标识别与姿态追踪

YUE Jiguang 1    DONG Yanchao 1   

董延超(1982—), 男, 博士, 副教授, 硕士生导师, 主要研究方向为计算机视觉、ADAS、机器学习等

SHEN Runjie 1   
  • 1、College of Electronic and Information, Tongji University, Shanghai 201804

Abstract:We propose a novel model-based method for estimation and tracking the six degrees of freedom(6DOF)pose of rigid objects of arbitrary shapes. Relevant researches have been developing rapidly in recent years, and the pose tracking method based on feature point matching and perspective-n-point algorithm has basically met the requirements on accuracy and speed. However, in industrial applications and augmented reality, most targets are textureless objects. It is difficult to extract feature points from the surface of such objects, which leads to large error and even failure of the method based on feature points.In this paper, object model and scene gray image are used to construct the object function by direction chamfer distance, and the tracking problem is transformed into the optimization problem. Based on the existing work, our approach constructs the Jacobian matrix between the three-dimensional point space coordinate and the coordinate of the corresponding points on the image, to replace the existing numerical derivative optimization method. In order to solve the occlusion problem, we use the picture gradient direction and the object edge direction to judge whether the point is occluded, and calculate the optimal weight by the difference between the two direction. When the object is occluded, the tracking algorithm can automatically reduce the influence of occluded points on the pose optimization, making the registration process more inclined to the unoccluded points and improving the tracking accuracy in this case. we leverage CG render video, real gray-scale video and open source dataset to evaluate our tracking algorithm. In the Rigid Pose dataset test, the average angle error of our algorithm is 1.835 , and the average translation vector error is 0.989 mm, better than the existing methods. Combining the analytic derivatives and the optimal weight approach, the accuracy of the registration is higher than the existing methods. Since our methods have a lower computational complexity, lower device requirements.

Keywords: pose tracking industrial vision model matching analytic optimization

Click to fold

点击收起

论文图表:

引用

导出参考文献

.txt .ris .doc
陈策,岳继光,董延超,等. 基于边缘匹配的物体位姿追踪[EB/OL]. 北京:中国科技论文在线 [2018-11-30]. https://www.paper.edu.cn/releasepaper/content/201811-126.

No.****

动态公开评议

共计0人参与

动态评论进行中

评论

全部评论

0/1000

勘误表

基于边缘匹配的物体位姿追踪