您当前所在位置: 首页 > 首发论文
动态公开评议须知

1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

上传后印本

( 请提交PDF文档 )

* 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

发邮件给 王小芳 *

收件人:

收件人邮箱:

发件人邮箱:

发送内容:

0/300

论文收录信息

论文编号 201901-15
论文题目 基于分层注意力机制的知识图谱问答方法
文献类型
收录
期刊

上传封面

期刊名称(中文)

期刊名称(英文)

年, 卷(

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

编者.论文集名称(中文) [c].

出版地 出版社 出版年-

编者.论文集名称(英文) [c].

出版地出版社 出版年-

上传封面

期刊名称(中文)

期刊名称(英文)

日期--

在线地址http://

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

英文作者写法:

中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

作者之间用逗号“,”分隔,最后为实心圆点“.”,

示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

示例3:YELLAND R L,JONES S C,EASTON K S,et al.

上传修改稿说明:

1.修改稿的作者顺序及单位须与原文一致;

2.修改稿上传成功后,请勿上传相同内容的论文;

3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

4.请选择DOC或Latex中的一种文件格式上传。

上传doc论文   请上传模板编辑的DOC文件

上传latex论文

* 上传模板导出的pdf论文文件(须含页眉)

* 上传模板编辑的tex文件

回复成功!


  • 0

基于分层注意力机制的知识图谱问答方法

首发时间:2019-01-03

郎爽 1   

郎爽(1994-),女,硕士研究生,大数据、人工智能

朱署光 1   

朱署光(1990-),男,博士研究生,大数据、人工智能

程祥 1   

程祥(1984-),男,副教授,大数据、人工智能

  • 1、北京邮电大学网络与交换技术国家重点实验室,北京 100876

摘要:知识图谱问答能够根据知识图谱中的结构化知识回答自然语言问题。由于自然语言与结构化查询难以直接对应,该映射过程成为知识图谱问答研究中的难点。本文从问题的句法结构入手,提出了一种基于分层注意力机制的知识图谱问答方法 (Hierarchical Attention Mechanism based Approach for Question Answering over Knowledge Graph, KGQA-HAM)。该方法分为编码和解码两个阶段。在编码阶段,该方法将问题表示为依存树,基于改进的LSTM (Long Short-Term Memory Network) 编码各层子树的语义向量,利用子树表达问题描述的实体或关系语义,在问题与查询语句之间建立映射关系。在解码阶段,为了动态提取与查询语句相对应的信息,本文利用分层注意力机制,自根节点向下逐层提取上下文向量,将其融入LSTM中生成查询语句,并根据查询语句查询知识图谱得到问题的答案。本文在公开数据集WebQuestion上进行了测试。实验结果表明,相比于词级别的注意力机制的方法,本文提出的依存树级别的分层注意力机制的方法显著提升了知识图谱问答任务的准确率。

关键词: 问答系统 知识图谱 依存树 分层注意力

For information in English, please click here

Hierarchical Attention Mechanism based Approach for Question Answering over Knowledge Graph

LANG Shuang 1   

郎爽(1994-),女,硕士研究生,大数据、人工智能

ZHU Shuguang 1   

朱署光(1990-),男,博士研究生,大数据、人工智能

CHENG Xiang 1   

程祥(1984-),男,副教授,大数据、人工智能

  • 1、State Key Laboratory of Networking and Switching Technology, Beijing University of Posts and Telecommunications, Beijing 100876

Abstract:Question answering over knowledge graph(KGQA) can give answers to natural language questions according to the structured knowledge in the knowledge graph. The mismatch between natural language and structured query makes the mappinga major difficulty of KGQA. Starting from the syntactic structure of the question, this paper proposes a hierarchical attention mechanism based approach for KGQA. Our approach is divided into two stages: encoding and decoding. In the encoding stage, our approach represents the question as a dependency tree. Based on the improved LSTM (Long Short-Term Memory Network), our approach encodes the semantic vectors of each subtree, and uses subtrees toexpress the semantics of entities or relations described by the question, so as to establish a mapping relationship between the question and the query statement. In the decoding stage, our approach utilizes hierarchical attention mechanism to extract context vector from root node to leaf node in order to dynamically extract the information corresponding to the query statement, then integrate it into LSTM to generate query statement and query the knowledge graph to get answers. Our approach was tested on the public dataset WebQuestion. The results show that compared with the word level attention mechanism approach, the dependency tree levelhierarchical attention mechanism approach significantly improves the accuracy of KGQA.

Keywords: Question answering system Knowledge graph Dependency tree Hierarchical attention

Click to fold

点击收起

基金:

论文图表:

引用

导出参考文献

.txt .ris .doc
郎爽,朱署光,程祥. 基于分层注意力机制的知识图谱问答方法[EB/OL]. 北京:中国科技论文在线 [2019-01-03]. http://www.paper.edu.cn/releasepaper/content/201901-15.

No.****

同行评议

未申请同行评议

评论

全部评论

0/1000

勘误表

基于分层注意力机制的知识图谱问答方法