您当前所在位置: 首页 > 首发论文
动态公开评议须知

1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

上传后印本

( 请提交PDF文档 )

* 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

发邮件给 王小芳 *

收件人:

收件人邮箱:

发件人邮箱:

发送内容:

0/300

论文收录信息

论文编号 201912-94
论文题目 基于注意力机制的 Lattice BiLSTM 中文命名实体识别模型
文献类型
收录
期刊

上传封面

期刊名称(中文)

期刊名称(英文)

年, 卷(

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

编者.论文集名称(中文) [c].

出版地 出版社 出版年-

编者.论文集名称(英文) [c].

出版地出版社 出版年-

上传封面

期刊名称(中文)

期刊名称(英文)

日期--

在线地址http://

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

英文作者写法:

中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

作者之间用逗号“,”分隔,最后为实心圆点“.”,

示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

示例3:YELLAND R L,JONES S C,EASTON K S,et al.

上传修改稿说明:

1.修改稿的作者顺序及单位须与原文一致;

2.修改稿上传成功后,请勿上传相同内容的论文;

3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

4.请选择DOC或Latex中的一种文件格式上传。

上传doc论文   请上传模板编辑的DOC文件

上传latex论文

* 上传模板导出的pdf论文文件(须含页眉)

* 上传模板编辑的tex文件

回复成功!


  • 0

Attention based lattice bilstm model for Chinese named entity recognition

首发时间:2019-12-25

CAO Xiaofei 1   

Cao Xiaofei(1995-),female,master,major research direction:natural language processing

YANG Juan 1   

Yang Juan(1972-),female,associate professor,major research direction:big data. E-mail: yangjuan@bupt.edu.cn

  • 1、Beijing Key Lab of Intelligent Telecommunication Software and Multimedia, Beijing University of Posts and Telecommunications, Beijing 100876

Abstract:A recently proposed model named Lattice LSTM has focused on integrating segmentation information into the long short-term memory (LSTM) network. However, it can only affect the subsequent character sequence of each character in the sequence from the level of word granularity, which results in insufficient extraction of word segmentation information. Besides, features of characters extracted by LSTM are given the same weight when transferred to the conditional random field (CRF) layer, the key semantic information does not receive much consideration. To solve the above problems, a novel neural network model is proposed in this paper which improves the original lattice model (Att-Lattice BiLSTM) with bidirectional long short-term memory based on the attention mechanism. An information path is added from the end character of word to the start character of word in the back propagation of LSTM, which integrates the word boundary information into both the start and end character of the word during bidirectional transfer of LSTM network, introducing the word information comprehensively. Moreover, this new model allows seamlessly incorporating attention mechanism to capture relatively important semantic feature automatically. Meanwhile, two strategies are provided to aggregate the bidirectional LSTM layers output to integrate semantic features effectively. Experimental results on four data sets show that the proposed model performs better than other most advanced models.

keywords: named entity recognition deep learning bidirectional long short-term memory attention mechanism lattice network

点击查看论文中文信息

基于注意力机制的 Lattice BiLSTM 中文命名实体识别模型

曹晓菲 1   

Cao Xiaofei(1995-),female,master,major research direction:natural language processing

杨娟 1   

Yang Juan(1972-),female,associate professor,major research direction:big data. E-mail: yangjuan@bupt.edu.cn

  • 1、智能通信软件与多媒体北京市重点实验室,北京邮电大学,北京  100876

摘要:最近被提出的点阵长短期记忆网络(Lattice LSTM)模型致力于将分词信息集成到长短期记忆网络(LSTM)中。然而,该模型只能从词粒度的层面对序列中每个字符的后续字符序列产生影响,没有充分提取分词信息。此外,由长短期记忆网络网络层提取的字符特征在输入到条件随机场(CRF) 层时被赋予了相同的权值,不利于模型关注到关键的语义信息。为了解决以上问题,本文提出了一种新的基于注意机制的双向长短期记忆神经网络点阵(Att-Lattice BiLSTM)模型。在长短期记忆网络的反向传播中,额外增加了从词的结束字符到词的开始字符的信息路径,使其在双向传输过程中,将词的边界信息全面整合到词的开始字符和结束字符之间,同时,新模型结合了注意力机制来自动捕捉相对重要的语义特征。另外,本文采用了两种策略来整合双向长短期记忆网络的输出信息,这可以更有效地集成语义特征。在四个数据集上的实验结果表明,本文新提出的模型比其他的最优模型表现得更好。

关键词: 命名实体识别 深度学习 双向长短时记忆网络 注意力机制

点击收起

基金:

论文图表:

引用

导出参考文献

.txt .ris .doc
CAO Xiaofei,YANG Juan. Attention based lattice bilstm model for Chinese named entity recognition[EB/OL]. Beijing:Sciencepaper Online[2019-12-25]. https://www.paper.edu.cn/releasepaper/content/201912-94.

No.****

动态公开评议

共计0人参与

动态评论进行中

评论

全部评论

0/1000

勘误表

基于注意力机制的 Lattice BiLSTM 中文命名实体识别模型