您当前所在位置: 首页 > 首发论文
动态公开评议须知

1. 评议人本着自愿的原则,秉持科学严谨的态度,从论文的科学性、创新性、表述性等方面给予客观公正的学术评价,亦可对研究提出改进方案或下一步发展的建议。

2. 论文若有勘误表、修改稿等更新的版本,建议评议人针对最新版本的论文进行同行评议。

3. 每位评议人对每篇论文有且仅有一次评议机会,评议结果将完全公示于网站上,一旦发布,不可更改、不可撤回,因此,在给予评议时请慎重考虑,认真对待,准确表述。

4. 同行评议仅限于学术范围内的合理讨论,评议人需承诺此次评议不存在利益往来、同行竞争、学术偏见等行为,不可进行任何人身攻击或恶意评价,一旦发现有不当评议的行为,评议结果将被撤销,并收回评审人的权限,此外,本站将保留追究责任的权利。

5. 论文所展示的星级为综合评定结果,是根据多位评议人的同行评议结果进行综合计算而得出的。

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

勘误表

上传勘误表说明

  • 1. 请按本站示例的“勘误表格式”要求,在文本框中编写勘误表;
  • 2. 本站只保留一版勘误表,每重新上传一次,即会覆盖之前的版本;
  • 3. 本站只针对原稿进行勘误,修改稿发布后,不可对原稿及修改稿再作勘误。

示例:

上传后印本

( 请提交PDF文档 )

* 后印本是指作者提交给期刊的预印本,经过同行评议和期刊的编辑后发表在正式期刊上的论文版本。作者自愿上传,上传前请查询出版商所允许的延缓公示的政策,若因此产生纠纷,本站概不负责。

发邮件给 王小芳 *

收件人:

收件人邮箱:

发件人邮箱:

发送内容:

0/300

论文收录信息

论文编号 201904-17
论文题目 基于BERT的判决预测多任务学习模型
文献类型
收录
期刊

上传封面

期刊名称(中文)

期刊名称(英文)

年, 卷(

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

书名(中文)

书名(英文)

出版地

出版社

出版年

上传封面

编者.论文集名称(中文) [c].

出版地 出版社 出版年-

编者.论文集名称(英文) [c].

出版地出版社 出版年-

上传封面

期刊名称(中文)

期刊名称(英文)

日期--

在线地址http://

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

上传封面

文题(中文)

文题(英文)

出版地

出版社,出版日期--

英文作者写法:

中外文作者均姓前名后,姓大写,名的第一个字母大写,姓全称写出,名可只写第一个字母,其后不加实心圆点“.”,

作者之间用逗号“,”分隔,最后为实心圆点“.”,

示例1:原姓名写法:Albert Einstein,编入参考文献时写法:Einstein A.

示例2:原姓名写法:李时珍;编入参考文献时写法:LI S Z.

示例3:YELLAND R L,JONES S C,EASTON K S,et al.

上传修改稿说明:

1.修改稿的作者顺序及单位须与原文一致;

2.修改稿上传成功后,请勿上传相同内容的论文;

3.修改稿中必须要有相应的修改标记,如高亮修改内容,添加文字说明等,否则将作退稿处理。

4.请选择DOC或Latex中的一种文件格式上传。

上传doc论文   请上传模板编辑的DOC文件

上传latex论文

* 上传模板导出的pdf论文文件(须含页眉)

* 上传模板编辑的tex文件

回复成功!


  • 0

A BERT based Multi-task Learning Model for Judgment Prediction

首发时间:2019-04-01

Yang Ze 1   

Yang Ze(1993-), Gender, Master, NLP

Zhang Lei 1   

ZhangLei(1962-),Male,Professior,Communication Software

  • 1、Department of Computer, Beijing University of Posts and Telecommunications, Beijing 100876

Abstract:Judgment prediction is a difficult problem in judicial field. Given a fact description, judge need to conduct several documents to decide the related articles. This task is complex and requires a lot of energy. Previous works always treat this task as a multi-label learning paradigm for judgment prediction. These work usually neglect the external knowledge, thus the performance may be limited. In this paper, this topic use a multi-task learning framework with pretrained external knowledge to address this issues, and this topic propose a BERT based multi-task learning model(BMM for short). Specially, BMM use a pretrained BERT model to obtain external knowledge, then a multi-task learning framework is incorporated to learn multi-label classification and language model jointly. Experimental results on three real-world datasets demonstrate that the proposed model achieves significant improvements over state-of-the-art methods.

keywords: Judgment Prediction Multi-task learning Multi-label classification

点击查看论文中文信息

基于BERT的判决预测多任务学习模型

杨泽 1   

Yang Ze(1993-), Gender, Master, NLP

张雷 1   

ZhangLei(1962-),Male,Professior,Communication Software

  • 1、计算机学院,北京邮电大学,北京 100876

摘要:判决预测在司法领域是一个困难的问题。给定事实描述,法官需要阅读多个文档给定相关法条。这个任务是复杂并且需要很多精力。之前的工作通常将这个任务当作是多标签学习框架用于判决预测。这些工作通常忽略了外部知识,因此性能是非常有限的。在这篇论文中,本课题使用预训练外部知识的多任务学习框架去处理这个问题,并且本课题提出了一种基于 BERT 的多任务学习框架(简称 BMM)。 具体地,BMM 使用预训练的 BERT用于获取外部知识,之后一个多任务学习框架被引入用于同时学习多标签分类和语言模型。在三个数据集上的实验结果证明提出的模型比目前最好的模型有明显的提升。

关键词: 判决预测 多任务学习 多标签分类

点击收起

基金:

论文图表:

引用

导出参考文献

.txt .ris .doc
Yang Ze,Zhang Lei. A BERT based Multi-task Learning Model for Judgment Prediction[EB/OL]. Beijing:Sciencepaper Online[2019-04-01]. http://www.paper.edu.cn/releasepaper/content/201904-17.

No.****

动态公开评议

共计0人参与

动态评论进行中

评论

全部评论

0/1000

勘误表

基于BERT的判决预测多任务学习模型