加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 移动互联 > 正文

从想法到实干,2018年13项NLP绝美新研究

发布时间:2019-01-02 09:15:38 所属栏目:移动互联 来源:佚名
导读:在即将过去的 2018 年中,自然语言处理有很多令人激动的想法与工具。从概念观点到实战训练,它们为 NLP 注入了新鲜的活力。 前一段时间,Sebastian Ruder 介绍了他心中 10 个最有影响力的想法,并且每一个都提供了具体论文与核心思想。正如 Ruder 所说,他

CNN 中的卷积、正则化、dropout 以及其他机制等归纳偏向都是神经网络模型做为正则化项的核心部分,也使得模型采样更为高效。然而,提出一种普遍可用的归纳偏向并把它融入到模型中非常具有挑战性。有代表性的研究成果包括:

  • 论文 1:sequence classification with human attention (CoNLL 2018)

  • 论文链接: http://aclweb.org/anthology/K18-1030

该论文提出使用来自人类眼球追踪语料库的人类注意力来正则化RNN 中的注意。如今许多 Transformers 这样的现有模型都在使用 attention,找到更高效训练的合适方式是很重要的方向。也很高兴看到人类语言学习能帮助我们改进计算模型。

  • 论文 2:Linguistically-Informed Self-Attention for Semantic Role Labeling (EMNLP 2018)

  • 论文链接: http://aclweb.org/anthology/D18-1548

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读