地址:这里是您的公司地址
QQ:601526061
电话:+86-0000-96877
手机:+86-0000-96877
邮箱:这里是您的公司邮箱
院校法规您当前的位置: 主页 > 院校法规 >

ChineseGLUE(CLUE):针对中文自然语言理解任务的

时间:2019-11-29    点击量:

  原标题:ChineseGLUE(CLUE):针对中文自然语言理解任务的基准平台

  2018 年,来自纽约大学、华盛顿大学、DeepMind 机构的研究者创建了一个多任务自然语言理解基准和分析平台——GLUE(General Language Understanding Evaluation)。GLUE 包含九个英文数据集,目前已经成为衡量模型在语言理解方面最为重要的一个评价体系之一。▪️•★

  然而对于中文 NLP 来说,目前缺少相对应的成熟的平台。针对这个问题,中文 NLP 热心人士发起了 ChineseGLUE(简称为 CLUE)项目。开展 CLUE 项目,一方面希望通过对中文 NLP 资源精心的整合为同学们的工作与研究提升效率,另一方面希望通过建立 leaderboard 榜单机制,为大家提供一个高质量的衡量模型效果的平台,促进模型在中文语言理解能力上的提升。

  相对于英文,中文 NLP 的资源比较匮乏并缺少有价值的整合。相信很多同学在做中文 NLP 相关工作的时候,都遇到过下面这些问题:

  上面这些问题会花掉 NLP 同学很多的时间,严重影响工作效率,对初学者来说更是如此。我们宝贵的时间就在这些琐碎的令人头大的事情中流逝过去。

  为了解决上述问题,一群热心的同学发起了 ChineseGLUE(简称为 CLUE),它的 Github 地址是:

  ChineseGLUE (CLUE) 如它的名字所示,是中文版的GLUE[1]。ChineseGLUE (CLUE) 为大家:1)收集处理了一系列性质各异的中文数据集(不同领域、不同规模、不同难度);2)构建了在线提交评测平台。这个平台能帮助我们横向比较不同的中文 NLP 模型,为大家选择模型提供依据;3)正在整理基准模型,帮助大家轻易地复现经典模型在一系列数据集上的结果。

  希望通过这些工作,让 NLP 同学能把更多的时间放在模型的学习与改进上,而不是浪费在寻找数据集等琐碎的事情之上。除此之外,我们希望 ChineseGLUE (CLUE) 能够以 leaderboard 榜单的形式促进更高质量的中文模型的产生以及针对中文 NLP 的优化。希望 ChineseGLUE 也能像 GLUE 见证 BERT[2],SpanBERT[3],ALBERT[4]等重要模型出现一样,见证更好的中文 NLP 模型的出现。

  目前,ChineseGLUE 的 leaderboard 已经上线,地址为。已经相继有队伍在上面验证不同模型的效果,不断提升榜单上的表现。下图展示了目前榜单的情况。通过榜单我们可以得到不少有价值的结论。

  首先可以看到,目前榜单上已经包括了丰富的 NLP 模型,包括 BERT[2]、 BERT-WWM[5]、RoBERTa[6]、ALBERT[4]、ERNIE[7, 8]等一系列模型,并且吸引了多个机构在上面提交自己的成绩。通过榜单我们可以看到不同模型在不同数据集上的成绩以及综合成绩(榜单支持针对综合成绩以及不同数据集的成绩进行排序)。这对于我们选择模型是非常重要的参考。

  另外,我们可以看到目前榜单上表现最好的模型是混合语料 BERT 模型[9, 10],是由腾讯 & 人大提供的。这个预训练模型在 BERT-WWM[5]上叠加预训练,▲●…△使用了百科类、新闻类、图书类、社交类语料的混合(语料可以从获取)。

  这个预训练模型相对于 Google BERT 已经取得了一定的进步:分别在 TNEWS、LCQMC、XNLI、INEWS 数据集上提升了 2.0/0.6/2.7/3.9 个点的准确率。除了 LCQMC 之外,模型在另外几个数据集上的提升还是很显著的。当然,这个提升相对于英文上的提升还是小了很多 (RoBERTa[7]、ALBERT[4]、Google T5[11]在 BERT 的基础上提高了接近 10 个点)。我们也与提交榜单的队伍进行了沟通。

  目前 ChineseGLUE (CLUE) 榜单上的结果其实还是比较低的,▲●仍然有巨大的提升空间。目前在预处理、预训练、微调等方面仍有大量的技术可以去尝试,从而进一步提升效果。比如在预处理阶段可以使用数据增强;在预训练阶段可以使用多种预训练模型技术的组合;在微调阶段可以使用半监督的方式微调或者使用多任务微调;最后还可以进行模型的集成。◆▼

  此外,在计算量和语料方面,虽然榜单上的很多模型都超过了去年 10 月份 Google 推出的中文 BERT-base 模型,但是目前中文模型的计算量和语料大小远远达不到目前英文 SOTA 模型的水准。因此我们非常相信,现在的结果远远没有到达天花板,●仍有巨大的进步空间。

  此外,我们也鼓励使用小模型去在榜单上进行提交。后续我们会考虑把参数量、FLOPs 等指标加上,把模型分成不同量级,去比较模型之间的效果。在目前的榜单中,有一个极小的模型 ALBERT_tiny。ALBERT[4]通过编码层参数共享和词向量层分解这两项技术减少了模型的参数量,ALBERT_tiny 只有 4M 大小,约是 BERT-base 模型大小的百分之一,但是仍然在一些数据集上取得不错的成绩。

  在很多情况下,▼▲我们需要对模型的效率和效果进行权衡。在这种情况下,ChineseGLUE 榜单可以给我们提供很好的参考。★△◁◁▽▼我们非常期待通过技术的进步,让一个比 BERT 小很多的模型,能在榜单上取得和 BERT 相似甚至更好的成绩。

  目前,榜单上的数据集以及提交接口是完全对外开放的,大家可以随时用自己的模型去上面刷榜,验证自己工作的效果。希望后面能看到大家在榜单上激烈的竞争,从而促进中文 NLP 领域的发展。

  此外有一点需要注意的是,目前榜单上的测试集是对外开放的(后续我们会维护 privately-held 测试集)。因此建议大家在榜单上拿到 SOTA 效果的同时,不要忘记分享自己模型的改进以及各种细节。这样能让其他人也能受益于您的工作成果,从而更好的促进中文 NLP 领域的发展。目前榜单只包括四个数据集,我们会尽快加入更多的数据集。

  1. 我们计划在 12 月 5 号前后发布新版的测评基准,包括 12 大任务、基线模型及代码、toolkit(工具包)、测评系统和论文;

  2. 继续向大家征集数据集,并(依据数据集领域、规模、难度等因素)从中选出合适的数据集构成 ChineseGLUE (CLUE);

  4. 根据模型参数数量,FLOPs,•☆■▲语料大小等指标,对模型进行分级。这种方式能够引导我们在提升模型效果的同时也考虑到效率,而不是一味的追求大语料和大计算量。

  得益于热心中文 NLP 人士的努力和关注,ChineseGLUE (CLUE) 慢慢成长起来,在 Github 上突破了 700 星,并收到了很多留言与反馈。我们深知 ChineseGLUE 是一个长期的、复杂且琐碎的工作。为此我们制定了详细的发展规划。在未来的工作中,我们会继续努力,严格把关项目质量,为中文 NLP 模型提供一套可靠的评价指标,以及一个易于使用,良性竞争的平台。希望 ChineseGLUE (CLUE) 的工作能为中文 NLP 领域的发展做出一些贡献。龙城棋牌平台

【返回列表页】
网站首页 龙城棋牌 课程体系 资讯中心 招生简章 师资力量 学员成就 院校法规 在线咨询 联系我们
地址:这里是您的公司地址  电话:+86-0000-96877  手机:+86-0000-96877
Copyright 2019 龙城棋牌_首页_口碑好棋牌游戏推荐 网站地图  ICP备案编号:ICP备*******号  统计代码放置