必读论文推荐丨112篇BERT论文(论文可下载)
AMiner AI 
AMiner平台(https://www.aminer.cn)由清华大学计算机系研发,拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上线,吸引了全球220个国家/地区1000多万独立IP访问,数据下载量230万次,年度访问量超过1100万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。
BERT全称是Bidirectional Encoder Representations from Transformers,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-train方法上,即用了Masked LM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的representation。
作为一个Word2Vec的替代者,在NLP领域的11个方向大幅刷新了精度,可以说是近年来自残差网络最优突破性的一项技术了。
BERT的本质上是通过在海量的语料的基础上运行自监督学习方法为单词学习一个好的特征表示,所谓自监督学习是指在没有人工标注的数据上运行的监督学习。
在以后特定的NLP任务中,我们可以直接使用BERT的特征表示作为该任务的词嵌入特征。所以BERT提供的是一个供其它任务迁移学习的模型,该模型可以根据任务微调或者固定之后作为特征提取器。
该论文集共收录112篇论文,最高引用数为7048。在华人学者中,来自复旦大学的黄萱菁老师、邱锡鹏老师和北京大学的李显刚老师等均在该领域有论文发表。
论文集地址:https://www.aminer.cn/topic/5fbe3e7a92c7f9be21150bb7

更多必读论文,可以扫码查看,论文也可以直接下载哦!最前沿的研究方向和最全面的论文数据等你来~
添加“小脉”微信,留言“论文”,即可加入【论文交流群】,与更多论文作者学习交流!
阅读原文,直达必读论文页面!
AMiner AI
AI帮你理解科学