NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

向AI转型的程序员都关注了这个号????????????

机器学习AI算法工程  公众号: datayx

一、前言

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

谷歌团队的Thang Luong直接定义:BERT模型开启了NLP的新时代!

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

https://arxiv.org/abs/1703.02573

这也是篇巨星云集的论文:Sida Wang,Jiwei Li(香侬科技的创始人兼CEO兼史上发文最多的NLP学者),Andrew Ng,Dan Jurafsky都是Coauthor。但很可惜的是他们没有关注到这篇论文。用这篇论文的方法去做Masking,相信BRET的能力说不定还会有提升。

BERT 2018 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding Paper URL : https://arxiv.org/abs/1810.04805

 

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

能实现语言表征目标的模型,可能会有很多种,具体用哪一种呢?作者提议,用 Deep Bidirectional Transformers 模型。假如给一个句子 “能实现语言表征[mask]的模型”,遮盖住其中“目标”一词。从前往后预测[mask],也就是用“能/实现/语言/表征”,来预测[mask];或者,从后往前预测[mask],也就是用“模型/的”,来预测[mask],称之为单向预测 unidirectional。单向预测,不能完整地理解整个语句的语义。于是研究者们尝试双向预测。把从前往后,与从后往前的两个预测,拼接在一起 [mask1/mask2],这就是双向预测 bi-directional。细节参阅《Neural Machine Translation by Jointly Learning to Align and Translate》。

三、BERT模型解析

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

具体如下:

实验结果

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

图3:我们的面向特定任务的模型是将BERT与一个额外的输出层结合而形成的,因此需要从头开始学习最小数量的参数。在这些任务中,(a)和(b)是序列级任务,而(c)和(d)是token级任务。在图中,E表示输入嵌入,Ti表示tokeni的上下文表示,[CLS]是用于分类输出的特殊符号,[SEP]是用于分隔非连续token序列的特殊符号。

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

图4:GLUE测试结果,由GLUE评估服务器给出。每个任务下方的数字表示训练样例的数量。“平均”一栏中的数据与GLUE官方评分稍有不同,因为我们排除了有问题的WNLI集。BERT 和OpenAI GPT的结果是单模型、单任务下的数据。所有结果来自https://gluebenchmark.com/leaderboard和https://blog.openai.com/language-unsupervised/

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

图5:SQuAD 结果。BERT 集成是使用不同预训练检查点和fine-tuning seed的 7x 系统。

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

图6:CoNLL-2003 命名实体识别结果。超参数由开发集选择,得出的开发和测试分数是使用这些超参数进行五次随机重启的平均值。NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch最后他问到:For GPU:"BERT-Large is 24-layer, 1024-hidden and was trained for 40 epochs over a 3.3 billion word corpus. So maybe 1 year to train on 8 P100s? " ,然后这个就很interesting了。

完整源码下载地址:

关注微信公众号 datayx  然后回复 bert 即可获取。

BERT-Pytorch使用

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

https://blog.csdn.net/qq_39521554/article/details/83062188


阅读过本文的人还看了以下:

不断更新资源

深度学习、机器学习、数据分析、python

 搜索公众号添加: datayx  

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

长按图片,识别二维码,点关注

NLP-BERT 谷歌自然语言处理模型:BERT-基于pytorch

相关文章: