### 第一章——NLP通用框架BERT原理解读 #### 传统解决方案遇到的问题 传统的RNN网络 ![1609724393950](assets/1609724393950.png) - 训练速度:无法加速训练,并行等 - Self-Attention机制(注意力),一段话中,不是每个词都重要,我们只需要关注重要的部分。如:等下我们把这些活干完,下班后我们一起去吃饭吧,我请客。是不是对于听的人来说主要是“一起吃饭,我请客”。 - word2vec:训练好词向量就永久不变了,不同的语境相同的词相同的向量,但这合理吗?就想我们在生气的时候说的傻子,和开心的时候说傻子,意思是完全不一样的, #### Transformer整体架构如下 ![1609725400828](assets/1609725400828.png) #### 注意力机制的作用 - 对于输入的数据,我们的关注点是什么? - 如何才能让计算机关注到这些有价值的信息? ![1609725559431](assets/1609725559431.png) > 如上,传入一段文本,如果我们没有强调注意什么,那么词向量结果可能是平行的,如果我们强调“eating”,那么“eating”这个词的词向量就会有所不同。 如果是人为的加权,告诉计算机哪个重要,这显然是不合实际的,应该让计算机自己发现哪些重要。 ![1609725763643](assets/1609725763643.png) > “it”在第一句中是指代“animal”,表示它太累了没有过去。 > > “it”在第二句中指代“street”,表示路太窄了没有过去。 > > 这里关注的是“animal”,我们希望即使是第二句,“animal”对结果的影响越大。 #### Self-Attention计算 - 输入经过编码后得到的向量。 - 得到当前词语上下文的关系,可以当做是加权。 - 构建三个矩阵分别查询当前词跟其它词的关系,以及特征向量的表达。 如下图: ![1609726549882](assets/1609726549882.png) > 先转换成向量,构建三个矩阵Q、K、V,求出来第一个词编码的时候怎么找到上下文。右边的W就是权重。 这三个矩阵具体做什么: - Q: query,要去查询的 - K: key,等着被查的 - V: value,实际的特征信息 ![1609726848038](assets/1609726848038.png) > X是输入内容,结果W后,形成Q、K、V不同矩阵的特征向量。 ![1609730605624](assets/1609730605624.png) > q与k的内积表示有多匹配,如果Xa与Xb之间无关的时候,那么其在坐标系上的表示是垂直的;如果有关系,则非垂直,则有夹角有内积,相关性越大,则夹角越小,内积越大。 #### 特征分配与softmax机制 - 最终的的得分值经过softmax就是最终上下文结果![1609740821963](assets/1609740821963.png) > 加上dk是因为计算内积会因为向量维度越长,向量维度越大,越大影响就越大,影响不应该根据维度的长宽改变,所以应该除掉向量维度的影响。softemax的计算不理解的可以跳转到[深度学习入门第一章](https://github.com/ben1234560/AiLearning-Theory-Applying/blob/master/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E5%85%A5%E9%97%A8/%E7%AC%AC%E4%B8%80%E7%AB%A0%E2%80%94%E2%80%94%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E5%BF%85%E5%A4%87%E7%9F%A5%E8%AF%86%E7%82%B9.md#softmax%E5%88%86%E7%B1%BB%E5%99%A8%E5%88%86%E7%B1%BB%E4%BB%BB%E5%8A%A1) - Scaled Dot-Product Attention 不能让分值随着向量维度的增大而增加![1609740873866](assets/1609740873866.png) 这样就能计算出来了结果,这个就是Self-Attention机制,内积大的就重要,小的就不重要。 每个词的Q会跟整个序列中每个K计算得分,然后基于得分再分配特征 ![1609741335355](assets/1609741335355.png) > 这样就解决了word2vec训练完后词向量不变的问题,每次都跟其它组合项进行计算,从而改变权重和词向量。 **再看一遍整体流程** ![1609741519667](assets/1609741519667.png) - input~Score:每个词的Q会跟每个K计算得分。 - Divide by dk:除掉维度的影响。 - Softmax:得到最大的概率值。 - Softmax × Value:求得词向量的编码。 这样第一个词就编码完成,后面的第二、第N个词也是如此操作。 总结:Attention依靠内积来求得每个词和每个K的得分,且并行求。 #### Multi/head的作用 之前卷积中,我们利用fillter(w)来将X映射成更多的特征表达,再取最大的进行降维,在这里也是同样道理。 ![1609744062736](assets/1609744062736.png) - 通过不同的head得到多个特征表达 - 将所有特征拼接在一起 - 可以通过再一层全连接来降维 Multi-Head架构图如下 ![1609744624147](assets/1609744624147.png) > 不同的注意力结果,得到的特征向量表达也是不同的。 堆叠多层: ![1609744714101](assets/1609744714101.png) > 由于输入输出都是向量,也就是可以堆叠更多层,计算方法都是相同的,只是增加了多层。 #### 位置编码与多层堆叠 > 位置信息:在self-attention中,每个词都会考虑整个序列的加权,所以其出现位置并不会对结果产生什么影响,相当于放哪都无所谓,但是这跟实际就有些不符合了,我们希望模型能对位置有额外的认识。 ![1609746327202](assets/1609746327202.png) > POSITIONAL ENCODING:将余弦和正弦的周期表达信号,当作位置信息。 **Add与Normalize** ![1609746644923](assets/1609746644923.png) - 归一化:![1609746664324](assets/1609746664324.png) > Batch Size:将其一行,让其均值为0,标准差为1 > > Layer:让其一列,变成均值为0,标准差为1 - 连接:基本的残差连接方式![1609746694985](assets/1609746694985.png) > 残差连接:残差X与输出的X相加(同位元素相加)。原理等同于让输出的结果不会离一开始太远,总是在一个可控的范围内变化 #### Decoder - Attention计算不同:只需要用Q去查encode的K,V即可 - 加入MASK机制:遮挡部分值,不使用它,比如内积会将每个相乘相加,而在计算内积的过程不能让它知道全部信息,比如下面的I am a student,遮挡掉student,否则相当于透题,相当于分类中训练的标签。 ![1609748548046](assets/1609748548046.png) 最终输出结果 - 得到最终预测结果 - 损失函数cross-entropy即可 ![1609748796629](assets/1609748796629.png) #### Transformer整体架构 - Self-Attention - Multi-Head - 多层堆叠,位置编码 - 并行加速训练 ![1609748883096](assets/1609748883096.png) **Encode端** - input:输入X1、X2、...、Xn; - 初始化:初始化词编码,先随机出词的编码再进行调整,但现在一般使用预训练好的模型,也就是没有了这个步骤; - Positional Encoding:加入位置编码; - Nx:N层堆叠Self-Attention; - Multi-Head:多头Self-Attention; - 残差连接:随着堆叠层数,可能结果会变差,残差连接则能保证学习至少不比原来差; **Decode端** - MASK机制:遮挡掉部分,不使用后面的结果,相当于分类中训练的标签; - 获取K,V的结果; - Nx:N层堆叠; - Linear:得到所有的编码,Linear成向量; - Softmax:将向量进行分类; 这就是Transformer的整体结构。而Transformer和BERT的关系是...,我们接着往下看 #### BERT模型训练方法 - Bidirectonal Encoder Representations from Transformers - transformer的encoder部分 - 并不需要标签,有语料就能训练了 也就是下图的部分 ![1609751626545](assets/1609751626545.png) 如何训练BERT - 方法1:句子中有15%的词汇被随机mask掉 - 较给模型去预测被mask的是什么 - 词语的可能性太多了,中文一般是字 - 如果BERT训练的向量好,那分类自然好 ![1609751713233](assets/1609751713233.png) > MASK的部分就相当于分类中的训练标签 - 方法二:预测两个句子是否应该连在一起 - [seq]:两个句子之前的连接符,[cls]:表示要做分类的向量 ![1609751917598](assets/1609751917598.png)