Docs.增加训练跟推理的说明

master
ben.guo 1 year ago
parent 1e8326ddfd
commit 0b4fb7403d

@ -155,4 +155,4 @@ $$
### 总结
多头注意力机制通过Q、K、V矩阵的转换和相互作用实现了对输入序列的并行关注。QK矩阵相乘后通过缩放、Mask遮挡和Softmax归一化处理得到注意力权重。这些权重与V矩阵相乘生成加权的输出表示。多个头的输出被合并并通过权重矩阵Wo得到最终结果。在大型模型如GPT-3中这个过程在多个层中重复每层都有独特的权重矩阵导致模型的参数量达到数十亿。这些参数在训练过程中不断调整以优化模型的性能。
多头注意力机制通过Q、K、V矩阵的转换和相互作用实现了对输入序列的并行关注。QK矩阵相乘后通过缩放、Mask遮挡和Softmax归一化处理得到注意力权重。这些权重与V矩阵相乘生成加权的输出表示。多个头的输出被合并并通过权重矩阵Wo得到最终结果。在大型模型如GPT-3中这个过程在多个层中重复每层都有独特的权重矩阵导致模型的参数量达到数十亿。这些参数在训练过程中不断调整以优化模型的性能。**推理阶段,这些权重都会固定住不变(冻结)。**

Loading…
Cancel
Save