当前位置: 首页 > news >正文

运营网站团队建设民宿预订网站制作

运营网站团队建设,民宿预订网站制作,网站特效模板下载,郑州网站排名分析自注意力机制开启大规模预训练时代 1 从机器翻译模型举例 1.1把编码器和解码器联合起来看待的话,则整个流程就是(如下图从左至右所示): 1.首先,从编码器输入的句子会先经过一个自注意力层(即self-attention),它会帮助编码器在对每个单词编码时关注输入句子中的的其他单…

自注意力机制开启大规模预训练时代

1 从机器翻译模型举例

1.1把编码器和解码器联合起来看待的话,则整个流程就是(如下图从左至右所示):

1.首先,从编码器输入的句子会先经过一个自注意力层(即self-attention),它会帮助编码器在对每个单词编码时关注输入句子中的的其他单词

2.接下来,自注意力层的输出会传递到前馈(feed-forward)神经网络中,每个位置的单词对应的前馈神经网络的结构都完全一样(仅结构相同,但各自的参数不同)

3.最后,流入解码器中,解码器中除了也有自注意力层、前馈层外,这两个层之间还有一个编码-解码注意力层,用来关注输入句子的相关部分(和seq2seq模型的注意力作用相似)

1.2把编码器和编码器联合起来看待的话,则整个流程就是(如下图从下至上所示):

1.最底下的编码器接收的是嵌入向量,之后的编码器接收的是前一个编码器的输出

2.输入序列中每个位置的单词都各自单独的路径流入编码器,即各个单词同时流入编码器中,不是排队进入.

3.在自注意力self-attention层中,这些路径两两之间是相互依赖的,而前馈层(feed-forward)则没有这些依赖性,所以这些路径在流经前馈层(feed-forward)时可以并行计算

1.1 自注意力机制计算

在Transformer中,自注意力机制则将对其他单词的“理解”融入到当前处理的单词中。当模型处理每个位置的词时,self-attention允许模型看到句子中其他位置有关联或相似的单词/信息作为辅助线索,以更好地编码当前单词。

重要程度便用所谓的权重表示(权重来自于该词/向量本身跟其他各个词/向量之间的相似度),权重越大的单词代表与『该词』越相关(某种意义上可以认为是越相似),从而对理解『该词』越重要,然后把该词编码为包括该词在内所有词的加权和

计算自注意力有两种方式:一种通过向量,一种通过矩阵。

1.3.1 计算自注意力第一步:生成查询向量、键向量和值向量

从每个编码器的输入向量(即每个单词的词向量)生成三个向量:查询向量query-vec、键向量key-vec、值向量value-vec ,这三个向量的生成方法是把输入的向量分别乘以三个不同的权重矩阵W^{Q}W^{K}W^{V},得到Q、K、V,而这些权重矩阵是在模型训练阶段中训练出来的「最后通过反向传播不断优化学习得出」。举例说明,在我们有了权重矩阵后,对于单词X_{1}X_{2}分别而言

http://www.sczhlp.com/news/104387/

相关文章:

  • 网站招聘顾问做啥的陕西渭南富平建设局网站
  • 网络建站系统网页海报设计教程
  • 自建网站定位一个简单的个人网站
  • 社交网站开发技术岗网站开发工程师求职简历
  • 银行网站维护是做哪些免费网络爬虫网站
  • 怎样用百度做网站优化安卓开发菜鸟教程
  • 网站虚拟空间作用有经验的扬中网站建设
  • 校园电商平台网站建设如何创建wordpress
  • 茂名住房证书城乡建设局官方网站军事新闻视频在线观看
  • python_Day21_mysql(2)
  • .zip用法
  • vue2使用pnpm编译打包时的错误处理
  • 个人建购物网站怎么备案小程序开发平台网站推荐
  • 高端网站建设公司有必要做吗天猫商城支付方式
  • 在哪建网站什么软件可以做网站html
  • 建设干部学校网站首页wordpress php版本
  • 智能建站软件上海企业战略规划
  • 中南上课第一天
  • 二十四、深入理解CPU控制信号的最终使命
  • 20250915 - 状压dp 总结
  • PS2025安装包永久免费版下载安装教程Photoshop 2025 v26.0安装包永久免费版下载
  • 网站开发用的工具3d建模怎么做网站旋转
  • 免费个人博客网站动画制作专业培训
  • 国内全屏网站欣赏网站推广的主要方法有哪些?
  • 重庆做网站制作公司商品推广文案
  • 网站后台上传缩略图云南财经大学网页设计作业
  • 阜南县城乡建设局官方网站在网上那里能接单做网站
  • 做网站行情重庆网站备案流程
  • 上海网站备案中建三局集团有限公司官网
  • 陕西找人做网站多少钱榆树网站建设