当前位置: 首页 > news >正文

Flash Attention详解

Flash Attention 并没有减少 Attention 的计算量,也不影响精度,但是却比标准的Attention运算快 2~4 倍的运行速度,减少了 5~20 倍的内存使用量。究竟是怎么实现的呢?

Attention 为什么慢?

此处的“快慢”是相对而言的。严格意义上来说,相比于传统的 RNN,Transformer中的Attention可以并行地处理序列所有位置的信息(RNN 只能串行处理),因此计算效率并不低,但是仍然有可以进一步改进的空间。

众所周知,科学计算通常分为计算密集型 (compute-bound) 和内存密集型 (memory-bound) 两类。其中,计算密集型运算的时间瓶颈主要在于算数计算,比如大型矩阵的相乘等,而内存密集型运算的时间瓶颈主要在于内存的读写时间,比如批归一化、层归一化等等。

  • 时间复杂度:Attention 需要对矩阵 Q 和矩阵 K 的转置做乘法来得到注意力权重矩阵。不考虑 batch 维度,假设矩阵QK 的尺寸都为,那么两个维度为的矩阵相乘的时间复杂度是序列长度n的平方级;在计算完注意力权重矩阵后,还需要对其进行softmax操作,这个算法需要分成三次迭代来执行
  • 空间复杂度:Attention的计算过程需要存储这两个尺寸均为的矩阵

为了对 Attention 的内存读取时间有更清晰的感知,这里简单介绍 GPU 的内存层级。

image

 

GPU 的内存可以分为 HBM 和 SRAM 两部分。例如,A100 GPU具有40-80 GB的高带宽内存(上图中的 HBM,即我们平时说的“显存”),带宽为 1.5TB/s,并且108个流式多核处理器都有 192 KB 的片上 SRAM,带宽约为 19 TB/s。片上 SRAM 比 HBM 快一个数量级,但容量要小很多个数量级。

在 GPU 运算之前,数据和模型先从 CPU 的内存(上图中的DRAM)移动到 GPU 的 HBM,然后再从 HBM 移动到 GPU 的 SRAM,CUDA kernel 在 SRAM 中对这些数据进行运算,运算完毕后将运算结果再从 SRAM 移动到 HBM。

所以提高Attention运算效率,需要从降低attention的时间和空间复杂度入手。

时间复杂度

在\(S = QK^T\)的计算过程中,理论上尝试的方法主要可以分为稀疏 (sparse) 估计和低秩 (low-rank) 估计。但是在实际应用中仍然存在一些缺陷:

  • 性能比不上原始 attention。不论是稀疏估计、低秩估计还是其他,这些方法都采用了某种近似算法来估算注意力权重矩阵,难免会丢失信息。目前主流的还是原始的attention
  • 无法减少内存读取的时间消耗。这些方法只能降低 attention 的计算复杂度,但是无法对 attention 运算过程中的空间复杂度等进行控制,无法减少内存读写带来的时间损耗

所以在时间复杂度方向的优化主要在softmax的计算过程中:

softmax 有个问题,那就是很容易溢出。比如float16的最大值为65504,所以只要 的话softmax就溢出了。好在 exp 有这么一个性质,那就是,根据这个性质,可以在分子分母上同时除以一个数,这样可以将的范围都缩放到范围内,保证计算 softmax 时的数值稳定性。这个算法可以分成三次迭代来执行:

  1. 遍历所有数,求 x 中的最大值m
  1. 计算 softmax 分母,并根据m对其进行缩放
  1. 求对应位置的 softmax

分析以上步骤可以发现,如果是不做任何优化的话,至少要进行和 GPU 进行6次通信(3次写入,3次写出),如果对每一步的for循环进行一些并行切分的的话,还要加上 reduce_sum 和 reduce_max 之类的通信成本。所以2018年 Nvidia 提出了《Online normalizer calculation for softmax》,核心改进是去掉第二步中对的依赖,设(这里的全局最大值变成了当前最大值),这个式子有如下的性质:

这个式子依赖于,,。那么就可以将softmax前两步合并到一起:

  1. 求 x 的最大值 m, 计算 softmax 的分母
  1. 求对应位置的 softmax

以上的算法优化可以将3步合并变成2步,将softmax的时间复杂度降为

空间复杂度

在将3步合成2步的同时:

  • 借助GPU的share memory来存储中间结果,将上面的两步只用一个 kernel 实现,这样就只需要与 global memory 通信两次(一次写入数据,一次读取结果)
  • 还可以减少 Reduce_max 和 Reduce_sum 之类的通信成本

空间复杂度方面优化的基本思路是降低Attention对于显存的需求,减少HBM和SRAM之间的换入换出,充分利用 GPU 的并行优势,进而减少Attention运算的时间消耗。

总结

Flash Attention的动机是尽可能避免大尺寸的注意力权重矩阵在 HBM 和 SRAM 之间的换入换出。论文中具体方法包含两个部分:tiling 和 recomputation。

tiling 的基本思路:不直接对整个输入序列计算注意力,而是将其分为多个较小的块,逐个对这些块进行计算,增量式地进行 softmax 的规约。规约过程中只需要更新某些中间变量,不需要计算整个注意力权重矩阵,就是以上介绍的将三步合并成两步的过程。

recomputation 的基本思路:基于 tiling 技巧,在反向传播过程中不保留整个注意力权重矩阵,而是只保留前向过程中 tiling 的某些中间变量,然后在反向传播过程中重新计算注意力权重矩阵。recomputation 可以看作是一种基于 tiling 的特殊的 gradient checkpointing,想进一步了解 recomputation 的读者可以翻阅Flash Attention原文。

得益于上述技巧,Flash Attention 可以同时做到又快(运算速度快)又省(节省显存)。

http://www.sczhlp.com/news/109506/

相关文章:

  • 网站流量增长公司网站上首页代码模板
  • 门户网站建设 必要性找工程做在哪个网站?
  • 注册网站域名的入口团购的网站扣佣金分录怎么做
  • 做网站税率廊坊网站制作报价
  • 织梦网站被植入广告外贸平台app下载
  • 成都彩票网站开发重庆做网站团队
  • 如何搭建个人博客网站网页版淘宝
  • 简易博客网站模板下载火车头wordpress 4.7
  • 兰州市科协网站洛阳做家教去什么网站
  • 手机网站app开发私域流量管理工具
  • eclipse插件调用保护后的jar包流程
  • 通义上线 FunAudio-ASR,噪声场景幻觉率降 70%;盒智科技推出 AI 口语练习陪伴设备 Lookee 丨日报
  • reLeetCode 热题 100-11 盛最多的谁 - MKT
  • 横沥镇网站建设北京网站建设推广
  • 图片展示网站建设南宁广告设计与制作公司
  • 互联网创业项目整合网站wordpress 改邮箱
  • 好优化网站设计考试资料网
  • 社区做图网站小程序api接口
  • Markdown语法学习
  • 哪个dns访问国外网站wordpress下载类模板
  • 买的网站模板里面是什么公司网站建设需要显示什么软件
  • 新手建设html5网站网站 免费 认证
  • 做汽车养护的网站花都移动网站建设
  • 阳江做网站公司怎样制作个人网站
  • 网站管理系统设置国外好的网站空间
  • 网站的后期维护自己怎么做网站平台建设心得
  • 制作网站需要注意的细节旌阳区黄河开发建设网站
  • 微信客户端网站建设重庆网站设计生产厂家
  • AI 视频生成网站 Viddo AI 的 SEO 分析和优化建议
  • 做网站设计学那个专业好做电影网站代理合法么