怎么做网站平台教程,关于网站开发的论文文献,wordpress免费模板带演示数据,广东东莞工厂本文是深度学习相关文章#xff0c;针对《MEMORY-VQ: Compression for Tractable Internet-Scale Memory》的翻译。 MEMORY-VQ#xff1a;可追溯互联网规模存储器的压缩 摘要1 引言2 背景3 MEMORY-VQ4 实验5 相关工作6 结论 摘要
检索增强是一种强大但昂贵的方法#xff0…本文是深度学习相关文章针对《MEMORY-VQ: Compression for Tractable Internet-Scale Memory》的翻译。 MEMORY-VQ可追溯互联网规模存储器的压缩 摘要1 引言2 背景3 MEMORY-VQ4 实验5 相关工作6 结论 摘要
检索增强是一种强大但昂贵的方法可以使语言模型更了解世界。基于记忆的方法如LUMEN为检索到的段落预先计算token表示以大大加快推理速度。然而存储预计算的表示也会对内存产生更大的存储需求。 我们提出了MEMORY-VQ这是一种在不牺牲性能的情况下降低内存增强模型存储需求的新方法。我们的方法使用矢量量化变分自动编码器VQ-VAE来压缩token表示。我们将MEMORY-VQ应用于LUMEN模型以获得LUMEN-VQ这是一种在KILT基准上实现16x压缩率且性能相当的存储器模型。LUMEN-VQ能够实现实用的检索增强即使是对于超大的检索语料库。
1 引言
2 背景
3 MEMORY-VQ
4 实验
5 相关工作
6 结论
我们介绍了MEMORY-VQ这是一种在不影响性能的情况下降低内存增强语言模型存储需求的新方法。通过使用VQ-VAE来压缩token表示我们获得了具有16x压缩的LUMEN模型表示为LUMENVQ。值得注意的是LUMEN-VQ保持了接近LUMEN和FiD的性能并受益于LUMEN推理速度的提高和存储成本的大幅降低。使用MEMORY-VQ记忆增强是一种实用的解决方案可以在大量检索语料库的情况下大幅提高推理速度。