网站建设周期计划,建设网站有什么风险,网站下载不了视频,ps网站首页设计图制作教程大型语言模型#xff08;LLM#xff09;是基于大量数据进行预训练的超大型深度学习模型。底层转换器是一组神经网络#xff0c;这些神经网络由具有自注意力功能的编码器和解码器组成。编码器和解码器从一系列文本中提取含义#xff0c;并理解其中的单词和短语之间的关系。通…大型语言模型LLM是基于大量数据进行预训练的超大型深度学习模型。底层转换器是一组神经网络这些神经网络由具有自注意力功能的编码器和解码器组成。编码器和解码器从一系列文本中提取含义并理解其中的单词和短语之间的关系。通过此过程转换器可学会理解基本的语法、语言和知识。
借助转换器神经网络架构人们可以使用非常大规模的模型其中通常具有数千亿个参数。这种大规模模型可以摄取通常来自互联网的大量数据但也可以从包含 500 多亿个网页的 Common Crawl 和拥有约 5700 万个页面的 Wikipedia 等来源摄取数据。
一般来讲LLM主要是在已有的知识库上进行学习然后通过阅读、理解、写作和编码来帮助人们解决问题。但是一个根本性的问题是LLM能发现并产生全新的知识吗
最近来自 Google DeepMind 的研究团队提出了一种为数学和计算机科学问题搜索解决方案的新方法 ——FunSearch。FunSearch 的工作原理是将预训练的 LLM以计算机代码的形式提供创造性解决方案与自动「评估器」配对以防止产生幻觉和错误思路。通过在这两个组件之间来回迭代最初的解决方案演变成了「新的知识」。相关论文发表在最近一期的《Nature》杂志上。 这项工作是首次利用 LLM 在科学或数学的挑战性开放问题方面取得新发现。
FunSearch 发现了 cap set 问题的全新解决方案这是数学中一个长期存在的开放问题。此外为了展示 FunSearch 的实际用途DeepMind 还用它来发现更有效的算法来解决「装箱」问题该问题应用广泛比如可以用于提高数据中心的效率。
研究团队认为 FunSearch 将成为一个特别强大的科学工具因为它输出的程序揭示了其解决方案是如何构建的而不仅仅是解决方案是什么。这将会激发科学家的进一步见解从而形成科学改进与发现的良性循环。 找到NP-hard问题更优解法
DeepMind具体展示了两类问题它们都属于NP-hard问题。在学界看来没有而且可能永远也不会有一种算法能在所有情况下都在多项式时间内找到NP-hard问题的精确解。面对这样的问题研究者通常会寻找近似解或适用于特定情况的有效算法。
Cap set问题
具体到FunSearch它解决的第一类NP-hard问题是Cap set问题是上限集问题的一种它的描述是这样的
在一个n维空间中的每个维度上都有等距的n个点共n^n个比如3维就是3*3*3从中找出尽可能多的点构成一个集合要求集合中任选3个点均不共线这样的集合中最多有多少个点 如果看上去有些难以理解不妨再了解一下Cap set问题的前身——上世纪70年代遗传学家Marsha Falco发明的一套卡牌游戏。
这套卡牌游戏中一共有81张牌每张牌中都有1至3个颜色图案同一张牌中的图案颜色、形状和阴影完都全相同。
这套牌一共有3种颜色、3种形状和3种阴影加上图案数量的不同一共有3*3*3*381张玩家需要翻开一些纸牌找到3张牌的特殊组合。 如果把这种“特殊组合”的具体方式用离散几何形式进行表达就得到了Cap set问题。Cap set问题同样诞生于70年代由牛津大学数学家Ron Graham提出而第一个重要结果直到90年代才出现。
2007年陶哲轩在一篇博客文章中曾提到这是他最喜欢的开放式数学问题。
在FunSearch出现之前Cap set问题最重大的突破是美国数学家Jordan Ellenberg和荷兰数学家Dion Gijswijt于2016年提出的。
通过多项式方法Ellenberg和Gijswijt将n6时n≤6时可精确找到最大集合此类问题解的上确界缩小到了2.756^n。同样在n6时下确界的较新数字则是2.218^n由布里斯托大学博士生Fred Tyrrell在2022年提出。但这个下确界仅仅存在于理论上——当n8时人类能构建出的最大集合中只有496个点而按照Tyrrell的结论点的数量应不少于585.7个。
FunSearch则将集合规模扩大到了512个点——虽然和理论值依旧存在差距但仍被视为20年来在此问题上最重大的突破。同时Cap set集合大小的下确界也被FunSearch提高到了2.2202^n。 在线装箱问题
第二类是在线装箱问题
假设有一组容量为C的标准集装箱和n个物品序列物品大小不超过C这些物品按一定顺序到达。“在线”是指操作者无法事先看到所有的物品但必须在物品到达时立刻决定将物品装入哪个集装箱。最终的目标是使所用集装箱数量尽可能小。
在线装箱问题引起广泛研究是从上世纪70年代开始的最早更是可以追溯到1831年高斯所研究的布局问题。经过近200年的研究仍然没有成熟的理论和有效的数值计算方法。
传统上常用的贪心算法包括First Fit和Best Fit两种
First Fit是指将每个物品放入第一个能容纳它的箱子中。Best Fit则是将每个物品放入能容纳它的且箱子中剩余空间最小的箱子。 而FunSearch则提出了新的算法该算法在OR和Weibull两个测试数据集中所用集装箱的数量均大幅下降。特别是在当测试集物品数目达到10万时FunSearch找到的方案消耗集装箱数量只比理论下界多出了0.03%。 通过语言模型的进化推动发现
FunSearch 采用由 LLM 支持的进化方法鼓励并推动得分最高的思路想法。这些想法被表达成计算机程序以便它们可以自动运行和评估。
首先用户需要以代码的形式编写问题的描述。该描述包括评估程序的过程和用于初始化程序池的种子程序。
FunSearch 是一个迭代过程在每次迭代中系统都会从当前的程序池中选择一些程序并将其馈送到 LLM。LLM 创造性地在此基础上进行构建生成新的程序并自动进行评估。最好的程序将被添加回现有程序库中从而创建一个自我改进的循环。FunSearch 使用 Google 的 PaLM 2但对其他接受过代码训练的方法兼容。 图一LLM 会从程序数据库中检索出生成的最佳程序并被要求生成一个更好的程序。 众所周知在不同领域发现新的数学知识和算法是一项艰巨的任务很大程度上超出了当前最先进人工智能系统的能力。为了让 FunSearch 做到这一点该研究引入了多个关键组件。FunSearch 不是从头开始而是从关于问题的常识开始一个进化过程让 FunSearch 专注于寻找最关键的想法以获得新的发现。
此外FunSearch 的进化过程使用一种策略来提高想法的多样性以避免出现停滞情况。最后为了提高系统效率进化过程是并行运行的。 在数学领域开辟新天地
DeepMind 表示他们首先要解决的是 Cap set 问题这是一个开放性难题几十年来一直困扰着多个研究领域的数学家。知名数学家陶哲轩曾把它描述为自己最喜欢的开放性问题。DeepMind 选择与威斯康星大学麦迪逊分校的数学教授 Jordan Ellenberg 合作他是 Cap set 问题的重要突破者。
这个问题包括在一个高维网格中找到最大的点集称为 cap set其中没有三个点位于一条直线上。这个问题之所以重要是因为它可以作为极值组合学中其他问题的模型。极值组合学研究的是数字、图或其他对象的集合可能有多大或多小。暴力破解方法无法解决这个问题 —— 要考虑的可能性数量很快就会超过宇宙中原子的数量。
FunSearch 以程序形式生成的解决方案在某些情况下发现了有史以来最大的 cap set。这代表了过去 20 年中 cap set 规模的最大增长。此外FunSearch 的性能超过了最先进的计算求解器因为这个问题的规模远远超出了它们目前的能力。
这些结果表明FunSearch 技术可以让人类超越困难组合问题的既定结果而在这些问题上很难建立直觉。DeepMind 期望这种方法能够在组合学中类似理论问题的新发现中发挥作用并在未来为通信理论等领域带来新的可能性。 图二交互式图表显示了从种子程序上到新的高分函数下的演变。每个圆圈都代表一个程序其大小与分配给它的分数成正比。图中仅显示底部程序的上级。FunSearch 为每个节点生成的相应函数如右侧所示。 FunSearch 偏好简洁、可由人类理解的程序
尽管发现新的数学知识本身意义重大但与传统的计算机搜索技术相比FunSearch 方法还展现出了其他的优势。这是因为FunSearch 并不是一个只会生成问题解决方案的黑箱。相反它生成的程序会描述出这些解决方案是如何得出的。这种「show-your-working」通常是科学家的工作方式他们通过阐述产生新发现或新现象的过程来解释这些发现或现象。
FunSearch 更倾向于寻找高度紧凑的程序所代表的解决方案即具有较低 Kolmogorov 复杂度的解决方案Kolmogorov 复杂度是输出解的最短计算机程序的长度。简短的程序可以描述非常大的对象从而使 FunSearch 能够扩展到非常复杂的问题。此外这也让研究人员更容易理解 FunSearch 的程序输出。Ellenberg 说「FunSearch 为制定攻击策略提供了一种全新的机制。FunSearch 生成的解决方案在概念上要比单纯的数字列表丰富得多。当我研究它们时我学到了一些东西。」
更重要的是FunSearch 程序的这种可解释性可以为研究人员提供可操作的见解。例如DeepMind 在使用 FunSearch 的过程中注意到它的一些高分输出的代码中存在耐人寻味的对称性。这让 DeepMind 对问题有了新的认识他们利用这种认识改进了引入 FunSearch 的问题从而找到了更好的解决方案。DeepMind 认为这是人类与 FunSearch 在数学领域的许多问题上进行合作的典范。 图三左通过检查 FunSearch 生成的代码DeepMind 获得了更多可操作的见解高亮部分。右使用更短的左图程序构造的原始「可接受」集合。 解决一个众所周知的计算难题
在理论 cap set 问题取得成功的鼓舞下DeepMind 决定将 FunSearch 应用于计算机科学中一个重要的实际挑战 —— 装箱问题bin packing以探索它的灵活性。装箱问题关注的是如何将不同尺寸的物品打包到最少数量的箱子中。它是许多现实世界问题的核心从装载物品的集装箱到数据中心的计算工作分配这些场景都需要最大限度地降低成本。
在线装箱问题通常使用基于人类经验的算法规则启发式来解决。但是要为每种特定情况大小、时间或容量各不相同找到一套规则是非常具有挑战性的。尽管与 cap set 问题非常不同但为这个问题设置 FunSearch 很容易。FunSearch 提供了一个自动定制的程序适应数据的具体情况优于现有的启发式方法 —— 可以使用更少的箱子来打包相同数量的物品。
像在线装箱这样的复杂组合问题可以使用其他人工智能方法来解决比如神经网络和强化学习。这些方法也被证明是有效的但也可能需要大量的资源来部署。另一方面FunSearch 输出的代码易于检查和部署这意味着它的解决方案有可能被应用到各种现实工业系统中从而迅速带来效益。 图四使用现有启发式 ——Best-fit 启发式左和 FunSearch 发现的启发式右进行装箱的示例。 总结
整体上看FunSearch的工作流程是一个迭代过程核心是搜索能解决问题的程序而不是问题答案本身。搜索正是DeepMind自AlphaGo以来一直坚持探索的路线。作者之一、谷歌DeepMind研究副总裁Pushmeet Kohli表示训练数据中不会有这个方案它之前甚至根本不为人类所知。
FunSearch也表明如果我们限制好LLM的幻觉不仅可以用来产生新的数学发现还可以提出解决实际世界问题的创新解决方案。此外FunSearch预示了未来LLM驱动的方法将在科学和工业领域广泛应用主助理于解决紧迫的科学和工程挑战。
FunSearch 证明如果能防止 LLM 产生幻觉那么这些模型的力量不仅可以用来产生新的数学发现还可以用来揭示重要现实问题的潜在解决方案。
DeepMind 认为对于科学和工业领域的许多问题 —— 无论是长期存在的问题还是新问题 —— 使用 LLM 驱动的方法生成有效和量身定制的算法将成为普遍做法。
其实这仅仅是一个开始。随着 LLM 不断取得进展FunSearch 也将不断完善。DeepMind 表示他们还将努力扩展其功能以应对社会上各种紧迫的科学和工程挑战。
FunSearch之所以强大是因为它输出的不仅仅是解决方案它还能展示解决方案是怎么来的。这就像是给你看一个解谜过程让你明白答案是怎么得出的。它喜欢找那些既简洁又能搞定复杂问题的方案。
FunSearch找到的答案不只是一串数字那么简单它还能给科学家们提供新的视角。比如通过描述理解程序是如何工作的科学家们可能会发现问题中的新模式这可以激发科学家使用FunSearch进行进一步的洞察推动改进、发现的良性循环。 参考文献
(1) https://www.nature.com/articles/s41586-023-06924-6
(2) https://deepmind.google/discover/blog/funsearch-making-new-discoveries-in-mathematical-sciences-using-large-language-models/