最新资讯

搞不懂AI大模型常见的英文缩写?这篇干货帮你理清LLM、RAG和Prompt

发布时间:2026/4/29 2:49:51
搞不懂AI大模型常见的英文缩写?这篇干货帮你理清LLM、RAG和Prompt

刚入行那会儿,我天天被各种缩写绕得晕头转向。开会的时候,产品经理在那儿滔滔不绝地聊RAG、Embedding、In-context Learning,我坐在底下点头如捣蒜,其实心里跟明镜似的:这帮人到底在说啥?那种感觉,就像听天书,尴尬又无助。今天咱不整那些虚头巴脑的定义,就聊聊我在这一行摸爬滚打六年,总结出来的那些真正在用的“黑话”。

先说个最基础的,LLM。全称Large Language Model,大语言模型。这词儿现在烂大街了,但你得知道,它不是万能的。很多人以为上了LLM就能解决所有问题,其实不然。LLM更像是一个博学但偶尔会胡扯的实习生,你给的任务越具体,它表现越好。

这时候就得提提RAG了,Retrieval-Augmented Generation,检索增强生成。这玩意儿现在火得一塌糊涂。为啥?因为LLM有个毛病,它的知识截止于训练数据结束的那天。你想让它知道昨天发生的新闻,或者公司内部最新的文档,它根本不知道。RAG就是给LLM配了个“外脑”。先从数据库里把相关资料捞出来,再喂给LLM让它回答。这招在解决企业私有数据问题上,简直是神技。很多公司搞AI应用,第一步就是搞RAG,不然聊两句就露馅。

再说个让很多开发者头秃的词,Prompt。提示词。别以为随便写写就行,Prompt Engineering(提示词工程)现在都成专门的技术活了。好的Prompt能让模型智商翻倍,差的Prompt能让模型直接发疯。比如你让模型写代码,如果不指定语言、框架、甚至代码风格,它写出来的东西你根本没法用。这里头有个技巧,叫Few-shot Learning,少样本学习。你就给模型几个例子,告诉它“你要像这样写”,它立马就开窍了。这比让它从零开始猜你要啥强多了。

还有个词叫Fine-tuning,微调。很多人分不清微调和大模型预训练的区别。预训练是让模型学通用的知识,像背字典;微调则是让模型学特定的技能,比如专门做医疗诊断或者法律问答。微调成本高,周期长,不是啥事都得微调。大多数时候,用好Prompt和RAG就够了。只有当你的业务场景非常垂直,且对准确率要求极高时,才考虑微调。

再聊聊Agent,智能体。这概念炒得很热,但我觉得有点被过度解读了。简单的Agent其实就是让模型能调用工具。比如你让它查天气,它得能去调天气API;让它订机票,得能调订票接口。现在的Agent大多还是基于规则或者简单的逻辑链,离真正的自主智能还差得远。别被那些“AI取代人类”的标题党吓到,现在的Agent更多是辅助,而不是替代。

最后提一下Token。这是计费单位,也是模型理解的单位。一个Token大概对应0.75个英文单词,或者半个中文汉字。很多新手不知道,Token是有上限的,也就是Context Window,上下文窗口。你想让模型记住长篇大论,得看它支持的窗口有多大。现在主流模型都支持长窗口,但窗口越大,计算成本越高,响应速度越慢。这里头有个平衡,别盲目追求大窗口,够用就行。

这些缩写,LLM、RAG、Prompt、Fine-tuning、Agent、Token,构成了现在AI应用的基本骨架。理解它们,你才能在这个行业里站稳脚跟。别被那些高大上的名词唬住,剥开外壳,核心逻辑其实挺简单的。就是怎么让机器更好地理解人,怎么让人更好地利用机器。这六年,我见过太多人因为不懂这些基础概念,走了不少弯路。希望这篇能帮你省点时间,少踩点坑。毕竟,时间就是金钱,尤其是在这个变化飞快的行业里。