第一次进 AI 项目组开会,你可能会有这种体验:大家自信满满地聊着——“我们先优化下 RAG系统的延迟,再调人设,顺便做个 A/B test看看效果。”而你坐在角落里,内心 OS:
别慌,这些所谓的“AI 黑话”,其实就是业内人习惯的专业术语。听起来玄乎,其实拆开来都挺接地气。比如 prompt (提示词)就是“和 AI 说话的咒语”,hallucination(幻觉) 就是“AI 一本正经地胡说八道”。
这篇《AI 黑话扫盲指南》带你用最小白的方式,快速理解那些需求会上常被抛来抛去的术语,帮你在下次参加产品需求会时能够秒懂。
更多术语科普:
Chatbot:聊天机器人,最常见的 AI 应用,就像智能客服。还有个类似的词是 Chat Feed,即对话和内容像朋友圈那样一条条往下刷的流。在 UI 里通常指和 AI 的对话页面。
基础大模型(Foundation Model):也叫基模,比如 GPT、Claude,是 AI 的“地基”。另一个跟模型相关的词是 LLM(Large Language Model)特指专注于自然语言处理(NLP)的大型模型,通常基于 Transformer 架构,通过千亿级文本数据训练获得语言理解和生成能力,比如生成式模型:GPT-3.5、Llama 2 擅长文本创作、对话;理解式模型:BERT、RoBERTa 擅长情感分析、实体识别。
人设(Persona):AI 的人设设定,决定它怎么说话、边界在哪里。 比如“温柔的心理咨询师” 、“人美声甜的高中英语老师”、“人帅活好的站酷产品设计师”。另外市面上的 AI 类乙游,本质上也是给纸片人一个人设,包括人物性格、性别、身世、说话语气等等,再加上回答边界,让纸片人说出来的话是符合时代背景与他的人设的,例如不能让一个古代背景的角色问出 Are you OK 这种话。
创建智能体的人设输入界面
幻觉(Hallucination):即 AI 一本正经地胡说八道,看似合理但其实编的,就像人凭想象 “虚构记忆” 一样,AI 会自信地给出没有事实依据的内容。Deepseek 曾经有个阶段的幻觉问题就非常严重。比如让 AI 写一篇关于 “新型环保材料 XXX” 的文章,若没有足够真实数据,AI 可能会虚构该材料的研发机构(如 “某大学环境学院 2024 年研发”)、性能参数(如 “可降解率达 99%”),这些信息看似合理,实则完全是 AI “凭空创造” 的。在应用层面,可以通过 “数据约束、过程干预、结果验证” 三大方向,让 AI 的输出更贴合真实信息,避免无依据编造。
添加知识库并让AI仅回答知识库内容也是一个减少幻觉的方法
- RAG:全称 Retrieval-Augmented Generation,检索增强生成,AI 先去知识库翻资料,再结合大模型回答。
- Prompt:常用 AI 生图的小伙伴肯定熟悉,就是提示词,小某书里常说的“咒语”,即给 AI 的指令,怎么说决定 AI 怎么回。
- Query:查询请求。比如你问数据库一句话、搜索引擎一句话,AI 内部也会把你输入转成一个 query。
- Embedding:向量化表示,即把文字转成数字向量,用于语义检索、推荐。
Context Window:上下文窗口,AI 能记住的“对话长度”。超出窗口就会遗忘。这个有点像人与人之间的对话,“上周五你说的要搬家那件事处理的怎么样了?”,你需要先提起一个片段唤醒对方记忆才能进行继续对话,否则没头没脑来一句“你那件事处理的怎么样了”,对方会很懵“啊?哪件事?”
编排(Orchestration):指通过系统化协调多个 AI 组件(如模型、工具、数据管道)完成复杂任务的过程。它不仅是技术层的流程管理,更是实现从 “单一功能” 到 “端到端智能” 的关键桥梁。
思维链(Chain of Thought):展示模型思考过程。思维链的概念由谷歌大脑的高级研究员 Jason Wei 在 2022 年 1 月发表的论文「Chain - of - Thought Prompting Elicits Reasoning in Large Language Models」中提出。而首次将思维链作为核心技术亮点展示的是 OpenAI 在 2024 年 9 月发布的 o1 模型。DeepSeek 是在 2025 年春节时,其 R1 模型首次完整展示了大模型执行推理时的思维链过程,成为思维链技术发展中的一个重要里程碑。
豆包的思维链
Agent:更自主的 AI 角色,可以调用工具、执行任务,而不只是聊天。比如一个医疗类 Agent,它除了可以像医生一样跟你对话,还能调用工具和 API 接口进行 B 超、化验单等报告的解读,本质上是利用三方工具把 B 超或报告的内容的提示词结构化。
护栏(guardrail):就像茶馆里头那块“莫谈国事”的牌子,为 AI 的行为划定 “不能碰的边界”—— 比如防止 AI 生成违法、暴力、歧视性的内容,或是避免 AI 做出超出其功能范围的危险决策(比如擅自给出医疗诊断、金融投资建议等),本质是给 AI 的运行加一层安全约束,确保其输出和行为符合规则、伦理和安全要求。
PE 效果(Prompt Engineering):优化提示词,让 AI 回答更靠谱。比如你想让 AI 写一篇 “给小学生的太空科普”,直接说 “写太空科普”,AI 可能写出满是公式的专业内容;但加上 “适合 10 岁孩子、用动画片角色举例、不超过 500 字” 这些 “好指令”(也就是提示工程优化),AI 就能精准产出符合要求的内容,不会答非所问。
微调(Fine-tuning):相当于给 AI 定制化特训,核心是让通用 AI 变得更 “懂行”,从“会做事”到“擅长做事”,垂类领域的 agent 就非常依赖微调效果。没微调的 AI 写科幻可能情节老套、逻辑漏洞多;经过科幻数据微调后,它能更精准地把握科幻设定、写出符合风格的剧情;同理,用医学数据微调后,它能更准确地理解病历、辅助分析医学问题。
推理(Inference):AI 的“思考输出”环节,核心是指训练好的 AI 模型,用已学的知识去 “解决实际问题、给出答案” 的过程。比如学习阶段(AI 训练),学生平时听课、做练习,把知识记在脑子里。考试阶段(AI 推理),学生看到题目用平时学的知识分析、计算,最后写出答案。
时延(Latency):也叫延迟。就是 AI 系统处理一个请求所花费的时间。在 AI 回答一些长内容时,尤其用到了深度思考,时延通常会比较长,这时候 UI 侧就需要做一些 loading 效果或者用思维链来减少用户等待的焦虑感。
MVP(Minimum Viable Product):最小可行性版本,即仅保留核心功能来进行市场验证试试水。
冷启动(Cold start):AI 刚上岗,因为没数据、没经验,没法顺利干活的状态,如何启动一个 AI 应用。就像一家刚开业的餐厅,没积累任何顾客口味数据(对应 AI 没专属训练数据),不知道该主推什么菜(AI 不知道如何精准输出)。比如开发一个新的 AI 推荐系统,初期没有用户的浏览、购买记录,就没法给用户推喜欢的商品,只能先随便推一些热门款。
Session:你和 AI 一次完整的互动过程,就像你和人聊天时,从开口打招呼到结束对话的这整段交流。Session 就是 AI 记录你 “这一轮” 所有互动的 “临时档案”,期间 AI 会记住你们之前聊过的内容(比如你之前说过 “喜欢红色”,后续对话中 AI 可能会用到这个信息),直到你关闭窗口、退出程序,这个 “临时档案” 才会结束或重置。
对话轮(Turn): 通俗说就是 “你和 AI 之间一次‘一问一答’的交互单元”,是构成 “会话(Session)” 的最小单位,就像聊天时你说一句、对方答一句,这一来一 回就是两个对话轮。
你说:“推荐一部新的动作电影”—— 这是用户轮(User Turn),即用户发起的一次交互。AI 回复:“推荐《碟中谍8》,阿汤哥的碟中谍系列收官之作”—— 这是AI 轮(AI Turn),即 AI针对用户输入的一次回应。
你接着问:“它的评分高吗?”—— 这是新的用户轮。AI 回复:“豆瓣评分 7.7 分,口碑还不错”—— 这是新的AI轮。简单讲,一次对话轮就是 “一方说话、一方回应” 中的单个 “发言动作”,多次对话轮连起来,就构成了一次完整的对话会话(Session)。
复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。
发评论!每天赢奖品
点击 登录 后,在评论区留言,系统会随机派送奖品
2012年成立至今,是国内备受欢迎的设计师平台,提供奖品赞助 联系我们
AIGC互联网产品设计实践
已累计诞生 755 位幸运星
发表评论 为下方 2 条评论点赞,解锁好运彩蛋
↓ 下方为您推荐了一些精彩有趣的文章热评 ↓