我渐渐的习惯了你的存在,甚至,无法离开。
一、模型 The Model
| 英文术语 |
中文解释 |
| Model |
模型。负责根据输入生成输出的核心系统,例如 GPT、Claude、Gemini。模型本身不等于 Agent,只有接入工具、提示词和运行环境后,才具备执行任务的能力。 |
| Parameters |
参数。模型训练后得到的大量数值,也叫权重。模型的通用知识存储在参数中。 |
| Training |
训练。通过大量数据调整模型参数的过程。训练通常由模型提供方完成,成本高,周期长。 |
| Inference |
推理。使用已经训练好的模型生成回答的过程。日常调用模型、让 Agent 写代码,本质上都是推理。 |
| Token |
Token(令牌)。模型读取和生成文本的基本单位。它不完全等于单词,中文、英文、符号、代码都会被拆成不同 token。 |
| Next-token prediction |
下一个 token 预测。模型生成内容的基本机制:根据已有上下文预测下一个 token,然后不断重复。 |
| Non-determinism |
非确定性。同样的输入可能得到不同输出。模型回答不是固定函数,结果会有波动。 |
| Model provider |
模型提供方。提供模型推理服务的平台,例如 OpenAI、Anthropic、Google,也可以是本地模型服务。 |
| Harness |
运行外壳。把模型包装成 Agent 的系统,包括系统提示词、工具、权限、上下文管理等。 |
| Model provider request |
模型请求。运行外壳向模型提供方发起的一次请求。一次用户任务可能包含多次模型请求。 |
| Input tokens |
输入 token。发送给模型的上下文内容。通常包括系统提示词、历史对话、工具结果、文件内容。 |
| Output tokens |
输出 token。模型生成的内容。写代码、解释问题、生成工具调用都会消耗输出 token。 |
| Prefix cache |
前缀缓存。模型提供方对重复上下文前缀做的缓存,用来降低长会话的重复计算成本。 |
| Cache tokens |
缓存 token。命中前缀缓存的输入 token。长会话是否昂贵,和缓存命中率有关。 |
二、会话与上下文 Sessions, Context Windows & Turns
| 英文术语 |
中文解释 |
| Stateless |
无状态。模型本身不会记住上一次请求。每次请求都需要重新把相关上下文传进去。 |
| Stateful |
有状态。状态通常由运行外壳、会话历史或记忆系统维持,不是模型参数真的发生了改变。 |
| Context |
上下文。当前任务中模型可以使用的信息,包括用户要求、已读取文件、工具返回结果等。 |
| Context window |
上下文窗口。模型一次请求能看到的全部内容。窗口大小有限,内容过多会影响注意力分配。 |
| Agent |
智能体。被运行外壳包装后的模型,可以读取上下文、调用工具、执行多步任务。 |
| System prompt |
系统提示词。运行外壳在用户输入前加入的固定指令,用来规定 Agent 的身份、行为、工具权限和工作方式。 |
| Session |
会话。一段连续的 Agent 交互过程。会话会不断积累消息、文件内容和工具结果。 |
| Turn |
轮次。一次用户输入以及 Agent 为响应它所做的全部动作。一个 turn 内可能包含多次工具调用和模型请求。 |
| 英文术语 |
中文解释 |
| Environment |
环境。Agent 可以感知和操作的外部世界,例如文件系统、数据库、浏览器、远程 API。 |
| Filesystem |
文件系统。代码 Agent 最常见的环境。项目文件、配置、脚本、文档都在文件系统中。 |
| Tool |
工具。运行外壳暴露给 Agent 的函数能力,例如读取文件、搜索代码、执行命令、修改文件。 |
| Tool call |
工具调用。模型输出的一段结构化请求,由运行外壳执行。模型说“运行测试”不等于真的运行,必须产生并执行工具调用。 |
| Tool result |
工具结果。工具执行后返回给模型的内容,例如文件内容、命令输出、错误信息。 |
| MCP |
Model Context Protocol。用于把外部工具服务接入运行外壳的协议。Agent 调用的是工具,工具可能来自 MCP 服务。 |
| Permission request |
权限请求。运行高风险工具调用前,系统向用户请求确认的过程。 |
| Permission mode |
权限模式。规定哪些工具调用自动执行,哪些需要用户确认。 |
| Agent mode |
Agent 模式。运行时预设,通常同时影响权限策略和行为方式,例如计划模式、自动接受编辑模式、绕过权限模式。 |
| Sandbox |
沙盒。隔离的运行环境,用来限制 Agent 的操作范围,降低误删文件、泄露凭据或执行危险命令的风险。 |
四、失效模式 Failure Modes
| 英文术语 |
中文解释 |
| Sycophancy |
迎合、谄媚。模型倾向于顺着用户说,可能在用户表达强烈倾向时放弃正确判断。 |
| Hallucination |
幻觉。模型生成看似合理但实际错误的内容。可能是事实错误,也可能是没有遵守已有上下文。 |
| Parametric knowledge |
参数知识。模型从训练中获得、存储在参数里的知识。它不能实时更新。 |
| Knowledge cutoff |
知识截止时间。模型训练数据覆盖到的时间点。之后出现的新库、新 API、新事件,模型可能不知道。 |
| Contextual knowledge |
上下文知识。当前上下文窗口中直接提供的信息,例如用户贴的文档、Agent 读到的源码。 |
| Attention relationship |
注意力关系。上下文中不同 token 之间的关联强度。模型依赖这些关系理解代码和指令。 |
| Attention budget |
注意力预算。模型处理上下文时的有限关注能力。上下文越大,重要信息越容易被稀释。 |
| Attention degradation |
注意力退化。会话过长后,模型对早期信息或关键细节的遵守能力下降。 |
| Smart zone |
高效、智能区。会话早期上下文较干净,模型表现通常更稳定。随着上下文变大,会逐渐进入低效区。 |
五、交接 Handoffs
| 英文术语 |
中文解释 |
| Clearing |
清空会话。结束当前会话,重新开始。可以减少上下文污染,但会丢失未保存的信息。 |
| Handoff |
交接。把一个会话的关键信息转给另一个会话,常用于任务拆分或上下文过大时。 |
| Handoff artifact |
交接产物。用于交接的文档,例如计划、约束、文件路径、已做决策。 |
| Spec |
规格说明。描述一个较大任务要做什么,通常可以拆成多个 ticket。 |
| Ticket |
任务单。限定一次会话可以完成的具体工作范围。 |
| Compaction |
压缩。把已有会话历史总结成较短内容,并用它开启新的上下文。压缩会损失细节。 |
| Autocompact |
自动压缩。当上下文窗口接近上限时,运行外壳自动触发的压缩。 |
六、记忆与引导 Memory and Steering
| 英文术语 |
中文解释 |
| Memory system |
记忆系统。把跨会话信息保存到环境中,并在新会话开始时重新加载。它模拟连续记忆,但不是模型参数更新。 |
| AGENTS.md |
Agent 指令文件。项目中的固定说明文件,通常在会话开始时加载,告诉 Agent 项目规则和工作约定。 |
| Progressive disclosure |
渐进披露。只把当前任务需要的信息加载进上下文,其余信息通过引用或工具按需读取。 |
| Context pointer |
上下文指针。指向其他文档、规则或资源的引用。Agent 需要时再打开对应内容。 |
| Skill |
技能。为某类任务准备的一组说明和资源。它不是工具,而是 Agent 可按需读取的操作指南。 |
| Subagent |
子 Agent。由主 Agent 派生出的独立会话,用来完成搜索、分析、验证等子任务,然后把结果返回主会话。 |
七、工作模式 Patterns of Work
| 英文术语 |
中文解释 |
| Human-in-the-loop |
人机协同。人持续参与 Agent 工作,实时审查、纠偏、确认关键决策。 |
| AFK |
Away from keyboard。这是一种工作模式,用户启动会话后,即可让代理程序自动运行。用户发起任务后暂时离开,让 Agent 在沙盒或受限权限下自行执行。 |
| Automated check |
自动检查。确定性的验证,例如测试、类型检查、lint、构建。结果通常是通过或失败。 |
| Automated review |
自动审查。由另一个模型或 Agent 对代码进行评估。它属于判断,不等于确定性检查。 |
| Human review |
人工审查。人直接阅读 diff 或变更文件,对代码质量和风险做判断。只看 Agent 总结不算审查。 |
| Vibe coding |
氛围编程。用户不阅读代码变更,只根据程序表现接受 Agent 输出。风险取决于任务类型和验证强度。 |
| Design concept |
设计概念。用户和 Agent 对“要做什么”的共同理解。文档和代码只是它的表达,不等于它本身。 |
| Grilling |
追问式澄清。让 Agent 先连续提问,逐步确认需求细节,再进入规格说明或代码实现。 |
总结
AI 编程中的术语,大多围绕四件事:
- 模型如何生成内容。
- Agent 如何获得上下文。
- 工具如何作用于环境。
- 人如何审查和约束结果。
术语弄清楚后,很多问题会变得更具体:
不是“AI 又变笨了”,而是上下文变大导致注意力退化。
不是“它记住了项目规则”,而是 AGENTS.md 或记忆系统重新加载了规则。
不是“它真的运行了测试”,而是需要检查有没有实际 tool call 和 tool result。
不是“代码看起来能用就可以”,而是需要 automated check 和 human review。
参考来源 dictionary-of-ai-coding