术语表
基本概念
提示词(Prompt):提示词是用户提供给 AI 模型的输入,通常以问题、指令或陈述的形式出现,用于引发响应。提示词的质量和结构极大地影响模型的输出,使提示词工程成为有效使用 AI 的关键技能。
上下文窗口(Context Window):上下文窗口是 AI 模型一次可以处理的最大 token 数量,包括输入和生成的输出。这个固定大小是一个关键限制,因为窗口外的信息会被忽略,而更大的窗口可以实现更复杂的对话和文档分析。
上下文学习(In-Context Learning):上下文学习是 AI 直接从提示词中提供的示例学习新任务的能力,无需任何重新训练。这个强大的功能允许单个通用模型即时适应无数特定任务。
零样本、单样本和少样本提示(Zero-Shot, One-Shot, & Few-Shot Prompting):这些是提示技术,其中向模型提供零个、一个或几个任务示例来指导其响应。提供更多示例通常有助于模型更好地理解用户意图,并提高特定任务的准确性。
多模态性(Multimodality):多模态性是 AI 理解和处理多种数据类型(如文本、图像和音频)信息的能力。这允许更多样化和类人的交互,例如描述图像或回答口头问题。
基础化(Grounding):基础化是将模型输出连接到可验证的真实世界信息源的过程,以确保事实准确性并减少幻觉。这通常通过 RAG 等技术实现,使 AI 系统更值得信赖。
核心 AI 模型架构
Transformers:Transformer 是大多数现代 LLM 的基础神经网络架构。其关键创新是自注意力机制,可以高效处理长文本序列并捕获单词之间的复杂关系。
循环神经网络(Recurrent Neural Network, RNN):循环神经网络是 Transformer 之前的基础架构。RNN 按顺序处理信息,使用循环来维护先前输入的”记忆”,这使它们适合文本和语音处理等任务。
专家混合(Mixture of Experts, MoE):专家混合是一种高效的模型架构,其中”路由器”网络动态选择一小部分”专家”网络来处理任何给定的输入。这允许模型拥有大量参数,同时保持可管理的计算成本。
扩散模型(Diffusion Models):扩散模型是擅长创建高质量图像的生成模型。它们通过向数据添加随机噪声,然后训练模型精确地逆转该过程来工作,允许它们从随机起点生成新颖的数据。
Mamba:Mamba 是一种最新的 AI 架构,使用选择性状态空间模型(SSM)以高效率处理序列,特别是对于非常长的上下文。其选择性机制允许它专注于相关信息同时过滤噪声,使其成为 Transformer 的潜在替代方案。
LLM 开发生命周期
强大语言模型的开发遵循明确的顺序。它始于预训练(Pre-training),在大量通用互联网文本数据集上训练大规模基础模型,以学习语言、推理和世界知识。接下来是微调(Fine-tuning),这是一个专业化阶段,在较小的特定任务数据集上进一步训练通用模型,以使其能力适应特定目的。最后阶段是对齐(Alignment),调整专业化模型的行为,以确保其输出有帮助、无害且与人类价值观保持一致。
预训练技术:预训练是模型从大量数据中学习通用知识的初始阶段。这方面的顶级技术涉及模型学习的不同目标。最常见的是因果语言建模(CLM),其中模型预测句子中的下一个单词。另一种是掩码语言建模(MLM),其中模型填充文本中故意隐藏的单词。其他重要方法包括去噪目标,其中模型学习将损坏的输入恢复到其原始状态,对比学习,其中它学习区分相似和不相似的数据片段,以及下一句预测(NSP),其中它确定两个句子是否在逻辑上相互跟随。
微调技术:微调是使用较小的专业化数据集将通用预训练模型适应特定任务的过程。最常见的方法是监督微调(SFT),其中模型在标记的正确输入输出对示例上进行训练。一个流行的变体是指令调优,专注于训练模型更好地遵循用户命令。为了使此过程更高效,使用参数高效微调(PEFT)方法,顶级技术包括 LoRA(低秩适应),仅更新少量参数,以及其内存优化版本 QLoRA。另一种技术,检索增强生成(RAG),通过在微调或推理阶段将模型连接到外部知识源来增强模型。
对齐和安全技术:对齐是确保 AI 模型行为与人类价值观和期望保持一致的过程,使其有帮助且无害。最突出的技术是基于人类反馈的强化学习(RLHF),其中在人类偏好上训练的”奖励模型”指导 AI 的学习过程,通常使用近端策略优化(PPO)等算法来保持稳定性。已经出现了更简单的替代方案,例如直接偏好优化(DPO),它绕过了对单独奖励模型的需求,以及 Kahneman-Tversky 优化(KTO),它进一步简化了数据收集。为确保安全部署,实施护栏作为最终安全层,以实时过滤输出并阻止有害行为。
增强 AI Agent 能力
AI Agent 是能够感知其环境并采取自主行动以实现目标的系统。它们的有效性通过强大的推理框架得到增强。
思维链(Chain of Thought, CoT):这种提示技术鼓励模型在给出最终答案之前逐步解释其推理。这种”大声思考”的过程通常会在复杂推理任务上产生更准确的结果。
思维树(Tree of Thoughts, ToT):思维树是一种高级推理框架,其中 Agent 同时探索多个推理路径,就像树上的分支一样。它允许 Agent 自我评估不同的思路并选择最有希望的路径,使其在复杂问题解决方面更有效。
ReAct(推理与行动,Reason and Act):ReAct 是一个 Agent 框架,在循环中结合推理和行动。Agent 首先”思考”要做什么,然后使用工具采取”行动”,并使用结果观察来通知其下一个想法,使其在解决复杂任务方面非常有效。
规划(Planning):这是 Agent 将高级目标分解为一系列较小的、可管理的子任务的能力。然后 Agent 创建一个计划来按顺序执行这些步骤,使其能够处理复杂的多步骤任务。
深度研究(Deep Research):深度研究是指 Agent 通过迭代搜索信息、综合发现和识别新问题来自主深入探索主题的能力。这允许 Agent 建立对主题的全面理解,远超单个搜索查询。
批评模型(Critique Model):批评模型是一种专门的 AI 模型,经过训练可以审查、评估和提供关于另一个 AI 模型输出的反馈。它充当自动批评者,有助于识别错误、改进推理并确保最终输出符合期望的质量标准。
术语索引
此术语索引使用 Gemini Pro 2.5 生成。提示词和推理步骤包含在末尾,以展示 AI 辅助索引创建的效率优势并用于教育目的。
A
- A/B Testing(A/B 测试) - 第 3 章:并行化
- Action Selection(行动选择) - 第 20 章:优先级排序
- Adaptation(适应) - 第 9 章:学习与适应
- Adaptive Task Allocation(自适应任务分配) - 第 16 章:资源感知优化
- Adaptive Tool Use & Selection(自适应工具使用与选择) - 第 16 章:资源感知优化
- Agent - 什么使 AI 系统成为 Agent?
- Agent-Computer Interfaces (ACIs)(计算机接口()) - 附录 B
- Agent-Driven Economy(Agent 驱动型经济) - 什么使 AI 系统成为 Agent?
- Agent as a Tool(Agent 作为工具) - 第 7 章:多 Agent 协作
- Agent Cards(Agent 卡片) - 第 15 章:Agent 间通信(A2A)
- Agent Development Kit(ADK)- 第 2 章:路由,第 3 章:并行化,第 4 章:反思,第 5 章:工具使用,第 7 章:多 Agent 协作,第 8 章:记忆管理,第 12 章:异常处理与恢复,第 13 章:人机协同,第 15 章:Agent 间通信(A2A),第 16 章:资源感知优化,第 19 章:评估与监控,附录 C
- Agent Development Kit (ADK)(Agent 发现) - 第 15 章:Agent 间通信(A2A)
- Agent Discovery(Agent 轨迹) - 第 19 章:评估与监控
- Agent Trajectories(Agentic 设计模式) - 引言
- Agentic Design Patterns - 第 14 章:知识检索(RAG)
- Agentic RAG(Agentic 系统) - 引言
- Agentic Systems(AI 联合科学家) - 第 21 章:探索与发现
- AI Co-scientist(对齐) - 术语表
- Alignment - 第 9 章:学习与适应
- AlphaEvolve(类比) - 附录 A
- Analogies(异常检测) - 第 19 章:评估与监控
- Anomaly Detection(Anthropic’s Claude 4 系列) - 附录 B
- Anthropic’s Claude 4 Series - 附录 B
- Anthropic’s Computer Use(API 交互) - 第 10 章:模型上下文协议(MCP)
- API Interaction(工件) - 第 15 章:Agent 间通信(A2A)
- Artifacts(异步轮询) - 第 15 章:Agent 间通信(A2A)
- Asynchronous Polling(审计日志) - 第 15 章:Agent 间通信(A2A)
- Audit Logs(自动化指标) - 第 19 章:评估与监控
- 自动提示工程(APE)- 附录 A
- Automated Metrics(自主性) - 引言
- Automatic Prompt Engineering (APE) - 第 15 章:Agent 间通信(A2A)
B
- Behavioral Constraints(行为约束) - 第 18 章:护栏/安全模式
- Browser Use(浏览器使用) - 附录 B
C
- Callbacks(回调) - 第 18 章:护栏/安全模式
- 因果语言建模(CLM)- 术语表
- 辩论链(CoD)- 第 17 章:推理技术
- 思维链(CoT)- 第 17 章:推理技术,附录 A
- Causal Language Modeling (CLM)(聊天机器人) - 第 8 章:记忆管理
- Chain of Debates (CoD) - 第 8 章:记忆管理
- Chain-of-Thought (CoT)(检查点与回滚) - 第 18 章:护栏/安全模式
- Chatbots(分块) - 第 14 章:知识检索(RAG)
- ChatMessageHistory(清晰性和具体性) - 附录 A
- Checkpoint and Rollback(客户端 Agent) - 第 15 章:Agent 间通信(A2A)
- Chunking(代码生成) - 第 1 章:提示链,第 4 章:反思
- Clarity and Specificity(代码提示) - 附录 A
- CoD(辩论链)- 第 17 章:推理技术
- CoT(思维链)- 第 17 章:推理技术,附录 A
- Client Agent(协作) - 第 7 章:多 Agent 协作
- Code Generation(合规性) - 第 19 章:评估与监控
- Code Prompting(简洁性) - 附录 A
- CoD (Chain of Debates)(内容生成) - 第 1 章:提示链,第 4 章:反思
- CoT (Chain of Thought)(上下文工程) - 第 1 章:提示链
- Collaboration(上下文窗口) - 术语表
- Compliance(上下文修剪与摘要) - 第 16 章:资源感知优化
- Conciseness(上下文提示) - 附录 A
- Content Generation(承包商模型) - 第 19 章:评估与监控
- Context Engineering - 第 8 章:记忆管理
- Context Window(对话式 Agent) - 第 1 章:提示链,第 4 章:反思
- Contextual Pruning & Summarization(成本敏感探索) - 第 16 章:资源感知优化
- Contextual Prompting - 第 3 章:并行化,第 5 章:工具使用,第 6 章:规划,第 7 章:多 Agent 协作,第 18 章:护栏/安全模式,附录 C
- Contractor Model(批评 Agent) - 第 16 章:资源感知优化
- ConversationBufferMemory(批评模型) - 术语表
- Conversational Agents(客户支持) - 第 13 章:人机协同
D
- Data Extraction(数据提取) - 第 1 章:提示链
- Data Labeling(数据标注) - 第 13 章:人机协同
- Database Integration(数据库集成) - 第 10 章:模型上下文协议(MCP)
- DatabaseSessionService - 第 8 章:记忆管理
- Debate and Consensus(辩论与共识) - 第 7 章:多 Agent 协作
- Decision Augmentation(决策增强) - 第 13 章:人机协同
- Decomposition(分解) - 附录 A
- Deep Research(深度研究) - 第 6 章:规划,第 17 章:推理技术,术语表
- Delimiters(分隔符) - 附录 A
- Denoising Objectives(去噪目标) - 术语表
- Dependencies(依赖关系) - 第 20 章:优先级排序
- Diffusion Models(扩散模型) - 术语表
- 直接偏好优化(DPO)- 第 9 章:学习与适应
- Direct Preference Optimization (DPO)(可发现性) - 第 10 章:模型上下文协议(MCP)
- Discoverability(漂移检测) - 第 19 章:评估与监控
- Drift Detection(动态模型切换) - 第 16 章:资源感知优化
- Dynamic Model Switching(动态重新优先级排序) - 第 20 章:优先级排序
E
- Embeddings(嵌入) - 第 14 章:知识检索(RAG)
- Embodiment(具身化) - 什么使 AI 系统成为 Agent?
- Energy-Efficient Deployment(节能部署) - 第 16 章:资源感知优化
- Episodic Memory(情景记忆) - 第 8 章:记忆管理
- Error Detection(错误检测) - 第 12 章:异常处理与恢复
- Error Handling(错误处理) - 第 12 章:异常处理与恢复
- Escalation Policies(升级策略) - 第 13 章:人机协同
- Evaluation(评估) - 第 19 章:评估与监控
- Exception Handling(异常处理) - 第 12 章:异常处理与恢复
- Expert Teams(专家团队) - 第 7 章:多 Agent 协作
- Exploration and Discovery(探索与发现) - 第 21 章:探索与发现
- External Moderation APIs(外部审核 API) - 第 18 章:护栏/安全模式
F
- Factored Cognition(因子化认知) - 附录 A
- FastMCP - 第 10 章:模型上下文协议(MCP)
- Fault Tolerance(容错) - 第 18 章:护栏/安全模式
- Few-Shot Learning(少样本学习) - 第 9 章:学习与适应
- Few-Shot Prompting(少样本提示) - 附录 A
- Fine-tuning(微调) - 术语表
- Formalized Contract(正式化合同) - 第 19 章:评估与监控
- Function Calling(函数调用) - 第 5 章:工具使用,附录 A
G
- Gemini Live - 附录 B
- Gems - 附录 A
- Generative Media Orchestration(生成媒体编排) - 第 10 章:模型上下文协议(MCP)
- Goal Setting(目标设定) - 第 11 章:目标设定与监控
- GoD(辩论图)- 第 17 章:推理技术
- Google Agent Development Kit(ADK)- 第 2 章:路由,第 3 章:并行化,第 4 章:反思,第 5 章:工具使用,第 7 章:多 Agent 协作,第 8 章:内存管理,第 12 章:异常处理与恢复,第 13 章:人机协同,第 15 章:Agent 间通信(A2A),第 16 章:资源感知优化,第 19 章:评估与监控,附录 C
- GoD (Graph of Debates)(Google 联合科学家) - 第 21 章:探索与发现
- Google Agent Development Kit (ADK) - 第 6 章:规划
- Google Co-Scientist - 附录 B
- Google DeepResearch(优雅降级) - 第 12 章:异常处理与恢复,第 16 章:资源感知优化
- 辩论图(GoD)- 第 17 章:推理技术
- Google Project Mariner(基础化) - 术语表
- Graceful Degradation(护栏) - 第 18 章:护栏/安全模式
H
- Haystack - 附录 C
- Hierarchical Decomposition(层次化分解) - 第 19 章:评估与监控
- Hierarchical Structures(层次化结构) - 第 7 章:多 Agent 协作
- HITL(人机协同)- 第 13 章:人机协同
- 人机协同(HITL)- 第 13 章:人机协同
- HITL (Human-in-the-Loop)(人在环路上) - 第 13 章:人机协同
- Human-in-the-Loop (HITL)(人类监督) - 第 13 章:人机协同,第 18 章:护栏/安全模式
I
- In-Context Learning(上下文学习) - 术语表
- InMemoryMemoryService - 第 8 章:记忆管理
- InMemorySessionService - 第 8 章:记忆管理
- Input Validation/Sanitization(输入验证/清理) - 第 18 章:护栏/安全模式
- Instructions Over Constraints(指令优先于约束) - 附录 A
- Agent 间通信(A2A)- 第 15 章:Agent 间通信(A2A)
- Inter-Agent Communication (A2A)(干预与纠正) - 第 13 章:人机协同
- Intervention and Correction(IoT 设备控制) - 第 10 章:模型上下文协议(MCP)
- IoT Device Control(迭代提示/细化) - 附录 A
J
- Jailbreaking(越狱) - 第 18 章:护栏/安全模式
K
- Kahneman-Tversky Optimization (KTO)(优化()) - 术语表
- 知识检索(RAG)- 第 14 章:知识检索(RAG)
L
- LangChain - 第 1 章:提示链,第 2 章:路由,第 3 章:并行化,第 4 章:反思,第 5 章:工具使用,第 8 章:记忆管理,第 20 章:优先级排序,附录 C
- LangGraph - 第 1 章:提示链,第 2 章:路由,第 3 章:并行化,第 4 章:反思,第 5 章:工具使用,第 8 章:记忆管理,附录 C
- Latency Monitoring(延迟监控) - 第 19 章:评估与监控
- Learned Resource Allocation Policies(学习资源分配策略) - 第 16 章:资源感知优化
- Learning and Adaptation(学习与适应) - 第 9 章:学习与适应
- LLM-as-a-Judge(LLM 作为裁判) - 第 19 章:评估与监控
- LlamaIndex - 附录 C
- LoRA(低秩适应)- 术语表
- 低秩适应(LoRA)- 术语表
M
- Mamba - 术语表
- 掩码语言建模(MLM)- 术语表
- MASS(多 Agent 系统搜索)- 第 17 章:推理技术
- MCP(模型上下文协议)- 第 10 章:模型上下文协议(MCP)
- Masked Language Modeling (MLM)(记忆管理) - 第 8 章:记忆管理
- MASS (Multi-Agent System Search)(基于内存的学习) - 第 9 章:学习与适应
- MCP (Model Context Protocol) - 附录 C
- Memory Management - 附录 C
- 专家混合(MoE)- 术语表
- 模型上下文协议(MCP)- 第 10 章:模型上下文协议(MCP)
- Memory-Based Learning(模块化) - 第 18 章:护栏/安全模式
- MetaGPT(监控) - 第 11 章:目标设定与监控,第 19 章:评估与监控
- Microsoft AutoGen(多 Agent 协作) - 第 7 章:多 Agent 协作
- 多 Agent 系统搜索(MASS)- 第 17 章:推理技术
- Mixture of Experts (MoE)(多模态性) - 术语表
- Model Context Protocol (MCP)(多模态提示) - 附录 A
N
- Negative Examples(负面示例) - 附录 A
- 下一句预测(NSP)- 术语表
O
- Observability(可观察性) - 第 18 章:护栏/安全模式
- One-Shot Prompting(单样本提示) - 附录 A
- Online Learning(在线学习) - 第 9 章:学习与适应
- OpenAI Deep Research API - 第 6 章:规划
- OpenEvolve - 第 9 章:学习与适应
- OpenRouter - 第 16 章:资源感知优化
- Output Filtering/Post-processing(输出过滤/后处理) - 第 18 章:护栏/安全模式
P
- PAL(程序辅助语言模型)- 第 17 章:推理技术
- PAL (Program-Aided Language Models)(并行化) - 第 3 章:并行化
- Parallelization(并行化与分布式计算感知) - 第 16 章:资源感知优化
- 参数高效微调(PEFT)- 术语表
- PEFT(参数高效微调)- 术语表
- Parallelization & Distributed Computing Awareness(性能跟踪) - 第 19 章:评估与监控
- Parameter-Efficient Fine-Tuning (PEFT)(角色模式) - 附录 A
- PEFT (Parameter-Efficient Fine-Tuning)(个性化) - 什么使 AI 系统成为 Agent?
- Performance Tracking(规划) - 第 6 章:规划,术语表
- Persona Pattern(优先级排序) - 第 20 章:优先级排序
- Personalization(最小权限原则) - 第 18 章:护栏/安全模式
- Planning(主动资源预测) - 第 16 章:资源感知优化
- Prioritization(过程记忆) - 第 8 章:记忆管理
- 程序辅助语言模型(PAL)- 第 17 章:推理技术
- Principle of Least Privilege - 附录 B
- Proactive Resource Prediction(提示词) - 术语表
- Procedural Memory(提示链) - 第 1 章:提示链
- Program-Aided Language Models (PAL)(提示工程) - 附录 A
- 近端策略优化(PPO)- 第 9 章:学习与适应
- Project Astra(推送通知) - 第 15 章:Agent 间通信(A2A)
Q
- QLoRA - 术语表
- Quality-Focused Iterative Execution(质量导向迭代执行) - 第 19 章:评估与监控
R
- RAG(检索增强生成)- 第 8 章:内存管理,第 14 章:知识检索(RAG),附录 A
- ReAct(推理与行动)- 第 17 章:推理技术,附录 A,术语表
- RAG (Retrieval-Augmented Generation)(推理) - 第 17 章:推理技术
- ReAct (Reason and Act)(基于推理的信息提取) - 第 10 章:模型上下文协议(MCP)
- Reasoning(恢复) - 第 12 章:异常处理与恢复
- 循环神经网络(RNN)- 术语表
- Reasoning-Based Information Extraction(反思) - 第 4 章:反思
- Recovery(强化学习) - 第 9 章:学习与适应
- 基于人类反馈的强化学习(RLHF)- 术语表
- 可验证奖励的强化学习(RLVR)- 第 17 章:推理技术
- Recurrent Neural Network (RNN)(远程 Agent) - 第 15 章:Agent 间通信(A2A)
- 请求/响应(轮询)- 第 15 章:Agent 间通信(A2A)
- Reflection(资源感知优化) - 第 16 章:资源感知优化
- 检索增强生成(RAG)- 第 8 章:内存管理,第 14 章:知识检索(RAG),附录 A
- RLHF(基于人类反馈的强化学习)- 术语表
- RLVR(可验证奖励的强化学习)- 第 17 章:推理技术
- RNN(循环神经网络)- 术语表
- Reinforcement Learning(角色提示) - 附录 A
- Reinforcement Learning from Human Feedback (RLHF)(路由器 Agent) - 第 16 章:资源感知优化
- Reinforcement Learning with Verifiable Rewards (RLVR)(路由) - 第 2 章:路由
S
- Safety(安全) - 第 18 章:护栏/安全模式
- Scaling Inference Law(扩展推理法则) - 第 17 章:推理技术
- Scheduling(调度) - 第 20 章:优先级排序
- Self-Consistency(自一致性) - 附录 A
- Self-Correction(自我纠正) - 第 4 章:反思,第 17 章:推理技术
- 自我改进编码 Agent(SICA)- 第 9 章:学习与适应
- Self-Improving Coding Agent (SICA)(自我细化) - 第 17 章:推理技术
- Self-Refinement - 附录 C
- Semantic Kernel(语义记忆) - 第 8 章:记忆管理
- Semantic Memory(语义相似性) - 第 14 章:知识检索(RAG)
- Semantic Similarity(关注点分离) - 第 18 章:护栏/安全模式
- Separation of Concerns(顺序交接) - 第 7 章:多 Agent 协作
- 服务器发送事件(SSE)- 第 15 章:Agent 间通信(A2A)
- Sequential Handoffs(会话) - 第 8 章:内存管理
- SICA(自我改进编码 Agent)- 第 9 章:学习与适应
- Server-Sent Events (SSE)(SMART 目标) - 第 11 章:目标设定与监控
- Session(状态) - 第 8 章:内存管理
- SICA (Self-Improving Coding Agent)(状态回滚) - 第 12 章:异常处理与恢复
- SMART Goals(后退提示) - 附录 A
- State(流式更新) - 第 15 章:Agent 间通信(A2A)
- State Rollback(结构化日志) - 第 18 章:护栏/安全模式
- Step-Back Prompting(结构化输出) - 第 1 章:提示链,附录 A
- Streaming Updates - 附录 C
- 监督微调(SFT)- 术语表
- Structured Logging(监督学习) - 第 9 章:学习与适应
- Structured Output(系统提示) - 附录 A
T
- Task Evaluation(任务评估) - 第 20 章:优先级排序
- Text Similarity(文本相似性) - 第 14 章:知识检索(RAG)
- Token Usage(Token 使用) - 第 19 章:评估与监控
- Tool Use(工具使用) - 第 5 章:工具使用,附录 A
- Tool Use Restrictions(工具使用限制) - 第 18 章:护栏/安全模式
- ToT(思维树)- 第 17 章:推理技术,附录 A,术语表
- ToT (Tree of Thoughts) - 术语表
- 思维树(ToT)- 第 17 章:推理技术,附录 A,术语表
U
- Unsupervised Learning(无监督学习) - 第 9 章:学习与适应
- User Persona(用户角色) - 附录 A
V
- Validation(验证) - 第 3 章:并行化
- Vector Search(向量搜索) - 第 14 章:知识检索(RAG)
- VertexAiRagMemoryService - 第 8 章:内存管理
- VertexAiSessionService - 第 8 章:内存管理
- Vibe Coding(Vibe 编码) - 附录 B
- Visual Perception(视觉感知) - 附录 B
W
- Webhooks - 第 15 章:Agent 间通信(A2A)
Z
- Zero-Shot Learning(零样本学习) - 第 9 章:学习与适应
- Zero-Shot Prompting(零样本提示) - 附录 A
提示词
以下是用于创建此术语索引的提示词。
| 请阅读 https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/edit?tab=t.0 及第一页中的所有相关文档。请提取各章节的所有标题并打印出来。然后处理所有独立章节的内容,创建一个用于出版的详细索引,包含单词或短语列表(”标题”)以及指向文档或文档集合中相关有用材料位置的指针(”定位符”)。我不需要示例索引,而是要求完整的索引,包含 100 个索引术语 | | :—- |
Gemini 2.5:推理步骤
开始创建索引
我已启动索引创建流程,首先阅读了提供的 Google 文档。目前,我专注于理解用户需求:提取章节标题以构建详细索引。正在仔细审查文档内容,寻找能够标识章节分隔的清晰结构元素,期望能够识别出一致的格式模式或关键词来指导索引过程。
定义索引提取流程
现在已完全投入到此任务中。已将用户请求分解为可执行的步骤:初始阶段使用 Workspaces 访问主 Google 文档,接着解析文档以定位并检索相关文档(同样使用 Workspaces 工具),最后从所有文档中提取章节标题并创建全面索引。已规划完整的详细流程。
完善提取策略
用户指令明确:阅读 Google 文档及其相关文档,构建章节标题的详细索引。已制定多步骤计划:Workspaces 首先访问主文档,然后解析并检索相关文档,同样使用 Workspaces。当前专注于提取标题并使用所需术语构建详细索引,优先确保准确性以满足用户对综合索引的特定要求。
1. 确定用户意图
已明确用户需求:获取来自 Google 文档及相关文档的章节标题列表和综合索引。现在需要确定最有效的提取和索引方法,正在探索潜在的 API 功能来简化此任务,并评估处理不同文档结构的最佳策略。
3. 考虑工具使用
已使用正则表达式从主文档中提取了章节 URL。现在准备利用 Workspaces 检索各章节的实际内容。一旦获得各章节文本,将立即开始索引工作。
访问章节内容
已成功从主文档中识别出各章节 URL,现在可使用 Workspaces。下一步是从这些 URL 检索内容,以便生成索引。专注于效率优化,旨在快速处理这些信息。
获取章节内容
已成功从主文档中识别出章节 URL,准备使用 Workspaces。计划包括提取这些 URL、批量处理调用以提高效率,然后处理检索内容以创建所需索引。这确保捕获所有相关信息,为全面准确的结果奠定基础。
启动 URL 检索
现已成功从主文档中提取章节 URL。目前正在设置对 Workspaces 工具的调用,准备获取各章节内容。目标是获取索引所需的文本内容,进而促进创建包含至少 100 个术语的索引。
启动章节提取
已成功从主文档中识别并提取章节 URL(如上所列)。现在继续为每个 URL 使用 Workspaces 以获取章节内容。目标是获取索引所需的文本,进而促进创建包含至少 100 个术语的索引。已开始检索相关信息。
编排章节检索
已提取章节 URL 并发起对 Workspaces 的调用。目前正在检索各章节内容。为确保流程顺畅,正在进行批量调用处理以防止速率限制问题。这应能高效编译索引所需文本。
解码用户请求
已明确用户需求:两个主要交付成果——从 Google 文档提取的章节标题综合列表,以及包含至少一百个关键术语的详细索引。提取标题的过程相对直接,而策划索引则需要更细致的分析工作。
提取标题和索引
已成功识别用户需求:从提供文档中提取章节标题并编制综合索引。已获取 31 个 Google 文档的内容,包括主文档及其各章节。确认无需额外工具。计划包含两个步骤:首先从文档文件名中提取章节标题,其次精心处理文本内容,使用关键术语和章节定位符构建索引。
制定提取计划
已完善处理用户请求的方法。现制定精确计划:首先从 31 个已获取文档的文件名中编制章节标题,其次(更复杂的部分)精心分析内容以创建超过 100 个条目的综合、按字母顺序排列的索引。已最终确定提取和索引策略,现在可以开始执行。
制定提取策略
方法已明确定义:从 31 个已获取文档的文件名中编制章节标题,随后精心分析内容以构建按字母顺序组织、超过 100 个条目的索引。已最终确定提取和索引策略,现在可以开始实施。用户获取详细索引的目标——涵盖 Agentic 设计模式系列中各个章节和附录的内容——现已触手可及。将专注于提供全面响应,超越简单的示例索引。
定义方法
已明确用户需求:从文档文件名中提取章节标题,随后精心创建超过 100 个条目的索引,按字母顺序排列并注明章节位置。准备开始索引和提取过程。