第 9 章:学习和适应

学习和适应能力对于提升人工智能智能体的能力至关重要。这些过程让智能体能够突破预设参数的限制,通过经验和环境交互实现自主提升。借助学习和适应,智能体无需持续的人工干预,就能有效应对新情况并优化自身表现。本章将深入探讨支撑智能体学习和适应的原理与机制。

全局视野

智能体通过基于新经验和数据改变思维方式、行动或知识来实现学习和适应。这让智能体从单纯遵循指令,逐步演变为随时间推移变得更加智能的系统。

智能体通过基于学习结果改变策略、认知或目标来实现适应。这对于在不可预测、不断变化或全新环境中运行的智能体至关重要。

近端策略优化(PPO) 是一种强化学习算法,用于在动作范围连续的环境中训练智能体,例如控制机器人关节或游戏角色。其主要目标是可靠且稳定地改进智能体的决策策略(即策略)。

PPO 的核心思想是对智能体的策略进行小幅、谨慎的更新,避免可能导致性能崩溃的剧烈变化。其工作流程如下:

  1. 收集数据: 智能体使用当前策略与环境交互(例如玩游戏),收集一批经验数据(状态、动作、奖励)。
  2. 评估替代目标(Surrogate Goal): PPO 计算策略更新对预期奖励的影响,但它不只是单纯最大化奖励,而是使用一个特殊的”裁剪”目标函数。
  3. 裁剪机制: 这是 PPO 稳定性的关键。它在当前策略周围创建一个”信任区域”或安全区,阻止算法进行与当前策略差异过大的更新。这种裁剪机制就像一个安全刹车,确保智能体不会采取巨大而有风险的步骤,避免破坏已经学到的知识。

简而言之,PPO 在提升性能与保持接近已知有效策略之间取得平衡,这可以防止训练期间的灾难性故障,实现更稳定的学习过程。

直接偏好优化(DPO) 是一种专门为使大语言模型与人类偏好保持一致而设计的更新方法。它为这项任务提供了比使用 PPO 更简单、更直接的替代方案。

要理解 DPO,先了解传统的基于 PPO 的对齐方法会有所帮助:

这个两步过程可能既复杂又不稳定。例如,LLM 可能会找到漏洞,学会”破解”奖励模型,为质量较差的响应获得高分。

本质上,DPO 通过直接在人类偏好数据上优化语言模型来简化对齐过程。这避免了训练和使用单独奖励模型的复杂性和潜在不稳定性,使对齐过程更高效、更稳健。

实际应用与用例

自适应智能体通过经验数据驱动的迭代更新,在多变环境中表现出更强的性能。

案例研究:自我改进编码智能体(SICA)

自我改进编码智能体(SICA)由 Maxime Robeyns、Laurence Aitchison 和 Martin Szummer 开发,代表了基于智能体学习的重要进展,展示了智能体修改自身源代码的能力。这与传统方法形成鲜明对比——在传统方法中,一个智能体可能训练另一个智能体;而 SICA 既是修改者又是被修改的实体,通过迭代方式改进其代码库,以提升在各种编码挑战中的性能。

SICA 的自我改进通过一个迭代循环实现(见图1)。首先,SICA 审查其历史版本档案及其在基准测试中的表现,选择基于成功率、时间和计算成本的加权公式计算出的性能得分最高的版本。这个选定版本然后进行下一轮自我修改:它分析档案以识别潜在改进点,然后直接修改代码库。修改后的智能体随后接受基准测试,结果记录在档案中。这个过程不断重复,促进直接从过去表现中学习。这种自我改进机制让 SICA 无需传统训练范式就能进化其能力。

图 1:SICA 的自我改进过程,基于其过去版本进行学习和适应

SICA 经历了显著的自我改进,在代码编辑和导航方面取得了重要进展。最初,SICA 使用基本的文件覆盖方法进行代码更改。随后,它开发了能够进行更智能和上下文相关编辑的”智能编辑器”。这进一步演变为”差异增强智能编辑器”,结合差异进行有针对性的修改和基于模式的编辑,以及”快速覆盖工具”以减少处理需求。

SICA 进一步实现了”最小差异输出优化”和”上下文敏感差异最小化”,使用抽象语法树(AST)解析来提高效率。此外,还添加了”智能编辑器输入规范化器”。在导航方面,SICA 独立创建了”AST 符号定位器”,使用代码的结构图(AST)来识别代码库中的定义。后来,开发了”混合符号定位器”,将快速搜索与 AST 检查相结合。这通过”混合符号定位器中的优化 AST 解析”进一步优化,专注于相关代码部分,提高搜索速度(见图2)。

图 2:跨迭代的性能表现。关键改进用其相应的工具或智能体修改进行标注。(由 Maxime Robeyns、Martin Szummer、Laurence Aitchison 提供)

SICA 的架构包括用于基本文件操作、命令执行和算术计算的基础工具包。它包含结果提交机制和调用专门子智能体(编码、问题解决和推理)的功能。这些子智能体负责分解复杂任务并管理 LLM 的上下文长度,特别是在扩展改进周期期间。

一个异步监督者(另一个 LLM)监控 SICA 的行为,识别潜在问题,如循环或停滞。它与 SICA 进行通信,必要时可以介入以停止执行。监督者接收 SICA 行动的详细报告,包括调用图和消息及工具操作日志,以识别模式和低效率。

SICA 的 LLM 在其上下文窗口(其短期记忆)中以对其操作至关重要的结构化方式组织信息。此结构包括定义智能体目标的系统提示词、工具和子智能体文档以及系统指令。核心提示词包含问题陈述或指令、打开文件的内容和目录映射。助手消息记录智能体的逐步推理、工具和子智能体调用记录及结果以及监督者通信。这种组织方式促进了高效的信息流动,增强了 LLM 操作并减少了处理时间和成本。最初,文件更改记录为差异,仅显示修改内容并定期合并。

SICA:代码深度解析: 深入研究 SICA 的实现揭示了支撑其能力的几个关键设计选择。如前所述,该系统采用模块化架构构建,包含多个子智能体,如编码智能体、问题解决智能体和推理智能体。这些子智能体由主智能体调用,类似于工具调用,用于分解复杂任务并有效管理上下文长度,特别是在这些扩展的元改进迭代期间。

该项目正在积极开发中,旨在为对 LLM 工具使用及其他智能体任务进行后训练感兴趣的人提供一个强大框架,完整代码可在 GitHub 存储库 进一步探索和贡献。

出于安全考虑,该项目强烈强调 Docker 容器化,这意味着智能体在专用 Docker 容器内运行。这是一个关键措施,因为它提供了与主机的隔离,鉴于智能体执行 shell 命令的能力,这减轻了意外文件系统操作等风险。

为确保透明度和控制,系统通过可视化事件总线上的事件和智能体调用图的交互式网页提供强大的可观察性。这提供了对智能体行动的全面洞察,允许用户检查单个事件、阅读监督者消息并折叠子智能体跟踪以获得更清晰的理解。

就其核心智能而言,智能体框架支持来自各种提供商的 LLM 集成,使用户能够尝试不同的模型以找到特定任务的最佳匹配。最后,一个关键组件是异步监督者,这是一个与主智能体并发运行的 LLM。此监督者定期评估智能体的行为是否存在病理性偏差或停滞,必要时可以通过发送通知甚至取消智能体的执行来介入。它接收系统状态的详细文本表示,包括调用图和 LLM 消息、工具调用和响应的事件流,这使它能够检测低效模式或重复工作。

初始 SICA 实现中的一个显著挑战是提示基于 LLM 的智能体在每次元改进迭代期间独立提出新颖、创新、可行且引人入胜的修改。这一限制,特别是在培养 LLM 智能体的开放式学习和真正创造力方面,仍然是当前研究的关键领域。

AlphaEvolve 和 OpenEvolve

AlphaEvolve 是 Google 开发的一个 AI 智能体,旨在发现和优化算法。它利用 LLM 的组合,特别是 Gemini 模型(Flash 和 Pro)、自动化评估系统和进化算法框架。该系统旨在推动理论数学和实际计算应用的发展。

AlphaEvolve 采用 Gemini 模型的集合。Flash 用于生成广泛的初始算法提案,而 Pro 提供更深入的分析和改进。然后根据预定义标准自动评估和评分提出的算法。此评估提供用于迭代改进解决方案的反馈,从而产生优化和新颖的算法。

在实际计算中,AlphaEvolve 已部署在 Google 的基础设施中。它在数据中心调度方面展示了改进,导致全球计算资源使用减少 0.7%。它还通过为即将推出的张量处理单元(TPU)的 Verilog 代码提出优化建议来促进硬件设计。此外,AlphaEvolve 加速了 AI 性能,包括 Gemini 架构核心内核的 23% 速度提升以及 FlashAttention 的低级 GPU 指令的最高 32.5% 优化。

在基础研究领域,AlphaEvolve 为矩阵乘法新算法的发现做出了贡献,包括使用 48 次标量乘法的 4x4 复数值矩阵方法,超过了先前已知的解决方案。在更广泛的数学研究中,它在 75% 的情况下重新发现了超过 50 个开放问题的现有最先进解决方案,并在 20% 的情况下改进了现有解决方案,例子包括接吻数问题的进步。

OpenEvolve 是一个利用大语言模型(见图3)迭代优化代码的进化编码智能体。它编排 LLM 驱动的代码生成、评估和选择流水线,持续为广泛任务增强程序。OpenEvolve 的一个关键方面是它能够进化完整代码文件,而不仅限于单个函数。该智能体设计为多功能,支持多种编程语言,并与任何 LLM 的 OpenAI 兼容 API 兼容。此外,它整合了多目标优化,允许灵活的提示工程,并能够进行分布式评估以高效处理复杂的编码挑战。

图 3:OpenEvolve 内部架构由控制器管理。该控制器编排几个关键组件:程序采样器、程序数据库、评估器池和 LLM 集合。其主要功能是促进它们的学习和适应过程以提高代码质量。

此代码片段使用 OpenEvolve 库对程序执行进化优化。它使用初始程序、评估文件和配置文件的路径初始化 OpenEvolve 系统。evolve.run(iterations=1000) 行启动进化过程,运行 1000 次迭代以找到程序的改进版本。最后,它打印在进化过程中找到的最佳程序的指标,格式化为四位小数。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
from openevolve import OpenEvolve

## 初始化系统
evolve = OpenEvolve(
    initial_program_path="path/to/initial_program.py",
    evaluation_file="path/to/evaluator.py",
    config_path="path/to/config.yaml"
)

## 运行进化
best_program = await evolve.run(iterations=1000)

print(f"最佳程序指标:")
for name, value in best_program.metrics.items():
    print(f"  {name}: {value:.4f}")

概览

是什么: AI 智能体通常在动态且不可预测的环境中运行,在这些环境中预编程逻辑是不够的。当面对初始设计期间未预料到的新情况时,它们的性能可能会下降。没有从经验中学习的能力,智能体无法随时间优化其策略或个性化其交互。这种刚性限制了它们的有效性,并阻止它们在复杂的现实世界场景中实现真正的自主性。

为什么: 标准化解决方案是集成学习和适应机制,将静态智能体转变为动态的、演化的系统。这使智能体能够基于新数据和交互自主改进其知识和行为。智能体系统可以使用各种方法,从强化学习到更高级的技术,如自我改进编码智能体(SICA)中所见的自我修改。像 Google 的 AlphaEvolve 这样的高级系统利用 LLM 和进化算法来发现全新的、更高效的复杂问题解决方案。通过持续学习,智能体可以掌握新任务、增强其性能并适应变化的条件,而无需持续的手动重新编程。

经验法则: 在构建必须在动态、不确定或演化环境中运行的智能体时使用此模式。它对于需要个性化、持续性能改进以及自主处理新情况的能力的应用至关重要。

可视化摘要

图 4:学习和适应模式

关键要点

结论

本章探讨了学习和适应在人工智能中的关键作用。AI 智能体通过持续的数据获取和经验来增强其性能。自我改进编码智能体(SICA)通过代码修改自主改进其能力,很好地例证了这一点。

我们已经回顾了智能体 AI 的基本组成部分,包括架构、应用、规划、多智能体协作、记忆管理以及学习和适应。学习原理对于多智能体系统的协调改进特别重要。要实现这一点,调优数据必须准确反映完整的交互轨迹,捕获每个参与智能体的输入和输出。

这些元素促成了重大进展,如 Google 的 AlphaEvolve。这个 AI 系统通过 LLM、自动化评估和进化方法独立发现和改进算法,推动科学研究和计算技术的进步。这些模式可以组合起来构建复杂的 AI 系统。像 AlphaEvolve 这样的发展表明,AI 智能体自主算法发现和优化是可以实现的。

参考文献

  1. Sutton, R. S., & Barto, A. G. (2018). Reinforcement Learning: An Introduction. MIT Press.
  2. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
  3. Mitchell, T. M. (1997). Machine Learning. McGraw-Hill.
  4. Proximal Policy Optimization Algorithms by John Schulman, Filip Wolski, Prafulla Dhariwal, Alec Radford, and Oleg Klimov. You can find it on arXiv: https://arxiv.org/abs/1707.06347
  5. Robeyns, M., Aitchison, L., & Szummer, M. (2025). A Self-Improving Coding Agent. arXiv:2504.15228v2. https://arxiv.org/pdf/2504.15228 https://github.com/MaximeRobeyns/self_improving_coding_agent
  6. AlphaEvolve blog, https://deepmind.google/discover/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/
  7. OpenEvolve, https://github.com/codelion/openevolve