智构学堂人工智能应用工程
返回路线

人工智能(AI)智能体(Agent)工程化与安全执行

智能体(Agent)执行循环:计划、行动、观察与修正

35 分钟 · 挑战 · 公开章节

公开章节可直接阅读。登录后可同步阅读进度、保存笔记与高亮、完成章节测验。

学习目标

  • 理解智能体不等于自由聊天,而是受约束的执行循环。
  • 能设计 plan、act、observe、revise 四类状态。
  • 能给执行循环设置最大步数、状态记录和终止条件。

核心概念

智能体(Agent)的核心不是“模型自己想办法”,而是系统允许模型在限定范围内多轮决策。一次循环通常包含:生成计划、选择动作、调用工具、读取观察结果、修正下一步,直到完成、失败或进入人工处理。

和普通工作流相比,智能体的下一步可以根据 observation 动态调整。这个能力适合路径不确定的任务,例如排查故障、整理复杂资料、选择下一条检索策略。但动态性越强,越需要明确预算、权限、日志和停止条件。

一个受控智能体至少要保存当前 goal、plan、step_index、tool_calls、observations、status 和 stop_reason。没有这些状态,失败后就无法复现,也无法知道模型为什么做出某个动作。

示例与拆解

一个最小执行状态可以这样设计:

1{ 2 "run_id": "run_20260502_001", 3 "goal": "检查课程项目提交是否满足要求", 4 "status": "running", 5 "max_steps": 6, 6 "steps": [ 7 { 8 "index": 1, 9 "thought": "先读取提交说明和项目要求", 10 "action": "read_project_submission", 11 "action_input": {"project_slug": "ai-knowledge-assistant"}, 12 "observation": "提交包含运行说明、5 条评测记录和截图", 13 "status": "completed" 14 }

执行器不需要保存模型的完整思维过程,但必须保存可审计的决策摘要、工具名、参数、结果和状态。这样既能排查问题,也能控制敏感信息暴露。

常见误区

  • 误区一:把聊天循环叫智能体。没有工具、状态和停止条件,只是多轮对话。
  • 误区二:让模型自己决定是否结束。结束条件应该由执行器判断,模型只能提出建议。
  • 误区三:失败后只看最终回答。智能体的错误常常发生在中间工具选择或 observation 解释阶段。

小练习

选择一个你熟悉的任务,例如“审查一份项目提交”或“整理一批客户反馈”。写出它的 goal、最多 5 个执行步骤、每步允许的工具,以及 3 个停止条件。

实操检查点

完成一个 agent_run_state.json,至少包含 run_id、goal、max_steps、steps、status 和 stop_reason。

1{ 2 "run_id": "run_local_demo", 3 "goal": "审查项目提交材料", 4 "max_steps": 5, 5 "steps": [], 6 "status": "pending", 7 "stop_reason": null 8}

检查标准:任何一次运行结束后,都能从状态文件复盘每一步做了什么、用了哪个工具、为什么停止。

随堂测验

完成本章测验时,重点判断一个系统是否真的具备智能体执行循环,而不是只把多轮提示词包装成自动化。

本章总结

智能体工程化的第一步是把不确定任务变成可记录、可停止、可复盘的执行循环。模型可以参与计划和动作选择,但执行器必须掌握状态、工具调用和终止条件。

下一步学习指引

下一章学习工具权限、沙箱执行和副作用控制。执行循环能跑之后,必须限制它能调用什么、能改什么、哪些动作必须人工确认。