从「会回答问题」到「能完成任务」
——学习吴恩达 Agentic AI 课程的一些思考与体会
最近在系统学习吴恩达老师的 Agentic AI 课程。在此之前,我对大语言模型(LLM)的理解,更多停留在“更聪明的问答系统”“更强的 Copilot”这一层面。但随着课程的深入,我逐渐意识到:
Agentic AI 并不是在让模型“更聪明”,而是在让 AI “更像一个能做事的个体”。
这次学习,重新塑造了我对 AI 能力边界、工程形态以及未来软件形态的认知。
一、什么是 Agentic AI:不只是模型,而是“能行动的系统”
在传统的 LLM 使用方式中,AI 通常是一个被动响应者:
人提问 → 模型生成文本 → 结束
而 Agentic AI 的核心变化在于:
AI 不再只是“生成答案”,而是被赋予目标、记忆、工具和决策能力,从而能够持续推进一个任务。
从课程中的定义与示例来看,一个 Agent 通常具备几个关键特征:
有明确目标(Goal-driven)
不只是回答问题,而是为了“完成某件事”。具备规划与分解能力
能将复杂目标拆解为多个子任务,并决定执行顺序。可以调用工具(Tool Use)
如搜索、代码执行、API 调用、文件操作等。拥有记忆(Memory)
能记住中间结果、历史状态,而不是每次都“失忆”。可以自我反思与修正
当执行失败时,能调整策略而不是直接终止。
这让我意识到:
Agentic AI 更像是在构建“AI 工作者”,而不仅是“AI 聊天对象”。
二、为什么要使用代理式工作流:突破单次推理的天花板
课程中反复强调一个观点:
单次 Prompt + 单次输出,本质上限制了 AI 的能力上限。
很多复杂任务的问题并不在于“模型不够聪明”,而在于:
- 任务本身需要 多步决策
- 需要 反复尝试
- 需要 跨工具协作
- 需要 状态管理
例如:
- 写一个真实可用的系统设计文档
- 完成一个从需求分析到代码生成再到测试的流程
- 做一次复杂的数据分析并产出结论
这些任务,天然不是“一次生成”可以完成的。
代理式工作流(Agentic Workflow)带来的本质变化是:
把 AI 的工作方式,从「一次性输出」,升级为「持续推进任务的过程」。
这在工程上非常关键,因为它意味着:
- AI 可以像人一样边做边想
- 可以接受中途反馈
- 可以在失败后重新规划
- 可以在复杂系统中承担“中间角色”
三、从“Prompt Engineering”到“System Engineering”
在学习 Agentic AI 之前,我更多关注的是:
- Prompt 怎么写得更好
- 如何约束输出格式
- 如何减少幻觉
但这门课程让我明显感受到一个转变:
Agentic AI 的核心已经不再是“写 Prompt”,而是“设计系统”。
需要思考的问题变成了:
- Agent 的职责边界是什么?
- 是单 Agent 还是多 Agent 协作?
- 每一步是否需要人类介入(Human-in-the-loop)?
- 哪些任务交给 AI,哪些必须由程序或人完成?
- 失败时如何兜底?
这让我联想到传统软件工程中的一些概念:
| 传统软件工程 | Agentic AI |
|---|---|
| 模块划分 | Agent 职责拆分 |
| 状态机 | Agent 状态管理 |
| 异常处理 | Agent 自我修正 |
| 工作流引擎 | Agentic Workflow |
AI 不再是“外挂能力”,而是系统中的一等公民。
四、对个人学习与工程实践的启发
这门课给我的最大启发,并不是某一个具体框架或工具,而是思维方式的转变:
- 不要急着问“AI 能不能做”,而是先问“这个任务是否适合 Agent”
- 复杂任务,先拆工作流,再考虑模型能力
- 工程价值 > 模型参数大小
- 真正有价值的是“让 AI 把事做完”,而不是“生成得多像人”
作为一个偏 Web / 系统方向的学习者,这让我开始重新思考:
- AI 是否可以作为“测试工程师 Agent”
- 是否可以构建“需求分析 Agent + 代码生成 Agent + Review Agent”的协作模式
- 如何让 AI 真正融入现有工程体系,而不是只做 Demo
五、结语:Agentic AI 可能是下一代软件的重要形态
Agentic AI 并不是一个“炫技概念”,它更像是:
当 LLM 能力达到一定阈值后,工程范式的必然升级。
从“工具”到“协作者”,
从“函数调用”到“目标驱动系统”,
从“人主导、AI 辅助”到“人监督、AI 执行”。
这门课让我更加确信:
未来真正有竞争力的,不是“会用 AI 的人”,而是“会设计 AI 工作方式的人”。
而 Agentic AI,正是这个方向上非常重要的一步。