2026年被业界普遍定义为“智能体(Agent)元年”-4。当大语言模型(Large Language Model, LLM)从“聊天机器人”进化为具备感知、决策和行动能力的“数字员工”,一场从被动问答到主动执行的范式革命已经全面开启。AI助手礼包本文将围绕LLM与Agent的本质差异、ReAct驱动引擎、Spring AI Alibaba框架以及MCP协议等关键技术,为读者搭建从入门到进阶的完整知识链路。
一、痛点切入:只会用ChatGPT,答不出Agent面试题

先看一段对话:
传统方式:手动硬编码调用APIdef get_weather(): response = requests.get("https://api.weather.com/beijing") return response.json()["temperature"] def check_air_quality(): response = requests.get("https://api.air.com/beijing") return response.json()["aqi"] 问天气就调天气接口,问空气就调空气接口 问题:无法串联多步任务,无法自主决策,每个需求都得单独写代码
上述代码暴露了传统开发的核心痛点:
耦合度高:每增加一个需求,就需要新增一个接口调用逻辑
扩展性差:当任务需要“查天气→订机票→推荐酒店”的多步串联时,脚本难以灵活应对
无自主决策:脚本只能机械执行预设指令,无法像人一样“想一想再做”
这正是智能体技术诞生的必要性所在——让AI不再是“被动的答案输出器”,而是“主动的任务执行者”。
二、核心概念A:AI Agent(智能体)
AI Agent(Artificial Intelligence Agent,人工智能智能体) 是一个能够自主感知环境、独立制定计划、调用工具执行行动,并在结果反馈中动态调整策略的AI系统-1。
四个核心模块(图:AI Agent底层技术架构):
感知模块:采集多源信息并结构化处理
大脑模块:以大语言模型为核心,理解意图并拆解任务
行动模块:调用工具(API、引擎、数据库、代码执行器等)执行操作
记忆模块:通过短期与长期记忆优化服务-2
这四大模块共同构建起 “感知→决策→行动→记忆” 的完整认知闭环-2。
一个形象的类比:大模型是“大脑”,AI助手是“会说话的大脑”,而智能体是一个“会行动、会协作、会学习的数字员工”-1。
AI Agent vs LLM vs AI 助手的本质区别:
| 形态 | 能力边界 | 交互模式 | 典型代表 |
|---|---|---|---|
| LLM | 被动输出文本,无记忆、不行动 | 人问 → AI答 | GPT、DeepSeek |
| AI 助手 | 多轮对话 + 上下文记忆,但止步于文字回应 | 人问 → AI答(可连续对话) | ChatGPT、豆包 |
| AI Agent | 自主拆解任务、调用工具、执行行动、修正策略 | 目标输入 → AI自主执行闭环 | 智能体 |
一句话记住:大模型是能力底座,AI助手是交互入口,智能体是把能力转化为生产力的执行形态-1。
三、核心概念B:ReAct(推理与行动框架)
ReAct(Reasoning and Acting,推理与行动) 是一种为LLM设计的提示范式,使模型能够通过交替进行言语推理和与外部环境互动的行动来解决复杂任务-11。
ReAct由Google Research和普林斯顿大学于2022年提出,其核心创新在于将思维链(Chain-of-Thought, CoT) 的逻辑推理与执行外部行动相结合,让模型能够动态调整计划并核查事实-11。
ReAct与Agent的关系
ReAct是实现Agent思考与行动能力的具体框架。如果说Agent是一个“能自主做事的AI系统”,那么ReAct就是这个系统内部的“思考-行动循环引擎”——它规定了Agent每一步该怎么做。
ReAct智能体运作基于一个三步迭代循环-13:
| 步骤 | 说明 | 作用 |
|---|---|---|
| 推理(Thought) | LLM分析任务状态,制定下一步行动计划 | 决定“下一步做什么” |
| 行动(Action) | 调用外部工具执行操作(API、、代码等) | 将想法转化为行动 |
| 观察(Observation) | 获取行动结果,判断是否完成或进入下一轮 | 获取反馈、自我修正 |
ReAct执行流程示例
假设任务:“帮我查一下今天北京的天气,如果下雨就提醒我带伞”
Thought 1: 我需要获取北京今天的天气信息 Action 1: SearchWeather[北京, 今天] Observation 1: 北京今天多云转晴,气温18-28℃,无降水 Thought 2: 无降水,不需要提醒带伞 Final Answer: 北京今天天气晴好,无需带伞
ReAct之前的局限
在ReAct出现前,LLM解决复杂任务主要存在两种方法-11:
| 方法 | 做法 | 缺陷 |
|---|---|---|
| 思维链(CoT) | 模型生成逐步推理,但仅依赖内部知识 | 信息真空,容易产生“幻觉” |
| 仅行动规划(Act-Only) | 模型生成行动序列,但缺乏高层规划 | 无推理支撑,遇错难调整 |
ReAct将两者结合,既让模型“有思考”也“能行动”。
一句话对比
ReAct = “边想边做”的循环模式(推理→行动→观察→推理→……)
Agent = 一个完整的AI系统(其核心就是运行ReAct模式)
四、概念关系总结
一句话高度概括:
Agent是“谁”(具备自主行动能力的AI系统),ReAct是“怎么做”(驱动Agent思考与行动的循环引擎)。
| 对比维度 | AI Agent | ReAct |
|---|---|---|
| 本质 | 一个完整的智能系统 | 系统内部的工作框架/模式 |
| 作用 | 定义系统该有什么能力 | 定义系统该如何运作 |
| 类比 | 一个“数字员工” | 这个员工“先想再做”的工作习惯 |
| 依赖关系 | Agent的实现离不开ReAct等框架 | ReAct是为Agent服务的具体方法论 |
五、代码示例:Spring AI Alibaba + ReAct Agent实战
Spring AI是Spring官方社区维护的开源框架,于2025年5月正式发布1.0 GA版本,提供AI能力构建的底层原子能力以及与Spring Boot生态的无缝集成-22。
Spring AI Alibaba是阿里巴巴基于Spring AI构建的企业级AI应用开发框架,原生支持阿里云通义大模型系列-23。2026年初发布的1.1.2.0版本带来了Agent Skills支持与多智能体并行执行等核心能力-21。
极简示例:三步集成AI能力
第1步:添加依赖(pom.xml)
<parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>3.5.0</version> </parent> <dependencyManagement> <dependencies> <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-bom</artifactId> <version>1.0.0</version> <type>pom</type> <scope>import</scope> </dependency> </dependencies> </dependencyManagement> <dependencies> <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-starter-model-openai</artifactId> </dependency> </dependencies>
第2步:配置API凭证(application.yml)
spring: ai: openai: api-key: ${DEEPSEEK_API_KEY} base-url: https://api.deepseek.com chat: options: model: deepseek-chat
第3步:编写调用代码
@Service public class AgentService { private final ChatClient chatClient; // 定义工具函数(Agent的行动能力来源) @Tool(name = "get_weather", description = "获取指定城市的天气信息") public String getWeather(@ToolParam(description = "城市名称") String city) { // 实际逻辑:调用天气API return "晴,25℃"; } public String ask(String question) { // 启用工具调用功能——Agent由此获得“行动”能力 return chatClient.prompt(question) .tools(this) .call() .content(); } }
新旧实现方式对比
| 对比维度 | 传统硬编码实现 | Spring AI Agent实现 |
|---|---|---|
| 任务类型 | 每个任务单独写代码 | 自然语言描述,Agent自主拆解 |
| 工具调用 | 手动调用API,硬编码参数 | @Tool注解自动注册,LLM自主决策调用 |
| 扩展性 | 新增工具需重写逻辑 | 新增@Tool方法即可,无需改调用代码 |
| 自主决策 | 无,按预设流程执行 | 有,基于ReAct模式自主规划步骤 |
执行流程解析
用户输入:"帮我看看北京明天天气如何?" ↓ 1. LLM接收输入,进行推理(Thought):需要调用get_weather工具 ↓ 2. Agent执行Action:自动调用get_weather("北京")工具 ↓ 3. 获取Observation:"晴,25℃" ↓ 4. 最终输出:"北京明天天气晴朗,最高温度25℃"
从配置到运行,Agent基于ReAct模式完成了 “思考→行动→观察→输出” 的完整闭环。
六、底层原理支撑
Agent能力的底层依赖两大关键技术:
1. 反射/动态代理
Spring AI的@Tool注解机制通过反射动态注册工具方法,让LLM能够“发现”可调用的函数。框架通过Java反射API扫描带有@Tool注解的方法,将其元信息(函数名、参数描述等)以JSON Schema格式提供给模型,模型再返回结构化调用指令,由框架通过反射执行对应方法。
2. 函数调用(Function Calling)
大语言模型本身不具备执行代码的能力,但可以通过Function Calling机制输出结构化的工具调用请求(包含工具名称和参数),由应用程序解析并执行,最后将执行结果反馈给模型继续推理。Spring AI的ChatClient完整封装了这一交互流程。
3. MCP协议(Model Context Protocol)
MCP(模型上下文协议) 由Anthropic公司提出,是一个开放的标准化协议,用于在大语言模型与外部工具和数据源之间建立统一接口-。MCP标准了主机如何发现工具、资源和提示,通过JSON-RPC实现,支持本地STDIO和远程HTTP+SSE两种传输方式-44。
MCP解决了传统的 N个模型 × M个工具 的集成爆炸问题,让AI模型能够以统一的方式发现和调用各种外部工具-。Spring AI Alibaba已原生支持MCP协议,并提供Nacos MCP Registry实现企业级的分布式工具注册与发现-22。
LangChain与Spring AI的关系定位
| 维度 | LangChain | Spring AI | Spring AI Alibaba |
|---|---|---|---|
| 语言生态 | Python为主 | Java/Spring | Java/Spring |
| 定位 | 快速构建LLM应用的标准化框架 | Spring官方AI基础框架 | 国产企业级AI框架 |
| 框架绑定 | 框架无关 | 强绑定Spring生态 | 强绑定Spring+阿里云 |
| 特点 | 灵活但学习曲线高 | 平滑集成,适合已有Spring团队 | 国内大模型适配+企业级能力 |
一句话总结:LangChain以Python为主、灵活性最强,Spring AI以Java/Spring集成见长,Spring AI Alibaba则在前者基础上补充了国内大模型适配和企业级能力-23。
七、高频面试题(附标准答案)
1. LLM和Agent有什么区别?
答案要点:
LLM(大语言模型)是一个“超级语言引擎”,它能够根据输入文本预测输出文本,本质是被动的、没有记忆、不会主动行动。Agent(智能体)则是一个完整的智能系统,它在LLM的基础上增加了感知、计划、行动和记忆四大模块,能够自主完成任务闭环-1。
💡 记忆口诀:LLM是“大脑”,Agent是“会动的大脑”-1。
2. ReAct模式的核心原理是什么?
答案要点:
ReAct(推理与行动)的核心是 “思考—行动—观察” 的三步循环。模型首先进行内部推理(Thought)制定计划,然后执行外部行动(Action)调用工具,最后观察结果(Observation)进入下一轮推理,循环迭代直至任务完成-13。它解决了传统CoT缺乏外部交互、仅行动模式缺乏高层规划的缺陷。
3. Spring AI和Spring AI Alibaba是什么关系?
答案要点:
Spring AI是Spring官方团队出品的AI基础框架,提供与Spring Boot生态无缝集成的底层能力抽象。Spring AI Alibaba是阿里巴巴基于Spring AI构建的上层企业级框架,关系类似于Spring Cloud Alibaba与Spring Cloud——在通用工具箱基础上补充了国内大模型适配(通义千问等)和企业级能力(百炼平台集成、MCP注册发现等)-23。
4. MCP协议解决了什么问题?
答案要点:
MCP(模型上下文协议)解决了 N个模型×M个工具 的集成爆炸问题。在没有MCP的情况下,每个AI模型都需要为每个外部工具编写专属的连接代码。MCP通过标准化模型与外部系统之间的接口,让模型能够以统一的方式发现、选择和调用工具,大幅降低了集成的复杂度和维护成本-44。
八、结尾总结
本文系统梳理了AI Agent的核心知识链路:
| 层级 | 内容 | 关键词 |
|---|---|---|
| 概念层 | AI Agent的定义与四大模块 | 感知→决策→行动→记忆 |
| 框架层 | ReAct“思考—行动—观察”循环 | Thought → Action → Observation |
| 实现层 | Spring AI / Spring AI Alibaba | @Tool注解、Function Calling |
| 协议层 | MCP标准化解N×M集成问题 | 统一接口、工具发现 |
重点易错点提醒:
❌ 不要把LLM等同于Agent(LLM只是Agent的“大脑”模块之一)
❌ 不要把ReAct理解为唯一Agent模式(还有Plan-and-Execute、Reflection等模式)
✅ 记住三层结构:Agent(系统)→ ReAct(框架)→ @Tool/MCP(实现细节)
下篇预告:多智能体系统的编排与协作——当多个Agent组成“数字团队”协同完成复杂任务时,如何设计调度策略、如何管理通信协议、如何避免资源冲突?欢迎持续关注。

扫一扫微信交流