DeerFlow深度解析:字节跳动开源的超级智能体运行时框架,重新定义AI Agent开发范式
引言:AI Agent的工程化拐点
2026年,AI Agent技术迎来关键转折——从实验室走向生产环境。然而,真正可用的Agent系统依然稀缺:大多数项目停留在"问答"阶段,能执行的少之又少。
2月28日,字节跳动开源DeerFlow 2.0,短短30天内斩获近4.9万Star,登顶GitHub Trending榜首。这个数字背后,是开发者对"真正能干活"的Agent系统的渴望。
DeerFlow全称Deep Exploration and Efficient Research Flow,定位为long-horizon SuperAgent——专注于解决复杂长时任务的自主执行问题。与市面上大多数"玩具级"Agent不同,DeerFlow可以在数小时甚至数天内自主规划、执行、反思复杂任务。
本文将从架构设计、核心技术、代码实战三个维度,深度解析DeerFlow的技术内涵与工程价值。
一、核心定位:从"对话工具"到"执行系统"
1.1 传统Agent的困境
传统的AI Agent通常遵循一个简单模式:
用户提问 → LLM推理 → 生成回答
这种模式存在几个根本性问题:
无法执行复杂任务:当任务涉及多步骤、多工具、多数据源时,单轮对话无法覆盖。
缺乏持久化能力:每次对话都是独立的,无法积累经验、记忆上下文。
安全性堪忧:让LLM直接执行代码或访问外部系统,存在严重安全隐患。
资源管理混乱:长时间运行的任务缺乏资源限制,容易失控。
DeerFlow的设计哲学是:让AI从"回答问题"进化到"执行任务"。这不是简单的功能叠加,而是架构层面的根本变革。
1.2 DeerFlow的核心能力
DeerFlow 2.0 提供了完整的智能体执行环境:
| 能力维度 | 具体功能 |
|---|---|
| 任务编排 | 将大任务自动拆解为子任务,调度多个子代理并行/串行执行 |
| 代码执行 | 在隔离的Docker沙箱中运行Python/Shell代码 |
| 文件管理 | 提供上传、工作区、输出三层目录结构 |
| 记忆系统 | 支持短期上下文、工作记忆、长期记忆三层存储 |
| 技能扩展 | 模块化的能力单元,可按需加载 |
| 多格式输出 | 支持生成报告、幻灯片、网页、图片、视频等 |
简单来说,DeerFlow不只是一个AI模型的包装器——它是一个任务执行引擎。你可以把它想象成一个"AI总管",它能:
- 将一个大任务分解为多个子任务
- 为每个子任务派遣专门的sub-agent
- 提供沙箱化的执行环境
- 记忆长期信息并跨会话访问
- 生成多种格式的输出
二、架构设计:分层协同的多智能体系统
2.1 整体架构
DeerFlow 2.0 基于 LangGraph 1.0 + LangChain 构建,采用"主智能体 + 子智能体"的分层架构:
┌─────────────────────────────────────────────────────────────┐
│ Main Agent (Lead Agent) │
│ 任务规划与调度中心 │
└─────────────────────┬───────────────────────────────────────┘
│
┌─────────────┼─────────────┐
▼ ▼ ▼
┌─────────┐ ┌─────────┐ ┌─────────┐
│ Planner │ │Executor │ │Reviewer │
│任务拆解 │ │ 执行器 │ │结果校验 │
└─────────┘ └─────────┘ └─────────┘
│ │ │
└─────────────┼─────────────┘
▼
┌─────────────────────────────────────────────────────────────┐
│ Context Engine │
│ 上下文压缩与持久化引擎 │
└─────────────────────────────────────────────────────────────┘
│
┌─────────────┼─────────────┐
▼ ▼ ▼
┌──────────────┐ ┌──────────┐ ┌───────────────┐
│Docker Sandbox│ │ Memory │ │ Skills/Tools │
│ 安全执行环境 │ │ 三层记忆 │ │ 可扩展技能 │
└──────────────┘ └──────────┘ └───────────────┘
2.2 核心组件详解
2.2.1 Lead Agent:任务调度中心
Lead Agent是整个系统的"大脑",负责:
- 任务理解:解析用户意图,提取任务目标
- 任务拆解:将复杂任务分解为可执行的子任务
- 子代理调度:根据子任务类型,派遣相应的sub-agent
- 进度跟踪:监控任务执行状态,处理异常和重试
- 结果汇总:整合各子代理的输出,生成最终结果
# Lead Agent 核心逻辑伪代码
class LeadAgent:
def __init__(self):
self.planner = PlannerAgent()
self.executors = {
"research": ResearcherAgent(),
"code": CoderAgent(),
"report": ReporterAgent()
}
self.reviewer = ReviewerAgent()
async def execute_task(self, user_request: str):
# Step 1: 任务拆解
sub_tasks = await self.planner.decompose(user_request)
# Step 2: 并行/串行执行子任务
results = []
for task in sub_tasks:
executor = self.executors[task.type]
result = await executor.execute(task)
results.append(result)
# Step 3: 结果校验与汇总
final_output = await self.reviewer.review_and_merge(results)
return final_output
2.2.2 Sub-Agents:专业化执行单元
DeerFlow内置多种专业化子代理:
Planner Agent(任务拆解器)
- 分析任务复杂度
- 识别依赖关系
- 生成执行计划DAG
Researcher Agent(信息收集器)
- 网络搜索与信息提取
- 多源数据整合
- 知识图谱构建
Coder Agent(代码执行器)
- 动态生成代码
- 沙箱环境执行
- 结果验证与调试
Reporter Agent(报告生成器)
- 结构化输出
- 多格式转换
- 可视化渲染
每个子代理都是独立的执行单元,拥有自己的:
- 专属的Prompt模板
- 工具集(Tools)
- 上下文管理
- 错误处理逻辑
2.2.3 Context Engine:上下文管理引擎
Context Engine是DeerFlow的技术亮点之一,它解决了LLM上下文窗口有限的根本问题:
上下文压缩策略
class ContextEngine:
def __init__(self):
self.compressor = LLMCompressor()
self.tokenizer = TiktokenTokenizer()
async def compress_context(self, context: str, max_tokens: int = 4000):
"""
智能压缩上下文,保留关键信息
"""
current_tokens = self.tokenizer.count(context)
if current_tokens <= max_tokens:
return context
# 使用LLM提取关键信息
summary = await self.compressor.summarize(
context,
focus="task_progress, decisions, pending_actions"
)
# 结构化存储压缩后的内容
compressed = f"""
[压缩摘要]
- 任务进度: {summary.progress}
- 关键决策: {summary.decisions}
- 待处理: {summary.pending}
[详细内容已归档,ID: {summary.archive_id}]
"""
return compressed
渐进式技能加载
传统Agent往往在启动时加载所有技能,导致:
- 上下文窗口浪费
- 启动时间长
- 冗余信息干扰
DeerFlow采用渐进式加载策略:
class SkillLoader:
def __init__(self):
self.skill_registry = SkillRegistry()
self.loaded_skills = {}
async def load_skill_on_demand(self, task_type: str):
"""
根据任务类型按需加载技能
"""
if task_type in self.loaded_skills:
return self.loaded_skills[task_type]
# 从技能库中加载
skill = await self.skill_registry.get(task_type)
# 注入到当前上下文
await self.inject_to_context(skill)
self.loaded_skills[task_type] = skill
return skill
三、核心技术:安全、记忆与执行
3.1 沙箱隔离机制
让AI执行代码,安全性是首要问题。DeerFlow使用Docker容器实现沙箱隔离:
from deerflow.sandbox import Sandbox, SandboxConfig
# 创建隔离执行环境
sandbox = Sandbox.create(
timeout="2h", # 执行超时
resources={
"cpu": 2, # CPU限制
"memory": "4GB", # 内存限制
"disk": "10GB" # 磁盘限制
},
network_access=True, # 可配置网络权限
allowed_domains=["api.github.com", "pypi.org"], # 白名单域名
filesystem="isolated" # 文件系统隔离模式
)
# 在沙箱中执行任务
result = await sandbox.execute(
code="""
import requests
import pandas as pd
# 安全执行数据获取
data = requests.get("https://api.example.com/data").json()
df = pd.DataFrame(data)
# 数据处理
df['processed'] = df['value'].apply(lambda x: x * 2)
# 保存结果
df.to_csv("/workspace/output/result.csv")
""",
entry_point="main"
)
print(result.output)
print(result.exit_code)
print(result.execution_time)
沙箱安全特性:
| 特性 | 说明 |
|---|---|
| 进程隔离 | 每个任务在独立容器中执行 |
| 资源限制 | CPU/内存/磁盘配额控制 |
| 网络隔离 | 可配置的网络访问策略 |
| 文件系统隔离 | 读写权限控制,防止越权访问 |
| 时间限制 | 自动终止超时任务 |
| 危险操作拦截 | 禁止系统调用、进程创建等高风险操作 |
3.2 三层记忆系统
DeerFlow的记忆系统是其"智能"的关键支撑:
class MemoryManager:
def __init__(self):
# 短期记忆:当前对话上下文
self.short_term = ConversationBuffer(
max_tokens=8000,
compression_threshold=6000
)
# 工作记忆:任务执行中的临时状态
self.working = TaskStateBuffer(
persistence=True,
compression_strategy="key_value"
)
# 长期记忆:跨任务的持久化知识
self.long_term = VectorStore(
embedding_model="text-embedding-3-small",
index_type="hnsw"
)
async def remember(self, content: str, memory_type: str):
"""
存储记忆到对应层级
"""
if memory_type == "short":
await self.short_term.add(content)
elif memory_type == "working":
await self.working.add(content)
else:
await self.long_term.add(content)
async def recall(self, query: str, top_k: int = 5):
"""
从长期记忆中检索相关信息
"""
# 向量相似度检索
results = await self.long_term.similarity_search(
query=query,
k=top_k,
filter={"user_id": self.user_id}
)
return results
记忆流转示例:
# 场景:用户要求"继续上次的数据分析任务"
# Step 1: 从长期记忆检索历史任务
history = await memory.recall("数据分析任务")
# Step 2: 加载工作记忆中的任务状态
task_state = await memory.working.load(history.latest_task_id)
# Step 3: 注入短期记忆,继续对话
memory.short_term.inject(f"""
[历史上下文]
上次任务:{task_state.description}
完成进度:{task_state.progress}%
待处理步骤:{task_state.pending_steps}
""")
# Step 4: 继续执行
await lead_agent.continue_task(task_state)
3.3 多智能体协作模式
DeerFlow支持三种核心协作模式:
Sequential(顺序执行)
适用于有依赖关系的任务:
from deerflow.orchestration import SequentialWorkflow
workflow = SequentialWorkflow([
ResearcherAgent("收集资料"),
CoderAgent("处理数据"),
ReporterAgent("生成报告")
])
result = await workflow.execute("分析2026年AI芯片市场趋势")
执行流程:
收集资料 → 处理数据 → 生成报告
Parallel(并行执行)
适用于独立的子任务:
from deerflow.orchestration import ParallelWorkflow
workflow = ParallelWorkflow([
ResearcherAgent("技术调研"),
ResearcherAgent("市场调研"),
ResearcherAgent("竞品分析")
])
results = await workflow.execute("AI芯片行业分析")
# 自动合并结果
merged = workflow.merge_results(results)
执行流程:
┌→ 技术调研 ─┐
用户请求 ─┼→ 市场调研 ─┼→ 结果合并
└→ 竞品分析 ─┘
Conditional(条件分支)
适用于需要动态决策的任务:
from deerflow.orchestration import ConditionalWorkflow
workflow = ConditionalWorkflow()
workflow.add_branch(
condition=lambda ctx: ctx.complexity == "high",
agents=[PlannerAgent(), ParallelExecutor()]
)
workflow.add_branch(
condition=lambda ctx: ctx.complexity == "low",
agents=[DirectExecutor()]
)
result = await workflow.execute(task)
四、代码实战:构建自己的智能体工作流
4.1 环境准备
首先,安装DeerFlow:
# 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 创建虚拟环境
python -m venv venv
source venv/bin/activate # Linux/Mac
# 或 venv\Scripts\activate # Windows
# 安装依赖
pip install -r requirements.txt
# 配置环境变量
export OPENAI_API_KEY="your-api-key"
# 或使用其他兼容的LLM服务
4.2 快速开始:创建第一个智能体
from deerflow import Agent, Tool, Sandbox
from deerflow.memory import MemoryManager
from deerflow.skills import WebSearchSkill, CodeExecutionSkill
# 创建记忆管理器
memory = MemoryManager(
persist_dir="./memory",
embedding_model="text-embedding-3-small"
)
# 创建沙箱环境
sandbox = Sandbox.create(
timeout="30m",
resources={"cpu": 2, "memory": "2GB"}
)
# 定义工具
@Tool.register
def search_web(query: str) -> str:
"""搜索网络获取实时信息"""
from duckduckgo_search import DDGS
results = DDGS().text(query, max_results=5)
return "\n".join([r['body'] for r in results])
@Tool.register
def analyze_data(data_path: str, operation: str) -> dict:
"""分析数据文件"""
import pandas as pd
df = pd.read_csv(data_path)
if operation == "summary":
return df.describe().to_dict()
elif operation == "correlation":
return df.corr().to_dict()
else:
return {"error": "Unknown operation"}
# 创建智能体
agent = Agent(
name="ResearchAgent",
model="gpt-4-turbo",
memory=memory,
sandbox=sandbox,
tools=[search_web, analyze_data],
skills=[
WebSearchSkill(),
CodeExecutionSkill()
],
system_prompt="""
你是一个专业的研究助理。你的职责是:
1. 理解用户的研究需求
2. 收集相关信息
3. 分析数据
4. 生成结构化报告
在执行过程中,请:
- 记录所有重要发现
- 标注信息来源
- 提供数据支持
"""
)
# 执行任务
result = await agent.execute("""
请研究2026年第一季度AI芯片市场的发展趋势,
重点关注:
1. 主要厂商的市场份额变化
2. 新技术突破(如存算一体、光子计算)
3. 下半年市场预测
""")
print(result.output)
print(f"执行时间: {result.execution_time}")
print(f"调用工具: {result.tool_calls}")
4.3 构建多智能体协作系统
下面是一个完整的深度研究系统示例:
from deerflow import LeadAgent, SubAgent
from deerflow.orchestration import Workflow, SequentialStage, ParallelStage
from deerflow.output import ReportGenerator
# 定义子智能体
class ResearcherAgent(SubAgent):
"""负责信息收集的智能体"""
name = "researcher"
description = "收集和整理信息"
tools = ["web_search", "document_reader", "api_client"]
system_prompt = """
你是一个信息收集专家。你的任务是:
1. 根据研究主题,制定搜索策略
2. 从多个来源收集信息
3. 评估信息质量
4. 整理成结构化笔记
注意:
- 交叉验证重要信息
- 记录所有来源
- 标注信息时效性
"""
async def execute(self, task):
# 分解搜索策略
search_queries = await self.plan_searches(task.description)
# 并行搜索
results = await self.parallel_search(search_queries)
# 整理和去重
organized = await self.organize_results(results)
return organized
class AnalystAgent(SubAgent):
"""负责数据分析的智能体"""
name = "analyst"
description = "执行数据分析"
tools = ["code_executor", "chart_generator", "statistical_analyzer"]
system_prompt = """
你是一个数据分析专家。你的任务是:
1. 设计分析方案
2. 执行数据处理
3. 生成可视化图表
4. 提炼关键洞察
要求:
- 使用科学的方法论
- 提供可复现的分析代码
- 图表清晰易懂
"""
async def execute(self, task, research_notes):
# 加载数据
data = await self.load_data(research_notes)
# 执行分析
analysis = await self.analyze(data)
# 生成可视化
charts = await self.visualize(analysis)
return {
"analysis": analysis,
"charts": charts
}
class WriterAgent(SubAgent):
"""负责报告撰写的智能体"""
name = "writer"
description = "生成结构化报告"
tools = ["markdown_renderer", "template_engine", "citation_manager"]
system_prompt = """
你是一个技术写作专家。你的任务是:
1. 组织报告结构
2. 撰写各部分内容
3. 整合图表和数据
4. 格式化和排版
要求:
- 逻辑清晰
- 论据充分
- 语言专业但不晦涩
- 格式规范统一
"""
async def execute(self, task, research_notes, analysis_results):
report = await self.compose_report(
topic=task.description,
research=research_notes,
analysis=analysis_results
)
return report
# 创建工作流
workflow = Workflow(
name="deep_research",
stages=[
# Stage 1: 并行收集信息
ParallelStage([
ResearcherAgent("技术调研"),
ResearcherAgent("市场调研"),
ResearcherAgent("竞品分析")
], name="information_gathering"),
# Stage 2: 数据分析
SequentialStage([
AnalystAgent("数据处理"),
AnalystAgent("统计分析"),
AnalystAgent("趋势预测")
], name="analysis"),
# Stage 3: 报告生成
SequentialStage([
WriterAgent("撰写初稿"),
WriterAgent("审核修改"),
WriterAgent("格式化输出")
], name="reporting")
]
)
# 创建Lead Agent
lead_agent = LeadAgent(
workflow=workflow,
memory=MemoryManager(persist_dir="./research_memory"),
output_generator=ReportGenerator(
formats=["markdown", "pdf", "pptx"]
)
)
# 执行完整的研究任务
result = await lead_agent.execute("""
请对2026年AI Agent开发框架进行深度研究:
1. 技术架构对比(DeerFlow vs LangGraph vs AutoGen)
2. 市场份额与用户采用情况
3. 未来发展趋势预测
4. 开发者选型建议
""")
# 输出结果
print(f"Markdown报告: {result.outputs['markdown']}")
print(f"PDF报告: {result.outputs['pdf']}")
print(f"PPT报告: {result.outputs['pptx']}")
print(f"执行时间: {result.total_time}")
print(f"消耗Token: {result.token_usage}")
4.4 自定义技能开发
DeerFlow的技能系统允许扩展新能力:
from deerflow.skills import Skill, SkillConfig
class DatabaseQuerySkill(Skill):
"""数据库查询技能"""
name = "database_query"
description = "执行SQL查询并返回结果"
config = SkillConfig(
requires_sandbox=True,
timeout="5m",
max_results=10000
)
def __init__(self, connection_string: str):
self.connection_string = connection_string
async def execute(self, query: str, params: dict = None):
"""
执行SQL查询
Args:
query: SQL查询语句
params: 查询参数
Returns:
查询结果
"""
import asyncpg
# 在沙箱中执行
async with self.sandbox.postgres(self.connection_string) as conn:
# 安全检查
validated = await self.validate_query(query)
if not validated.safe:
return {"error": "不安全的查询被拒绝"}
# 执行查询
results = await conn.fetch(query, *(params or {}).values())
return {
"rows": [dict(r) for r in results],
"count": len(results)
}
async def validate_query(self, query: str):
"""
验证查询安全性
"""
# 禁止的操作
forbidden = ["DROP", "DELETE", "TRUNCATE", "ALTER"]
query_upper = query.upper()
for keyword in forbidden:
if keyword in query_upper:
return {"safe": False, "reason": f"禁止使用 {keyword}"}
return {"safe": True}
# 注册技能
from deerflow import SkillRegistry
SkillRegistry.register(DatabaseQuerySkill(
connection_string="postgresql://user:pass@localhost/mydb"
))
# 在智能体中使用
agent = Agent(
name="DataAnalyst",
skills=["database_query", "web_search", "code_execution"]
)
五、性能优化与最佳实践
5.1 上下文优化
DeerFlow的上下文管理直接影响执行效率和成本:
from deerflow.context import ContextOptimizer
optimizer = ContextOptimizer(
strategy="hierarchical", # 分层压缩
max_context_tokens=8000,
compression_model="gpt-3.5-turbo" # 使用便宜模型压缩
)
# 优化策略
class HierarchicalCompression:
"""
分层压缩策略:
1. 第一层:保留最近N轮对话完整内容
2. 第二层:中间轮次提取关键决策点
3. 第三层:早期对话只保留摘要
"""
def compress(self, messages: list) -> list:
recent = messages[-5:] # 最近5轮完整保留
middle = messages[-20:-5] # 中间提取决策点
early = messages[:-20] # 早期只保留摘要
compressed = []
compressed.extend(early.summary())
compressed.extend(self.extract_decisions(middle))
compressed.extend(recent)
return compressed
5.2 缓存机制
DeerFlow内置多级缓存,减少重复计算:
from deerflow.cache import CacheManager
cache = CacheManager(
layers=[
"memory", # 内存缓存(毫秒级)
"redis", # Redis缓存(秒级)
"disk" # 磁盘缓存(持久化)
],
ttl={
"llm_response": "1h", # LLM响应缓存1小时
"tool_result": "30m", # 工具结果缓存30分钟
"search_result": "2h" # 搜索结果缓存2小时
}
)
# 使用装饰器自动缓存
@cache.cached(key="query:{query}", ttl="1h")
async def search_web(query: str):
# 网络搜索逻辑
...
# 智能失效
@cache.invalidate_on("data_updated")
async def update_data(new_data):
# 更新数据时自动清除相关缓存
...
5.3 并发控制
长时间运行的任务需要合理的并发控制:
from deerflow.concurrency import ConcurrencyManager
concurrency = ConcurrencyManager(
max_parallel_tasks=5, # 最大并行任务数
max_tasks_per_agent=3, # 每个Agent最大任务数
rate_limits={
"llm_calls": "100/min", # LLM调用频率限制
"web_requests": "50/min" # Web请求频率限制
}
)
# 使用信号量控制并发
async def execute_parallel_tasks(tasks):
async with concurrency.semaphore("task_execution"):
results = await asyncio.gather(*[
agent.execute(task) for task in tasks
])
return results
5.4 监控与可观测性
from deerflow.monitoring import AgentMonitor, MetricsCollector
monitor = AgentMonitor(
log_level="INFO",
trace_sampling_rate=0.1, # 10%的请求记录详细trace
metrics_collector=MetricsCollector(
export_to="prometheus",
port=9090
)
)
# 自动记录指标
@monitor.track
async def execute_task(agent, task):
with monitor.span("task_execution") as span:
span.set_attribute("task.type", task.type)
span.set_attribute("agent.name", agent.name)
result = await agent.execute(task)
span.set_attribute("result.status", result.status)
span.set_attribute("result.tokens", result.token_usage)
return result
# 查看监控数据
dashboard = monitor.get_dashboard()
print(dashboard.render())
六、DeerFlow vs 其他框架
6.1 技术对比
| 特性 | DeerFlow | LangGraph | AutoGen | CrewAI |
|---|---|---|---|---|
| 多智能体协作 | ✅ 原生支持 | ✅ 需配置 | ✅ 原生支持 | ✅ 原生支持 |
| 沙箱执行环境 | ✅ Docker隔离 | ❌ 需自行实现 | ⚠️ 有限支持 | ❌ |
| 持久化记忆 | ✅ 三层记忆 | ⚠️ 需配置 | ⚠️ 基础支持 | ⚠️ 基础支持 |
| 长时任务支持 | ✅ 小时级 | ⚠️ 分钟级 | ⚠️ 分钟级 | ⚠️ 分钟级 |
| 技能扩展 | ✅ 插件化 | ✅ 工具集成 | ✅ 工具集成 | ✅ 工具集成 |
| 开箱即用 | ✅ 高 | ⚠️ 中等 | ⚠️ 中等 | ✅ 高 |
| 企业级特性 | ✅ 完整 | ⚠️ 需扩展 | ❌ | ⚠️ 基础 |
6.2 适用场景
选择DeerFlow的场景:
- 需要执行复杂长时任务(小时级以上)
- 需要安全隔离的代码执行环境
- 需要跨会话的知识积累
- 企业级生产环境部署
选择其他框架的场景:
- 简单的对话式Agent:LangChain + LangGraph
- 快速原型验证:AutoGen
- 轻量级多Agent协作:CrewAI
七、总结与展望
7.1 DeerFlow的技术价值
DeerFlow 2.0 的开源,标志着AI Agent技术从"实验品"向"生产力工具"的重要跨越:
架构先进:分层协同的多智能体设计,解决了传统Agent的能力边界问题
安全可靠:Docker沙箱隔离,让AI执行代码不再是安全隐患
工程完备:记忆系统、技能扩展、监控告警,企业级特性齐全
开箱即用:无需从零搭建,快速上手构建复杂应用
7.2 未来发展方向
从DeerFlow的设计理念,我们可以窥见AI Agent的未来趋势:
更智能的任务编排
- 自动学习最优执行路径
- 动态调整资源分配
- 预测性失败处理
更强的自主学习
- 从历史任务中学习
- 自动技能生成
- 知识图谱持续构建
更广泛的应用场景
- 软件开发自动化
- 科学研究辅助
- 企业流程自动化
7.3 写在最后
DeerFlow的成功不是偶然。它切中了AI Agent领域的核心痛点:只有能真正"执行任务"的Agent,才有生产价值。
对于开发者而言,现在是深入学习和实践Agent技术的最佳时机。DeerFlow提供了一个优秀的起点——无论是作为学习对象,还是直接用于生产项目。
AI Agent的未来,已来。
参考资源
本文首发于程序员茄子,转载请注明出处。