Context Engineering:概念与技术实现深度解析
来自《步子哥的技术工作坊》
上下文工程并不仅仅是构造prompt,它是一种系统化的上下文管理方法,目的是让大语言模型在复杂任务中实现更精准、可控的推理与执行。本海报深入解析Context Engineering的核心概念、技术实现及RAG在其中的关键作用。
psychology Context Engineering的核心概念
上下文管理机制的关键要素
- 信息选择:每个节点使用哪些信息?
 - 信息更新:分别更新或修改哪些信息?
 - 信息传递:多步骤间如何传递?
 - 信息共享:智能体间是否共享、如何共享?
 
hub RAG在Context Engineering中的作用
检索阶段(Retrieval)
- 将用户问题转化为高维向量表示
 - 与知识库中的文档向量进行比对
 - 找出最相关的文档片段
 - 确保检索结果的精准性和相关性
 
生成阶段(Generation)
- 将检索结果与原始问题一同输入
 - 生成模型深度融合检索到的知识
 - 通过调节超参数优化生成结果
 - 确保输出的准确性和上下文相关性
 
RAG应用流程
- 数据准备阶段:数据提取 >> 文本分割 >> 向量化(embedding) >> 数据入库
 - 应用阶段:用户提问 >> 数据检索(召回) >> 注入Prompt >> LLM生成答案
 
architecture 技术实现案例
不同框架中的Context管理策略
- Gemini Deep Search(编排式):节点级隔离,无状态传递,模块化设计
 - OpenManus Flow Mode(规划式自主):Step级隔离,显式Plan & Step状态管理
 - OpenManus Manus Mode(纯自主):线性增长+窗口截断,传递完整ReAct历史
 
trending_up 未来展望
Context Engineering的发展趋势
- 从”工具增强”到”流程重构”的形态升级
 - 从”AI融入IDE”到”AI自主执行开发任务”
 - 从”编辑器中心”走向”任务中心”
 - 推动LLM从”工具”向”智能体”演进
 
Context Engineering的核心概念
上下文管理机制是智能体设计的核心命脉
- 信息选择:每个节点使用哪些信息?
 - 信息更新:分别更新或修改哪些信息?
 - 信息传递:多步骤间如何传递?
 - 信息共享:智能体间是否共享、如何共享?
 
integration_instructions 关键技术点
                        alt_route
                        
                    
                    LangChain动态上下文流
构建灵活的上下文传递管道,实现信息在多个组件间的无缝流转
                        search
                        
                    
                    RAG在上下文生成中的作用
通过检索增强生成,动态扩展模型知识边界,提供精准的上下文支持
                        account_tree
                        
                    
                    Agent框架上下文调度
智能体如何管理、调度上下文信息,实现任务规划与执行
                        layers
                        
                多层上下文融合策略
Prompt层、工具层、记忆层等多层次上下文的有效融合与协同
RAG在Context Engineering中的作用
RAG(Retrieval-Augmented Generation)是Context Engineering的核心技术之一,它通过结合外部知识检索和生成能力,显著提升LLM的精准性和可控性。
sync_alt RAG的工作原理
                        search
                        
                    
                    检索阶段
将用户问题转化为高维向量表示,与知识库中的文档向量进行比对,找出最相关的文档片段
                        auto_awesome
                        
                生成阶段
将检索结果与原始问题一同输入生成模型,生成模型将检索到的知识与问题的语义信息进行深度融合
account_tree RAG的应用流程
完整RAG应用流程
数据准备阶段
数据提取
                                文本分割
                                向量化(embedding)
                                数据入库
                            应用阶段
用户提问
                                数据检索(召回)
                                注入Prompt
                                LLM生成答案
                            技术实现案例
compare 不同框架中的Context管理策略
Gemini Deep Search
编排式
                            
                                    layers
                                    Context范围
                                
                                
                                    节点级隔离
每节点用特定输入
                            每节点用特定输入
                                    swap_horiz
                                    Context传递
                                
                                
                                    传递任务结果
Query列表,摘要文本
                            Query列表,摘要文本
                                    settings
                                    状态管理
                                
                                
                                    无显式状态
依赖数据流
                            依赖数据流
OpenManus Flow Mode
规划式自主
                            
                                    layers
                                    Context范围
                                
                                
                                    Step级隔离
每Step用Plan状态+当前任务
                            每Step用Plan状态+当前任务
                                    swap_horiz
                                    Context传递
                                
                                
                                    外层传递Plan状态+Step结果
内层全部历史
                            内层全部历史
                                    settings
                                    状态管理
                                
                                
                                    显式状态管理
Plan & Step状态
                            Plan & Step状态
OpenManus Manus Mode
纯自主
                            
                                    layers
                                    Context范围
                                
                                
                                    线性增长+窗口截断
全历史
                            全历史
                                    swap_horiz
                                    Context传递
                                
                                
                                    传递完整ReAct历史
截断后
                            截断后
                                    settings
                                    状态管理
                                
                                
                                    隐含状态管理
在消息历史中
                            在消息历史中
code 工程实现与案例分析
基于LangChain搭建多模块Context Engine
利用LangChain的模块化组件构建动态上下文流,实现不同模块间的信息高效传递与融合,提升复杂任务处理能力。
Agent在多轮对话中维持与更新上下文
通过记忆模块与上下文管理策略,使Agent能够在长对话中保持连贯性,动态更新上下文信息,避免信息断层与冲突。
缓存机制与记忆模块优化响应一致性
引入缓存机制存储频繁检索的文档向量,减少重复计算;通过记忆模块记录对话历史,确保多轮对话中上下文一致性。
未来展望
思辨与延伸
- forum 与人类对话中的语境理解进行类比
 - trending_up Context Engineering推动LLM从工具向智能体演进
 - all_inclusive 评估其在未来AI应用中的可扩展性
 
应用前景
- code Copilot:实时检索代码仓库或API文档,生成更实用的代码建议
 - autorenew 自动化流程:支持任务分解和规划,实现复杂业务流程的自动化
 - hub Agent系统:多Agent协作系统中的上下文共享与协同
 
priority_high 挑战与机遇
                            precision_manufacturing
                            
                        
                        检索准确性
需要高质量的知识库和fine-tuned嵌入模型
                            straighten
                            
                        
                        上下文长度
LLM的token限制可能导致长上下文截断,需优化分块策略
                            speed
                            
                    实时性
在动态任务中,RAG的检索速度需进一步提升