大数跨境
0
0

上下文工程会话与记忆

上下文工程会话与记忆 求数科技
2025-12-10
0
导读:本白皮书探讨了会话(Sessions)与记忆(Memory)在构建有状态、智能化的大语言 模型(LLM)智能体
本白皮书探讨了会话(Sessions记忆(Memory在构建有状态、智能化的大语言 模型(LLM)智能体中的关键作用,旨在帮助开发者打造更强大、更个性化且具备持久性的 AI 体验。要让大语言模型能够“记住”用户、“学习”偏好,并实现个性化的交互,开发者必须在其有 限的上下文窗口中,动态地组织和管理相关信息——这一过程被称为上下文工程(Context  Engineering)。  以下是本白皮书涉及的几个核心概念:  
上下文工程(Context Engineering:指在大语言模型的上下文窗口内,动态 组装和管理信息的过程,目的是赋予智能体“有状态”和“智能化”的能力。
会话(Sessions:一次完整人机对话的容器,不仅记录对话的完整时间线, 还保存智能体在当前交互中的“工作记忆”(working memory)。
记忆(Memory:实现长期信息留存的机制。它能从多次会话中提取并整合关 键信息,使 AI 智能体在不同时间点与用户互动时,仍能保持连贯性和个性化体验。译者注:大语言模型本身是“无记忆”的——每次对话对它来说都像第一次见 面。正是通过上下文工程、会话管理和记忆系统,我们才能让 AI 表现出“记得 你”、“了解你”的能力,从而迈向真正的 Agentic AI
大语言模型(LLM)本质上是“无状态”的——除了训练数据之外,它们的推理和认知能 力完全受限于单次 API 调用中所提供的“上下文窗口”内的信息。这带来了一个根本性挑 战:要让 AI 智能体真正发挥作用,它必须清楚三件事: 
1. 自己能做什么(有哪些操作权限); 
2. 依据什么事实进行推理(有哪些证据或知识); 
3. 当前任务是什么(用户此刻在问什么)。而这些信息并不会自动出现在模型面前。为了让智能体具备“记忆”、“学习”和“个性化交 互”的能力,开发者必须在每一次对话轮次中,主动为模型构建合适的上下文。这种动态组装 和管理信息的过程,就叫做上下文工程(Context Engineering上下文工程可以看作是传统“提示工程(Prompt Engineering)”的升级版。 
提示工程关注的是如何写出最优的、通常是静态的系统指令(比如“你是一个乐 于助人的助手”)。
上下文工程则着眼于整个输入载荷(payload),根据用户身份、对话历史和 外部数据,动态构建一个具备状态感知能力的完整提示它的核心在于:精准选择、适当摘要、适时注入不同类型的信息,在最大化相关性的同 时,尽量减少噪声干扰。这些上下文信息通常由外部系统提供,例如:  
基于检索增强生成(RAG)的知识库,
会话存储系统,
记忆管理模块。而智能体框架的任务,就是协调这些系统,把所需信息“拼装”成最终发送给大语言模型 的提示。你可以把上下文工程想象成厨师做菜前的“备菜”(法语叫 mise en place)——这是烹饪 前最关键的一步:把所有食材洗净切好,工具摆齐,调料备妥。  如果只给厨师一份菜谱(相当于只给模型一个提示),他可能只能用厨房里随便找到的东 西凑合做一顿饭。  但如果你提前为他准备好新鲜的食材、专用的厨具、以及对菜品风格的清晰理解,他就能 稳定地做出一道量身定制的美味佳肴。  上下文工程的目标正是如此:确保模型拿到的信息不多不少,刚好是完成当前任务最相关、 最精炼的内容。 

阅读全文,免费下载报告,点击 ↓ 小程序,搜索:上下文工程


【声明】内容源于网络
0
0
求数科技
科技、人工智能、网络安全、科学、工业软件信息资讯
内容 662
粉丝 0
求数科技 科技、人工智能、网络安全、科学、工业软件信息资讯
总阅读517
粉丝0
内容662