搜索
首页
大数快讯
大数活动
服务超市
文章专题
出海平台
流量密码
出海蓝图
产业赛道
物流仓储
跨境支付
选品策略
实操手册
报告
跨企查
百科
导航
知识体系
工具箱
更多
找货源
跨境招聘
DeepSeek
首页
>
上下文工程会话与记忆
>
0
0
上下文工程会话与记忆
求数科技
2025-12-10
0
导读:本白皮书探讨了会话(Sessions)与记忆(Memory)在构建有状态、智能化的大语言 模型(LLM)智能体
本白皮书探讨了
会话(
Sessions
)
与
记忆(
Memory
)
在构建
有状态、智能化的大语言 模型(
LLM
)智能体
中的关键作用,旨在帮助开发者打造更强大、更个性化且具备持久性的
AI
体验。
要让大语言模型能够“记住”用户、“学习”偏好,并实现个性化的交互,开发者必须在其有 限的上下文窗口中,动态地组织和管理相关信息——这一过程被称为
上下文工程(Context Engineering)
。 以下是本白皮书涉及的几个核心概念:
•
上下文工程(
Context Engineering
)
:指在大语言模型的上下文窗口内,动态 组装和管理信息的过程,目的是赋予智能体“有状态”和“智能化”的能力。
•
会话(
Sessions
)
:一次完整人机对话的容器,不仅记录对话的完整时间线, 还保存智能体在当前交互中的“工作记忆”(
working memory
)。
•
记忆(
Memory
)
:实现长期信息留存的机制。它能从多次会话中提取并整合关 键信息,使
AI
智能体在不同时间点与用户互动时,仍能保持连贯性和个性化体验。
译者注:大语言模型本身是“无记忆”的——每次对话对它来说都像第一次见 面。正是通过上下文工程、会话管理和记忆系统,我们才能让
AI
表现出“记得 你”、“了解你”的能力,从而迈向真正的
Agentic AI
。
大语言模型(
LLM
)本质上是“无状态”的——除了训练数据之外,它们的推理和认知能 力完全受限于单次
API
调用中所提供的“上下文窗口”内的信息。这带来了一个根本性挑 战:要让
AI
智能体真正发挥作用,它必须清楚三件事:
1.
自己能做什么
(有哪些操作权限);
2.
依据什么事实进行推理
(有哪些证据或知识);
3.
当前任务是什么
(用户此刻在问什么)。
而这些信息并不会自动出现在模型面前。为了让智能体具备“记忆”、“学习”和“个性化交 互”的能力,开发者必须在
每一次对话轮次
中,主动为模型构建合适的上下文。这种动态组装 和管理信息的过程,就叫做
上下文工程(
Context Engineering
)
。
上下文工程可以看作是传统“提示工程(Prompt Engineering)”的升级版。
•
提示工程
关注的是如何写出最优的、通常是静态的系统指令(比如“你是一个乐 于助人的助手”)。
•
而
上下文工程
则着眼于整个输入载荷(
payload
),根据用户身份、对话历史和 外部数据,
动态构建一个具备状态感知能力的完整提示
。
它的核心在于:
精准选择、适当摘要、适时注入
不同类型的信息,在最大化相关性的同 时,尽量减少噪声干扰。
这些上下文信息通常由外部系统提供,例如:
•
基于检索增强生成(
RAG
)的知识库,
•
会话存储系统,
•
记忆管理模块。
而智能体框架的任务,就是协调这些系统,把所需信息“拼装”成最终发送给大语言模型 的提示。
你可以把上下文工程想象成厨师做菜前的“备菜”(法语叫 mise en place)——这是烹饪 前最关键的一步:把所有食材洗净切好,工具摆齐,调料备妥。 如果只给厨师一份菜谱(相当于只给模型一个提示),他可能只能用厨房里随便找到的东 西凑合做一顿饭。 但如果你提前为他准备好
新鲜的食材、专用的厨具、以及对菜品风格的清晰理解
,他就能 稳定地做出一道量身定制的美味佳肴。 上下文工程的目标正是如此:
确保模型拿到的信息不多不少,刚好是完成当前任务最相关、 最精炼的内容
。
阅读全文,免费下载报告,点击 ↓ 小程序,搜索:上下文工程
【声明】内容源于网络
0
0
求数科技
科技、人工智能、网络安全、科学、工业软件信息资讯
内容
662
粉丝
0
关注
在线咨询
求数科技
科技、人工智能、网络安全、科学、工业软件信息资讯
总阅读
517
粉丝
0
内容
662
在线咨询
关注