大数跨境
0
0

“兰台知音”是怎样炼成的? ——Agent+LLM+RAG架构之优秀实践

“兰台知音”是怎样炼成的? ——Agent+LLM+RAG架构之优秀实践 数字罗塞塔计划
2025-01-02
1
导读:一个看似界面简单实则功能强大的档案知识问答系统是怎么炼成的呢?今天我们就从技术层面来揭开“兰台知音”的神秘面纱。

前言


数字罗塞塔计划公众号已于今年元旦重磅推出“兰台知音”档案知识问答系统,相关介绍参见本号文章《罗塞塔®档案知识问答系统“兰台知音”耀世登场!》


是不是看上去很简单的样子?赶紧问一个档案行业的业务或者技术问题测试一下,相信结果应该能让您满意。

那这么一个看似界面简单实则功能强大的档案知识问答系统是怎么炼成的呢?今天我们就从技术层面来揭开“兰台知音”的神秘面纱。


一、“兰台知音”的技术架构

从技术架构上来看,除了最上面的用户界面层和最下面的档案知识库之外,“兰台知音”最核心的部分就是被称为知识问答系统三件套的AI智能体(AI Agent,简称“Agent”)、检索增强生成(Retrieval-Augmented Generation,RAG)和大语言模型(Large Language Model,LLM)。以下自顶向下逐层进行介绍:


1、用户界面层

这是用户直接交互的部分,用于接收用户输入的诸如档案业务相关问题,并展示Agent给出的回答结果。

2、智能体(Agent)层

任务分解模块

与用户界面层相连,接收用户的问题,将复杂问题拆解成多个简单的子任务,例如把“档案借阅违反规定后的处理措施以及相关法规溯源”这样的问题拆分为“查找档案借阅违规处理措施”和“确定对应处理措施的法规出处”等子任务。


决策模块

根据问题类型以及RAG、LLM 等情况,决定调用RAG、LLM 或者二者结合等不同的策略来获取答案。例如对于简单明确的法规条款查询,优先调用RAG。


学习更新模块

一方面通过档案知识库语料的不断更新,定期获取最新档案业务知识;另一方面通过记录用户的提问情况、反馈信息等,不断优化自身任务分解、决策等处理逻辑。


对话管理模块

负责处理多轮对话,保存与用户对话的上下文信息,比如用户先问了某个档案业务适用范围问题,后续追问在具体场景下如何操作,该模块能让Agent基于前面的问答内容准确回复后续追问。

3、大语言模型(LLM)层

语言模型接口

上下分别与Agent层、RAG层相连,按照Agent的调用请求或RAG检索到的文本,将问题或者相关文本输入到LLM中,获取其生成的回答或者推理结果。


大语言模型

语言模型接口后面的LLM已经比较成熟,类似“兰台知音”这样的互联网应用直接调用常见的LLM即可,比如文心、通义、豆包等;当然也可以选择档案行业垂直大模型,比如八九数码的语言模型89-LLM。

4、检索增强生成(RAG)层

向量数据库

存储经过向量化处理后的档案业务知识内容,例如将法规条文、标准条款、文件要求、案例解释等文本内容转化为向量形式存储,方便后续快速检索相似内容。


检索模块

接收Agent传过来的子任务或者问题相关信息,在向量数据库中进行检索,找到与之匹配度高的档案知识相关文本片段,然后将检索结果传递给LLM或者反馈给Agent,以便进一步处理。

5、档案知识库层

档案业务知识库

存放各类档案业务知识相关的原始资料文本内容(语料库),是整个系统知识的基础来源,为RAG层的向量数据库构建以及问题回答提供核心依据。首批入库的是大约2000份高质量的法律法规、标准规范、公众号文章、论文书籍等由罗塞塔团队优中选优的参考资料。后续我们还将实时订阅/爬取国内权威网站数据和文章,跟踪档案领域情报信息,不间断维护、更新本地知识库,为“兰台知音”的“出生”、“成长”、“成熟”提供源源不断的“养分”。


二、三件套之智能体(Agent)


Agent是一个能够感知环境、进行决策并采取行动的实体。它可以是软件程序、机器人或者其他具有自主性的系统。

Agent的工作流程是:

它就像一个聪明的“助手”,通过对指令的分析,明白每一步要做什么,然后逐个完成这些子任务。就如同员工在接到任务后,会根据任务的要求,有条不紊地完成各项工作。

下面结合“兰台知音”知识问答系统的常规服务领域——档案法规标准问答来解释Agent的功能。


三、三件套之大语言模型(LLM)


在“兰台知音”知识问答系统“三件套”架构中,LLM无疑占据着核心地位,它宛如一位知识渊博、能言善辩的档案专家,为整个系统注入强大的智慧力量。

当然,由于目前市场上绝大多数LLM都是通用大模型,在回答类似于档案行业这样的专业领域问题时容易出现“幻觉”(表现为“一本正经地胡说八道”),因此在实际应用中往往需要与Agent、RAG结合使用,以发挥本地知识库的价值和作用。

特别地,在“兰台知音”1.0版本构建过程中,为了更加精准地回答档案业务问题,我们指定所有的答案来源全部来自于本地知识库,相当于对LLM进行了“阉割”,只让其发挥在问题答案语言组织方面的能力。未来,随着LLM能力的进一步提升以及行业垂直大模型的出现,我们也会让LLM在“兰台知音”的后续版本中真正发挥核心作用。


四、三件套之检索增强生成(RAG)


正是由于LLM在回答特定领域或高度专业化的问题时存在局限性,容易产生“幻觉”,RAG应运而生。RAG就像是一个外挂,将外部数据检索集成到LLM的答案生成过程中,从而有效增强LLM提供准确响应的能力。RAG+LLM的工作原理如下图所示:

RAG的关键优势在于其灵活性和效率。与传统的LLM相比,RAG不需要为每个特定任务重新训练模型。开发人员可以轻松地添加外部知识库,从而丰富模型的输入信息,并显著提高输出的准确性和相关性。

简单来说,RAG的工作流程分解(即增强-检索-生成,实际上为A-R-G)如下图所示:

(1)

增强阶段:

语料库的划分与向量索引构建

首先,RAG将语料(文本)库划分为离散的块(Chunks),每个块代表一段信息。

然后,使用编码器模型(深度学习模型)为这些块构建向量索引,这些向量能够代表块的语义信息。这就像是为知识宝库中每一个块打造了一把精准的钥匙,方便后续快速定位所需信息。

(2)

检索阶段:

基于向量相似性的块检索

接着,通过计算检索词或问题与索引块之间的向量相似性,来识别和检索与检索词或问题最相关的块。

(3)

生成阶段:

响应合成与上下文信息获取

最后,根据检索到的块中获取的上下文信息,合成一个响应(生成文本内容)。由于这一过程不仅依赖于检索到的信息,还依赖上下文理解能力,一般需要通过调用LLM来生成更加精准和连贯的回答。


五、结语


通过上面的介绍,我想大家应该明白“兰台知音”是如何炼成的了,说白了,“兰台知音”实际上就是基于Agent+LLM+RAG架构的知识问答系统在档案领域的优秀实践。

实践证明,基于Agent+LLM+RAG这三件套技术组合,“兰台知音”不但有效规避了大模型常见的“幻觉问题”,提高了档案管理的智能化水平,优化了档案利用服务体验;而且增强了档案行业知识的广度和深度,也为应对行业知识更新的挑战提供了解决思路,有力推动了AI技术在档案领域的创新应用。


数字罗塞塔计划公众号致力于作为中立的第三方客观公正地表达自己对于档案信息化领域的看法和观点。真理越辩越明,我们也衷心欢迎越来越多的人投身到档案数字资源管理和保存这一领域的研究中来并发表真知灼见,共同为人类文明的传承而努力奋斗!


热文推荐

罗塞塔®档案知识问答系统“兰台知音”耀世登场!

22号令与DA/T 99-2024中的“档案备份要求”比较

电子档案数据安全治理路径探索

DA/T 104-2024与GB/T 18894-2016对比分析

【课件分享】电子档案数据安全治理方案


档案信息化

就看罗塞塔

高端交流群已开

加小罗,秒进群

点点“”和分享,给罗塞塔充点儿电吧~

【声明】内容源于网络
0
0
数字罗塞塔计划
保存社会记忆,传承人类文明! 我们始终秉持中立的立场客观公正地分享和交流档案信息化与档案文化领域的知识和观点,致力于成为全国领先的档案”两化”新媒体平台。
内容 524
粉丝 0
数字罗塞塔计划 保存社会记忆,传承人类文明! 我们始终秉持中立的立场客观公正地分享和交流档案信息化与档案文化领域的知识和观点,致力于成为全国领先的档案”两化”新媒体平台。
总阅读10
粉丝0
内容524