点
击
蓝
字
关
注
我
们
数字罗塞塔计划公众号已于今年元旦重磅推出“兰台知音”档案知识问答系统,相关介绍参见本号文章《罗塞塔®档案知识问答系统“兰台知音”耀世登场!》。
是不是看上去很简单的样子?赶紧问一个档案行业的业务或者技术问题测试一下,相信结果应该能让您满意。
一、“兰台知音”的技术架构
从技术架构上来看,除了最上面的用户界面层和最下面的档案知识库之外,“兰台知音”最核心的部分就是被称为知识问答系统三件套的AI智能体(AI Agent,简称“Agent”)、检索增强生成(Retrieval-Augmented Generation,RAG)和大语言模型(Large Language Model,LLM)。以下自顶向下逐层进行介绍:
1、用户界面层
这是用户直接交互的部分,用于接收用户输入的诸如档案业务相关问题,并展示Agent给出的回答结果。
2、智能体(Agent)层
任务分解模块
与用户界面层相连,接收用户的问题,将复杂问题拆解成多个简单的子任务,例如把“档案借阅违反规定后的处理措施以及相关法规溯源”这样的问题拆分为“查找档案借阅违规处理措施”和“确定对应处理措施的法规出处”等子任务。
决策模块
根据问题类型以及RAG、LLM 等情况,决定调用RAG、LLM 或者二者结合等不同的策略来获取答案。例如对于简单明确的法规条款查询,优先调用RAG。
学习更新模块
一方面通过档案知识库语料的不断更新,定期获取最新档案业务知识;另一方面通过记录用户的提问情况、反馈信息等,不断优化自身任务分解、决策等处理逻辑。
对话管理模块
负责处理多轮对话,保存与用户对话的上下文信息,比如用户先问了某个档案业务适用范围问题,后续追问在具体场景下如何操作,该模块能让Agent基于前面的问答内容准确回复后续追问。
3、大语言模型(LLM)层
语言模型接口
上下分别与Agent层、RAG层相连,按照Agent的调用请求或RAG检索到的文本,将问题或者相关文本输入到LLM中,获取其生成的回答或者推理结果。
大语言模型
语言模型接口后面的LLM已经比较成熟,类似“兰台知音”这样的互联网应用直接调用常见的LLM即可,比如文心、通义、豆包等;当然也可以选择档案行业垂直大模型,比如八九数码的语言模型89-LLM。
4、检索增强生成(RAG)层
向量数据库
存储经过向量化处理后的档案业务知识内容,例如将法规条文、标准条款、文件要求、案例解释等文本内容转化为向量形式存储,方便后续快速检索相似内容。
检索模块
接收Agent传过来的子任务或者问题相关信息,在向量数据库中进行检索,找到与之匹配度高的档案知识相关文本片段,然后将检索结果传递给LLM或者反馈给Agent,以便进一步处理。
5、档案知识库层
档案业务知识库
存放各类档案业务知识相关的原始资料文本内容(语料库),是整个系统知识的基础来源,为RAG层的向量数据库构建以及问题回答提供核心依据。首批入库的是大约2000份高质量的法律法规、标准规范、公众号文章、论文书籍等由罗塞塔团队优中选优的参考资料。后续我们还将实时订阅/爬取国内权威网站数据和文章,跟踪档案领域情报信息,不间断维护、更新本地知识库,为“兰台知音”的“出生”、“成长”、“成熟”提供源源不断的“养分”。
二、三件套之智能体(Agent)
Agent是一个能够感知环境、进行决策并采取行动的实体。它可以是软件程序、机器人或者其他具有自主性的系统。
它就像一个聪明的“助手”,通过对指令的分析,明白每一步要做什么,然后逐个完成这些子任务。就如同员工在接到任务后,会根据任务的要求,有条不紊地完成各项工作。
三、三件套之大语言模型(LLM)
在“兰台知音”知识问答系统“三件套”架构中,LLM无疑占据着核心地位,它宛如一位知识渊博、能言善辩的档案专家,为整个系统注入强大的智慧力量。
当然,由于目前市场上绝大多数LLM都是通用大模型,在回答类似于档案行业这样的专业领域问题时容易出现“幻觉”(表现为“一本正经地胡说八道”),因此在实际应用中往往需要与Agent、RAG结合使用,以发挥本地知识库的价值和作用。
四、三件套之检索增强生成(RAG)
正是由于LLM在回答特定领域或高度专业化的问题时存在局限性,容易产生“幻觉”,RAG应运而生。RAG就像是一个外挂,将外部数据检索集成到LLM的答案生成过程中,从而有效增强LLM提供准确响应的能力。RAG+LLM的工作原理如下图所示:
RAG的关键优势在于其灵活性和效率。与传统的LLM相比,RAG不需要为每个特定任务重新训练模型。开发人员可以轻松地添加外部知识库,从而丰富模型的输入信息,并显著提高输出的准确性和相关性。
语料库的划分与向量索引构建
首先,RAG将语料(文本)库划分为离散的块(Chunks),每个块代表一段信息。
然后,使用编码器模型(深度学习模型)为这些块构建向量索引,这些向量能够代表块的语义信息。这就像是为知识宝库中每一个块打造了一把精准的钥匙,方便后续快速定位所需信息。
基于向量相似性的块检索
接着,通过计算检索词或问题与索引块之间的向量相似性,来识别和检索与检索词或问题最相关的块。
响应合成与上下文信息获取
最后,根据检索到的块中获取的上下文信息,合成一个响应(生成文本内容)。由于这一过程不仅依赖于检索到的信息,还依赖上下文理解能力,一般需要通过调用LLM来生成更加精准和连贯的回答。
五、结语
通过上面的介绍,我想大家应该明白“兰台知音”是如何炼成的了,说白了,“兰台知音”实际上就是基于Agent+LLM+RAG架构的知识问答系统在档案领域的优秀实践。
热文推荐
档案信息化
就看罗塞塔
高端交流群已开
加小罗,秒进群
点点“赞”和“分享”,给罗塞塔充点儿电吧~

