2025年春节,DeepSeek模型开源,这意味着,任何人都可以用它的模型来训练自己的专属AI助手。
简单来说,DeepSeek相当于给大家提供了一个通用的AI模型,然后我们就可以在其基础上,训练出符合自己需求的“专属AI助手”。
那么,具体该如何构建自己的专属AI模型呢?
这就要从DeepSeek模型的本地部署开始,不过这对计算机配置有较高要求,建议在部署之前进行需求评估。
一、用Array AIBox本地部署
用Array AIBox本地部署DeepSeek,意味着数据不会传输到外部服务器,可以在无互联网连接的环境下运行模型,并可以根据特定需求调整模型,进行自定义优化,适合对数据隐私和性能有高度要求,且有能力承担硬件和维护成本的用户或企业。
二、打造专属AI助手的基础知识
本地部署大模型,通常就是为了能够训练自己的专属知识库或专属模型。
既然要训练专属模型,我们就需要将自己的专有数据投喂给部署好的模型,让模型吸收我们给它准备的各种“知识大餐”,然后变得更聪明,更懂我们,进而变成我们的专属AI助手。这时就需要用到RAG。
1.什么是RAG
随着自然语言处理(NLP)技术的快速发展,生成式语言模型(如GPT、BART等)在多种文本生成任务中展现了卓越的性能,尤其是在语言生成和上下文理解方面。
不过,生成模型在处理事实类任务时存在一些固有的局限性。
例如,由于生成模型的能力依赖固定的预训练数据,它们在回答需要最新或实时信息的问题时,可能会出现编造信息的现象,也就是常说的“机器幻觉”现象,导致生成结果不准确或缺乏事实依据。
在DeepSeek这类轻量化模型中,机器幻觉现象尤其明显,因此对于本地部署的模型,如果不进行进一步的专属训练,就很难有效使用。
此外,生成模型在面对长尾问题和复杂推理任务时,常因缺乏特定领域的外部知识支持而表现不佳,难以提供有足够的深度和准确性的回答。
而检索模型技术,就能够在海量文档中快速找到相关信息,从而解决事实查询类问题。
然而,传统检索模型(如BM25)在面对模糊查询或跨域问题时,往往只能返回孤立的结果,无法生成连贯的自然语言回答。正是由于缺乏上下文推理能力,检索模型生成的答案通常不够连贯或完整。
为了解决这两类模型所存在的不足,检索增强生成模型(Retrieval-Augmented Generation, RAG)技术应运而生。
RAG通过结合生成模型和检索模型的优势,实时从外部知识库中获取相关信息,并将其融入生成任务中,确保生成的文本既具备上下文连贯性,又包含准确的知识。
因此,在本地部署的模型中使用RAG可以增强模型能力,目前主要有以下三个方面的作用:
①减少模型在回答问题时的“机器幻觉”现象。
②让模型的回答可以附带相关的来源和参考。
③消除使用元数据注释文档的需要。
简单来说,使用RAG技术就能在本地训练专属模型,或者说打造专属AI助手。
2.RAG模型的主要构成
RAG模型由两个主要模块构成:检索器(Retriever)与生成器(Generator)。
这两个模块相互配合,确保生成的文本既包含外部知识,又具备自然流畅的语言表达。
检索器(Retriever):检索器的主要任务是,从一个外部知识库或文档集中获取与输入的查询对象最相关的内容。在RAG中,常用的检索器技术包括:
·向量检索:如BERT,它通过将文档和查询转化为向量空间中的表示,并使用相似度计算来进行匹配。向量检索的优势在于,能够更好地捕捉语义相似性,而不仅仅是词汇匹配。
·传统检索算法:如BM25,主要基于词频和逆向文档频率(TF-IDF)的加权搜索模型来对文档中的关键词进行排序和检索。传统检索算法适用于处理较为简单的匹配任务,尤其是当查询对象与文档中的关键词能够直接匹配时。
RAG中检索器的作用是,为生成器提供一个上下文背景,使生成器能够基于这些检索到的文档片段生成更为相关的回答。
生成器(Generator):生成器负责生成最终的自然语言输出。在RAG中,常用的生成器包括:
·BART:BART是一种序列到序列的生成模型,擅长文本生成任务,可以通过不同层次的噪声处理来提升生成的质量。
·GPT系列:GPT是一个典型的预训练语言模型,擅长生成流畅自然的文本。它通过大规模数据训练,能够生成相对准确的回答,在任务-生成任务(Task-Generation Task)中表现得尤为突出。
生成器在接收到来自检索器的文档片段后,会利用这些片段作为上下文,并结合输入的查询对象,生成相关且自然的文本回答。
3.RAG模型的工作原理
RAG的目的是,通过工程化手段,解决大语言模型(LLM)知识更新困难的问题。其核心手段是利用外挂于LLM的知识数据库(通常使用向量数据库)存储未在训练数据集中出现的新数据、领域数据等。
通常而言,RAG将知识问答分成三个阶段:
1)检索阶段
在RAG模型中,用户的查询首先会被转化为向量表示,随后在知识库中进行向量检索。
通常,检索器会使用诸如BERT等预训练模型,将查询对象和文档片段转化为向量表示,并通过相似度计算(如余弦相似度)来匹配最相关的文档片段。
RAG模型的检索器不再只依赖简单的关键词匹配,而是利用语义级别的向量表示,从而在面对复杂问题或模糊查询时,能够更精准地找到相关知识。
这一阶段对最终生成的回答至关重要,因为检索的效率和质量直接决定了生成器可利用的上下文信息。
2)生成阶段
生成阶段是RAG的核心阶段。RAG模型的生成器,如BART或GPT等模型,会结合用户输入的查询对象和检索到的文档片段,生成更加精准且丰富的回答。与
传统生成模型相比,RAG模型的生成器不仅能够生成语言流畅的回答,还可以根据外部知识库中的实际信息提供更具事实依据的内容,从而显著提高回答的准确性。
3)多轮交互
RAG模型在对话系统中能够有效支持多轮交互。每一轮的查询和生成结果都会作为下一轮的输入,系统通过分析和学习用户的反馈,逐步优化后续查询的上下文。
通过这种循环反馈机制,RAG能够更好地调整其检索和生成策略,使得在多轮对话中生成的回答越来越符合用户的期望。
此外,多轮交互还增强了RAG模型在复杂对话场景中的适应性,使其能够处理跨多轮的知识整合和复杂推理任务。
通过以上三个阶段,RAG不仅提升了生成内容的准确性,还增强了模型在复杂对话场景中的适应性和实用性。
举例来说,企业的内部手册这类资料,大模型是很难获取的。
而在电子商务领域,智能客服的打造离不开商家所出售的产品的服务信息。
这时,借助RAG技术,我们就可以将这些特定内容,投喂给本地部署的大模型,从而训练出一个专属AI助手。
这种模型不仅能有效解决特定领域问题的“机器幻觉”现象,并且能够非常有针对性地回答问题。
以上就是我们要了解的RAG,以及借助RAG构建专属AI模型的基础知识。简单来说,就是我们借助一种AI工具,把各种格式的内容和数据量化给AI模型,让它能看得懂。
然后,AI模型就能将这些知识提取出来,按需要进行加工处理并反馈给我们。如此,AI模型不仅能靠自己原本的知识库回答问题,还能通过检索外部投入的数据集来增强回答的准确性和丰富性。
二、Array AIBox的真正价值
Array AIBox产品刚发布的时候,很多人的第一感觉是产品的性能非常强大,便宜又好用,但其实这只是Array AIBox价值的一小部分,它的真正价值,或者说真正颠覆性之处,不仅仅在于它推出了全国产化的强大AI模型运行能力,更在于它改变了AI的使用方式——大模型私有化部署模式,提供了一种全新的思路,使其产品不仅仅是使用一个大模型,而且是一个可以适配各种需求的基础AI运行解决方案。
这得益于DeepSeek通过蒸馏技术,让大模型变得轻量化,并开放给所有人使用,使企业、个人开发者、科研机构等都能够基于其模型打造自己的专属AI模型。这样的模式不仅降低了AI的使用门槛,让定制化AI成为可能,而且开启了一个全新的AI生态,让AI商业化落地能够真正实现。
—— About Array ——

数组公司由原虹软、恒生电子等知名企业的资深技术专家与浙江大学团队联合创立于2024年。公司依托自主创新的「能力魔方+边缘计算+AIoT」为核心技术架构,打造多场景专属的「物联 - 数联 - 智联 - 人联」四位一体产品及服务。
公司秉持“软件硬件化、硬件装备化、装备场景化、场景智能化”的核心理念,聚焦公共安全、应急科技、智慧警务、健康医疗、工业制造、能源电力、科研实验及智慧园区等行业,提供从感知到决策的专属AI智能体装备解决方案。
随着“人工智能+时代”的来临,基于物联网的泛接入成为新质生产力的主流需求,公司将持续发挥软硬件研运一体化的科技应用能力,持续在边缘计算+AI领域垂直深耕,聚焦客户需求,持续创新。
—— ArrayBox ——
—— 联系我们 ——
联系方式:赵先生 15824460609
联系邮箱:xin1cg@qq.com
———— 关注数组 ————

