大数跨境
0
0

指控领域数据中台的大语言模型应用设计

指控领域数据中台的大语言模型应用设计 Lisa聊外贸
2025-10-21
21
导读:编者按: 在智能化战争形态加速演进的背景下,数据作为核心战略资源,其在指挥控制领域的价值转化能力直接影

     《系统工程与电子技术》刊文精选


编者按:

    在智能化战争形态加速演进的背景下,数据作为核心战略资源,其在指挥控制领域的价值转化能力直接影响指挥决策的效率与精度。当前,指控领域数据中台普遍面临数据多源异构、赋能指挥决策效能有限的瓶颈。该文聚焦这一核心痛点,创新性地将大语言模型技术与指控领域数据中台建设深度融合,构建了“基础设施-数据-模型-软件”层次化架构,结合大语言模型技术,通过“人在回路”的人机协同模式,提出了有效的数据管理和智能化应用方案,能够在指挥与控制领域中处理多源异构数据并赋能指挥决策。该研究不仅为指控领域数据中台的智能化升级提供了可落地的技术路径,而且为作战指挥、智能决策提供了重要参考,彰显了生成式人工智能技术在军事领域的应用潜力。期待后续研究在Multi-Agent协作机制、模型推理广度深度等方面持续突破,进一步推动指挥控制领域的智能化转型。


指控领域数据中台的大语言模型应用设计


Design of applications driven by large language models in data middle platform for command and control 



作者速览


邱鑫源1,2红华32*张敏1,2盛萱竺1,2

QIU Xinyuan 1,2CHEN Honghua 3CUI Xiaolong 2*, ZHANG Min 1,2, SHENG Xuanzhu 1,2

1. 中国人民武装警察部队工程大学研究生大队,陕西 西安 7100862. 中国人民武装警察部队工程大学教育部重点实验室,陕西 西安 7100863. 中国人民解放军网络空间部队信息工程大学网络密码技术河南省重点实验室,河南 郑州 450001



 摘     要 :


在指控领域的应用实践中,数据中台依旧存在支撑指挥决策效能有限的问题。针对指控领域数据中台,设计基于大语言模型的智能化数据应用,将数据有效融入指控流程,最终实现零散数据赋能指挥决策。首先构建分层级应用架构并明确指挥信息流程,而后针对模型层提出指控领域专用大语言模型构建方法和多模型协作架构,针对软件层阐述了事件要素生成等四类应用的实现方法;最后,以某任务平台为例实证了研究的有效性,为数据中台建设和智能化指挥提供参考。




Abstract:

In the data middle platform for command & control, which is namely as C2, data support for command decision-making is still limited. In view of the data middle platform for C2, with effective integration of data into Command Information process, intelligent data applications based on large language model are proposed, ultimately achieving scattered data empowerment for command decision-making. Firstly, a hierarchical application architecture is constructed, clarifying the workflow of command information. With the construction of domain-specific large language model for C2 and the collaboration framework of multi-models elaborated as for Model as a Service layer, the implementation methods of applications such as event element generation are described for the Software as a Service layer. Finally, the effectiveness of the research is empirically verified by taking a task platform as an example, providing a reference for the construction of data middle platform and intelligent command.


关键词:数据中台;大语言模型;指挥与控制;智能化指挥

Keywordsdata middle platformlarge language models; command and control; intelligent command





以下进入全文阅读

数据作为一种新型战略资源,在指挥决策中的作用愈发凸显。当前,指挥控制(Command & Control, C2)领域数据分散在不同业务部门之间,在地理分散、烟囱林立的“信息群岛”中呈现多源异构的特点。针对数据互联互通难,数据应用有限的问题,为充分发挥数据效能,可通过数据中台进行数据引接、采集、处理等,实现数据价值变现。

数据中台最初由阿里巴巴[1]提出,通过对海量数据进行采集、计算、存储和处理,能够将数据资源变为数据资产,最终面向用户提供高效的服务。目前,数据中台在商业、地产、政务等领域已得到了充分应用[2-3],学者对军事、指控领域数据中台进行了系列架构设计和应用集成。郭建胜等[4]结合企业中台和美军全球信息栅格案例,提出了面向军事信息系统的业务中台和数据中台构想。针对装备保障数据零散且决策支持不足的问题,李文俊[5]主要数据同步、数据服务和数据API接口进行了分析优化刘东波等[6]基于软件定义的平面划分方法,将中台架构划分为执行平面、控制平面和应用平面,并细化了任务规划业务中台架构和数据中台架构,解决软件功能重复开发问题。总体来说,目前面向军事、指控领域的数据中台整体的数据决策支持有限。

指控领域数据具有来源繁多、规模性庞大、更新频繁、类型多样等突出特点,如何在指控领域数据中台中实现多源零散数据有效汇集并赋能指挥决策,是其建设的关键,也是目前横亘在我们面前的难题之一。而类ChatGPT[7]大语言模型技术的出现则为解决这一问题提供了新的解决方案。不少学者针对军事、情报领域提出了基于大语言模型应用构想,为本研究拓宽了思路,文献[8-11]提出将大语言模型用于情报分析、态势感知、认知攻防、辅助决策制定等,军事科学院张洪广等[12]从原理方法出发对大模型驱动的智能辅助决策进行分析,并提出智能辅助决策大模型的4种构建策略。

针对指控领域数据中台数据多源异构、智能化应用有限的问题,在大语言模型(Large Language Model, LLM)这一生成式人工智能技术的加持下,提出并设计了大语言模型驱动的指控领域数据中台系统:以指控领域专用大语言模型为驱动,贯穿数据归集、治理、应用全生命周期,并最终实现系列数据智能应用,支撑指挥决策。本文主要工作如下:

1)架构方面:为实现数据融入指挥控制流程,结合云服务模型[13]思想,提出指控领域数据中台分层级应用架构和指挥信息流程;

2)模型方面:构建了指控领域专用大语言模型(Domain-specific Large Language Model for Command & Control, C2-LLM),并提出以C2-LLM为核心的多模型协作架构,明确各模型之间的协同关系,提升系统处理复杂任务能力;

3)应用方面:阐述了在大语言模型驱动下的事件要素生成、知识图谱生成、决策方案生成、智能要图标绘应用的具体实现方法,提升数据中台的整体智能化水平;同时,在隔离专网部署运用,以抢险救援任务平台为例验证了设计的可行性和有效性。

1 总体设计

1.1 需求分析

在指控领域数据中台,数据往往来源于不同网系、不同业务系统或采集设备,原始数据的格式、结构、来源、标准各有不同,具有显著的4V特点[14]。传统的数据中台能够实现数据有效汇聚,但主要依托人力进行数据生命周期管理,所提供的数据智能应用有限,支持决策效能有限,难以适应指控领域快速响应要求和智能化需求。因此,系统研制目标主要分为以下2个方面:

1)数据层面提升数据全生命周期管理的智能化水平:以大语言模型为驱动,快速实现数据采集归集,并提供文本、向量、图谱等多种数据转换功能,提升数据共享能力和数据管理自动化水平;

2)应用层面通过数据智能应用赋能指挥决策:面向指挥员提供知识图谱、决策方案、标绘要图等“图文并茂”综合展现,实现数据有效融入指挥信息流程,为指挥决策提供数据、模型、智能支持,为遂行多样化任务提供保障。

1.2 应用架构

大语言模型驱动的指控领域数据中台为支撑各类指挥和军事业务系统应用高效运行、敏捷开发提供统一的数据“底座”。结合云服务模型和领域驱动设计方法[15],采用松耦合的分层级架构,如图1所示,主要包括基础设施服务层、数据服务层、模型服务层、软件服务层4个层级,层级相互支撑、紧密联动,提供从基础算力到智能化数据应用的体系支撑

1 分层级应用架构

Fig. 1 Hierarchical application architecture

1.2.1 基础设施服务层

基础设施服务(Infrastructure as a Service, IaaS)层作为系统的底层架构,是保障系统算力和网络的基础设施,具体包括存储、计算、网络、容灾备份模块。针对地理分散的分布式数据中台,IaaS层采用云协同、智能调度、云资源虚拟化、容器等关键技术,为指控领域数据中台提供基于云原生架构和集成数据、模型、应用的云操作系统,具备虚拟化、容器化双引擎和超融合、轻量化、智能化特点,能够提供弹性的计算资源和海量存储能力的资源底座。

1.2.2 数据服务层

数据服务(Data as a Service, DaaS)层是系统的数据服务底座,提供数据归集、数据治理、数据存算、数据资产、数据融合、数据调度、数据销毁数据服务,是实现指挥控制的“原料”。数据以图、文本、向量等多模态形式存储在文本库、向量库、图谱库、标题库、标签库、专题库中,构成多模态知识库,便于后续实现高效的全局数据查询。

1.2.3 模型服务层

模型服务(Model as a Service, MaaS)层是系统实现智能化的关键,提供模型管理、模型部署、模型训练、模型推理、模型封装、模型可视化的全流程服务,具体包含各类大模型和面向具体业务的各类业务小模型、AI小模型集。

模型服务层采用多模型协作架构,以指控领域专用大语言模型为核心,集成有ChatGLM[16]Qwen[17]Baichuan[18]等各类通用基础大语言模型(General Large Language Model, GLLM)和多模态大模型(Multimodal Large Language Model, MLLM)[19]。以大模型群为驱动引领系列小模型集矩阵,可为零散数据赋能指挥决策提供模型和算法支持。

1.2.4 软件服务层

软件服务(Software as a Service, SaaS)层是实现赋能指挥决策的“最后一公里”,具体包括各类大数据任务平台、交互助手、应用门户,为用户提供各类数据智能应用服务。SaaS层面向多样化任务提供服务,以应用门户为首页导航,通过交互助手与指挥员直接进行交互,具备多模态交互能力。SaaS层针对不同行动样式提供相应大数据任务平台,各平台均集成有各类数据智能应用服务,如事件要素生成、知识图谱生成、决策方案生成、智能要图标绘。指控领域数据中台通过SaaS层为指挥员提供数据、模型可视化服务及推理分析结果,以“图文并茂”的多模态综合呈现方式,辅助指挥员指挥决策。

1.3 指挥信息流程

在分层级架构支持下,系统能够有效实现数据融入指挥信息流程,为辅助首长机关指挥决策、保障部队遂行任务提供精准、及时、可靠的数据服务和数据应用保障。图2描述了分层级架构支撑下的指挥信息流程,为进一步明确各层级之间的协同关系,图示中以不同底色表示该过程是在哪个层级支撑下实现的,其中蓝色表示由DaaS层支撑,橙色表示由MaaS层支撑,绿色表示由SaaS层支撑:

2 指挥信息流程

Fig. 2 Command Information process

1)系统输入:指挥员通过交互助手,以语音或键盘鼠标触控等多模态方式输入需求,经语音识别、视频识别、文档识别等处理或GLLM处理,将输入转化为事件相关文本并输入给C2-LLM

2)问题解析:C2-LLM经语义理解后,解析本次任务处置的事件要素,并经指挥员修正确认,系统根据要素进入对应的任务数据平台;

3)任务规划:大模型将任务分解为多个子任务,并通过向量化计算、协同过滤、推荐算法等实现子任务到业务小模型、AI小模型的映射,根据相似度向指挥员推荐多个小模型;

4)系统执行:由指挥员自行选择相关模型后,各模型进行运行和处理,得到事件相关要素数据和各类数据产品;

5)数据支持:要素数据和数据产品按照规则存储到数据中台的向量库、图谱库、文本库等各类知识库中,并以检索知识增强、提示工程等方式输入给大语言模型,大语言模型根据要素数据进行内容生成,得到知识图谱、作战文书、要图标绘等各类数据智能应用;

6)综合展示:任务平台集成并展示各类数据产品和智能应用,具体形式包括图、表、分析报告等,最终“图文并茂”的方式综合呈现结果以辅助指挥员指挥决策;

7)反馈优化:为进一步优化模型,将指挥员反馈的评价结果反馈给大语言模型用于模型优化,并将本次事件相关数据和解决方案存储到知识库中,以备后续检索。

以大模型为代表的人工智能负责中间过程,通过大模型、小模型协作完成语义理解、任务分解、自主推理和生成结论。指挥员主要负责确定关键要素、选择相关模型、修正优化输出,以提升系统执行的准确性。通过“人在回路”的指控方式,有效结合人类智能和人工智能,具有一定的智能化指挥特征。

模型层关键技术

2.1 基座大语言模型测评选型

考虑到指控领域自主可控要求,选用的基础大语言模型必须满足国产、擅长处理中文任务、支持私有化部署条件,同时为快速迭代和节省部署开发成本,模型还应具备轻量化特点。因此,大语言模型选型重点关注国内百亿参数级别的国产开源语言模型

目前诸如C-Eval[20]SuperCLUE[21]的大语言模型评估大多只针对模型通用能力,而非领域专用能力,评估的参考价值有限。因此,经隔离专网部署一系列模型后,采用德尔菲法测评基座大语言模型的指控垂直领域能力。结合具体业务应用场景,重点测评了大语言模型结合多示例提示工程和外挂知识库后的军语语义理解、文档编辑、文书拟制生成、实例分析和情报分析5个方面能力。结合初步测评结果,最终采用ChatGLM4-9B-128K作为基座大语言模型。后续也可根据模型迭代情况实际任务应用需求选用其他开源基础大语言模型

2.2 指控领域专用大语言模型构建方法

由于模型参数量规模相对较小、原始语料中指控领域数据匮乏等原因,ChatGLM4-9B-128K的指控垂直领域能力还有待提升。为增强其指控领域语义理解能力和任务解决能力,通过微调方式构建C2-LLM,如图3所示:


3 指控领域专用大语言模型构建流程

Fig. 3 Construction process of C2-LLM

1)收集指挥专用语料:综合运用已有数据梳理、开源数据采集、内部网络收集、人工整编等方法,从开源情报、已发表教材论文、内部网络公开的新闻案例等来源采集超300万字的语料文本,收集构建面向智能化指挥的专用语料库。

2)以“自动+人工”的半自动标注方法构建指令调优数据集:为将指挥专用语料库文本数据有效转化为大语言模型能够学习的指令问答对形式,需要对语料库中的文本数据进行处理。通过大语言模型自动标注和人工校验相结合的半自动标注方式能够快速构建高质量指令调优数据集,具体步骤如下:①经数据过滤、格式转换等进行数据预处理;②将长文档进行文本切分;③通过LlaMA标注工具[22]自动标注问答对;④人工校验问答对质量,具体包括修正问答对、删除重复内容等;⑤生成指令微调数据集。在本实验中,对约10T300万字语料进行标注,最终得到近3万条高质量问答对。

3)基于ChatGLM4-9B-128K模型进行微调:为使ChatGLM4-9B-128K更好适应具体下游任务,在模型调优过程中,使用Telsa A40 48G显卡,并选用低秩适应技术(Low-Rank Adaptation, LoRA)[23]技术对基座模型进行高效参数微调。LoRA通过低秩矩阵编码快速更新模型参数,模型更新为

其中

表示大模型权重矩阵,

LoRA只需训练矩阵A和矩阵B于资源有限场景下的高效深度微调。超参数设置如表1所示,为节省内存将批量大小设置为1,将秩设定为16能够有效平衡模型性能和计算成本。结合文献[24]及文献[25]的实验结论,将alpha值设置为秩的2倍,能够缓解灾难性遗忘并节省计算成本。

经过高效参数微调后,C2-LLM所生成的内容要素齐全且格式规范,具备较好的指控领域语义理解和内容生成能力,如表2所示。

1 LoRA超参数设置

Table 1 Hyperparameter settings of LoRA

超参数

批量大小

1

梯度累积步数

16

日志记录步数

10

预热步数

20

存档步数

100

学习率

3e-4

训练回合

3

随机失活

0.05

(LoRA rank)

16

缩放更新系数(LoRA alpha)

32

2 指控领域专用大语言模型问答示例

Table 2 Example of C2-LLM Q&A

在作战指控领域,定下决心通常有几个环节?

在作战指控领域,定下决心通常包括以下几个环节:

1.分析敌情:在定下决心之前,指挥员需要对敌情进行详细分析,了解敌人的战术、力量、装备、地形等具体情况,为定下决心提供准确的信息支持。

2.情况判断:在分析敌情的基础上,指挥员需要对当前的形势进行评估,判断敌人的威胁程度、自己的威胁程度、作战目标的重要性等,为定下决心提供全面的信息支持。

3.制定作战方案:在评估形势的基础上,指挥员需要制定具体的作战方案,包括作战目标的选择、作战路线的确定、作战策略的实施等,为定下决心提供详细的方案支持。

4.确定决心:在制定作战方案的基础上,指挥员需要确定决心,即确定作战目标和作战策路,并制定相应的指挥措施和执行计划,以确保作战行动的成功实施。

5.执行决心:在确定决心之后,指挥员需要按照决心制定相应的指挥措施和执行计划,并组织部队进行作战行动,确保作战行动的成功实施。


2.3 多模型协作架构

经调优的C2-LLM已具备较强的领域语义理解和内容生成能力,但其数据来源和多模态处理能力有限。因此,为进一步提升系统处理复杂任务能力,模型层采用以大模型群驱动业务、AI小模型的多模型协作架构。

2.3.1 关键要素

在多模型协作架构中,大模型群包含C2-LLMQwen-7BBaichuan等其他通用LLM,并集成有ChatGLM-4V-9B[26]Qwen2-VL[27]等多模态大模型完成文档识别、视频理解等任务,解决C2-LLM只能处理文本的局限,并丰富隔离专网的数据来源;小模型如1.2.3小节所述。

结合AI智能体基本思想[28-29],多模型协作架构如图4黄色框图所示,包含感知器、控制器、工具集、环境4个关键要素。GLLMMLLM作为感知器;C2-LLM作为控制器;工具集主要指业务、AI小模型以及可视化工具等外部模型和外部资源;工具执行结果和用户反馈等外部信息作为环境进行反馈。记忆组件主要通过知识库提供精准数据支持:数据中台将数据分类存储到向量库、图谱库、文本库等多模态数据库,并通过LangChain应用框架[30],以检索增强生成(Retrieval-Augmented Generation, RAG)方式提升大模型生成内容的精准性。同时,结合多示例提示[31]、思维链提示[32]、角色提示[33]等多种提示工程方法,通过在提示库集成提示词引导C2-LLM输出。


4 多模型协作方式

Fig. 4 Mechanism of multi-models collaboration

2.3.2 协作方式

多模型协作架构主要采用基于角色的协作策略,为直观体现模型之间关系,图4中简化略去了人工修正、人工反馈等环境信息:

1)感知侧GLLMMLLM向控制器输入概要信息:由于面向指挥控制场景,系统通常在隔离的独立专网中运行,因此将知识丰富的通用大语言模型作为专网的内网数据源,向C2-LLM输入概要信息,并通过多模态大模型处理多模态任务,实现知识融合;

2)控制侧C2-LLM进行任务规划:由于具备较为突出的军事语义理解能力和任务规划等能力,C2-LLM居于大模型群的关键位置,作为指挥员和系统的人机交互接口以及系统执行的控制器。C2-LLM按照链式推理将复杂任务划分为子任务后,基于RAG的子问题查询转换、多步查询转换,通过语义对齐和映射关系,构建任务序列,针对不同子任务按照相似度推荐、调用不同小模型;

3)工具侧业务、AI小模型执行子任务:业务、AI小模型作为领域工具处理子任务,目前主要采用并行的执行顺序,基于标签按照预定义的路径进行计算运行;

4)环境侧工具执行结果及其他外部信息进行反馈:将小模型推理结果以结构化的上下文形式,通过提示增强C2-LLM输出;同时收集指挥员的反馈信息,以人工监督、反馈评价的方式优化模型;

5)控制侧C2-LLM以反思方式进行综合集成:C2-LLM通过API调用综合MLLMGLLM、小模型集输出的各类结果,经评估反思进行内容的综合生成,最终在SaaS层交互界面以“图文并茂”的统一表示,为指挥员呈现各类图例、图示、表格和各种层次的分析报告,以知识、模型、工具的融合最终实现赋能指挥决策。

C2-LLM作为协调决策方和综合集成方,其他模型主要作为优化方,以可视化工具、上下文的形式增强C2-LLM的输出,通过收集概要信息和环境反馈实现模型之间的知识迁移。

软件层数据智能应用

3.1大模型驱动的事件要素生成应用

为有效保障遂行多样化任务,指控领域数据中台面向多样化任务分别构建了多个大数据任务平台。因此,在受领任务阶段,为快速进入对应的大数据任务平台,需要基于输入的数据生成事件的时间、地点、类型、基本情况等关键要素,并创建相应的事件任务。

针对多种格式的文件输入,光学字符识别(Optical Character RecognitionOCR)处理后,基于事件抽取技术,大模型进行文本识别、提取和分析,生成摘要并提取出关键要素,能够从非结构化文本中抽取出结构化事件信息。具体实现方法如图5所示:


5 大模型驱动的事件要素生成方法

Fig. 5 Method of event element generation driven by LLMs

1)上传文件用户通过数据采集模块批量上传各类文档、视频、图片等多模态数据;

2)数据处理:对输入的文档进行OCR等文档处理或视频、图片处理,将多模态数据转换为可编辑的文本批量输入给大模型;

3摘要生成:大模型结合摘要生成模型压缩关键信息,识别文本中关键内容并生成摘要;

4)事件要素生成:大模型结合语义理解和内容生成能力并经Few-shot提示工程,基于摘要再次生成{事件名称&任务类型&时间&地点(经度纬度)&摘要}格式的事件要素;

5人工校验:人工修正自动生成的事件要素,以确保内容的完整性、准确性和流畅性;

6)进入大数据任务平台:根据事件的“任务类型”要素进入相应的大数据任务平台;

7)创建任务:在对应的大数据任务平台依据“事件名称”等事件要素创建任务事件,支撑后续系统交互。

3.大模型驱动的知识图谱生成应用

知识图谱是一种结构化的知识表示方法,能够组织体量庞大、种类繁多、关联性有限的各类零散数据,建立完备的军事领域知识体系。知识图谱能够丰富数据可视化形式,更好地体现实体之间的关联关系。研究表明,知识图谱不仅能够以可视化方式快速激发指挥员思维,同时能够作为RAG外挂知识库提升大模型推理能力[34]

构建领域知识图谱往往需要大量高度相关数据,按照数据输入-文本生成-三元组抽取-实体构建-图谱展示的流程快速构建事件相关知识图谱,极大简化构建过程。具体方法如图6所示:

6 大模型驱动的知识图谱生成方法

Fig. 6 Method of knowledge graph generation driven by LLMs 

1)系统输入:指挥员输入关注的图谱主题;

2)文本生成:为提升准确度,选择主题相关向量库和图谱库作为RAG知识库,而后指控领域专用大模型按照图谱主题生成流畅自然的文本;

3)三元组构建:结合实体属性和相关实体信息,大模型从生成的文本信息中抽取补全实体关系实体三元组;

4人工校验:为提高图谱准确率,人工检查大模型生成的三元组是否存在不完整、重复、错误,而后人工补全、删减、修改

5图谱可视化:将三元组通过neo4je-chart等可视化工具进行可视化展示;

6二次校验:检查图谱中实体属性、标签等是否需要修改;

7图谱显示和存储:将构建的实体和关系结果进行可视化图谱展示,并保存存储到图谱库中,用于后续作为RAG知识库反哺大模型推理。

3.大模型驱动的决策方案生成应用

在数据应用阶段,为实现数据赋能指挥决策,最终需要为指挥员提供情况判断结论、决心建议等决策方案,支撑指挥员指挥决策。决策方案具有准确性、机密性权威性等特点,要求格式规范,措辞严谨,文字简朴。依赖人力撰写方案费时费力,因此,基于大模型的语义理解能力和内容生成能力,结合系统精准数据支持,能够快速拟制情况判断、决心建议等各种层次的分析报告和决策方案,有效提升指挥决策效率。具体实现方法如图7所示:

7 大模型驱动的决策方案生成方法

Fig. 7 Method of decision-making scheme generation driven by LLMs

1)系统输入:指挥员通过大数据任务平台向指控领域专用大模型输入需求,如“请生成情况判断结论”;

2)类型解析:基于大模型军事语义理解能力,大模型结合多轮对话,解析出具体需要拟制的决策方案类型并调用相应提示词;

3)任务规划:基于大模型Agent能力,指控领域专用大模型根据文书类型,以小模型映射关系作为外挂知识库,确定需要调用的指控领域业务小模型和相关数据;

4)系统执行:基于大模型内容生成能力,各类业务小模型将执行结果输入给大模型分别进行润色和内容生成;

5)综合集成:基于大模型推理能力和内容生成能力,大模型结合预置模板,以知识库中相关案例为参考,对各执行结果和精准数据作综合集成,形成最终的决策方案。

在大模型驱动下,采用“自动式生成+模板式生成”结合方式,完成各层次、不同模块的编写和重组过程,供指挥员参考修改,能够提高文书拟制效率,有效缩短指挥周期,提升指挥的智能化水平。

3.4 大模型驱动的智能要图标绘应用

勤务要图是指挥决策的关键一环,标图需要将适当的军队标号以适当的方式标绘在地图适当的位置上。目前军事、指挥业务系统主要依赖人工绘制要图,在指控领域数据中台中,在大模型驱动下,可以基于自然语义理解实现依标图命令自动标图。大语言模型结合标图语义库针对标绘命令提取出标绘信息要素(如标号编码、位置、方向、颜色、范围等结合标号库生成相应的军事要图,再由人工进行编辑存贮。具体实现方法如图8所示:

1)系统输入:首先指挥员口述标绘命令或以PDFWordTxt等文档形式输入标绘命令;

2)文本生成:经OCR识别等文档处理方法或语音识别方法,将多模态的输入统一转化为标绘命令文本;

3)要素抽取:基于大语言模型自身的语义理解能力和提示工程,标绘命令进行要素句提取,并逐句分解和提取标绘要素、标绘位置基于标图短语库等知识库进行相似匹配,进而提炼出多个最小不可再分的标图要素点,得到多个一一对应的<标绘要素,标绘位置>对;

4)人工干预:观察判断所提炼的<标绘要素,标绘位置>对是否正确,若不正确,则人工介入进行编辑修改;

5)要素标绘:结合标号库对提取出的要素点在地图图层的相应位置进行逐个标绘;

6)组合:基于组合规律进行标图;

72次人工干预:观察判断标图位置、组合、叠放级别、注记文字等是否正确,若不正确,则人工介入进行编辑整饬;

8)标定:将标定结果存储输出;

9)后续优化:执行完成一个满足要求的实例后存入实例库中,后续标绘可参照实例库中相似实例构造标图,通过队标的选择性替换,队号的注记,标绘位置的确定等快速完成标绘。

8 大语言模型驱动的智能要图标绘方法

Fig. 8 Method of Intelligent map plotting driven by LLMs

3.5 小结

指控领域数据中台作用于信息域、认知域,采用“人在回路”的人机融合控制方式。如图9所示,在观察-判断-决策-行动(Observation- Oriention- Decision- Action, OODA)环中,本章所述的大模型智能应用主要作用于判断阶段和决策阶段,辅助指挥员进行态势认知和作战指挥决策。


9 OODA视域下数据智能应用的作用形式

Fig. 9 Patterns of Intelligent Data Applications driven by LLMs from the Perspective of OODA Loop

根据作战辅助决策理论[35],决策支持方式通常主要有3种:数据支持、模型支持、智能支持。事件要素生成应用和知识图谱生成应用主要面向“观察”,以结构化的知识表示形式为指挥决策提供数据支持,决策方案生成应用和智能要图标绘应用面向“行动”,为指挥决策提供模型支持和智能支持,能够提升指挥决策效率,将信息优势转化为决策优势。

3将上述应用的实现方法与传统方法进行了对比分析。本文所述事件要素生成方法适用于复杂任务场景,知识图谱生成方法适用于领域知识有限场景,决策方案生成方法和智能要图标绘方法适用于知识密集、高时敏任务场景。根据目前技术发展,决策方案生成应用主要适用于辅助处理半结构化决策问题,如生成情况判断结论、决心建议等,即确定准备和实施战斗行动的目标和方案,为战术决策提供支持。

3 本文方法、传统方法的对比分析

Table 3 Comparative analysis of methods proposed by this article and traditional methods

应用

传统方法

本文方法

原理

优势

劣势

原理

优势

劣势

事件要素生成

基于CNNGNN等深度神经网络进行重要特征提取

1)过程可解释性强

1)模型训练依赖于大量标注数据

2)推理分析弱(仅依赖事件抽取模型无法直接生成摘要)

大模型基于语义理解能力,按照提示模板将多源情报信息转化为统一的事件表示形式

1)能够较好处理多源数据

2)支持多模态输入

3)可扩展性强(可输出Json等多种格式)

1)可能出现事实性幻觉[36]

知识图谱生成

基于SVM等统计模型依赖规则模板抽取实体、关系

1)资源消耗小

2)可解释性强

3)准确率高

1)高度依赖人工

2)可扩展性差(新领域需要专家重新设计规则)

3)需要注入大量领域知识数据

大模型进行文本拓展和自动化抽取三元组,适用于构建特定领域知识图谱

1)自动化程度高

2)泛化能力强

3)无需注入大量领域知识

1算力资源消耗大

2)可能出现知识冗余、知识冲突

决策方案生成

暂无能够有效处理非结构化、半结构化决策问题的指控领域决策生成模型,主要通过业务人员人工撰写

-

-

大模型基于知识库数据和历史案例进行内容生成

1)高效的知识融合、信息处理

2)节省人力成本,可快速生成多套可参考的决策方案

3)格式高度规范

1)方案的可执行性有限

2)可能出现事实性幻觉

智能要图标绘

目前公开的军事标图自动化方法主要采用基于规则[37]或模式[38]的方法抽取标绘信息,而后业务人员基于此通过标绘软件实现标绘

1)相较手工作业,有效提升业务人员工作效率

1)预置规则复杂,涉及句型分析、分词处理、语义角色标注等

2)需要集成标绘软件,且需要人工编辑输入

大模型结合相似度计算,抽取出目标位置、兵力部署等要素,用作支持标绘工具生成态势图

1)显著提升业务人员工作效率;相较文献[37][38],预置规则更简单

2)自动化程度提升:大模型输出结果可按标绘软件要素按序输出

1)涉及标号库、标绘软件等第三方专业工具

2)算力资源消耗大


4  案例研究

本研究已在隔离专网环境完成原型系统开发和部署,为综合考虑数据中台的功能定位和指控领域的特殊性,以抢险救援任务为行动样式设置基本情况,以想定作业的形式,模拟在任务处置过程中使用指控领域数据中台进行辅助决策。采用案例测试方式进行功能测试,主要通过软件层应用效果检验系统架构和应用设计的可行性和不足。

4.1 实验设置

本研究目的在于通过大模型驱动实现零散数据赋能指挥决策,提升指控领域数据中台的辅助指挥决策效能,其中数据层实现零散数据融合汇聚,模型层采用多模型协作架构,因此重点针对软件层进行测试验证:各类数据智能应用已按插件和配块形式集成到系统中,因此以抢险救援任务平台为测试接口,基于1.3节所述指挥信息流程调用应用服务。

4.1.1 测试方法

采用定性、定量相结合的方法进行测评,邀请20名军事学研究生作为评审专家,在实验室环境下(如表4所示)登录系统界面,经用户端认证后在线使用。采用专家打分法,每项评价指标满分为10分,在综合评价分析时根据指标权重进行加权计算。最后,通过填写咨询表,收集专家对系统整体满意度的定性评价,总结待改进的问题。

4 实验环境

Table 4 Experimental environment

实验环境

GPU

CPU

内存

CUDA

服务端环境

V100S-PCIE-32G 双卡

Intel(R)Xeon(R) Platinum 8360H CPU @3.00GHz

377G

12.4

用户端环境

NVDIA T1000 8G

11th Gen Intel(R) Core(TM) i7-11700 @2.50GHz

32G

-

4.1.2 测试数据

本次测试案例以抢险救援任务为基本行动样式,设置想定作业的基本情况20XXXXXXXXXXXXXX自治州XX县发生XX级地震······”。基于上述情况,通过收集、梳理、清洗演习训练的作战想定和开源情报构建本次案例分析的测试数据,主要包含约4万字的文本测试数据及部分图片视频。

在测试过程中各应用的提示词已内置集成到提示库中,提示词具体包含角色、目标、要求、工作流、示例等要素。图10是决策方案生成应用的提示词示例,其中各类业务模型执行结果以及各知识库数据作为已知信息(图中“info”)支撑分析推理。

10 决策方案生成应用提示词示例

Fig. 10 Prompting example of decision-making scheme generation

4.1.3 评价指标

采用层次分析法建立评价指标体系时,综合考虑完整性、逻辑性、科学性、准确性、规范性要求,将各应用的评价维度分为大模型响应和系统响应,明确大模型的能力类型和评价因素(如表5所示)。为兼顾测评通用性和特殊性,邀请军工企业工程师及军事学研究生,通过专家咨询完善初步建立的评价指标体系,最终得到如图11所示的评价指标体系,从上至下依次为评价对象、评价维度、评价因素、评价指标。其中,知识图谱完备性衡量对某领域知识的覆盖程度;知识图谱的一致性指内部知识是否一致;标图可用性考察标号的颜色、缩放比例、方向、旋转角度等。通过层次分析法和专家打分法确定评价指标权重,在构造判断矩阵时采用1-9尺度法两两比较。

5 评价因素

Table 5 Evaluation factors

评价对象

评价因素

大模型能力类型

评价指标

事件要素生成应用

所抽取事件要素

总结

准确性、完整性

所生成事件摘要

总结

准确性、简明性

知识图谱生成应用

所生成文本内容

拓展

准确性、全面性

所抽取三元组要素

总结

准确性、完整性、规范性

所呈现知识图谱

转换

准确性、完备性、一致性

决策方案生成应用

所生成方案内容

拓展

决策要素齐全性、术语专业性

推理

数据可靠性、可参考性

智能要图标绘应用

所提取标绘要素

总结

队标号识别准确性、位置识别准确性

所呈现标图结果

转换

可用性、完整性


11 评价指标体系

Fig. 11 Evaluation Index System

4.2 实验步骤

具体实验步骤如下:

步骤模拟受领任务阶段) 选择事件要素生成应用,录入本次任务的测试数据后,系统输出事件名称、任务类型、时间、地点、摘要等关键要素,并推荐进入相应的抢险救援任务平台,专家针对所抽取生成的要素和摘要进行评价;

步骤(模拟分析判断情况阶段) 进入任务平台后,调用知识图谱生成应用服务。选择本次测试数据作为知识库,输入事件主题(如“受灾区域附近重要目标单位”),系统输出大模型拓展生成的文本而后输出据文本提取的三元组,最终展示并存储知识图谱。专家分别针对生成的文本、三元组、图谱打分。

步骤3 (模拟形成作战方案阶段)  以一句话指令形式(“请根据此次事件生成情况判断结论”“请根据此次事件生成决心建议”)驱动系统生成决策方案,系统输出相应决策方案,专家进行打分;

步骤(模拟定下决心阶段) 输入标绘命令(XX分队于(XX.XXXX, XX.XXXX)XX挺进搜索”等),系统输出大模型提取的标绘要素和位置,并在地图层进行相应标图响应。专家针对标绘要素和标图结果进行打分。

步骤(定性评价) 专家填写咨询表,对系统进行综合评价,具体包括操作便捷性、应用实用性、响应效率等。

4.3 实验分析及结论

4.3.1 实验结果及分析

实验原始分如图12所示,将原始分进行指标权重加权后,各应用标准分及相应大模型能力如表6所示,其中大模型能力分数主要根据表5中能力类型与指标的对应关系计算。针对表6结果分析数据智能应用和大模型能力的总体趋势,按照五值分类法,事件要素生成应用和智能要图标绘应用好,知识图谱生成应用及决策方案生成应用较好。在四类应用中,大模型总结、转换能力好,拓展能力较好,推理能力中等。针对图12结果进一步分析:

12 实验原始分

Fig. 12 Original scores of the experiment

6 实验结果

Table 6 Experimental results

数据智能应用

综合标准分

大模型能力维度

大模型能力分数

事件要素生成应用

9.14

总结

9.14

知识图谱生成应用

7.96

拓展

7.81

总结

8.16

转换

8.11

决策方案生成应用

7.55

拓展

9.19

推理

6.93

智能要图标绘应用

9.51

总结

9.31

转换

9.63


1)知识图谱生成应用的文本全面性、三元组完整性、图谱完备性分数较低,制约应用效果的原因可能主要是所生成文本内容的丰富度有限,说明大模型在检索总结长文本时简洁性、全面性难以兼顾,侧面说明大模型上下文窗口长度的重要性;

2)决策方案生成应用的决策要素齐全、军事术语专业性较高,但数据可靠性有待进一步提升,说明C2-LLM已经具备较强的军事语义理解能力,但数据支持有限,可能进而限制了方案的可参考性。为缓解幻觉问题,有待继续研究高效精准的RAG检索、排序算法;

3)智能要图标绘应用中4个评价指标均达到了9分以上,说明目前规则库、提示模板等较为完善,后续有待针对复杂标绘命令(如兵力编组等)进一步研究性能表现;

4)系统工具响应表现较好,说明系统运行正常,能够调用模型工具。标图响应的表现优于图谱响应,可能与相关大模型表现有关。

4.3.2 小结

基于上述实验分析,结合专家咨询表意见,得出以下结论:

1)整体上系统能够较准确实现四类应用,辅助指挥员指挥决策,显著缩短决策周期。整体操作便捷,但响应速度有待提升,尤其是生成领域知识图谱和决策方案时响应较慢,可能受计算资源、内存限制;

2)应用效果上事件要素生成应用优于知识图谱生成应用优于决策方案生成应用。在决策方案生成中,所生成的情况判断结论优于决心建议,大模型应用更适用于情报决策,作战决策和组织决策的应用能力还比较有限。而智能要图标绘需要通过完成复杂命令标绘进一步提升实用性;

3)大模型能力上更适用于事件抽取、关系抽取、命名实体识别等总结性任务,在格式转换任务中结果较为规范,拓展任务中依旧存在部分幻觉问题,推理能力是主要的瓶颈短板。

5 结语

针对指控领域数据零散且赋能指挥决策效能有限的问题,本文面向指控领域数据中台设计了大语言模型驱动的系列智能化数据应用和多模型协作架构,通过结合RAG、提示工程等技术能够有效提升数据中台整体智能化水平和指挥决策效率。后续可展开如下研究:1)模型训练层面采用持续预训练[39]、高效参数微调[40]等多种训练方法优化模型性能;2)协作架构层面:结合强化学习、工具学习提升模型可解释性和自学习能力,同时拟将Deepseek-R1[41]外置的思维链思考结果作为提示词引导C2-LLM的输出;3)保密机制层面:研究安全可靠的跨网数据融合方法,以提升系统实用性。





参考文献 (References)

[1]阿里巴巴. 大数据之路-阿里巴巴大数据实践[M]. 北京电子工业出版社2017: 5-25.

AlibabaThe road to Big Data - Alibaba's Big Data practice [M]. Beijing: Electronics Industry Press, 2017: 5-25.

[2]吴信东应泽宇盛绍静数据中台框架与实践[J]. 大数据, 2023, 9(06): 137-159. 

WU X D, YING Z Y, SHENG S J, et al. Data central-platform: architecture and practice [J]. Big data, 2023, 9(06): 137-159.

[3]付登坡江敏赵东辉数据中台:让数据用起来[M]北京机械工业出版社2024: 5-25.

FU D P, JIANG M, ZHAO D H, et al. Data middle office: make data valuable [M]. Beijing: China Machine Press, 2024: 5-25.

[4]郭建胜顾涛勇张晓丰军事信息系统中台建设[J]. 国防科技, 2021, 42(02): 2-7. GUO J S, GU T Y, ZHANG X F. Middle platform in military information systems [J]. National Defense Technology, 2021, 42(2): 2-7.

[5]李文俊杨学强杜家兴基于数据中台的装备保障数据集成[J]. 系统工程与电子技术, 2020, 42(06): 1317-1323.

LI W J, YANG X Q, DU J X. Equipment support data integration based on ODPS [J]. Systems Engineering and Electronics, 2020, 42(06): 1317-1323.

[6]刘东波罗常伟基于软件定义的任务规划中台架构设计[J]. 火力与指挥控制, 2024, 49(05): 111-116+123.

LIU D B, LUO C W. Architecture design for mission planning middle platform based on software defined technology [J]. Fire Control & Command Control, 2024, 49(05): 111-116+123.

[7]BROWN T B, MANN B, RYDER N, et al. Language models are few-shot learners[C]// Proc. of the 34th International Conference on Neural Information Processing Systems. Vancouver: Curran Associates Inc., 2020: 1877–1901.

[8]蒲云强唐川徐婧基于大语言模型的科技动态情报感知研究[J]. 情报理论与实践, 2025, 48 (2): 11-20.

PU Y Q, TANG C, XU J, et al. Research on Technology Trends Intelligence Perception Using Large Language Models [J]. Information studies: Theory & Application, 2025, 48 (2): 11-20.

[9]张华平李春锦魏顺平大语言模型驱动的开源情报认知[J]. 国防科技, 2024, 45(3): 51-57.

ZHANG H  P, LI C J, WEI S P, et al.  Large language model-driven open-source  intelligence cognition [J].National Defense Technology, 2024, 45(3): 51-57.

[10]赵浜曹树金国内外生成式AI大模型执行情报领域典型任务的测试分析[J]. 情报资料工作, 2023, 44(05): 6-17.

ZHAO B, CAO S JTest Analysis of Typical Tasks in the Information Field Performed by Generative Large Models at Home and Abroad [J]. Information and Documentation Services, 2023, 44(05): 6-17.

[11]孙怡峰廖树范吴疆等. 基于大模型的态势认知智能体[J] 指挥控制与仿真, 2024, 46(2): 1-7.

SUN Y F, LIAO S F, WU J, et al. Research on situation awareness agent based on large models [J]. Command and control & Simulation, 46(2): 1-7.

[12]张洪广杨林杨雄军大模型驱动的智能辅助决策原理与典型应用[J]. 指挥与控制学报, 2024, 10(06): 661-668.

ZHANG H G, YANG L, YANG X J, et al. Principle and Typical Implementation of Foundation Model-based Intelligent Aided Decision Making Systems [J]. Journal of Command and Control, 2024, 10(06): 661-668.

[13]丁滟王怀民史佩昌可信云服务[J]. 计算机学报, 2015, 38(01): 133-149.

DING Y, WANG H M, SHI P C, et al. Trusted cloud service [J]. Chinese Journal of Computers, 2015, 38(01): 133-149.

[14]郑少秋韩立斌王静军事大数据概念内涵、发展挑战与技术实践[J]. 指挥与控制学报, 2023, 9(05): 508-516.

ZHENG S Q, HAN L B, WANG J, et al. Conceptual connotation, development challenges and technical practices of military big data [J]. Journal of Command and Control, 2023, 9(05): 508-516.

[15]MOHAMMED S, STEPHEN W. Domain driven design vs soft-domain driven design frameworks [J]. World Academy of Science, Engineering and Technology, International Journal of Computer, Electrical, Automation, Control and Information Engineering, 2016, 10(7): 1364-1370.

[16]ZENG AH, LIU X, DU ZX, et al. GLM-130B: An open bilingual pre-trained model [J]. arXiv: 2210.02414, 2022.

[17]BAI J Z, BAI S, CHU Y F, et al. Qwen technical report [J]. arXiv: 2309.16609, 2023.

[18]YANG A Y, XIAO B, WANG B N, et al. Baichuan 2: Open large-scale language models [J]. arXiv: 2309.10305, 2023.

[19]JIANPING L, HANYI Y, CONG T, et al. Enhanced Qwen-VL 7b model via instruction finetuning on chinese medical dataset[C]// Proc. of 5th International Conference on Computer Engineering and Application, 2024: 526-530.

[20]HUANG Y, BAI Y, ZHU Z, et al. C-EVAL: A multilevel multi-discipline Chinese evaluation suite for foundation models [J]. arXiv: 2305.08322, 2023.

[21]LIANG X, ANQI L, LEI Z, et al. SuperCLUE: A comprehensive Chinese large language model benchmark [J]. arXiv: 2307.15020, 2023.

[22]TOUVRON H, MARTIN L, STONE K, et al. Llama 2: Open foundation and fine-tuned chat models [J]. arXiv:2307.09288, 2023.

[23]EDWARD J H, YELONG S, PHILLIP W, et al. LoRA: Low-Rank Adaptation of large language models[C]// International Conference on Learning Representations (ICLR).online: ACM, 2022.

[24]BIDERMAN D, PORTES J, ORTIZ J J G, et al. LoRA Learns Less and Forgets Less [J]. arXiv: 2405.09673, 2024.

[25]RASCHKA S. Finetuning LLMs with LoRA and QLoRA: Insights from Hundreds of Experiments [EB/OL].[2025-02-22]. https://lightning.ai/pages/community/lora-insights/

[26]ZENG A H, XU B, WANG B, et al. ChatGLM: A family of large language models from GLM-130B to GLM-4 all tools [J]. arXiv: 2406.127932024.

[27]WANG P, BAI S, TAN S N, et al. Qwen2-VL: Enhancing vision-language model’s perception of the world at any resolution [J]. arXiv: 2409.121912024.

[28]WANG L, MA C, FENG X Y, et al. A Survey on Large Language Model based Autonomous Agents [J]. Front, 2024, 18(6):186-345.

[29]QU C L, DAI S H, WEI X C, et al. Tool Learning with Large Language Models: A Survey [J]. arXiv: 2405.17935, 2024.

[30]李特丽康轶文. LangChain 入门指南[M]. 北京电子工业出版社, 2024: 12-64.

LI T L, KANG Y W. LangChainGetting started guide [M]. Beijing: Electronics Industry Press, 2024: 12-64.

[31]REYNOLDS L, MCDONELL K. Prompt programming for large language models: Beyond the few-shot paradigm[C]// Proc. of the 2021 Computer-Human Interaction Conference on Human Factors in Computing Systems. Yokohama: ACM, 2021. 1-7.

[32]WEI J, WANG X, SCHUURMANS D, et al. Chain of thought prompting elicits reasoning in large language models [J]. arXiv: 2201.11903, 2022.

[33]ZHANG Z, GAO J, DHALIWAL RS, et al. VISAR: A human-AI argumentative writing assistant with visual programming and rapid draft prototyping[C]// Proc. of the 36th Annual ACM Symposium on User Interface Software and Technology. San Francisco: ACM, 2023: 5-16.

[34]姚奕陈朝阳杜晓明多模态知识图谱构建技术及其在军事领域的应用综述[J]. 计算机工程与应用, 202460(22): 18-37.

YAO Y, CHEN C Y, DU X M, et al. Survey of multimodal knowledge graph construction technology and its application in military field [J]. Computer Engineering and Applications, 202460(22): 18-37.

[35]杨露菁陈志刚李煜.作战辅助决策理论及应用[M]. 第三版北京国防工业出版社, 2023: 15-16.

YANG L J, CHEN Z G, LI Y, et al. Theory and Application of Operational Auxiliary Decision-Making [M]. 3rd Edition. Beijing: National Defense Industry Press, 2023: 15-16.

[36]FILIPPOVA K. Controlled hallucinations: Learning to generate faithfully from noisy data [J]. arXiv preprint arXiv:2010.05873, 2020.

[37]杨健高文逸王衍波一种作战文书军事标图自动化方法[J]. 解放军理工大学学报(自然科学版), 2006, (06): 543-547.

YANG J, GAO W Y, WANG Y B. Documents based automated military plotting method [J] Journal of PLA University of Science and Technology, 2006, (06): 543-547.

[38]孙宏纲姚景顺闫国玉基于自然语言理解的军事自动标图系统[J]. 火力与指挥控制, 2005, (S1): 27-29.

SUN H G, YAO J S, YANG Y. Research on Military Auto-plot System based on Natural Language Understanding [J] Fire Control and Command Control, 2005, (S1): 27-29.

[39]ZHOU D W, SUN H L, NING J, et al. Continual learning with pre-trained models: A survey [J]. arXiv: 2401.16386, 2024.

[40]张钦彤王昱超王鹤羲大语言模型微调技术的研究综述[J]. 计算机工程与应用, 2024, 60(17): 17-33.

ZHANG Q T, WANG Y C, WANG H X, et al. Comprehensive Review of Large Language Model Fine-Tuning [J]. Computer Engineering and Applications, 2024, 60(17): 17-33.

[41]DeepSeek-AIDeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning [J]. arXiv: 2501.12948v1, 2025.





【声明】内容源于网络
0
0
Lisa聊外贸
跨境分享吧 | 长期输出优质内容
内容 44193
粉丝 1
Lisa聊外贸 跨境分享吧 | 长期输出优质内容
总阅读232.1k
粉丝1
内容44.2k