行业首创!泛娱乐赛道迎来专属开源大模型
元象正式开源聚焦泛娱乐场景的底座大模型 XVERSE-Ent,含中、英文双版本。该模型深度适配泛娱乐(Entertainment)核心领域,覆盖社交互动、游戏叙事、文化创作(小说、剧本)等关键场景,支持轻量化部署与垂直场景深度落地,填补了泛娱乐领域专属开源大模型的空白。
XVERSE-Ent 在通用大模型能力基础上,依托元象 AI 泛娱乐产品服务全球千万级用户的实践经验,经稀缺垂直领域数据深度训练与优化,在角色一致性、剧情逻辑等方面更精准契合泛娱乐场景真实需求,为中小开发者与泛娱乐企业提供低成本、高效率的创新底座。主要特性包括:
- 角色一致性强化:长期保持虚拟角色人设、记忆与说话风格稳定,有效缓解“遗忘”或“出戏”问题;
- 长剧情精准理解:准确把握复杂故事线、人物关系与伏笔,生成逻辑合理剧情;
- 多元语境适配:对古风、科幻、都市等不同题材具备丰富风格化表达与背景知识。
01 中英双开源,核心技术创新
依托两大核心技术,XVERSE-Ent 实现“通用能力稳、领域适配准、部署成本低”优势,分别开源中英双版本,满足多语言泛娱乐创作与全球化出海需求,形成“技术筑基 + 多语言拓展”的完整开源方案:
1. MoE 热启动技术:基于 Dense 模型改造 MoE 模型。第一步,将 FFN 部分细粒度拆分为多个子网络作为专家,并按显存配置复制;第二步,复用 Dense 模型的 Attention 部分。细粒度拆分相较粗粒度更具灵活性与效果优势。


2. 多阶段训练策略:通过 S0 能力重建、S1 语言倾斜、S2 领域增强三阶段训练,构建专用模型。前两阶段使用通用数据,S2 阶段融合通用与领域数据。

本次开源包含两大文本模态模型:
- 中文版 XVERSE-Ent-A4.2B:总参数量 25B,基于 XVERSE-MoE-A4.2B 经 S2 领域增强获得,专为中文角色扮演、故事生成、对话互动极致优化,文化契合度高;
- 英文版 XVERSE-Ent-A5.7B:总参数量 36B,依托成熟出海应用经验打造,在英文创意写作、游戏对话及跨文化交流中表现优异。
中英文模型上下文窗口均为 8K,经近万亿 token 数据训练。
模型已在以下平台开源:
- HuggingFace:
https://huggingface.co/xverse/XVERSE-Ent-A4.2B
https://huggingface.co/xverse/XVERSE-Ent-A5.7B - ModelScope(魔搭):
https://modelscope.cn/models/xverse/XVERSE-Ent-A4.2B
https://modelscope.cn/models/xverse/XVERSE-Ent-A5.7B - Github:
https://github.com/xverse-ai/XVERSE-Ent
02 性能卓越,低成本部署
评测显示,XVERSE-Ent 在小说生成、对话生成等泛娱乐核心任务上表现卓越,同时在 MMLU、数学、代码等通用能力上保留超 98%,实现“专精”与“通用”平衡,规避能力单一化风险。


XVERSE-Ent 中英文模型评测结果
(*X 开头指标为领域能力相关,数值越低越好;fiction:小说类测试集;conversation:对话类测试集;webcc:通用文本测试集)
模型支持高并发、低成本部署,可实现云端单卡推理,在处理效率与推理成本间取得平衡,显著降低开发者部署门槛与运维成本。
03 落地成效显著,赋能产品全球化布局
据 OpenRouter 与 a16z 联合发布的《State of AI:An Empirical 100 Trillion Token Study with OpenRouter》报告,角色扮演已成为开源模型最主要落地场景,占比超 50%,尤其在游戏化互动与创意叙事等泛娱乐领域广泛应用。

XVERSE-Ent 已成功落地 AI 社交产品 “Saylo”。依托模型在泛娱乐场景的深度赋能,Saylo 在全球数十个国家和地区登顶免费榜与畅销榜前列,覆盖美国、德国、法国、意大利及拉美地区,验证了模型在剧情连贯性、角色人设统一性、多轮交互趣味性等核心指标上的突出表现。
元象长期深耕开源生态,已相继开源 XVERSE-65B(国内最大参数 Dense 模型)、XVERSE-MoE-A36B(国内最大参数 MoE 模型)、XVERSE-Long(世界最长上下文模型)及 XVERSE-V(多模态模型),构建起覆盖通用能力、轻量化部署、长上下文、多模态等多维度的开源模型全家桶。
此次 XVERSE-Ent 的发布与开源,将进一步完善元象开源生态布局,降低中小开发者与泛娱乐企业的创新门槛。未来,元象将持续探索多模态生成能力,拓展泛娱乐 AI 应用边界。

