大数跨境
0
0

元象首发泛娱乐底座 XVERSE-Ent,大模型时代的「剧本工厂」来了!

元象首发泛娱乐底座 XVERSE-Ent,大模型时代的「剧本工厂」来了! AI科技评论
2025-12-31
4
导读:行业首创!泛娱乐赛道终于迎来专属开源大模型。

行业首创!泛娱乐赛道迎来专属开源大模型

元象正式开源聚焦泛娱乐场景的底座大模型 XVERSE-Ent,含中、英文双版本。该模型深度适配泛娱乐(Entertainment)核心领域,覆盖社交互动、游戏叙事、文化创作(小说、剧本)等关键场景,支持轻量化部署与垂直场景深度落地,填补了泛娱乐领域专属开源大模型的空白。

XVERSE-Ent 在通用大模型能力基础上,依托元象 AI 泛娱乐产品服务全球千万级用户的实践经验,经稀缺垂直领域数据深度训练与优化,在角色一致性、剧情逻辑等方面更精准契合泛娱乐场景真实需求,为中小开发者与泛娱乐企业提供低成本、高效率的创新底座。主要特性包括:

  • 角色一致性强化:长期保持虚拟角色人设、记忆与说话风格稳定,有效缓解“遗忘”或“出戏”问题;
  • 长剧情精准理解:准确把握复杂故事线、人物关系与伏笔,生成逻辑合理剧情;
  • 多元语境适配:对古风、科幻、都市等不同题材具备丰富风格化表达与背景知识。

01 中英双开源,核心技术创新

依托两大核心技术,XVERSE-Ent 实现“通用能力稳、领域适配准、部署成本低”优势,分别开源中英双版本,满足多语言泛娱乐创作与全球化出海需求,形成“技术筑基 + 多语言拓展”的完整开源方案:

1. MoE 热启动技术:基于 Dense 模型改造 MoE 模型。第一步,将 FFN 部分细粒度拆分为多个子网络作为专家,并按显存配置复制;第二步,复用 Dense 模型的 Attention 部分。细粒度拆分相较粗粒度更具灵活性与效果优势。


2. 多阶段训练策略:通过 S0 能力重建、S1 语言倾斜、S2 领域增强三阶段训练,构建专用模型。前两阶段使用通用数据,S2 阶段融合通用与领域数据。

本次开源包含两大文本模态模型:

  • 中文版 XVERSE-Ent-A4.2B:总参数量 25B,基于 XVERSE-MoE-A4.2B 经 S2 领域增强获得,专为中文角色扮演、故事生成、对话互动极致优化,文化契合度高;
  • 英文版 XVERSE-Ent-A5.7B:总参数量 36B,依托成熟出海应用经验打造,在英文创意写作、游戏对话及跨文化交流中表现优异。

中英文模型上下文窗口均为 8K,经近万亿 token 数据训练。

模型已在以下平台开源:

  • HuggingFace
    https://huggingface.co/xverse/XVERSE-Ent-A4.2B
    https://huggingface.co/xverse/XVERSE-Ent-A5.7B
  • ModelScope(魔搭)
    https://modelscope.cn/models/xverse/XVERSE-Ent-A4.2B
    https://modelscope.cn/models/xverse/XVERSE-Ent-A5.7B
  • Github
    https://github.com/xverse-ai/XVERSE-Ent

02 性能卓越,低成本部署

评测显示,XVERSE-Ent 在小说生成、对话生成等泛娱乐核心任务上表现卓越,同时在 MMLU、数学、代码等通用能力上保留超 98%,实现“专精”与“通用”平衡,规避能力单一化风险。


XVERSE-Ent 中英文模型评测结果
(*X 开头指标为领域能力相关,数值越低越好;fiction:小说类测试集;conversation:对话类测试集;webcc:通用文本测试集)

模型支持高并发、低成本部署,可实现云端单卡推理,在处理效率与推理成本间取得平衡,显著降低开发者部署门槛与运维成本。

03 落地成效显著,赋能产品全球化布局

据 OpenRouter 与 a16z 联合发布的《State of AI:An Empirical 100 Trillion Token Study with OpenRouter》报告,角色扮演已成为开源模型最主要落地场景,占比超 50%,尤其在游戏化互动与创意叙事等泛娱乐领域广泛应用。

XVERSE-Ent 已成功落地 AI 社交产品 “Saylo”。依托模型在泛娱乐场景的深度赋能,Saylo 在全球数十个国家和地区登顶免费榜与畅销榜前列,覆盖美国德国、法国、意大利及拉美地区,验证了模型在剧情连贯性、角色人设统一性、多轮交互趣味性等核心指标上的突出表现。

元象长期深耕开源生态,已相继开源 XVERSE-65B(国内最大参数 Dense 模型)、XVERSE-MoE-A36B(国内最大参数 MoE 模型)、XVERSE-Long(世界最长上下文模型)及 XVERSE-V(多模态模型),构建起覆盖通用能力、轻量化部署、长上下文、多模态等多维度的开源模型全家桶。

此次 XVERSE-Ent 的发布与开源,将进一步完善元象开源生态布局,降低中小开发者与泛娱乐企业的创新门槛。未来,元象将持续探索多模态生成能力,拓展泛娱乐 AI 应用边界。

【声明】内容源于网络
0
0
AI科技评论
聚焦AI前沿研究,关注AI工程落地。
内容 8426
粉丝 0
AI科技评论 聚焦AI前沿研究,关注AI工程落地。
总阅读62.8k
粉丝0
内容8.4k