大数跨境
0
0

元以AI早报-2025年11月14日

元以AI早报-2025年11月14日 元以科技集团
2025-11-14
6
导读:元以AI早报-2025年11月14日

1.2025 中国文化馆年会启幕:“对话左公” 成打卡热潮
2.文心5.0正式发布,参数达2.4万亿,全模态能力引领行业
3.GPT-5.1正式发布,智商情商双在线的AI新体验

元以AI早报


01
2025 中国文化馆年会启幕:“对话左公” 成打卡热潮


🎪 2025年中国文化馆年会11月12-13日在北京启幕,主题'爱艺术爱生活爱上文化馆'🤖 上海元以科技集团产品“左宗棠 AI 智能体”惊艳亮相📱 '对话左公'成为年会打卡热潮,观众排队体验历史文化互动

2025 年中国文化馆年会于 11 月 12 日至 13 日在北京城市副中心盛大启幕,本届盛会以 “爱艺术 爱生活 爱上文化馆” 为核心主题,作为全国文化馆行业规格最高、辐射力最广的年度盛典,吸引了业界目光聚焦。年会精心设置 “AI + 全民艺术普及数字体验展” 等九大主题展览,集中呈现文化与科技深度融合的创新成果,为行业发展注入新活力。

上海元以科技集团受邀出席年会,携 “左宗棠 AI 智能体” 惊艳亮相,在 “AI + 全民艺术普及数字体验展” 展区带来独特惊喜,“赓续文明血脉,助力沪上群众文化” 的创新实践赢得满堂喝彩。它以 “历史可对话、古人可交流” 的形式打破时空界限,迅速成为全场焦点。展区内,各级文化馆代表、专家及观众排起长队互动,或探寻生平、或探讨为官之道、或交流文化传承话题,智能体精准还原的人格特质与贴合史实的表达,让观众直呼 “仿佛穿越时空与先贤对话”,打卡分享热潮持续升温。 

之所以能实现这样的现场效果,在于公司技术团队在三个方面都做到了尽善尽美。一、视觉形象重生:基于严谨史料考据,以高可控 AIGC 生成技术精准还原服饰、面容等细节;二、人格记忆重建:整合百万字史料,通过 AI DeepResearch 手段构建专属模型,规避历史杜撰;三、音容笑貌重现:借助个性化 TTS 与实时口型算法,还原贴合人物背景的语音与神态。 

活动期间,文旅部相关领导及协会代表莅临参观,对其创新应用给予高度评价。该产品为文化馆服务创新提供了全新思路,为非遗数字化、文博活化提供了实践借鉴,更以科技之力为公共文化服务高质量发展探索了新路径。

 

02
文心5.0正式发布,参数达2.4万亿,全模态能力引领行业


📊百度发布文心5.0,参数量2.4万亿创业界公开模型之最🔄文心5.0采用原生全模态统一建模技术,支持多模态输入输出🏆文心5.0 Preview在LMArena全球大模型竞技场位列第二、中国第一
2025年11月13日,百度在2025百度世界大会上正式发布文心大模型最新一代——原生全模态模型文心5.0,参数量高达2.4万亿,创下业界已公开模型之最。该模型采用原生全模态统一建模技术,支持文本、图像、音频、视频等多模态信息的联合输入与输出,实现真正意义上的全模态理解与生成。实测显示,文心5.0 Preview在创意写作、复杂指令遵循、跨模态推理等方面表现卓越,尤其在LMArena全球大模型竞技场中位列第二、中国第一。其视频理解、代码生成、图片生成等能力也大幅跃升,能精准解析长视频内容并生成可复刻的烹饪流程。依托飞桨框架与超稀疏混合专家架构,模型激活参数比例低于3%,兼顾性能与效率。目前Preview版本已上线文心一言平台,满血版将陆续推出。百度创始人李彦宏强调,AI正从‘金字塔’转向‘倒金字塔’结构,智能本身才是最大应用,而技术迭代速度是唯一护城河。
图片
信息来源:https://mp.weixin.qq.com/s/MheiqOmzskrfTxPMK6bu5Q

03
GPT-5.1正式发布,智商情商双在线的AI新体验


🚀2025年11月OpenAI推出GPT-5.1,含Instant、Thinking、Pro三版本🧠用户反馈后OpenAI迭代两月,GPT-5.1引入“自适应推理”,智力情商飞跃⚙️用户可选择预设风格并微调,付费用户先开放,API本周上线
2025年11月,OpenAI悄然推出GPT-5.1,作为GPT-5系列的重大升级版,引发全网热议。此次更新包含三个版本:已上线的GPT-5.1 Instant和GPT-5.1 Thinking,以及即将推出的GPT-5.1 Pro。早在8月初GPT-5发布时,因语气冷淡、缺乏人情味,用户纷纷怀念GPT-4o。OpenAI听取反馈,历经两个月迭代,终于让GPT-5.1在智力与情商上双双飞跃。新模型不仅提升指令遵循能力,更首次引入「自适应推理」,能自主判断是否需深入思考,兼顾速度与准确性。GPT-5.1 Instant更亲切健谈,Thinking则在复杂任务中表现更持久。用户还可从专业可靠、亲和友善、直言不讳、天马行空、吐槽达人、技术宅等多种预设风格中自由选择,甚至微调简洁度、表情符号使用频率。该功能先面向Pro、Plus、Go、Business等付费用户开放,随后逐步覆盖免费用户,API也将在本周晚些时候上线。OpenAI承诺未来将给予用户充足过渡期,避免再次出现旧模型强制下架的争议。
图片
信息来源:https://mp.weixin.qq.com/s/zWqNf1eez-OUEEY45BMNzQ

04
国产大模型GLM-4.6在Code Arena榜单中位列榜首


📊2025年11月LMArena发布全新编码评估系统Code Arena🏆国产大模型智谱GLM-4.6与Claude、GPT-5并列第一,超越Gemini和Grok🚀Cerebras设GLM-4.6为默认,11月5日切换,标志国产领跑
2025年11月,全球知名大模型基准测试平台LMArena发布全新编码评估系统Code Arena,标志着大模型编程能力评估进入新阶段。该系统不再局限于代码能否运行,而是通过真实用户对模型构建应用的全过程进行动态评估,涵盖性能、交互自然度与设计意图还原度。在此榜单中,国产大模型智谱GLM-4.6表现惊艳,与Claude、GPT-5并列第一,超越Gemini和Grok。GLM-4.6于9月30日发布后持续领跑,Cline数据显示其代码修改成功率达94.9%,紧追Claude Sonnet 4.5的96.2%,差距缩小至‘基点’级别。更值得注意的是,全球最大的AI推理芯片公司Cerebras已宣布将GLM-4.6作为默认推荐模型,取代原有的qwen-3-coder-480b,并将于2025年11月5日正式切换。这一系列认可不仅彰显了GLM-4.6的硬核实力,也标志着国产大模型从‘追赶’迈向‘领跑’的关键转折。
图片
信息来源:https://mp.weixin.qq.com/s/brBDYbr88XYMxKkH8JzucQ

05
全球首个系统级伦理垂域大模型“问道”在东南大学发布


🚀2025年11月12日全球首个系统级伦理垂域大模型‘问道’发布,标志我国AI伦理治理从‘被动合规’向‘主动共建’跃迁🧪由东南大学王珏教授牵头,联合多跨学科平台研发,体现‘文理工交叉’创新特色🔗聚焦五大核心功能,全面覆盖AI伦理治理全链条
2025年11月12日,全球首个系统级伦理垂域大模型“问道”在东南大学正式发布,标志着我国在人工智能伦理治理领域实现从‘被动合规’向‘主动共建’的关键跃迁。该模型由东南大学AI伦理实验室主任王珏教授牵头,联合移动通信全国重点实验室、毫米波全国重点实验室、教育部前沿科学中心及江苏省道德发展智库等跨学科平台共同研发,充分体现了东大‘文理工交叉’的创新特色。作为用户的伦理思考伙伴与决策支持系统,“问道”聚焦五大核心功能:伦理风险评估与审计、伦理困境模拟推演、伦理对齐辅助设计、动态知识库与案例教学,以及伦理学范式革新探索,全面覆盖AI伦理治理全链条。尤为值得一提的是,模型深度融合儒家、道家等中国传统哲学智慧与西方伦理框架,集成国内法律法规体系,输出时标注推理依据与原则来源,强调‘人类在环’的可解释治理理念。未来,“问道”将持续优化人机协同机制,拓展在科研、产业与教育场景的应用深度,为构建可信、可控、可持续的智能社会提供中国方案。
图片
信息来源:https://mp.weixin.qq.com/s/fz3r0_khAb19MYQHwGKr6Q

06
特斯拉、沃尔沃、奔驰智能助手获批上线,外资车企AI大战开启


🚀首批外企大模型获批上线,外资车企智能化服务重大突破🔧上海推荐特斯拉xBot和沃尔沃小沃智能助手为首批外企大模型🤖北京奔驰虚拟助手依托抖音云雀模型,交互效率提升50%,2026年服务7万辆
2025年11月,国家互联网信息办公室发布最新生成式人工智能服务备案名单,首批外企大模型产品正式获批上线,标志着外资车企在智能化服务领域的重大突破。由上海推荐的特斯拉xBot客户服务和沃尔沃小沃智能助手成为全国首批通过备案的外企大模型产品。特斯拉xBot集成于Tesla APP在线客服,支持车主及潜在用户进行售前咨询、试驾预约、物流查询、用车指导及充电站查找等多场景智能问答,提供高效个性化的服务体验。小沃智能助手则覆盖沃尔沃汽车APP、小程序及车机系统,为用户提供购车、用车、养护及车生活相关的全天候智能对话服务。与此同时,北京也迎来首款外企大模型——梅赛德斯-奔驰(中国)的“奔驰虚拟助手”。该助手依托抖音“云雀”大模型技术,已应用于新上市的纯电CLA车型,支持语音交互、智能导航与座舱控制。其唤醒速度最快达0.2秒,端到端响应仅需0.8秒,交互效率较上代提升50%,系统执行提速1.5倍,预计2026年将实现年服务7万辆的规模。截至目前,上海累计完成115款大模型备案,北京已达163款,AI服务正加速驶入智能出行新赛道。
信息来源:https://mp.weixin.qq.com/s/-6qu9UscUzHDJqXz4uHJHw

07
宇树科技发布G1-D轮式人形机器人,主打数据采集与算法训练平台


🚀宇树推出G1-D轮式人形机器人,定位为“数采训练全栈解决方案”🤖G1-D轮式底盘可升降,移动速度1.5米/秒,负载3kg,续航6小时,算力100TOPS👀G1-D具备“手眼协同”,支持灵巧手,适用于精细任务
宇树科技(Unitree)近日正式推出G1-D轮式人形机器人,官方将其定位为“人形机器人数采训练全栈解决方案”,意在成为高效的数据采集载体与算法训练平台。与传统追求双足行走的人形机器人不同,G1-D采用轮式底盘搭配可升降躯干设计,身高可在1.26米至1.68米之间调节,垂直工作范围达0-2米,移动速度最高1.5米/秒,适应室内结构化环境的稳定运行。其最大亮点是“手眼协同”能力——除头部配备高清双目相机外,手部也集成摄像头,实现操作过程中的实时视觉反馈。机器人支持二指、三指及五指灵巧手,适用于实验室分拣、轻型装配等精细任务。硬件方面,G1-D旗舰版拥有19个自由度(不含手部),单臂7自由度,负载约3kg,搭载英伟达Jetson Orin计算模块,算力达100TOPS,续航时间约6小时,配置主流且实用。更重要的是,宇树强调其“全栈解决方案”属性,提供从数据采集、模型训练到部署推理的完整工具链,降低企业与科研机构开发人形机器人算法的门槛。G1-D虽非大众想象中的“类人行走”机器人,但凭借稳定的移动平台和强大的上半身操作能力,更贴近当前工业、实验室和服务场景的实际需求,体现出宇树从硬件制造商向机器人研发基础设施提供者转型的战略意图。
图片
信息来源:https://mp.weixin.qq.com/s/y6qmDnfvU61AizblgKjTzg

08
魔塔社区开源LLM级音频编辑大模型Step-Audio-EditX


🚀首次实现文字驱动音频创作,无需多模块拼接,精准控制情感、风格🔬双码本结构+3B参数,Flow Matching+BigVGAN v2合成高保真音频接近真实录音🎤支持零样本文本转语音,中英双语及多方言转换,多轮迭代编辑
来自魔塔modelscope社区的全新音频生成模型Step-Audio-EditX,正掀起语音合成领域的一场技术革命。该模型采用统一的大语言模型(LLM)框架,首次实现真正意义上的“文字驱动音频创作”,无需依赖多模块拼接,便能通过自然语言指令或迭代方式,精准控制音频的情感、说话风格及副语言特征。其核心技术采用“双码本”结构,将音频分解为离散token,分别捕捉语言内容与声学细节,在约3B参数规模下完成文本与音频token的联合输入到目标音频token的生成。结合Flow Matching模块生成Mel谱图,并由BigVGAN v2声码器合成高保真音频,输出质量接近真实录音。更令人惊艳的是,Step-Audio-EditX支持零样本文本转语音(Zero-Shot TTS),仅凭一段文字描述或参考音频,即可生成符合要求的语音,无需提供说话人样本。模型支持中英双语及多方言转换,例如一句‘将这段话改为粤语,带一点俏皮语气’就能立即生成对应音频。它还支持多轮迭代式编辑,在原音基础上持续微调情感强度与表达风格。这一切得益于其创新的‘大边距合成数据’训练策略,通过强化属性差异(如同文本、异情感)实现风格与内容的解耦学习,使模型天然具备强大可控性,能准确理解并执行复杂语音编辑指令。
图片
信息来源:https://mp.weixin.qq.com/s/VA6wL2nUaDxbU9ZrD1xWtw

09
西农大发布司牧大模型,为智慧牧业注入AI新引擎


📊司牧大模型是面向智慧牧业的产学研一体化AI创新平台,李曼菲团队推出💻以通用大模型为基础,融合畜牧技术与超1亿条养殖数据,构建六大能力支柱🛠️功能聚焦智慧教学、科研赋能、产业服务三大方向,提供数据分析与决策支持
在第三届智慧牧业发展校企联盟年会上,西北农林科技大学动科学院副教授李曼菲领衔推出“司牧大模型”,一个面向智慧牧业的产学研一体化AI创新平台。该模型以通用大模型为基础,融合畜牧领域前沿技术与超1亿条养殖数据,构建起涵盖算力、算法、平台、人力、数据与应用的六大能力支柱。功能聚焦三大方向:一是智慧教学,实现知识智能整合与个性化学习路径推荐,缓解新农科师资紧张问题;二是科研赋能,支持文献智能检索、综述自动生成及实验流程辅助设计,提升科研效率;三是产业服务,提供疾病预警、饲养管理、繁育优化等场景的数据分析与决策支持,并开放企业API接口。目前模型已建成猪、牛、羊等多物种知识图谱,由校企联盟主导、教育部虚拟教研室参与、科大讯飞技术支持,致力于解决专业AI常见的‘水土不服’与‘幻觉’问题。通过推动数据确权与模型共享机制建设,司牧大模型正在教育、科研与产业间架起桥梁,为中国畜牧业高质量发展注入强劲的智慧动能。
信息来源:https://mp.weixin.qq.com/s/-tJTUmeehmP96uiJiN5d5g

10
北大团队携手昇腾发布Align-Anything大模型对齐框架


📊 北大杨耀东团队联合昇腾发布全模态大模型对齐框架Align-Anything

🔧 Align-Anything支持全模态对齐,推出Align-DS-V模型提升跨模态能力

🏥 项目在三甲医院落地,模型推理效率提升40%

2025年11月,北京大学人工智能研究院杨耀东团队联合昇腾发布全模态大模型对齐框架Align-Anything,旨在破解多模态大模型训练成本高、数据对齐复杂等难题。该框架以语言反馈(RLHF)为核心,支持文本、图像、音频、视频乃至动作的全模态对齐,并集成专用评估工具Eval-Anything,实现对大参数模型在复杂任务中表现的精准追踪与评测,目前已开源。团队进一步推出基于DeepSeek-671B的多模态强推理模型Align-DS-V,显著提升跨模态理解与决策能力。依托鲲鹏昇腾科教创新卓越中心的算力支持,项目已在多家三甲医院落地,构建覆盖心电图、超声心动图等全模态医学数据的智能诊疗系统,模型推理效率提升40%。同时,Align-Anything深度融入智源大模型安全治理体系,实现风险内容自动识别与无害化重写。在人才培养方面,北大开设《大语言模型基础与对齐技术》课程,配套开发兼容昇腾系列设备的实操代码,学生可在NPU上完成模型训练与微调,已培养百余名具备国产算力平台开发能力的AI人才。

信息来源:https://mp.weixin.qq.com/s/NpYESOdx6naDyLO0PmB-Fg


早报内容及素材均来自网络公开渠道,版权归原作者所有,仅作信息分享使用。


—— END ——



【声明】内容源于网络
0
0
元以科技集团
1234
内容 118
粉丝 0
元以科技集团 1234
总阅读1.3k
粉丝0
内容118