4月15日,可灵AI举行“灵感成真”2.0 模型发布会,正式发布了可灵2.0视频生成模型及可图 2.0 图像生成模型,并宣布发布即可供用户使用。
聚搜营销将为你介绍可灵AI发布2.0模型:性能超越Sora,推出MVL理念定义人机交互新语言。
模型提升:可灵2.0模型在动态质量、语义响应、画面美学等维度实现显著提升;可图 2.0 模型在指令遵循、电影质感及艺术风格表现等方面显著提升。
在文生图模型方面,可图 2.0 对最新的 Midjourney V7 的胜负比达到 307%;在文生视频方面,可灵 2.0 对比 Sora 的胜负比达到 367%(胜负比 100% 表示两模型效果相当)。
1. 核心创新:Multi-modal Visual Language(MVL)理念
盖坤在发布会上提出了AI视频生成的新理念——Multi-modal Visual Language(MVL)。
定义:MVL 即 TXT(语义骨架)+ MMW(多模态描述子),让用户能够结合图像参考、视频片段等多模态信息,将脑海中的多维度复杂创意,直接高效地传达给 AI。

2. 多模态视频编辑功能上线
可灵 2.0 大师版全面升级视频及图像创作可控生成与编辑能力,上线了全新的多模态视频编辑功能:
元素操作:该功能支持对视频内容实现替换、增加、删除元素。
替换演示:例如,上传一段动漫女孩鞠躬的短视频和一张穿着婚纱的女孩照片。通过创意描述,系统便可以将视频中的人物替换为穿着婚纱的女孩,并得到一段穿着婚纱的女孩鞠躬的视频。
3. 模型性能与商业成就
可灵AI在短短10个月内实现了快速迭代与商业化:
迭代速度:自去年6月发布以来,可灵 AI 已累计完成超 20 次迭代。
用户增长:截至目前,可灵AI全球用户规模突破2200万,过去的10个月里,其月活用户量增长25倍。
内容产出:累计生成超过1.68亿个视频及3.44亿张图片。
商业营收:自商业化以来,截至2025年2月,可灵AI的累计营业收入已超 1 亿元。

