大数跨境
0
0

哑剧时代结束,可灵 2.6 把“听见画面、看见声音”做成现实

哑剧时代结束,可灵 2.6 把“听见画面、看见声音”做成现实 AI软件测评说
2025-12-05
7
导读:昨天在刷 Kling 官网上的新功能说明时,有一点点恍惚。

昨天在刷 Kling 官网上的新功能说明时,有一点点恍惚。之前还把可灵当“高质量哑剧生成器”,结果 2.6 版本直接把牌桌掀了:

音画同出,一次生成,画面、语音、音效、环境声全给你配齐。

这下,之前那种“先出静音视频,再找配音、拼音效、调节节奏”的老流程,基本是被官方亲手拆掉了。

对内容创作者来说,最直观的感受就是一个字:。另一个字:

先来看它到底干了什么。

可灵这次上的是 2.6 视频模型,也是他们家首个真正意义上的「音画同出」模型。官方的说法比较克制:单次生成即可同时产出视频画面、自然语音、匹配音效、环境氛围音,把之前割裂的工作链路打通。翻译成人话就是:你丢一次任务,它帮你干四个工种。

更有意思的是,它不是简单把 TTS 叠在视频轨上,而是强调“语义和节奏”的协同。

语音节奏会跟镜头运动、画面情绪对齐,环境音和动作音效也会尽量贴着画面走,减少那种“嘴在说、画面在发呆”的违和感。

这部分你一旦看过 demo,会很难再回去接受纯静音的“demo 级视频”。

我发现他们在入口层面做得也挺直接:Web 端、App 端都已经支持,用手机就能玩,不需要一定上大屏。

你只管输文字或丢图片,剩下“声画怎么对齐、氛围怎么补”,都交给模型。

但说句实话,这种“全自动”的东西,最怕失控。就跟一键装修一样,容易变成统一审美。所以往下看,会发现它其实给了两条主线和一堆细颗粒度的场景预设。

我们回到正题。

2.6 模型现在的主线,是两条创作路径:

一条是“文生音画”。你打一段文本,从一句话到一段脚本,它会直接吐出完整音视频,画面、语音、环境音一锅端。适合那种你根本懒得先拍素材的场景,比如虚构故事、抽象概念解说、产品理念介绍。

另一条是“图生音画”。你有静态图、插画、海报、甚至品牌 KV,丢进去,再加一点提示词,它能让画面“开口说话、动起来”,配上对应的声场。这一条对存量素材党特别友好:以前是图片只能发朋友圈,现在能直接升格为“有声小短片”,不用再跑一整套拍摄流程。

看上去路径就两条,但真正把它撑起来的,是底下那坨音频类型支持:说话叙述、对白、唱歌/Rap、环境音效、物体/动作音效、混合音效,全都在支持列表里。

这意味着你写“角色唱一句”“街头有车流、人声、风声”“玻璃掉地上砸碎”,模型不是听不懂的,它确实有专门的声学槽位去填这些细节。

我又看了下他们对使用场景的划分,挺符合现在内容圈真实需求的。

单人独白这块,基本把“商品展示、生活 Vlog、新闻播报、演讲表达”一网打尽。你可以让一个角色站在画面中央,从头到尾说完一段,摄像机配合做些小运动。

旁白解说则更偏纪录片、赛事、故事讲述,用的多是第三人称视角:画面讲故事,声音在外面兜一层逻辑。

多人对白就是短剧、小剧场、情景喜剧那一路。可灵这次给多角色音频也做了支持,意味着你可以在一个视频里,让不同人物轮流说话,而不是全程一把声。

音乐表演这块,有点像把“唱歌/Rap + 场景画面”合成一体,适合做翻唱视频、概念 MV,或者各种“乐器+空间”的演示。

最后是创意场景,官方列得很散:ASMR、创意广告、影视特效甚至环境氛围类内容。

这些场景其实有一个共同点——都特别依赖“声音”。以前你只是看个烟花特效、咖啡拉花,现在加上焰火炸开的瞬间声、蒸汽嘶嘶声,整体层次会立刻抬一档。

说到底,可灵 2.6 在解决的,是一个行业老大难:

AI 视频的“哑巴电影症”。

之前所有人都在卷画质、镜头、物理世界一致性,但只要你认真做内容,很快就会发现:没有声音,没戏。后期再叠 TTS,哪怕你耐心再好,节奏感也经常对不上。很多 Vlog 类创作者、资讯号,其实都卡在这个“音画分离”的缝里。

这次 2.6 把“音画协同”提到了第一优先级:一条生成链上,把文本语义、镜头节奏、声音层次绑在一起,让输出默认是沉浸式的。从工作流的角度看,这相当于把传统“脚本→拍画面→配音→剪辑→调声”折叠成了一步,直接把人从流水线中间那几道工序解放出来。

当然,折叠带来的风险是:你对结果的控制会变弱。

可灵的解法是给你“谁说话、说什么、什么情绪、背景声要不要、节奏快慢”这些维度的控制权,让 Creator 还能对成片的整体风格负责任,而不是被模型牵着跑。

说点更偏主观的。

如果你是那种做号做久了、对“降本增效”这四个字已经麻了的人,可灵 2.6 这种升级,意义可能不在“更便宜”,而在“更像真制作”。从无声模型到音画同出,其实是把 AI 视频从“Demo 展示”慢慢推向“可用成片”。

你可以很粗暴地把它想成:以前是给你一个会画画的模型,现在是给你一个小型视听团队,虽然还不完美,但已经可以接简单活。

尤其是那种资讯剪辑讲解类账号,很可能会第一个吃到红利——因为这些内容对“表演细腻度”的要求没那么极致,但对速度和一致性要求极高。

但。也得提醒一句,现在 2.6 的一些硬参数是有边界的:目前官方公开的信息里,视频最长支持 10 秒,语音支持中文和英文,复杂长片还是得靠传统创作链来接力。

价格层面,它把“2.6 视频模型-音画同步”放进了会员方案里,铂金会员有 7 折、按周和月的不同计费,整体思路是把这套能力当成中高端权益绑定在订阅里。

所以更现实的姿势是:

把 2.6 当成一个“高质量 B-roll +片头片尾 + 片段小剧场生成器”,插进你现有的视频工作流,而不是幻想一键出 10 分钟大片。

我又看了一圈媒体和资讯的说法,给这波升级下个小结。

媒体普遍用的是“里程碑”“重构工作流”这种词,强调它是业内首批能在一次生成里同时搞定画面和多维声音的模型之一。

这类说法多少有点 PR 味道,但也说明一个事实:AI 视频赛道下一轮的卷点,已经从“分辨率、帧数、动作轨迹”进一步走向“视听一体化”

而可灵选择在这个时点,把 2.6 做成“音画同出 + 文/图双路径 + 多种音频类型 + 双语语音 + 会员化定价”,整体是冲着一个更长线的平台定位去的。对我们这种天天摸 AI 工具的人来说,这种更新比单纯多 2K 分辨率、有点意思多了。

最后讲一个比较私心的点。

如果你有打算做一个“纯 AI 视听号”——所有内容都由模型生成,自己只做选题和剪裁——可灵 2.6 已经够你开工了。你可以:

用“文生音画”每天做一条 10 秒资讯小短片,当“AI 生成快报”。 用“图生音画”把你以前做的封面图、插画全盘翻新,变成有声海报、讲解卡片。 在直播或社群活动里,用多人对白/音乐表演玩一些“AI 小剧场”“AI 歌单”,当互动彩蛋。

这些都不需要你搭特别复杂的 pipeline,甚至不需要懂剪辑。你要做的只是:

想清楚“想说什么”,剩下的交给模型做“怎么说”。

等哪天你习惯了这套路子,回头再看传统那种纯静音 demo,你大概率会有点不适应——就像从彩色电视回到黑白机一样。

毕竟。对于视频来说,“能看”只是起点。能看且能听,才有机会让人停下来。

项目地址:https://app.klingai.com/cn/image-to-video/frame-mode/new

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。


【声明】内容源于网络
0
0
AI软件测评说
专注分享Vibe Coding、独立开发Ai 工具和创业灵感
内容 385
粉丝 0
AI软件测评说 专注分享Vibe Coding、独立开发Ai 工具和创业灵感
总阅读1.6k
粉丝0
内容385