快手近期发布的KAT-Coder-Pro V2模型引发关注。该模型在审美能力方面表现突出,相较Claude、GPT等主流模型更具设计优势。
通过对比测试可见,该模型生成的前端页面在排版布局与色彩搭配上更为出色。开发者可将其用于快速提炼长文核心内容,有效提升信息处理效率。相较于Claude Sonnet 4.6及部分国产模型的产出效果,其视觉呈现具有明显差异。
用户采用Zara Zhang开源的技能组件配合提示词进行测试:
https://github.com/zarazhangrui/frontend-slides/tree/main
在Artificial Analysis平台评测中,该模型位列Coding Index榜单第四,仅次于GPT-5.4、Gemini 3.1 Pro和Claude Opus 4.6,成为non-reasoning分类中排名最高的国产模型。数据显示,快手团队在大型语言模型领域已实现快速突破。
模型训练创新方法
快手KwaiKAT团队采用"Specialize-then-Unify"训练范式:先将Agentic Coding任务拆分为SWE、WebCoding、Terminal、WebSearch和General五个专项领域,分别训练专家模型;再通过On-Policy Distillation技术融合能力。该方法有效解决了多领域训练信号冲突问题。
针对普遍存在的"Aesthetic Collapse"(美学崩塌)现象——即模型面对模糊指令时易退化为保守默认方案,团队创新设计三级描述训练体系:对同一页面提供设计师版(千字级)、专业版(三百字级)和基础版(五十字级)描述。使模型能够从简短指令推断完整设计逻辑。
在评测体系方面,突破传统还原度考核标准,引入设计师盲测评分机制。将审美拆解为配色、字体等十个维度,以原创性作为核心评分依据。实测在Landing Page(59.8分)、Slides(57.6分)及数据可视化(67.6分)场景均居首位。
深度适配开发者工作流
针对复杂任务链中工具调用失序问题,团队构建KwaiEnv沙箱环境体系,支持并行运行数万个真实开发环境。基于十万多个GitHub仓库的训练数据,覆盖11种编程语言,形成超10万个高难度样本集。
创新性采用跨框架训练策略:对同一任务在Claude Code、OpenClaw等多平台重复执行。使模型具备框架切换能力,PinchBench测试得分达88.7分,成功适配主流开发工具链。
审美突破的价值
模型原生审美能力对提升开发效率具有决定性意义。相较于通过外部Skill进行后置优化,具备审美基础的模型能更高效产出优质界面。测试表明,在龙虾类Agent工具的长任务处理中,该模型展现出更强的工具调用准确率与链路规划能力。
当前模型生态仍处于快速迭代阶段。快手此次技术突破验证了垂直领域优化路径的有效性,特别是在前端开发场景中,将审美能力融入基础模型架构的做法,为行业提供了新思路。建议开发者关注该模型在复杂编码任务中的实际表现。

