LibTV StarVideo 2.0视频生成模型正式上线
此前LibTV广受用户好评,部分用户反馈视频模型表现普通。如今,StarVideo 2.0视频生成模型正式上线,填补了平台内容创作的关键环节。
该模型支持输入简单创意描述,即可生成包含分镜、转场、音频及节奏控制的完整视频。实测案例效果如下:
美食探店Vlog
电商广告
AI漫剧打斗
操作流程详解
通过AI剧情短剧案例展示操作步骤:
1. 打开LibTV,生成剧本并批量转为图片
2. 选择StarVideo 2.0模型,设置画面比例与时长参数
每个分镜均支持自定义修改,不满意可重新生成:
3. 批量生成视频时,需统一音色控制技巧:
在分镜提示词中注明"音色与指定镜头保持一致",可有效解决音色不统一问题。
灵活创作模式
除剧本驱动外,可直接上传图片或文字生成视频:
示例:为图片添加"人物演唱英文歌并舞蹈,配合青蛙叫声"的指令,系统自动输出完整视频:
支持精确到秒级的分镜控制,例如吉卜力风格动画提示词:
0-2秒:森林微距镜头展现萌宠探头;2-4秒:低机位跟拍萌宠落地;4-6秒:镜头跟随滚动过程;6-8秒:特写晕乎乎神态;8-10秒:捕捉追蝶动态;10-15秒:落叶飘落收尾。
创作能力全面升级
LibTV通过"无限画布+顶尖模型+全能工作流",实现从脚本到分镜、图片、视频、配音及剪辑的全流程覆盖,尤其适用于AI短剧/漫剧创作。
目前StarVideo 2.0模型面向企业团队开放申请。LibTV官网同步开展"百万AI影像狂飙季"赛事。


