科技顶流DeepSeek的热度一直居高不下,
在市场的验证下,
无论是准确性、效率还是在稳定性方面,
DeepSeek都取得了令人瞩目的成绩。
我们的设计师用户们能结合DeepSeek做什么?
而平台能结合DeepSeek为用户带来什么?
我们是否真的会被AI替代?
传统方式:动调整关键词→生成→查找相关资料→继续手动调整关键词→崩溃...
结合DeepSeek玩法,直接把问题抛给DS,比如👇
“我想用AI软件给萌宠罐头做50张小红书配图,请给AI绘画中文提示词
要求:每张突出不同口味(三文鱼/鸡肉/牛肉)
背景要有对应食材元素 - 统一IP形象(胖橘猫)”
系统自动生成带编号的提示词矩阵,
打开TA(网址在结尾)直接开跑。
●选择合适的模型直接使用对对话生图
●当然,要想更多风格,对图片描述更清晰
也可以在经典工作台选择完想要画风的模型后,
复制到提示词输入框中,再使用一键翻译+一键润色提示词,
让出图结果更加稳定优质
遇到生成结果跑偏时,普通人:骂骂咧咧重写提示词;
而我们的设计师用户:直接甩图+吐槽
“这个唐代宫殿太日式了,我要庑殿顶、鸱吻兽、朱漆大门...”
AI秒懂你的痛:
1、识别图片中的和风元素
2、自动替换为《长安十二时辰》参考素材
3、调整参数至「工笔重彩」风格
4、打开TA(网址在结尾)直接开跑
给设计师的训练秘籍:
1、用DeepSeek分析自己的10套作品
2、提取「暗调光影」「流体几何」「故障特效」等特征标签
3、生成专属风格指令包
现在设计师接单时只需说:“按我的赛博山水风,做元宇宙展会主视觉”,AI直接输出高度统一的系列案。
打开TA,无痛出图
Janus-Pro-7B是由DeepSeek开发的高性能多模态AI模型,拥有70亿参数,相比Janus-Pro-1B,具备更强的文本生图、图像编辑、视觉问答能力。无论是生成高质量艺术画、编辑照片,还是从图片中提取信息,Janus-Pro-7B都能提供更细腻、更智能、更逼真的AI体验。
我们已经将基于Janus自研多模态大语言模型的反推节点部署到线上,并且已经将其应用于解析图片提示词、在线训练打标上
解析图片提示词
在线训练打标
由于Janus本身拥有更强的多模态理解能力
和更强的指令遵从生图能力
使得我们推理结果更准确稳定,对细节的把握程度更好。
当然了,工作流环境也早已支持Janus-Pro的使用。
相比较本地部署Janus节点,
在线使用效率更高,更节省时间和成本。
举个🌰,在本地使用Janus节点,
会面临大语言模型和生图模型两大模态模型抢一个显卡的显存问题。
但使用TA在线环境就不同了,我们自建了大语言模型推理集群,多模态模型的推理会在这个集群里执行,不占用生图工作流的资源。
相当两块显卡同时进行一个任务,一个显卡推理大语言模型,
一个显卡推理生图模型,效率直线up!
Tips:需要使用我们自研的反推节点才有这个效果
自研的反推节点
当然,绝不仅仅如此!我们还在结合DeepSeek做更多样的尝试
敬请期待!
我们在很多地方能看到这样的标题:
AI将会代替人类、AI导致大批量失业……
而我想说:
1912年,摄影师们恐慌于柯达傻瓜相机的出现,
但也催生了布列松这样的纪实大师;
而现在,当AI绘画引发新一轮焦虑时,
聪明的创作者早已在朋友圈晒出「人机共创」作品集。
与其纠结「AI会不会让我失业」,
不如现在就对DeepSeek和TA说:
「教会我你的最强绘画技巧,咱们从搞定下周的PPT配图开始。」

