AI绘画的发展历史、底层的神经网络
如何对笔画进行组合?
是否能替代人类的艺术和创作风格?
基于什么样的应用场景?
本期科幻沙龙 我们邀请了蒋镒珍老师
带领我们将抽象的神经网络信息加工过程具象化
分享AI画图如何从设想到实际呈现的过程
一起来涨知识吧~
嘉宾介绍
蒋镒珍
巨鲸科技CTO,EE与CS 双学位,东南大学硕士,曾任职于Micromdia、Adobe、HP IPG、HP Software等多家企业负责技术研发高管,后连续创业住百家,Gululu(儿童智能硬件)and Vitally等高新企业出任CTO。具有丰富的研发和管理经验,是软件/互联网/IOT/AI等方面的顶级专家。
我们生活中接触到的AI有语音识别、人脸识别等功能是AI神经网络出现之后最常见的应用。这些应用是通过输入内容,神经网络经过复杂的运算产出若干的输出,也就是信息的加工系统。
点击上方图片观看视频回顾
目前,机器的神经网络渐渐的有点类似于人类大脑的思考模式。AI画图最早的设想是将画输入到神经网络后,观察神经网络可以帮忙想点什么做点什么。
最早的AI画图是让神经网络学习鉴别猫与狗的差别。将大量的猫、狗图片输入到神经网络进行计算,但当时的鉴别率虽然并不高但也是技术的突破。神经网络的学习没有人类的判断能力强。孩童们在认识十几只狗和猫的情况下就可以分辨出猫与狗的茶杯,而神经网络则需要成千上万的照片的学习下才能够鉴别猫与狗。
神经网络示意图
神经网络的维度庞大到无法想象。但图像识别实际和人类大脑的研究是相关联的,人类大脑的研究也是分层的。人为什么能看出一只猫是猫?是视觉神经一层层处理信息转化,由视觉最前沿的一个粗糙的图片,渐渐通过大脑的不同层进行加工得到最终的信息。
AI与传统的信息加工不同,AI是从零开始不断训练感知输出内容的,而传统的信息加工是将信息写入程序直接输出内容的信息加工系统。
上图的网站是一个简单易懂的AI信息处理的示例,通过叠加神经网络的分支让AI学习图片中蓝色和黄色部分,简单的色彩分布神经网络处理的越快,复杂的图片想要快速的得到信息则需要更加复杂的神经网络线来学习区分。这就类似于每个人接收知识的速度是不同的,因为每个人的神经元不同,悟性不同。AI神经网络与之类似,不同的人训练的神经网络效果是不同的,丹练的好坏都取决于炼丹师。
神经网络训练的发展历程
以上是人们通过训练神经网络而得到的AI图画。早期人们一直在探索神经网络中最神秘的部分中间层hidden layers,在这部分中我们已经能看到一些图画的输出。
VAE
由此,人们又开始研究Latent space,其中著名的网站名为VAE。神经网络的鼻祖最早训练神经网络是为了鉴别写手,他发现其对数字的识别率非常高,这使得他思考神经网络是如何学习识别数字的。由上图可以看到神经网络识别数字时的思维模式。
李菲菲通过在美国召集全球各地的人
给图片打标签来训练神经网络
VAE时期的AI倾向于对画面进行学习后直接输出已有内容,还没有画图的输出。
GAN的神经网络主要用于学习人脸
不同生成模型的差别
CLIP associate with text
OpenAI GLIDE
OpenAI DALL·Z
OpenAI成功训练了能够通过文本标题生成图像的网络。
Disco discussion
Midjourney
Stable Diffusion
Parti
network size matters
prompt engineer
recreation
AI画图才刚刚起步,大多数工具还属于开源,人的创造力是无限的。未来人们可能不满足于AI画图而向视频方向发展,视频也是在图画的叠加基础上完成的。AI的创造力很强,能将现实无法实现的画面呈现出来。未来AI画图将走向视频和3D。随着元宇宙话题的发展,虚拟空间的内容需要很多的素材,通过AI就能减少很多的传统人力成本和时间成本,但也需要一个强大的持续运转的CPU 来实现AI的运算。
AI画图的发展开辟出新的生产方式
技术的进步能解放人们的双手
带来更便捷更意想不到的结果
但人工与智能的摩擦也随之而来
未来AI画图的发展光明前路
还需要人类更多的思考~
蘑菇云创客空间致力于提供一个创新开放的交流平台,如果你热爱创造,喜欢创新,那就来蘑菇云实现自己的奇思妙想!

