木木西里原创编辑,转载请注明出处。
按照惯例,进入正题之前先让木木小编说些题外话。
话说现在网络上的图片各种PS,“网红”发张照片都要美颜一下。就连前段时间尼康在FaceBook上一个摄影竞赛的获奖作品都是P的了:


现在是有图也没有真相了,不过,木木小编了解到,现在就连视频也不一定是真的了。现在就有一项技术,可以改变视频中主角的口型变化,这样就可以让一个人说他从没说过的话、做出各种面部表情。
什么,有人敢模仿我的脸,还有人模仿我的面?!!

(同时代言“老坛酸菜”的人长得果然很像!)
且听木木小编慢慢道来,话说斯坦福大学一个叫MPC-VCC的实验室,他们专门研究各种视觉计算与信息可视化,其中有个小组呢最近发表了一个炫酷的成果:基于视频的面部实时重演技术,效果呢是这样滴:

图中的小伙做什么表情,普京大帝就做同样的表情(不过笑的比哭还难看)
当然,这个任性的小组不止调侃这一位总统:

呆萌的小布什

现任总统奥巴,简直毫无违和感

当然,竞选总统的川普也被调侃了一把,把嘴闭上依然可以让他说话

在此之前,他们还恶搞过州长大人、“邦德”等明人
想一想,太可怕了,以后哪个名人在电视上说句什么话也不一定是真的了,如果是政要发表什么惊人言论、总统颁布什么法案全是有人捣鬼的话后果就更不堪设想了……
话说回来,这到底是神马黑科技?其实,这项技术在2015年就出来了,只不过最近他们又对程序进行了升级。原理说起来也不难,小编也能看懂:第一步,获取目标视频,视频的要求就是普通的网络视频;第二步,采集表情的视频源,也是普通的单眼视频(看来目前还没实现双眼3d视频效果);第三部,通过程序计算,Duang,合成效果就出来了:

开玩笑啦,关键技术就是程序怎么识别面部表情,并且进行无缝拼接。
1、RGB视频输入、重建模型:

2、然后会得到一些列包含各种表情颜色、深度、光照等参数的数据:

3、从数据序列里筛选出与目标视频最衔接的表情:

4、最终将皮肤、表情、牙齿等等合成到目标图像上

技术要点总结来说就是两点:1、使用面部的身份、表情、光照等组成的线性参数模型作为中间件;2、通过关键点实时跟踪、实时拟合视频序列。
参照脸部的线性模型:

各参数代表含义见下图:

光照模型:

几何一致性指标:

……
……
好吧,小编看不懂了,有兴趣的同学,回复“变脸”获取论文原文。
或者,看这位小哥的主页:

http://www.graphics.stanford.edu/~niessner/index.html
最后看一下演示视频吧~
关于这项技术将来的运用前景,木木小编有几个大胆预测,算是抛砖引玉:
01
虚拟角色直播电视节目
你可以想想让奥巴马播报新闻联播

或者让树懒“闪电”说笑话

02
“复活”明星名人
相信周杰伦和“邓丽君”跨时空对唱的场景惊艳了不少人,使用了膜式投影技术(算是虚拟投影的一个分支),使“邓丽君”能够“复活”与周杰伦同台演出。

但是“邓丽君”的视频互动全是事先制作好的三维角色,有了这项技术,能够使已故的明星实现与粉丝的实时互动。
03
科幻电影拍摄
当前的动态捕捉技术估计要被淘汰了。当前的技术是事先在演员身上做上标记,由摄像头记录下来运动、坐标等数据,然后把做好的3D模型的骨骼系统与之相匹配,生成最终的效果。

现在有了这项技术,因为镜头可以直接捕捉到演员细微的面部表情,就不用演员穿上笨重的装备去表演了,而且它是实时的,但是需要面对的是计算机的性能能不能承受实时渲染。
04
VR(虚拟现实)、AR(增强现实)产业的应用
今年可谓是VR红得发紫的一年,各种头戴式设备层出不穷,谷歌和微软也纷纷推出自家的眼镜产品布局AR领域。但是无论是VR、还是AR,当前的体验依然很糟糕,技术发展还没有达到能够消费级应用。相信该项技术在不久的将来会给VR和AR增加新鲜的血液。

特别声明:本文资料由木木西里编辑整理,发布仅仅是出于传播信息的需要,并不代表本公共号观点或证实其内容的真实性;如其他媒体、网站或个人从本公众号转载使用,须保留本公众号注明的“来源”,并自负版权等法律责任。


