清宫题材一直是电视剧行业的宠儿,近年来出现了很多火爆的单品,例如《甄嬛传》《如懿传》《延禧攻略》等等。抛开故事本身,电视剧中嫔妃们的美貌给观众们留下了深刻印象,让一大波观众高呼也想体验坐拥“后宫佳丽三千”的“渣渣龙”的快乐。 而另一波吃瓜群众却陷入了沉思,历史上清朝后宫中各位嫔妃真的是如此美貌吗?留存下来的画像或许能告诉我们,她们究竟有多美。 心动不如行动,近日 B 站 UP 主 Jack-Cui 就利用 AI 技术还原了乾隆及其五位嫔妃的样貌,并对比了《延禧攻略》的剧照作参考。很多人期待的 “白月光” 富察容音、“硬核少女” 璎珞姑娘都在其中。原图画像来自清代宫廷画师郎世宁的《心写治平》。 接下来,就带大家看看画像上的乾隆和嫔妃们 “动” 起来是什么样的。 动起来的乾隆和他的嫔妃们
乾隆 纯惠皇贵妃 孝贤纯皇后 淑嘉皇贵妃 孝仪纯皇后 清高宗舒妃 掌握这三种 AI 技术,你也可以 据了解,此次制作的灵感来源于海外大神 Denis Shiryaev 的 AI stuff 教程,Jack-Cui 在其基础上经过多次试验修改后实现了照片复原并动起来的效果。该效果用到的深度学习算法分别为:StyleGAN 2、DAIN 、First Order Model。 StyleGAN 算法由 NVIDIA 开发,可以生成逼真的、但不存在与这个世界的人物肖像,也就是利用 AI 产生虚假视觉效果的能力。 此前,一名 Uber 工程师利用这个算法开发了一个人物肖像随机生成网站(奉上网址:https://thispersondoesnotexist.com/),每次刷新这个网站,就会从头开始生成新的人脸图像。你可以在这个网站中找到各种各样、现实不存在的脸,比如网红脸、黄种人脸、混血人脸等。 此外,还可以利用这种技术生成新字体,制造二次元老婆,当然用它来吸电子猫的也大有人在。 在默认情况下,SyleGAN 训练一张 1024×1024 分辨率的图片,需要使用 8 块 GPU 训练接近一个星期的时间,研究人员在说明文档中告知所有使用者:使用较少 GPU 可能无法达到最佳效果。他们还列出了使用 NVIDIA Tesla V100 GPU 对不同分辨率的图像进行训练所需的时间以供参考。 StyleGAN 2 在原版的基础上进行了升级,重点修复 artifacts 问题,并进一步提高了生成图像的质量。 另一个算法 DAIN(Depth-Aware video frame Interpolation,插帧算法)则由上海交大的团队开发,比之前 NVIDIA 的算法效果更清晰、帧率更高,可以把 30fps 进一步插帧到 480fps,这已经超过了很多手机的慢动作录像帧率。 通过这个算法完成的视频,即使将视频慢放 8 倍也不会觉得卡顿,大大提高了视频的流畅度。 而 First Order Motion 模型来自 NeurIPS 2019 论文 “First Order Motion Model for Image Animation”,最初的目的是让 “静态图片” 动起来。经过一段时间的发展,它甚至可以让照片里的人物复活,为你演唱一首歌曲。 根据作者介绍,这个模型可以轻易地让 “权游” 中的人物模仿特朗普进行讲话,还可以让静态的马跑起来,另外还可以完成模特的 “一键换装”。 前一阵火爆全网的特朗普和蒙拉丽莎唱《Unravel》就是利用了这个技术(配乐请自行脑补)。 技术从来都是一把双刃剑,AI 也不例外。在 AI 的整个发展历程中,我们发现 AI 掌握了越来越多不断超出我们想象的新 “技能”,一方面为我们的生活和工作带来了诸多便利和乐趣,另一方面也带来了很大的安全隐患,为不法分子带来了可乘之机。技术本身是中性的,是好是坏取决于使用它的人,我们希望它可以被正确、合理地被利用。 附上UP 主 Github 开源项目地址: https://github.com/Jack-Cherish/PythonPark |
[经典转帖] 皇帝的嫔妃长什么样?AI复原《延禧攻略》真实历史人物
阅读:2回复:1
-
- 鹤皆2020-11-19+19 DB
- 奇闻&笑话板块欢迎您(・ิϖ・ิ)っ
- 倒序阅读 只看楼主
-