万软资讯-好资源汇集平台

AI修复老照片,让历史“活”过来

万软资讯 热议
扫码手机访问手机访问:AI修复老照片,让历史“活”过来
0

【摘要】 图片来源 @视觉中国文丨光锥智能,作者丨陈思,编辑丨罗宁在龙华烈士墓前,摆满了鲜花,延年和李大钊相遇了。他们的对话令人动容:" 先生,他们爱我 "" 延年,因为你爱他们 "这是一位......

图片来源 @视觉中国

文丨光锥智能,作者丨陈思,编辑丨罗宁

在龙华烈士墓前,

摆满了鲜花,

延年和李大钊相遇了。

他们的对话令人动容:

" 先生,他们爱我 "

" 延年,因为你爱他们 "

这是一位网友在观看电视剧《觉醒年代》之后写的一段纪念先烈的文章节选。相信看过此剧的人都会对剧中陈独秀的两个儿子陈乔年、陈延年就义前的微笑印象深刻。

这一幕的出现让无数观众落泪。

为了纪念烈士,有人找到了陈延年烈士真实的照片,利用人工智能技术为照片上色,并让他露出 " 真实的 " 微笑:

有网友在看到这张照片后说:当百年前就义的烈士看到今日之中国,想必也会这样欣慰地微笑吧。

使用 AI 修复烈士照片的这位网友名叫 " 大谷 Spitzer",你或许曾看过他的一些其他修复作品:

他曾经修复过李大钊于 1924 年 9 月 22 日在莫斯科大剧院演讲时的影像,这也是李大钊同志目前唯一留存的视频录像,相当珍贵。

从视频截图可以看出,经过 AI 修复的影像不仅清晰度高,对人物细节的渲染也十分到位,比如上图中李大钊同志的头发与胡须的细节,在 AI 修复后显得非常细致。

可能你会有疑问,大谷是如何做到的?或者说,AI 技术是如何让原本黑白的影像变得鲜活起来?

AI 如何给老照片上色?

照相技术诞生之初,照片都是黑白的,到了 1940 年代彩色照片才流行起来。所以在早些年如果你想将黑白照片变成彩色,需要手工进行,费时费力。因为当时用的是水彩、油画、蜡笔产色,所以起来并不是那么真实。

如今,人工智能技术大行其道,甚至可以毫不费力地完成这项工作。

17 岁英国少年 Finnian Anderson 和 18 岁芬兰少年 Oli Callaghan 携手合作,开发了 Colorise Bot,用户只需要在 Twitter 上传照片和视频并 @Colorise Bot,就能在几秒内上色。

(原图与修复后地效果 | 来源:原作者博客)

作者之一的 Finnian Anderson 在博客上的一篇文章揭示了这项技术背后的秘密。

受内存及性能限制,他们没有选择 TensorFlow 进行底层框架搭建,而是使用 Caffee 搭建了原始网络,然后用开源数据集 ImageNet 中的图像对模型进行训练。

根据他们发布在 GitHub 上的内容可以知道,他们引用的是加州伯克利大学的 Richard Zhang 等人开发出来的着色方法。其原理简单来说,就是给出一张黑白图片,然后预测图片上物体可能的颜色,不一定能完全还原物体本身的颜色,但合理即可。

比如苹果,红色、青色都是人们普遍认知里合理的颜色,在训练过程中,如果模型给苹果上色的结果是这两种或者与之接近的,那么都可视为成功。

(训练结果 | 来源:原作者 GitHub)

当然,模型对物体颜色的预测也是被大量的图片数据 " 喂 " 出来的,就比如上图中的汽车,原本的颜色可能是蓝色或者黑色,但是因为模型在识别了大量汽车的图片后学会了汽车可以有红色、黑色、白色、银色等等,因此给上图里的汽车染成红色也是合理的。

不过,大谷使用的开源 AI 上色项目有别于上面这一种。

根据大谷的微博,它使用的上色工具有两种:DeOldify 和 Deep Exemplar-Based Colorization。虽然都可以用来上色,但是这两种工具的原理有所不同。

前者使用的是一种名为 NoGAN 的新型 GAN 训练方法。大致的原理可以理解为,同时训练两个神经网络,一个叫鉴别器,另一个叫生成器。鉴别器会使用大量真实的彩色图片训练,而生成器则会根据输入的黑白图像随意上色,鉴别器根据学会了的彩色图片来判断上色的真实性。

比如,鉴别器学会了树叶可以是绿色的、黄色的、红色的,干枯后可以是黑色的;这个时候生成器给一张树叶图片染成了蓝色,那鉴别器就会判断这个结果是假的,生成器要重新给图片上色,直到出现合理的色彩。

而后者的原理就相对简单了,给定参考彩色图像,卷积神经网络会直接将灰度图像映射到输出彩色图像。

(图片来源:Deep Exemplar-Based Colorization 论文)

如上图所示,目标图像是最左边的黑白图像,如果给神经网络一个穿红衣服的女士的图像为参考,那么输出的结果里,人物的衣服颜色也是红色,肤色甚至也会更接近参考图像人物的肤色。

由于大谷的图像、视频修复里采用了不止一种开源项目,因此本文对于其原理就不做过多分析了,上述结论想必已经能够部分解答读者们的疑问。

此外,大谷还采用了一些开源的辅助工具,比如旷视科技和北大共同推出的,用来给视频补帧的 RIFE,它可以让老视频变得更加流畅;以及用于去除视频噪点和模糊的 BasicSR 等等。

AI 还原的色彩准确吗?历史学家这样说 ......

如前文所述,AI 修复的图像色彩只是 " 合理 ",未必与真实的情况相符。不过,这也并不耽误 AI 还原色彩对历史学家的帮助。

爱尔兰国立大学教授 John Breslin 和 Sarah-Anne Buckley 将数字技术与历史研究结合在一起,他们将很多历史照片由黑白变成彩色。教授们使用的 AI 工具是前文提到的 DeOldify,在训练时,DeOldify 会分析大量普通彩色照片,看看各种颜色与不同的形状、纹理是如何匹配的。

当软件面对黑白照片时,它会努力搞清对象的颜色是什么,比如草、树、海洋的颜色,根据纹理判定它们是绿色或者蓝色。

当然 AI 也有局限性,爱尔兰的一草一木有自己的特质,美国软件有时无法正确识别。

Breslin 解释说,世界许多地区的房屋可能铺有陶瓦,呈现橙色或褐色,爱尔兰一般用石板瓦,呈现灰色或者黑色。此时,同为历史学者的 Sarah-Anne Buckley 就会参与进来,手动修正颜色和阴影。

Constance Markievicz 是爱尔兰历史上比较有名的政治家,他的眼睛到底是什么颜色呢?AI 无法判断。怎么办?1890 年代至 1950 年代,曾有很多移民前往美国,Constance Markievicz 是其中之一,历史学家查看纽约埃利斯岛留下的乘客纪录,断定眼睛的颜色是蓝色。

即使学者们如此严肃,还是有很多同行不认可,他们认为像 DeOldify 这样的软件只是带来误导,不能增强照片效果。Breslin 并不认同,他认为自从有摄影以来人们一直就在做同样的探索,而且即使用 AI 上色也并不是想取代原照片。

Jordan Lloyd 是一名视觉历史学家,他为出版商、私人客户提供服务,给老照片上色,不过不是用计算机上色。虽然 AI 也能完成同样的工作,但无法达到 Jordan Lloyd 的要求。他说:" 诺曼底纪念活动时,我曾发布一张照片,将登陆 D-Day 登陆的照片变成彩色。History Channel 也曾展示照片,自动着色,虽然是同一张照片,但看起来很糟糕。" DeOldify、DeepAI 和 Algorithmia 能在几秒内将黑白照片变成彩色,Jordan Lloyd 却要花几十个小时才能处理一张照片。

对于 Jordan Lloyd 来说 AI 不足为惧,因为它老是出错,颜色不准确。更糟糕的是连计算机专家也不明白 AI 为何会出错。DeOldify 联合创始人 Jason Antic 指出:" 这是一个‘黑盒’,AI 从数据中抽取任何可能的规则。"

DeOldify 算是很先进的,它用一百万张黑白照片训练过,这些黑白照是从彩照转化而来的。尽管如此,DeOldify 还是错误连连,部分是因为灰度图缺乏彩色照片独有的关键数据。

前文提到的论文作者,来自加州伯克利大学研究人员 Richard Zhang 说:" 着色实际上是很有难度的,因为我们要从 1D 转到 3D。" 色相,饱和度和亮度决定了我们对彩色的感知,但灰度图里只有亮度。许多不同的颜色可能有相同的亮度,即使它们在现实中非常不同,在黑白照片中也会呈现出相同的灰度。

为了解决这一问题,计算机专家尝试用对象识别软件增强算法。Richard Zhang 说:" 对于照片的某些部分,我们可以确定颜色是什么。例如,我们知道天空一般是蓝色的,蔬菜是绿色的,山一般是褐色的。如果不确定,比如衬衫的颜色,上色系统就只能猜测。"

正因如此,Jason Antic 并不认为 AI 会成为研究历史的重要工具。他认为,图片的色彩与时间、地点、环境都有关,这些 AI 不太可能知道。

谷歌机器学习专家 Emil Wallner 倒是乐观一些,他认为最终 AI 能做到准确识别。他在邮件中回复称:" 最难的部分在于开发一个机器学习模型,它能识别图片中的图案,它要寻找相关联的历史信息并推理,看看是否可以利用信息来判断照片中某物的颜色。"Emil Wallner 相信开发这样的算法是可能的,只是要提供一些环境信息给 AI。

所以说,用 AI 给黑白照片上色很有趣,但离完美还很遥远。

AI 又是如何让老照片动起来的?

搞明白了上色的原理,那如何让静态照片动起来呢?

说到这里就不得不提到一家名为 MyHeritage 的公司。

当用户进入 MyHeritage 网站并上传照片后,MyHeritage Photo Enhancer 会增强照片,然后让它动起来,动画中的人物甚至可以微笑、眨眼、移动。

(光锥智能作者用自己的照片测试的结果)

据了解,该网站采用的是一种名叫 Deep Nostalgia 的技术,它能让静态照片中的人移动起来,就像视频一样。

有意思的是,这家公司本身是做基因检测技术的,但为什么会忽然做起来动态老照片的活计?

或许 MyHeritage 创始人、CEO Gilad Japhet 能解答,他说:" 使用 Deep Nostalgia 技术,看到珍贵的家族照片活起来,你会发出惊叹。看到祖先的脸在视频动画中活起来,你会忍不住遥想当年他们在现实中是怎样的,这样你与家族历史就能以新的方式联系起来。"

不过遗憾的是,Deep Nostalgia 并不是一项开源技术,目前在 MyHeritage 网站也只能免费试用 5 张图片,我们在这里无法深度解答它作用的原理。

但是根据一些网友的分析,Deep Nostalgia 极有可能脱胎于曾经在网络上风靡一时,且最终臭名昭著的深度换脸开源模型:DeepFake。

DeepFake 火爆的源头是有人利用这项技术,将《神奇女侠》女主角盖尔加朵的脸,换成了某色情片女主角的脸,并上传到了互联网。

当时大多数网友对这项技术的态度是:坚决抵制!因为它对于人们的隐私造成了非常大的威胁,甚至后来一度发生过有人利用 DeepFake 和 AI 语音合成伪造政坛高管发言的案件。

说回 DeepFake 的技术原理,整个流程分为三部:数据提取、训练、合成。

还是以前面盖尔加朵的案例讲解。可以简单理解为,模型先从别的视频、图像里把盖尔加朵的脸 " 抠 " 出来,据说这个模型会给人脸标记 36 个关键点坐标,根据这些坐标能计算人脸的角度,最终抠出来的人脸是摆正后的人脸。

然后再根据算法,对人脸进行各种角度的变换和扭曲,以适配最终合成的角色的脸,最后融合到目标图像或视频里。当然,这其中还有更复杂的技术细节,这里就不再多赘述了。

如果 Deep Nostalgia 确实脱胎于 DeepFake,那么其背后的技术原理应该不会有太大差别,只希望 MyHeritage 等拥有同样技术的公司能够将它用在正道,不要重蹈 DeepFake 的覆辙。

AI 修复老照片,带来的不只是感动

今年父亲节,一位网友给自己的父亲送上了一份特殊的礼物。

他通过百度飞桨 PaddleGAN 生成对抗网络复原了爷爷的动态老照片,并实现了微笑、眨眼等各种表情,仿佛在与儿子交流,诉说这些年的思念,弥补了父亲没能见到爷爷最后一面的遗憾。

在国外的社交平台上,也有网友用类似的技术修复已过世的亲人的照片,同样带来了满满的感动。

正如 Gilad Japhet 所说,当我们看到肤色鲜艳、表情生动的革命先烈,或者已故的家族长辈以这样的方式出现在我们面前时,我们对他们的怀恋会更深一层,与他们的联系也仿佛更加紧密了一些。

科技如何向善?或许这是一种正确的打开方式。

参考资料

https://www.digitaltrends.com/features/colorize-bot-twitter/

https://www.usatoday.com/story/tech/2021/02/25/deep-nostalgia-technology-animates-faces-still-photos/6814516002/

https://www.cnn.com/style/article/old-ireland-color-photos-breslin/index.html

https://scienceline.org/2021/01/ai-cant-color-old-photos/

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体 App

以上内容是万软资讯(www.wruan.net)小编为大家搜集整理的热点资讯。希望能够帮忙到大家!

上一篇:华为音乐和环球音乐中国达成版权合作 下一篇:“邓超吐槽孙俪空调开到27度”上热搜

免责声明:

本站所有资源均来自网络,仅供学习交流使用!侵删请致信E-mail:wruannet#gmail.com

本文地址:https://www.wruan.net/40877.html

同类推荐
评论列表
签到