谷歌黑科技:能把照片变立体
利用 DeepStereo 制作的视频片段
北京时间 7 月 10 日下午消息,据美国科技博客 Gizmodo 报道,本周《麻省理工科技评论》(Technology Review)杂志发布的一篇论文披露了谷歌研发的新系统 DeepStereo,该系统可以通过人工智能技术将一系列照片无缝组合成为视频。
论文作者名为约翰-弗林(John Flynn),是一名谷歌工程师,其他三位合著者也都在谷歌工作。在论文中,弗林阐述了谷歌研发 DeepStereo 系统的全过程。
早在 DeepStereo 之前,就有类似利用静态图片输出动画的技术存在。美国计算机协会计算机图形专业组(SIGGRAPH)就曾通过网上图像制作过延时动画。
但与其他静态图像生成动画技术相比,DeepStereo 系统最大的不同在于,它可以猜测出图像的缺失部分,在空白处创造出来源图片中没有的新图像。据英国媒体 Register 报道,和传统动画利用视觉暂停的原理不同,DeepSteoreo 可以“想象出”两幅静止图像之间的画面。
弗林和他的合著者在论文中写道,“这项技术与之前的产品截然不同,我们尝试采用新型深度架构直接合成新图像,不需要预先设置景深、焦距等训练数据。”
该系统背后的网络架构原理十分复杂,借鉴了各种先例。但作者在文中介绍了该技术的独到之处:系统在工作时会采用两套独立的网络架构。其中之一会根据已有的 2D 数据预测各个像素的景深。另外一个则会对色彩作出预测。两者共同以 2D 图像的形式完成对景深和色彩的预测,最终合成视频。
DeepStereo 仍有不足之处:视频角落的画面很不清晰。“算法没有涉及到的区域往往是模糊的,无法被覆盖,也无法使用像素填充,”开发团队解释说。不过,这套系统暗藏了一个通过模糊的图源生成物体的小技巧:“移动对象在训练数据中非常常见,我们的模型可以优雅地完成这个动作:开始出现的时候是模糊的,然后逐渐转换为运动模糊效果。”
虽然该系统生成的最终产品与通过图像简单合成的动画区别不大,但该技术能够为谷歌的街景技术锦上添花。同时也能为谷歌的人工智能技术提供一个更加实用的范例。
本月,谷歌的“梦想机器人”在互联网上走红,这是该公司超级先进的人工神经网络,由谷歌的工程师团队开发而成。设计初衷是要找到一种切实可行的方法,让计算机辩认出图像中的内容。谷歌工程师正在教这些不可理喻的人工“大脑”辨识动物或架构,顺便也做做“梦”,此举令人感到震惊和恐惧。
本文文字及图片出自 新浪科技
你也许感兴趣的:
- 【译文】 Linus Torvalds 在 Linux Kconfig 中故意将缩进的使用复杂化
- Linux 6.8 网络优化可将多个并发连接的 TCP 性能提升约 40%
- 互联网大会每人一部小米Note!雷军:独一无二
- 董明珠看呆!如果小米华为魅族开机画面变成这样…
- 任志强:创业者要有企业家精神,自己加班也不能让员工加班
- 苹果软件高管:编程是有学识的下一个层次
- 南开大学研究团队发布脑控汽车
- 凤姐斥资上百万投资手机APP约战董明珠
- Google新专利,提出无人车和行人交流方案
- 中国联通将推新套餐:“手机流量永不清零”
你对本文的反应是: