“谷歌Google概述了Pixel 4的双摄像头怎么捕捉人像照片中的深度”
谷歌的pixel 4和4 xl表示,谷歌在高端智能手机上首次采用了pixel和nexus系列双主摄像头。 在最新的谷歌ai博客副本中,谷歌介绍了如何改进双摄像头深度传感器和距离传感器。 这要知道那些副本需要模糊地解决。
除了第二台摄像机外,谷歌还采用了第二台摄像机的自动对焦系统来改善深度估计,接近单反摄像机的自然散景效果。
如果有pixel 2和pixel 3,谷歌将从一个摄像机中分割每个像素,比较两个略有不同的图像,并尝试计算深度。 这种图像的细微差异被称为视差,对近距离拍摄的照片非常有效,但对远处的拍摄对象更困难。
有了第二台摄像机,谷歌可以捕捉到更激烈的视差。 现在,这两个图像来自约13毫米外的两个不同的摄像机,深度更清晰,同时能够更准确地估计整个图像的深度。
左图显示了pixel 2和3的单摄像头设置中使用的半像素的差异。 右图显示了两个照相机之间的图像差异。 不仅如此。 当第二台照相机获得关于场景的水平新闻时,在来自各照相机的半像素新闻中所看到的像素的垂直方向上的变化不怎么剧烈,但仍然是有用的。
这样,摄像机可以看到4个方向的视差,为摄像机提供越来越多的有效信息,补充了像素2和像素3的双像素方法。 这有助于谷歌pixel 4上的摄像头减少深度误差(散景线差) ),并估计到远处物体的距离。
此影像展示了如何使用2像素和2摄影机的新闻来建立影像的整体深度图。 如果没有其他摄像头的新闻,也可以用pixel 4进行调整。 谷歌给出的例子是被摄物体距离太近,无法用二次望远摄像机对焦。 在这种情况下,照相机将恢复为只对图像使用2像素或2照相机的新闻。
最后,通过模糊背景应用散景,合成的光盘离物体越远就越大。 色调映射是在图像模糊之后立即进行的,但谷歌以前总是这样做。 模糊会丢失图像的细节,从而失去准确性,但如果使用当前方法(先模糊后进行色调映射)完成操作,则会保存像素的准确性。
虽然pixel 4在发布后收到了不冷不热的评论,但由于谷歌工程师致力于图像解决和hdr +的所有工作,它都配备了优秀的摄像头。 因此,下次等着hdr +解决pixel 2或pixel 3a新拍摄的肖像画时,请记住,员工的谷歌魔术值得等一等。
免责声明:飞天目录网免费收录各个行业的优秀中文网站,提供网站分类目录检索与关键字搜索等服务,本篇文章是在网络上转载的,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,本站的作者将予以删除。