Google解释Pixel 3是如何靠AI改进人像功能的?

跟前代相比,Google今年出的Pixel 3系列在处理人像拍摄时的表现要来得更好。考虑到两者用的都是单颗主相机的设计,所以改进大部分还是来源于软件。那说到底,Google究竟做了些什么让Pixel 3的人像算法变得更强?今天他们就决定发文来解释一下。

在Pixel 2推出的时候,Google是利用神经网络和相机上的相位对焦技术(后者主要是跟视差效果有关)来确定拍摄时处于前景的对象。但这套方案在面对变化不大的场景时就容易出错,而且在以小光圈进行拍摄的时候也比较容易发生问题。为了改善这些,Google在Pixel 3上运用了新的神经网络,希望通过对象的常规形状、场景中不同点的清晰度等多项因素,来更准确地判断对象距离。另外在训练这套系统时,Google也采用了一些创造性的办法。比如说他们曾做出过把五台Pixel 3绑在一起的“Frankenphone”,以同步记录深度信息,来消除光圈、视差方面的不足。

看到Google在AI上投入了那么多的资源,可见他们对单相机方案的决心是多么之大。当然啦,你也可以反过来想。Google一直坚持这种小众做法的原因,搞不好也是为了探索算法的极限,从而秀出自己在人工智能领域的“肌肉”呢。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();