Artículo

Así es como Google usa cámaras duales para el modo retrato del Pixel 4

protection click fraud

El mayor punto de venta para Pixel 4 de Google es el rendimiento de su cámara. Este ha sido el caso desde que salió el primer Pixel en 2016, y esa superioridad ha continuado año tras año. El Pixel 4 se destaca como el primer Pixel que se envía con dos cámaras traseras, incluida una cámara principal de 12MP y una cámara con teleobjetivo de 16MP.

Además de permitirle acercarse a sujetos que están lejos, el teleobjetivo también permite mejores tomas de retratos. En una publicación reciente publicado en el Blog de IA de Google, Google se tomó un tiempo para explicar cómo funcionan las fotos de retratos mejoradas del Pixel 4 detrás de escena.

Con Pixel 2 y Pixel 3, Google logró fotos de retrato usando algo llamado "doble píxel autoenfoque ". Esto se usó para estimar la profundidad entre objetos, y Google explicó además que trabaja por:

Dividir cada píxel por la mitad, de modo que cada medio píxel vea una mitad diferente de la apertura de la lente principal. Al leer cada una de estas imágenes de medio píxel por separado, obtiene dos vistas ligeramente diferentes de la escena.

Con una segunda lente a cuestas, el Pixel 4 puede capturar muchos más detalles e información para permitir mejores imágenes de retrato. Google explica además:

Las cámaras de gran angular y telefoto del Pixel 4 están separadas por 13 mm, mucho más que la línea de base de doble píxel, por lo que el paralaje más grande facilita la estimación de la profundidad de los objetos lejanos. En las imágenes a continuación, el paralaje entre las vistas de doble píxel es apenas visible, mientras que es obvio entre las vistas de doble cámara.

Google también señala que amplió su uso del aprendizaje automático para "estimar la profundidad de píxeles duales y duales cámaras "y que ambos pasan por codificadores separados, luego a través de un decodificador compartido, lo que finalmente le brinda la foto final. Este es el proceso en el que se analizan los mapas de profundidad para determinar cuál es el sujeto y cuál es el fondo, y después de todo esto, se obtiene un retrato de aspecto nítido.

Además, Google pudo mejorar el efecto bokeh que se encuentra en las imágenes de retrato del Pixel 4. Por la empresa:

Para reproducir este efecto bokeh, reemplazamos cada píxel de la imagen original con un disco translúcido cuyo tamaño se basa en la profundidad. En el pasado, este proceso de desenfoque se realizaba después del mapeo de tonos, el proceso mediante el cual los datos sin procesar del sensor se convierten en una imagen visible en la pantalla de un teléfono. El mapeo de tonos comprime el rango dinámico de los datos, haciendo que las sombras sean más brillantes en relación con las altas luces.

Este proceso tiene la desventaja de perder información sobre el brillo, y para combatir esto, Google decidió "difuminar la imagen cruda combinada producida por HDR + y luego aplicar el mapeo de tonos". Además de los discos de bokeh más brillantes y obvios, el fondo está saturado de la misma manera que el primer plano ".

Lo más probable es que no piense en nada de esto cuando use el Pixel 4, pero eso es lo que es tan convincente sobre la experiencia de la cámara del teléfono en primer lugar. Lanza estas increíbles fotos, y todo lo que necesitas hacer es presionar el botón del obturador.

instagram story viewer