Artículo

Pixel 2 vs. iPhone X: ¿Cuál es el mejor selfie de retrato?

protection click fraud

Las selfies de retrato son lo que más me gusta en los teléfonos inteligentes en este momento. Puedo sentir tus ojos rodando mientras lees esto, pero escúchame por un momento. A nivel técnico, estamos viendo un impulso masivo para mejorar la calidad de la cámara frontal. mientras aplica mapas de profundidad y corrección de color para que una foto se pueda transformar instantáneamente en algo nuevo. Es fascinante y divertido, y en los primeros días de esta función existente en los teléfonos inteligentes, se utilizan dos formas enormemente diferentes de crear este efecto.

La cámara True Depth de Apple cuenta con múltiples sensores para crear un mapa de profundidad en tiempo real en el iPhone X. La solución de Google se basa completamente en el aprendizaje automático y en una impresionante cámara única para lograr el mismo efecto en el Pixel 2. ¡Aquí hay un vistazo a cómo se comparan estos dos métodos!

Lo primero que debe comprender al comparar estas cámaras es dónde están dando prioridad Apple y Google cuando se trata de las fotos que se producen. Sabemos a nivel técnico que estos dos teléfonos tienen las mejores capacidades fotográficas del mundo en este momento, con la única diferencia de lectura para la mayoría de las personas es qué partes de la foto y qué características están tomando prioridad.

En estas tomas, dos cosas se hacen evidentes rápidamente. El fondo de la toma del iPhone X se apaga en un intento de asegurarme de que mi cara esté bien iluminada y coloreada correctamente. El fondo de la toma del Pixel 2 está mejor equilibrado con el resto de la foto gracias al HDR + de Google, pero como resultado, mi cara es notablemente más oscura y adquiere un tinte ligeramente rojizo que no se ve en la otra Disparo.

También hay diferencias sustanciales en ese efecto de desenfoque que se usa para crear retratos autofotos. El software de Google aplica un desenfoque más agresivo y hace que las imperfecciones en el mapa de profundidad se destaquen bastante. Casi parece que se ha aplicado una calcomanía mía recortada a esta foto. El azul de Apple se ve un poco más natural hasta que llegas a mi cabello y algunas partes de mí comienzan a verse un poco desenfocadas. Ninguna de las tomas realmente "clava" la imagen debido a sus respectivas fallas, pero las fallas son lo suficientemente sutiles como para tener un par de fotos divertidas.

Aquí hay otro ejemplo, solo que esta vez es una toma al aire libre ampliada al 100%.

Este par de tomas ofrece muchas de las mismas conclusiones. Apple ilumina mejor mi cara, en particular, mis ojos, mientras que Google ilumina mejor el fondo y hace que toda la foto se sienta más rica. El desenfoque de Apple se extiende demasiado profundamente en mi cabello y hace que parte de mí parezca desenfocado, mientras que el desenfoque de Google es tan severo que en realidad eliminó parte de mi cabello que estaba fuera de lugar. Sin el modo de retrato, está claro que el iPhone X tomó la mejor foto, pero con ese modo de foto habilitado es más fácil apreciar el efecto del software de Google.

Apple y Google parecen estar abordando esta técnica fotográfica desde direcciones opuestas, y parece probable que lo que veremos en un futuro no muy lejano sea una especie de reunión en el medio.

Existen algunas limitaciones naturales para ambos modos de fotografía, especialmente en estos primeros días. El iPhone X emitirá advertencias en modo vertical si el fondo es demasiado brillante o si los objetos en el fondo están demasiado lejos para tomar un mapa de profundidad adecuado. El algoritmo de Google tiene la desagradable costumbre de editar las esquinas de los anteojos recetados u objetos en primer plano que no están unidos a una persona. Hay un poco de prueba y error para que ambos funcionen correctamente, lo que en teoría se vuelve menos frecuente con el tiempo a medida que Apple y Google continúan mejorando esta tecnología.

Lo más importante que tiene Apple sobre Google en este modo vertical ahora es la iluminación vertical. Poder ver las posibles ediciones de la foto en tiempo real a medida que avanza para tomar la foto es una gran oferta, y la capacidad de continuar editando la iluminación de retrato después de que se ha tomado la foto increíble. Es un muy función de acertar o fallar en este momento, especialmente cuando comienzas a mirar la iluminación de escenario, pero nada más que el iPhone tiene esto en este momento.

Al editar las fotos, Google tiene algo que Apple actualmente no tiene y probablemente debería. Cuando tomas una foto en modo retrato con un Pixel 2, obtienes un par de fotos. Una foto se edita con las áreas borrosas y la otra es solo una simple selfie con la cámara frontal. Esto le da la posibilidad de editar ambas fotos y ver cuál prefiere. Apple mantiene todo como una sola foto, lo que en mi opinión es un poco menos conveniente para ver ediciones entre los dos modos. Por otro lado, es una foto menos en su Camera Roll, por lo que probablemente sea una preferencia personal.

Hay mucho que decir sobre la forma "correcta" de tomar una foto, y aún más sobre las virtudes de la precisión del color y la efectividad de las funciones. Apple y Google parecen estar abordando esta técnica fotográfica desde direcciones opuestas, y parece probable que lo que veremos en un futuro no muy lejano sea una especie de reunión en el medio. En este momento, no está claro de inmediato si el enfoque basado en hardware de Apple es considerablemente mejor que el enfoque basado en software de Google para los retratos de autorretratos. Todas las cosas que hacen que la cámara del iPhone X tome una gran selfie ya existen en el iPhone 8 y 8 Plus. Al mismo tiempo, no está claro hasta qué punto Google puede mejorar su software de edición de fotos con una sola cámara y una preferencia de iluminación para toda la foto en lugar de la cara.

Una cosa está absolutamente clara: no estamos ni cerca del final de Apple y Google que nos brindan más y mejores funciones para selfies.

instagram story viewer