Le plus gros argument de vente pour Pixel 4 de Google est sa performance de la caméra. C'est le cas depuis la sortie du premier Pixel en 2016, et cette supériorité se poursuit année après année. Le Pixel 4 se distingue comme le premier Pixel à être livré avec deux caméras arrière, y compris une caméra principale 12MP et une caméra téléobjectif 16MP.
En plus de vous permettre de zoomer sur des sujets éloignés, le téléobjectif permet également de meilleurs portraits. Dans un post récent publié sur le blog Google AI, Google a pris un certain temps pour expliquer comment les portraits améliorés du Pixel 4 fonctionnent dans les coulisses.
Avec le Pixel 2 et le Pixel 3, Google a réalisé des portraits en utilisant quelque chose appelé "double pixel mise au point automatique. "Cela a été utilisé pour estimer la profondeur entre les objets, Google expliquant en outre qu'il fonctionne par:
Diviser chaque pixel en deux, de sorte que chaque demi-pixel voit une moitié différente de l'ouverture de l'objectif principal. En lisant chacune de ces images demi-pixels séparément, vous obtenez deux vues légèrement différentes de la scène.
Avec un deuxième objectif en remorque, le Pixel 4 est capable de capturer beaucoup plus de détails et d'informations pour permettre de meilleures images de portrait. Google explique en outre:
Les appareils photo grand angle et téléobjectif du Pixel 4 sont espacés de 13 mm, bien plus grands que la ligne de base à deux pixels, de sorte que la parallaxe plus grande facilite l'estimation de la profondeur des objets éloignés. Dans les images ci-dessous, la parallaxe entre les vues à deux pixels est à peine visible, alors qu'elle est évidente entre les vues à double caméra.
Google note également qu'il a étendu son utilisation de l'apprentissage automatique pour "estimer la profondeur à partir de deux pixels et deux caméras "et que ceux-ci passent tous les deux par des encodeurs séparés, puis par un décodeur partagé, ce qui vous donne finalement le photo finale. C'est le processus dans lequel les cartes de profondeur sont analysées pour déterminer quel est le sujet et quel est l'arrière-plan, et après tout cela, vous obtenez un portrait d'apparence croustillante.
De plus, Google a pu améliorer l'effet bokeh trouvé dans les portraits du Pixel 4. Par entreprise:
Pour reproduire cet effet bokeh, nous avons remplacé chaque pixel de l'image d'origine par un disque translucide dont la taille est basée sur la profondeur. Dans le passé, ce processus de flou était effectué après le mappage des tons, processus par lequel les données brutes du capteur sont converties en une image visible sur l'écran d'un téléphone. Le mappage des tons compresse la plage dynamique des données, ce qui rend les ombres plus lumineuses par rapport aux hautes lumières.
Ce processus présente l'inconvénient de perdre des informations sur la luminosité, et pour lutter contre cela, Google a décidé de «brouiller l'image brute fusionnée produite par HDR +, puis d'appliquer un mappage de tons. En plus des disques bokeh plus clairs et plus évidents, l'arrière-plan est saturé de la même manière que le premier plan. "
Il y a de fortes chances que vous ne pensiez à rien de tout cela lorsque vous utilisez le Pixel 4, mais c'est ce qui est si convaincant dans l'expérience de l'appareil photo du téléphone en premier lieu. Cela fait ressortir ces photos incroyables, et tout ce que vous avez à faire est d'appuyer sur le déclencheur.