Article

Google explique comment fonctionne l'astrophotographie sur le Pixel 4

protection click fraud

Les caméras Pixel sont excellentes pour de nombreuses raisons, et l'une des plus importantes est leur fonction Night Sight. Cette année, lorsque Google a publié les Pixel 4 et 4 XL, il a rendu cette fonctionnalité encore meilleure avec l'inclusion du mode Astrophotographie. Dans un nouveau article de blog, Google approfondit les détails de la façon dont il a réussi à obtenir un mode photo qui n'était auparavant considéré comme possible que pour les reflex numériques.

Si vous n'êtes pas familier avec Night Sight, en termes simples, les photos dans des conditions de faible éclairage - ou presque sans lumière - semblent avoir été prises avec beaucoup plus de lumière. Google détaille le processus de gestion du manque de luminescence en tant que tel:

Pour surmonter cela, Night Sight divise l'exposition en une séquence de plusieurs images avec des temps d'exposition plus courts et donc moins de flou de mouvement. Les images sont d'abord alignées, compensant à la fois le bougé de l'appareil photo et le mouvement dans la scène, puis moyennées, avec un traitement soigneux des cas où un alignement parfait n'est pas possible. Alors que les images individuelles peuvent être assez granuleuses, l'image moyenne combinée semble beaucoup plus propre.

En ce qui concerne les fantastiques clichés d'étoiles qui peuvent être capturés à l'aide d'un Pixel 3 ou plus récent, Google a ajouté le nouveau mode Astrophotographie. Alors que les photos de Night Sight peuvent être prises avec l'utilisateur tenant le téléphone, vos photos de la Voie lactée devront être prises avec le téléphone sur un trépied ou calées contre quelque chose.

Rares sont ceux qui sont prêts à attendre plus de quatre minutes pour une image, nous avons donc limité une seule image Night Sight à au plus 15 images avec jusqu'à 16 secondes par image.

Lorsque vous prenez ces superbes photos d'étoiles, il peut être un peu difficile de cadrer correctement la photo à l'écran. En effet, lorsque vous ouvrez votre téléphone et passez à Night Sight, ce que vous voyez sur votre écran est bien - noir. Une fois que vous avez configuré votre téléphone où il ne sera pas déplacé pendant les quatre prochaines minutes et que vous appuyez sur le bouton de l'obturateur, le compte à rebours commence et la vue change.

Verizon propose le Pixel 4a pour seulement 10 $ / mois sur les nouvelles lignes illimitées

Les "pixels chauds" et les "pixels chauds" sont quelque chose d'autre que Google prend en considération lorsqu'il s'agit de photos à faible éclairage. À cause de quelque chose appelé courant sombre, ce qui ressemble à quelque chose d'un livre de Harry Potter, provoque Capteurs d'image CMOS pour voir de petites quantités de lumière même quand il n'y en a pas. Ce problème devient un problème plus important à mesure que le temps d'exposition d'une photo s'allonge. Lorsque cela se produit, ces "pixels chauds" et "pixels chauds" deviennent visibles sur la photo en tant que spécifications lumineuses de la lumière. Voici comment Google aborde ce problème:

Les pixels chauds et chauds peuvent être identifiés en comparant les valeurs des pixels voisins dans la même image et à travers la séquence d'images enregistrées pour une photo, et en recherchant les valeurs aberrantes. Une fois qu'une valeur aberrante a été détectée, elle est masquée en remplaçant sa valeur par la moyenne de ses voisins. Etant donné que la valeur de pixel d'origine est ignorée, il y a une perte d'informations d'image, mais en pratique cela n'affecte pas sensiblement la qualité d'image.

Une fois que la photo de nuit est dans son traitement final, Google ajoute une autre astuce pour vous donner une photo incroyable, et c'est le traitement du ciel. Sachant que les images d'images très sombres peuvent apparaître plus lumineuses qu'elles ne le sont réellement et affecter l'interprétation du spectateur pour l'heure de la journée à laquelle la photo a été réellement prise, Google a une solution. Le traitement du ciel sait effectivement que le ciel doit apparaître plus sombre sur la photo qu'il ne va, de sorte que cette partie a été ajustée sans changer les parties non-célestes.

Cet effet est contré dans Night Sight en assombrissant sélectivement le ciel sur les photos de scènes à faible éclairage. Pour ce faire, nous utilisons l'apprentissage automatique pour détecter les régions d'une image représentant le ciel. Un réseau de neurones convolutifs sur appareil, formé sur plus de 100000 images qui ont été manuellement étiqueté en traçant les contours des régions du ciel, identifie chaque pixel d'une photographie comme "ciel" ou "pas le ciel."

instagram story viewer