Artikel

So verwendet Google zwei Kameras für den Porträtmodus des Pixel 4

protection click fraud

Das größte Verkaufsargument für Googles Pixel 4 ist seine Kameraleistung. Dies ist seit dem Erscheinen des ersten Pixels im Jahr 2016 der Fall, und diese Überlegenheit hat sich Jahr für Jahr fortgesetzt. Das Pixel 4 ist das erste Pixel, das mit zwei Rückfahrkameras ausgeliefert wird, darunter eine 12-Megapixel-Primärkamera und eine 16-Megapixel-Tele-Kamera.

Das Teleobjektiv ermöglicht nicht nur das Vergrößern weit entfernter Motive, sondern auch bessere Porträtaufnahmen. Im ein neuer Beitrag Google, der im Google AI-Blog veröffentlicht wurde, nahm sich einige Zeit, um zu erklären, wie die verbesserten Porträtfotos von Pixel 4 hinter den Kulissen funktionieren.

Mit Pixel 2 und Pixel 3 erzielte Google Porträtfotos mit der Bezeichnung "Dual-Pixel" Autofokus. "Dies wurde verwendet, um die Tiefe zwischen Objekten zu schätzen, wobei Google dies weiter erklärte Werke von:

Teilen Sie jedes Pixel in zwei Hälften, sodass jedes halbe Pixel eine andere Hälfte der Apertur des Hauptobjektivs sieht. Wenn Sie jedes dieser Halbpixelbilder einzeln auslesen, erhalten Sie zwei leicht unterschiedliche Ansichten der Szene.

Mit einem zweiten Objektiv im Schlepptau kann das Pixel 4 viel mehr Details und Informationen erfassen, um bessere Porträtbilder zu ermöglichen. Google erklärt weiter:

Die Weitwinkel- und Tele-Kameras des Pixel 4 sind 13 mm voneinander entfernt und damit viel größer als die Dual-Pixel-Grundlinie. Die größere Parallaxe erleichtert daher die Schätzung der Tiefe entfernter Objekte. In den folgenden Bildern ist die Parallaxe zwischen den Doppelpixelansichten kaum sichtbar, während sie zwischen den Doppelkameraansichten offensichtlich ist.

Google stellt außerdem fest, dass es den Einsatz von maschinellem Lernen erweitert hat, um "die Tiefe sowohl aus Dual-Pixeln als auch aus Dual-Pixeln zu schätzen Kameras "und dass beide durch separate Encoder gehen, dann durch einen gemeinsam genutzten Decoder, was Ihnen letztendlich das gibt letztes Foto. Dies ist der Prozess, bei dem Tiefenkarten analysiert werden, um festzustellen, was das Motiv und der Hintergrund sind. Nach all dem erhalten Sie ein knusprig aussehendes Porträt.

Darüber hinaus konnte Google den Bokeh-Effekt in den Porträtbildern von Pixel 4 verbessern. Pro Unternehmen:

Um diesen Bokeh-Effekt zu reproduzieren, haben wir jedes Pixel im Originalbild durch eine durchscheinende Scheibe ersetzt, deren Größe auf der Tiefe basiert. In der Vergangenheit wurde dieser Unschärfeprozess nach der Tonzuordnung durchgeführt, wobei rohe Sensordaten in ein Bild konvertiert werden, das auf einem Telefonbildschirm angezeigt werden kann. Die Tonzuordnung komprimiert den Dynamikbereich der Daten und macht die Schatten im Vergleich zu den Lichtern heller.

Dieser Prozess hat den Nachteil, dass Informationen über die Helligkeit verloren gehen. Um dem entgegenzuwirken, hat Google beschlossen, "das von HDR + erzeugte zusammengeführte Rohbild zu verwischen und dann die Tonzuordnung anzuwenden. Zusätzlich zu den helleren und offensichtlicheren Bokeh-Datenträgern ist der Hintergrund genauso gesättigt wie der Vordergrund. "

Wenn Sie Pixel 4 verwenden, werden Sie wahrscheinlich nicht darüber nachdenken, aber das ist es, was das Kameraerlebnis des Telefons in erster Linie so überzeugend macht. Diese unglaublichen Fotos werden herausgeschmissen, und Sie müssen nur den Auslöser drücken.

instagram story viewer