Artykuł

Pixel 2 vs. iPhone X: Który z nich jest najlepszy do selfie?

protection click fraud

Autoportrety to moja ulubiona rzecz, która dzieje się teraz w smartfonach. Czuję, jak przewracasz oczami, kiedy to czytasz, ale wysłuchaj mnie przez chwilę. Z technicznego punktu widzenia widzimy ogromny nacisk na poprawę jakości przedniego aparatu podczas stosowania map głębi i korekcji kolorów, aby zdjęcie można było natychmiast przekształcić w coś Nowy. To fascynujące i zabawne, a na początku istnienia tej funkcji na smartfonach istniały dwa bardzo różne sposoby tworzenia tego efektu.

Kamera Apple True Depth jest wyposażona w wiele czujników do tworzenia mapy głębi w czasie rzeczywistym na iPhone X. Rozwiązanie Google opiera się całkowicie na uczeniu maszynowym i imponującej pojedynczej kamerze, aby osiągnąć ten sam efekt w Pixel 2. Oto porównanie tych dwóch metod!

Pierwszą rzeczą, którą musisz zrozumieć, porównując te aparaty, jest to, gdzie Apple i Google stawiają na pierwszym miejscu, jeśli chodzi o produkowane zdjęcia. Z technicznego punktu widzenia wiemy, że te dwa telefony mają obecnie najlepsze możliwości fotograficzne na świecie jedyną różnicą w odczycie dla większości ludzi jest to, jakie części zdjęcia i jakie funkcje mają priorytet.

Na tych zdjęciach szybko widać dwie rzeczy. Tło na zdjęciu iPhone'a X jest zdmuchnięte, aby upewnić się, że moja twarz jest dobrze oświetlona i odpowiednio pokolorowana. Tło w ujęciu Pixel 2 jest lepiej zrównoważone z resztą zdjęcia dzięki HDR + Google, ale w rezultacie moja twarz jest wyraźnie ciemniejsza i nabiera lekko czerwonawego odcienia, którego nie widać na drugiej strzał.

Istnieją również znaczne różnice w tym efekcie rozmycia używanym do tworzenia autoportretów. Oprogramowanie Google stosuje bardziej agresywne rozmycie i sprawia, że ​​niedoskonałości na mapie głębi wyraźnie się wyróżniają. Wygląda na to, że wycięta naklejka ze mną została umieszczona na tym zdjęciu. Jabłkowy błękit wygląda trochę bardziej naturalnie, dopóki nie dojdziesz do moich włosów, a części mnie zaczną wyglądać na nieostre. Żadne z ujęć tak naprawdę nie „przybija” zdjęcia ze względu na swoje wady, ale wady są na tyle subtelne, że masz parę zabawnych zdjęć.

Oto kolejny przykład, tyle że tym razem jest to zdjęcie plenerowe powiększone w 100%.

Ta para ujęć daje wiele takich samych wniosków. Apple lepiej oświetla moją twarz, w szczególności oczy, podczas gdy Google lepiej oświetla tło i sprawia, że ​​całe zdjęcie jest bogatsze. Rozmycie Apple rozciąga się zbyt głęboko w moich włosach i sprawia, że ​​część mnie wygląda na nieostrą, podczas gdy rozmycie Google jest tak silne, że w rzeczywistości usunęło część moich włosów, które odstały. Bez trybu portretu jasne jest, że iPhone X zrobił lepsze zdjęcie, ale z włączonym tym trybem fotograficznym łatwiej jest docenić efekt oprogramowania Google.

Wydaje się, że Apple i Google zbliżają się do tej techniki fotograficznej z przeciwnych kierunków i wydaje się prawdopodobne, że to, co zobaczymy w niezbyt odległej przyszłości, to jakieś spotkanie w środku.

Oba te tryby fotografowania mają pewne naturalne ograniczenia, zwłaszcza w tych wczesnych dniach. IPhone X wyświetli ostrzeżenia w trybie portretu, jeśli tło jest zbyt jasne lub jeśli obiekty w tle znajdują się zbyt daleko, aby uchwycić odpowiednią mapę głębi. Algorytm Google ma paskudny zwyczaj edytowania rogów okularów korekcyjnych lub obiektów na pierwszym planie, które nie są przymocowane do osoby. Jest trochę prób i błędów, aby oba działały poprawnie, co teoretycznie z czasem staje się rzadsze, ponieważ Apple i Google nadal ulepszają tę technologię.

Największą rzeczą, którą Apple ma teraz nad Google w tym trybie portretowym, musi być oświetlenie portretowe. Możliwość zobaczenia możliwych zmian na zdjęciu w czasie rzeczywistym podczas robienia zdjęcia to duże wyzwanie transakcję i możliwość kontynuowania edycji oświetlenia portretowego po wykonaniu zdjęcia niesamowite. To jest bardzo funkcja hit-or-miss w tej chwili, zwłaszcza gdy zaczynasz patrzeć na oświetlenie sceniczne, ale nic oprócz iPhone'a ma to teraz.

Podczas edycji zdjęć Google ma coś, czego Apple obecnie nie ma i prawdopodobnie powinno. Kiedy robisz zdjęcie w trybie portretowym za pomocą Pixela 2, dostajesz parę zdjęć. Jedno zdjęcie jest edytowane z rozmytymi obszarami, a drugie to zwykłe selfie z przednim aparatem. Dzięki temu możesz edytować oba zdjęcia i zobaczyć, które wolisz. Apple trzyma wszystko jako jedno zdjęcie, co moim zdaniem jest trochę mniej wygodne, aby zobaczyć edycje między dwoma trybami. Z drugiej strony w rolce z aparatu jest o jedno zdjęcie mniej, więc to prawdopodobnie tylko osobiste preferencje.

Wiele można powiedzieć o „właściwym” sposobie robienia zdjęć, a jeszcze więcej o zaletach dokładności kolorów i skuteczności funkcji. Wydaje się, że Apple i Google zbliżają się do tej techniki fotograficznej z przeciwnych kierunków i wydaje się prawdopodobne, że to, co zobaczymy w niezbyt odległej przyszłości, to jakieś spotkanie w środku. W tej chwili nie jest od razu jasne, że podejście Apple oparte na sprzęcie jest wymiernie lepsze niż oparte na oprogramowaniu podejście Google do portretów selfie. Wszystkie rzeczy, które sprawiają, że aparat iPhone'a X robi świetne selfie, istnieją już w iPhone'ach 8 i 8 Plus. Jednocześnie nie jest jasne, o ile lepszy Google może ulepszyć oprogramowanie do edycji zdjęć za pomocą jednego aparatu i preferencji oświetlenia dla całego zdjęcia zamiast twarzy.

Jedno jest absolutnie jasne - jesteśmy daleko od końca, gdy Apple i Google dają nam więcej i lepszych funkcji do selfie.

instagram story viewer