Artikkel

Pixel 2 vs. iPhone X: Hvilken er den beste portrett-selfien?

Portrait Selfies er min favoritt ting som skjer på smarttelefoner akkurat nå. Jeg kan føle øynene dine rulle når du leser dette, men hør meg ut et øyeblikk. På et teknisk nivå ser vi et stort press for å forbedre kvaliteten på det fremovervendte kameraet mens du bruker dybdekart og fargekorrigering, slik at et bilde umiddelbart kan forvandles til noe ny. Det er fascinerende og morsomt, og i de tidlige dagene av denne funksjonen som finnes på smarttelefoner, er det to veldig forskjellige måter å skape denne effekten på.

Apples True Depth-kamera har flere sensorer for å lage et dybdekart i sanntid på iPhone X. Googles løsning er helt avhengig av maskinlæring og et imponerende enkeltkamera for å oppnå den samme effekten på Pixel 2. Her er en titt på hvordan disse to metodene sammenlignes!

Det første du må forstå når du sammenligner disse kameraene, er hvor Apple og Google prioriterer når det gjelder bildene som produseres. Vi vet på et teknisk nivå at disse to telefonene har de beste fotomulighetene i verden akkurat nå, med den eneste leseforskjellen for de fleste er hvilke deler av bildet og hvilke funksjoner som tar prioritet.

I disse skuddene blir to ting raskt synlige. Bakgrunnen i iPhone X-skuddet er blåst ut i et forsøk på å sikre at ansiktet mitt er godt opplyst og riktig farget. Bakgrunnen i Pixel 2-skuddet er bedre balansert med resten av bildet takket være Googles HDR +, men som et resultat er ansiktet mitt merkbart mørkere og får en litt rødlig fargetone du ikke ser i den andre skudd.

Det er også betydelige forskjeller i den uskarpe effekten som ble brukt til å lage Portrait Selfies. Googles programvare bruker en mer aggressiv uskarphet, og det gjør at mangler i dybdekartet skiller seg ut ganske mye. Det ser nesten ut som et klippet klistremerke av meg har blitt brukt på dette bildet. Apples blåhet ser litt mer naturlig ut helt til du kommer til håret mitt og deler av meg begynner å se litt ut av fokus. Verken skudd “negler” egentlig bildet på grunn av deres respektive feil, men feilene er subtile nok til at du har et par morsomme bilder.

Her er et annet eksempel, bare denne gangen er det et utendørsbilde zoomet inn 100%.

Dette skuddparet gir mange av de samme konklusjonene. Apple lyser bedre ansiktet mitt, spesielt øynene mine, mens Google bedre lyser bakgrunnen og får hele bildet til å føle seg rikere. Apples uskarphet strekker seg for dypt inn i håret mitt og får en del av meg til å se ut av fokus, mens Googles uskarphet er så alvorlig at det faktisk redigerte noe av håret mitt som stakk ut av sted. Uten portrettmodus er det klart at iPhone X tok et bedre bilde, men med den aktiverte fotomodusen er det lettere å forstå effekten av Googles programvare.

Apple og Google ser ut til å nærme seg denne fototeknikken fra motstridende retninger, og det virker sannsynlig at det vi ser i en ikke altfor fjern fremtid, er et slags møte i midten.

Det er noen naturlige begrensninger for begge disse fotomodusene, spesielt i disse tidlige dager. IPhone X vil blinke advarsler i portrettmodus hvis bakgrunnen er for lys eller hvis objekter i bakgrunnen er for langt unna til å ta et ordentlig dybdekart. Googles algoritme har en stygg vane med å redigere hjørner av reseptbriller eller gjenstander i forgrunnen som ikke er knyttet til en person. Det er litt prøving og feiling i å få begge til å fungere riktig, noe som i teorien blir sjeldnere over tid ettersom Apple og Google fortsetter å forbedre denne teknologien.

Den største tingen Apple har over Google i denne portrettmodusen akkurat nå, må være portrettbelysning. Å kunne se de mulige endringene av bildet i sanntid mens du går for å ta bildet er stort avtalen, og muligheten til å fortsette å redigere Portrait Lighting etter at bildet er tatt er utrolig. Det er en veldig hit-or-miss-funksjonen akkurat nå, spesielt når du begynner å se på Stage Lighting, men ingenting annet enn iPhone har dette akkurat nå.

Når du redigerer bildene, har Google noe Apple for øyeblikket ikke har og sannsynligvis burde. Når du tar et portrettmodusbilde med en Pixel 2, får du et par bilder. Det ene bildet er redigert med de uskarpe områdene, og det andre er bare en ren selfie med frontkameraet. Dette gir deg muligheten til å redigere begge bildene og se hvilke du foretrekker. Apple holder alt som et enkelt bilde, noe som etter min mening er litt mindre praktisk å se redigeringer mellom de to modusene. På den annen side er det ett færre bilde i kamerarullen din, så dette er sannsynligvis bare personlig preferanse.

Det er mye å si om den "riktige" måten å ta et bilde på, og enda mer å si om fordelene med fargenøyaktighet og funksjonseffektivitet. Apple og Google ser ut til å nærme seg denne fototeknikken fra motstridende retninger, og det virker sannsynlig at det vi ser i en ikke altfor fjern fremtid, er et slags møte i midten. Akkurat nå er det ikke umiddelbart klart at Apples maskinvarebaserte tilnærming er målbart bedre enn Googles programvarebaserte tilnærming til Portrait Selfies. Alle tingene som gjør at iPhone X-kameraet tar en flott selfie, eksisterer allerede på iPhone 8 og 8 Plus. Samtidig er det ikke klart hvor mye bedre Google kan lage sin fotoredigeringsprogramvare med et enkelt kamera og en belysningsinnstilling for hele bildet i stedet for ansiktet.

En ting er helt klart - vi er ikke i nærheten av slutten av Apple og Google som gir oss flere og bedre selfie-funksjoner.

instagram story viewer