Artikel

Pixel 2 vs. iPhone X: Vilken är den bästa porträtt-selfie?

protection click fraud

Portrait Selfies är min favorit sak som händer i smartphones just nu. Jag kan känna dina ögon rulla när du läser det här, men hör mig ett ögonblick. På teknisk nivå ser vi ett stort tryck för att förbättra kvaliteten på den framåtvända kameran medan du använder djupkartor och färgkorrigering så att ett foto omedelbart kan förvandlas till något ny. Det är fascinerande och roligt, och i början av den här funktionen som finns på smartphones finns det två massivt olika sätt att skapa den här effekten som används.

Apples True Depth-kamera har flera sensorer för att skapa en djupkarta i realtid på iPhone X. Googles lösning bygger helt på maskininlärning och en imponerande enda kamera för att uppnå samma effekt på Pixel 2. Här är en titt på hur dessa två metoder jämför!

Det första du behöver förstå när du jämför dessa kameror är där Apple och Google prioriterar när det gäller bilderna som produceras. Vi vet på teknisk nivå att dessa två telefoner har de bästa fotokapaciteterna i världen just nu, med den enda lässkillnaden för de flesta är vilka delar av fotot och vilka funktioner som tas prioritet.

I dessa skott blir två saker snabbt uppenbara. Bakgrunden i iPhone X-skottet blåses ut i ett försök att se till att mitt ansikte är väl upplyst och korrekt färgat. Bakgrunden i Pixel 2-bilden är bättre balanserad med resten av fotot tack vare Googles HDR +, men som ett resultat är mitt ansikte märkbart mörkare och får en lite rödaktig nyans som du inte ser i den andra skott.

Det finns också stora skillnader i den suddiga effekten som används för att skapa Portrait Selfies. Googles programvara tillämpar en mer aggressiv suddighet och gör att brister i djupkartan sticker ut ganska mycket. Det ser nästan ut som en utskuren klistermärke av mig har applicerats på det här fotot. Apples blå ser lite mer naturlig ut tills du kommer till mitt hår och delar av mig börjar se lite ur fokus. Varken tagna "naglar" verkligen bilden på grund av deras respektive fel, men bristerna är tillräckligt subtila för att du ska ha ett par roliga bilder.

Här är ett annat exempel, bara den här gången är det ett utomhusskott zoomat in 100%.

Detta par skott ger många samma slutsatser. Apple tänder bättre mitt ansikte, i synnerhet mina ögon, medan Google tänder bättre bakgrunden och får hela fotot att känna sig rikare. Apples suddighet sträcker sig för djupt in i mitt hår och får en del av mig att se ur fokus, medan Googles suddighet är så allvarlig att den faktiskt redigerade en del av mitt hår som sticker ut. Utan porträttläget är det tydligt att iPhone X tog ett bättre foto, men med det aktiverade fotoläget är det lättare att uppskatta effekten av Googles programvara.

Apple och Google verkar närma sig denna fototeknik från motsatta riktningar, och det verkar troligt att det vi kommer att se i en inte alltför avlägsen framtid är något slags möte i mitten.

Det finns några naturliga begränsningar för båda dessa fotolägen, särskilt i dessa tidiga dagar. IPhone X blinkar varningar i porträttläge om bakgrunden är för ljus eller om objekt i bakgrunden är för långt borta för att få en ordentlig djupkarta. Googles algoritm har en otäck vana att redigera hörn av receptbelagda glasögon eller föremål i förgrunden som inte är kopplade till en person. Det finns lite försök och fel för att få båda att fungera korrekt, vilket i teorin blir mindre frekvent över tiden eftersom Apple och Google fortsätter att förbättra denna teknik.

Det största som Apple har över Google i detta porträttläge just nu måste vara porträttbelysning. Att kunna se de möjliga ändringarna av fotot i realtid när du går för att ta bilden är stort och möjligheten att fortsätta redigera Portrait Lighting efter att fotot har tagits är otrolig. Det är en mycket hit-or-miss-funktion just nu, speciellt när du börjar titta på Stage Lighting, men inget annat än iPhone har det just nu.

När du redigerar bilderna har Google något som Apple för närvarande inte har och förmodligen borde. När du tar ett foto i porträttläge med en Pixel 2 får du ett par foton. Ett foto redigeras med de suddiga områdena och det andra är bara en vanlig selfie med den främre kameran. Detta ger dig möjlighet att redigera båda bilderna och se vilka du föredrar. Apple håller allt som ett enda foto, vilket enligt min mening är lite mindre bekvämt att se redigeringar mellan de två lägena. Å andra sidan är det ett färre foto i din kamerarulle, så det här är förmodligen bara personlig preferens.

Det finns mycket att säga om det "rätta" sättet att ta ett foto, och ännu mer att säga om dygderna med färgnoggrannhet och funktionseffektivitet. Apple och Google verkar närma sig denna fototeknik från motsatta riktningar, och det verkar troligt att det vi kommer att se i en inte alltför avlägsen framtid är något slags möte i mitten. Just nu är det inte direkt klart att Apples maskinvarubaserade tillvägagångssätt är mätbart bättre än Googles programvarubaserade inställning till Portrait Selfies. Alla saker som gör att iPhone X-kameran tar en bra selfie finns redan på iPhone 8 och 8 Plus. Samtidigt är det inte klart hur mycket bättre Google kan göra sin fotoredigeringsprogramvara med en enda kamera och en ljuspreferens för hela fotot istället för ansiktet.

En sak är helt tydlig - vi är inte nära slutet av Apple och Google som ger oss fler och bättre selfie-funktioner.

instagram story viewer