Artikkel

Astrofotografimodus: Slik fungerer Pixel 4s drepende nye kamerafunksjon

protection click fraud

Det har vært mye hype rundt Pixel 4s nye astrofotografimodus, med mange brukere (inkludert meg selv!) legger ut kjevefallende skudd av stjernene på himmelen over hele sosiale medier. Astrofotografi, fangst av stjerner og andre himmellegemer, er ikke nytt for smarttelefoner; Huawei P30 Pro presenterte denne evnen helt tilbake i mars, men som vanlig er Googles tilnærming litt annerledes.

Pixel 4 bruker en kombinasjon av lange eksponeringer, HDR + og semantisk segmentering for å få mirakuløse resultater.

Hvis du noen gang har prøvd å skyte nattehimmelen med et dedikert kamera som en speilreflekskamera, er du utvilsomt kjent med prosess for å ta lange eksponeringer, der du lar kameraets lukker forbli åpen lenger enn vanlig for å fange mer lys. Dette fungerer bra med en stor sensor, men den relativt lille sensoren i en telefon som Pixel 4 trekker naturlig inn mindre lys, så den må eksponere enda lenger.

Verizon tilbyr Pixel 4a for bare $ 10 / mo på nye ubegrensede linjer

Problemet med å utsette for

også lang er imidlertid at Jordens naturlige rotasjon begynner å påvirke hvordan himmelen blir fanget, og du vil fort ende opp med stjernespor, eller hvite linjer på himmelen som et resultat av stjernenes forskjellige posisjoner i begynnelsen og slutten av eksponering. Så hvordan kompenserer Google for dette mens du fortsatt tillater Pixel 4 å ta inn nok lys til et rent bilde?

Astrofotografi er innebygd i Night Sight-kameramodus i Pixel's aksjekamera-app, og sparker automatisk inn når den oppdager mørke nok forhold. Det kan ta så lang tid som en fotografering å fullføre, men det er ikke en eksponering på fire minutter; i stedet tar Pixel en rekke på 15 sekunders eksponeringer og syr dem sammen i sanntid ved å bruke telefonens gyroskop og beregningsdata for å justere hver nye eksponering med den siste. Tenk på det som en avansert form for HDR +, med noen eksponeringer som prioriterer høydepunkter og andre skygger.

Google har også en ny funksjon kalt Semantic Segmentation som, i likhet med Apples Deep Fusion, identifiserer forskjellige objekter i bildet og behandler dem annerledes. Dette lar PIxel 4 skarpe stjernene og gjøre forgrunnen lysere, for eksempel uavhengig av hverandre. I tillegg er det nye forbedringer i behandlingen av støyreduksjon som hjelper til å bekjempe tilfeldige hvite piksler som ellers ville vises i bilder.

Kombiner all denne teknologien sammen, og Pixel 4 er i stand til å hente ut mirakuløse bilder selv under de mørkeste forhold, forutsatt at du holder det på ett sted lenge nok. Mens en av fordelene med Night Sight er muligheten til å ta imponerende bilder i svakt lys selv under fotografering håndholdt, betyr arten av lang eksponering at du må peke Pixel 4 mot et nærliggende objekt eller montere det på en stativ.

Uansett om du forstår hvordan det fungerer eller ikke, er det viktige med astrofotografering at du går ut og tar noen nye bilder av deg selv! Ta tak i et stativ og Pixel 4, gå ut et sted med så lite støyforurensning du kan, og kom til å skyte.

instagram story viewer