Artikkel

Google forklarer hvordan Astrofotografi på Pixel 4 fungerer

protection click fraud

Pikselkameraer er gode av mange grunner, og en av de store er deres Night Sight-funksjon. I år da Google ga ut Pixel 4 og 4 XL, gjorde den funksjonen enda bedre med inkluderingen av Astrofotografi-modus. I en ny blogg innlegg, Google går dypt inn i detaljene om hvordan det klarte å få en fotomodus som tidligere bare ble antatt å være mulig for DSLR-er.

Hvis du ikke er kjent med Night Sight, gjør det i enkle ord bilder i svakt lys - eller nesten ikke noe lys - ser ut som om de ble tatt med betydelig mer lys. Google beskriver prosessen med å håndtere mangelen på luminescens som sådan:

For å overvinne dette deler Night Sight eksponeringen i en sekvens av flere bilder med kortere eksponeringstider og tilsvarende mindre bevegelsesskarphet. Rammene justeres først, kompenserer for både kamerarystelser og bevegelser på scenen, og beregnes deretter i gjennomsnitt, med nøye behandling av tilfeller der perfekt justering ikke er mulig. Mens individuelle rammer kan være ganske kornete, ser det kombinerte, gjennomsnittlige bildet mye renere ut.

Når det gjelder de fantastiske stjerneskuddene som kan tas med en Pixel 3 eller nyere, har Google lagt til den nye Astrofotografimodusen. Mens Night Sight-bilder kan tas med brukeren som holder telefonen, må bildene dine av Melkeveien tas med telefonen på et stativ eller støttes mot noe.

Få er villige til å vente mer enn fire minutter på et bilde, så vi begrenset et enkelt Night Sight-bilde til maksimalt 15 bilder med opptil 16 sekunder per bilde.

Når du tar disse flotte stjerneskuddene, kan det være litt av en utfordring å ramme bildet på skjermen ordentlig. Dette er fordi når du åpner telefonen og bytter til Night Sight, er det du ser på skjermen godt - svart. Når du har satt telefonen opp der den vil bli fjernet de neste fire minuttene og trykker på lukkerknappen, starter nedtellingen og visningen endres.

Verizon tilbyr Pixel 4a for bare $ 10 per måned på nye ubegrensede linjer

Noe annet Google tar i betraktning når det gjelder bilder med lite lys er "varme piksler" og "varme piksler." På grunn av noe som heter mørk strøm, som høres ut som noe ut av en Harry Potter-bok, forårsaker CMOS-bildesensorer å se små mengder lys selv når det ikke er noe. Dette problemet blir et større problem ettersom eksponeringstiden til et bilde strekker seg. Når dette skjer, blir de "varme pikslene" og "varme pikslene" synlige på bildet som lyse spesifikasjoner for lys. Slik takler Google problemet:

Varme og varme piksler kan identifiseres ved å sammenligne verdiene til nærliggende piksler i samme ramme og på tvers av rammesekvensen som er spilt inn for et bilde, og å se etter outliers. Når en outlier er oppdaget, skjules den ved å erstatte verdien med gjennomsnittet av naboene. Siden den opprinnelige pikselverdien er forkastet, er det tap av bildeinformasjon, men i praksis påvirker dette ikke bildekvaliteten merkbart.

Når nattbildet er i endelig behandling, legger Google til et nytt triks for å gi deg et fantastisk bilde, og det er himmelbehandling. Å vite at bilder av veldig mørke bilder kan se lysere ut enn de egentlig er og påvirke betrakterens tolkning for den tiden på dagen bildet faktisk ble tatt - Google har en løsning. Himmelsbearbeiding vet effektivt at himmelen skal se mørkere ut på bildet enn den går, slik at delen justeres uten å endre ikke-himmelen.

Denne effekten motvirkes i Night Sight ved å selektivt mørke himmelen på bilder av scener med lite lys. For å gjøre dette bruker vi maskinlæring for å oppdage hvilke regioner i et bilde som representerer himmelen. Et konvolusjonsnervenettverk på enheten, trent på over 100.000 bilder som var manuelt merket ved å spore omrissene av himmelregioner, identifiserer hver piksel i et fotografi som "himmel" eller "ikke himmel."

instagram story viewer