Artikel

Google forklarer, hvordan Astrofotografi på Pixel 4 fungerer

protection click fraud

Pixel-kameraer er gode af mange grunde, og en af ​​de store er deres Night Sight-funktion. I år, da Google udgav Pixel 4 og 4 XL, gjorde det denne funktion endnu bedre med inkluderingen af ​​Astrofotografietilstand. I en ny blogindlæg, Google går dybt ind i detaljerne om, hvordan det lykkedes at få en fotomodus, der tidligere kun blev anset for at være mulig for DSLR'er.

Hvis du ikke er bekendt med Night Sight, får det i enkle vendinger fotos i svagt lys - eller næsten intet lys - til at se ud som om de blev taget med betydeligt mere lys. Google beskriver processen med at håndtere manglen på luminescens som sådan:

For at overvinde dette opdeler Night Sight eksponeringen i en sekvens af flere rammer med kortere eksponeringstider og tilsvarende mindre bevægelsessløring. Rammerne justeres først og kompenserer for både kamerarystelser og bevægelse i scenen og beregnes derefter i gennemsnit med omhyggelig behandling af tilfælde, hvor perfekt justering ikke er mulig. Mens individuelle rammer kan være ret kornede, ser det kombinerede billede i gennemsnit meget renere ud.

Hvad angår de fantastiske stjerneskud, der kan tages ved hjælp af en Pixel 3 eller nyere, har Google tilføjet den nye Astrofotografi-tilstand. Mens Night Sight-fotos kan tages med brugeren, der holder telefonen, skal dine billeder af Mælkevejen tages med telefonen på et stativ eller støttes mod noget.

Få er villige til at vente mere end fire minutter på et billede, så vi begrænsede et enkelt Night Sight-billede til højst 15 billeder med op til 16 sekunder pr. Billede.

Når du tager disse fantastiske billeder af stjerner, kan det være lidt af en udfordring at indramme billedet korrekt på skærmen. Dette skyldes, at når du åbner din telefon og skifter til Night Sight, er det, du ser på din skærm, godt sort. Når du har sat din telefon op, hvor den fjernes i de næste fire minutter, og trykker på udløserknappen, starter nedtællingen, og visningen ændres.

Verizon tilbyder Pixel 4a for kun $ 10 / mo på nye ubegrænsede linjer

Noget andet, Google tager i betragtning, når det kommer til fotos med svagt lys, er "varme pixels" og "hot pixels." På grund af noget kaldet mørk strøm, der lyder som noget ud af en Harry Potter-bog, forårsager CMOS-billedsensorer at se små mængder lys, selv når der ikke er nogen. Dette problem bliver et større problem, da eksponeringstiden for et foto forlænges. Når dette sker, bliver disse "varme pixels" og "hot pixels" synlige på billedet som lyse specifikationer for lys. Sådan tackler Google dette problem:

Varme og varme pixels kan identificeres ved at sammenligne værdierne for nærliggende pixels inden for den samme ramme og på tværs af sekvensen af ​​rammer, der er optaget til et foto, og på udkig efter outliers. Når en outlier er blevet opdaget, skjules den ved at erstatte dens værdi med gennemsnittet af sine naboer. Da den oprindelige pixelværdi kasseres, er der tab af billedinformation, men i praksis påvirker dette ikke mærkbar billedkvaliteten.

Når natfotoet er i sin endelige behandling, tilføjer Google endnu et trick for at give dig et fantastisk billede, og det er himmelbehandling. At vide, at billeder af meget mørke billeder kan se lysere ud end de virkelig er og påvirke seerens fortolkning for det tidspunkt på dagen, hvor billedet faktisk blev taget - Google har en løsning. Himmelbearbejdning ved effektivt, at himlen skal se mørkere ud på billedet, end den går, så den del justeres uden at ændre de dele, der ikke er fra himlen.

Denne effekt modvirkes i Night Sight ved selektivt at mørke himlen på fotos af scener med svagt lys. For at gøre dette bruger vi maskinlæring til at opdage, hvilke regioner i et billede der repræsenterer himlen. Et sammensat neuralt netværk på enheden, trænet i over 100.000 billeder, der var manuelt mærket ved at spore konturerne af himmelregioner, identificerer hver pixel på et fotografi som "himmel" eller "ikke himmel."

instagram story viewer