Artikkel

Android Pie-funksjoner du vil like: En bedre kameraopplevelse

protection click fraud

Android Pie gjør det lettere å støtte nesten hvilken som helst kamerakonfigurasjon med ting som den nye Multi-Camera API.

Android kommer i alle former og størrelser. Det er et av få operativsystemer for forbrukere som lar et selskap skreddersy opplevelsen til maskinvareplattformen, og det er det en stor grunn til at det har blitt så populært - et selskap som kan gjøre noe annerledes eller bedre enn konkurrentene, er gratis bare å gjøre den. Du vil se at det blir utnyttet på mange måter når du begynner å se på det store utvalget av Android-drevne telefoner, men få om disse detaljene er like tydelige som det er med kameraet.

Telefonen din har sannsynligvis to eller tre faktiske fysiske kameraer med linser og alt. Men det kan ha fire, eller til og med bare en, for som vi nevnte, lar Android et selskap som får telefoner til å gjøre ting på sin egen måte når det gjelder maskinvarefunksjoner. Men det betyr ikke at det var enkelt - ingeniører og utviklere har måttet jobbe hardt for å støtte sin egen konfigurasjon for kameraer. Mens det fremdeles vil være mye arbeid involvert for å støtte forskjellige kamerakonfigurasjoner, har Google adressert noen av de tøffe detaljene med Android Pie.

Verizon tilbyr Pixel 4a for bare $ 10 / mo på nye ubegrensede linjer

Multi-kamera API

Du har kanskje lagt merke til at noen telefoner, som Samsung Galaxy S9, bruk to kameraer på baksiden av telefonen, mens andre bare har ett. Dette er ikke bare for utseende eller fordi tre kameraer er ett bedre enn to kameraer, og det andre objektivet er der for å samle inn informasjon det andre ikke samler inn mens du tar et bilde.

Vidvinkelbilder til side (det er ingen måte en datalgoritme kan gjenskape dem), du kan gjør alt så bra eller bedre med en linse enn du kan med to, men det er ikke lett. Google bruker et enkelt bakre kamera og en laserdiode i Pixel 2 for å ta gode bilder med en enkelt linse, men det bruker også utrolig kraftige ML (maskinlærings) algoritmer som "vet" hvordan gjenstandene du ser på et bilde skal se ut. Programvaren kan deretter justere bildet, slik at tingene ser ut som algoritmene, og forhåpentligvis, øynene våre, synes de burde.

Ikke alle selskaper som lager smarttelefoner har ressurser til å bygge ut riktig sanntidsstøtte for flere kameraer. Nå gjør Google det for dem.

Samsung har ikke tilgang til ML-algoritmer som dette, i det minste ikke de de er fornøyde med å bruke. Det Samsung har, er et team av crack-maskinvareingeniører som kan løse nesten alle problemer, og programvareteamet som kan få maskinvaren til å fungere som den skal. De Galaxy Note 8 (og andre avanserte modeller) bruker to kameraer på baksiden av telefonen til å gjøre ting som å måle avstand og justere fokus, og det kan ikke benektes at den gjør en like utmerket jobb. Dette er fordi Samsung har ressurser til å takle problemet med å støtte noe som portrettmodus-bilder på sin egen måte.

Ikke alle selskaper som lager Android-telefoner har ressursene til å bruke to eller flere kameraer samtidig samle inn data og pakke det hele inn i ett bilde, så Google gjør det enklere med Android Pies nye multikamera API.

I Android Pie vil utviklere kunne samle bildedata fra to eller flere kameraer samtidig. Det betyr at en telefon med to bakre eller to frontkameraer kan kombinere bildedata fra hver i sanntid og lage bilder som bruker sømløs zooming, bokeh, stereosyn eller nesten hva som helst annet en utvikler kan drømme om å gjøre med to forskjellige bildestrømmer data. Utviklere kan også hente data fra et "logisk" kamera som bytter mellom ett eller flere kameraer mens de er i bruk.

Disse ideene er ikke nye, men innfødt Android-støtte er - og det er en stor avtale.

Dette betyr at et tredje "virtuelt" kamera kan opprettes som fanger bildedata ved hjelp av ett eller begge bakkameraene. En applikasjon kan hente "normale" data gjennom ett kamera, avstandsdata for en sømløs zoom gjennom et sekund, og bytt det originale kameraet frem og tilbake for å danne en virtuell strøm for å behandle noe som et fotofilter i bakgrunnen. Denne byttingen ville bli gjort så raskt at de opprinnelige bildedataene skulle være uendret.

Du kan ha zoomet inn et bilde gjennom et teleobjektiv som også kan bruke maskinvare til å lage en svart-hvitt bakgrunn komplett med digital bokeh. Du burde sannsynligvis aldri gjøre noe slikt, men hvis en utvikler ønsket å tilby det, kunne han eller hun.

Disse endringene er ikke "nye" ideer. De ligner veldig på hva selskaper liker Samsung og LG har gjort med telefoner som bruker mer enn ett kamera for å ta et bilde. Forskjellen er at Samsung og LG hadde å gjøre det fordi det var noe som aldri har blitt gjort før. Google legger til denne støtten direkte i Android, betyr bedre bilder fra produsenter som ikke har de samme ressursene som Samsung eller LG har.

Multi-camera API støtter også monokrome (tenk svart og hvitt) kameraer. Hvis kameraene er i stand, støttes de fullt ut som det viktigste kameraet med høy oppløsning på en telefon.

Enda flere godbiter

Multi-camera API i Android 9 vil få all oppmerksomhet og vil gi større innvirkning, men det er noen andre viktige endringer i kameraet med Pie.

Sesjonsparametere er en måte utviklere kan få appen til å ta et bilde uten at det tar evig tid å behandle, selv om de bruker det nye API-et for flere kameraer. Funksjoner som "Session_Regular" og "Session_High-Speed" lar en utvikler bestemme hvor mye av telefonens begrenset ressursbasseng kan brukes til å ta et bilde raskt når det trenger å gjøres, og ikke så raskt når det gjør ikke det.

Overflatedeling lar applikasjoner "håndtere forskjellige brukstilfeller uten behov for å stoppe og starte kamerastreaming." Dette betyr en appen trenger ikke slutte å jobbe med å få bildedata den ser gjennom linsen (e) mens du bestemmer deg for hva du skal gjøre med den forrige bilde. Det er viktig når du tenker på ting som de korte klippene vi ser på som levende bilder.

Andre enda mindre endringer er en API som lar skjermen fungere som en blits ved å blinke hvite ganger som en vanlig blits i stedet for at en utvikler trenger å kode det selv, som samt tilgang til OIS-tidsstempler (optisk bildestabilisering) for spesialeffekter på applikasjonsnivå - en hvilken som helst app kan stabilisere et bilde, så vel som den innebygde kamera-appen kan med dette endring.

Sist men ikke minst, riktig støtte for eksterne USB-kameraer kommer så ting som inspeksjonskameraer, mikroskoper eller til og med teleskoper kan brukes gjennom telefonens USB-port uten mye utviklerarbeid med å skrive en sjåfør men med flere funksjoner enn et grunnleggende "USB webcam" -grensesnitt som fungerer i noen tilfeller i dag.

Ingen av disse endringene vil gjøre oss til en bedre fotograf, men det vil gjøre kameraene våre gode nok til at vi kan ta bedre bilder. Til slutt er det alt som teller, ikke sant?

Jerry Hildenbrand

Jerry er Mobile Nation's bosatt nerd og stolt av det. Det er ingenting han ikke kan ta fra hverandre, men mange ting han ikke kan sette sammen igjen. Du finner ham over Mobile Nations-nettverket, og du kan slo ham på Twitter hvis du vil si hei.

instagram story viewer