Artikel

Android Pie-functies waar u dol op zult zijn: een betere camera-ervaring

protection click fraud

Android Pie maakt het gemakkelijker om bijna elke cameraconfiguratie te ondersteunen met zaken als de nieuwe Multi-Camera API.

Android is er in alle soorten en maten. Het is een van de weinige consumentenbesturingssystemen waarmee een bedrijf de ervaring kan afstemmen op hun hardwareplatform en dat is een belangrijke reden waarom het zo populair is geworden - een bedrijf dat iets anders of beters kan doen dan de concurrentie, is vrij om te doen het. Je zult zien dat er op verschillende manieren gebruik van wordt gemaakt als je eenmaal naar het enorme assortiment Android-telefoons kijkt, maar weinig als deze details zo duidelijk zijn als bij de camera.

Uw telefoon heeft waarschijnlijk twee of drie echte fysieke camera's met lenzen en zo. Maar het kan er vier hebben, of zelfs maar één, want zoals we al zeiden, laat Android een bedrijf dat telefoons maakt dingen op zijn eigen manier doen als het gaat om hardwarefuncties. Maar dat betekent niet dat het gemakkelijk was - ingenieurs en ontwikkelaars hebben hard moeten werken om hun eigen configuratie voor camera's te ondersteunen. Hoewel er nog veel werk aan de winkel is om verschillende cameraconfiguraties te ondersteunen, heeft Google enkele lastige details aangepakt met Android Pie.

Verizon biedt de Pixel 4a aan voor slechts $ 10 / maand op nieuwe Unlimited-lijnen

API voor meerdere camera's

Het is je misschien opgevallen dat sommige telefoons, zoals de Samsung Galaxy S9gebruikt u twee camera's aan de achterkant van de telefoon, terwijl andere er maar één hebben. Dit is niet alleen voor het uiterlijk of omdat drie camera's de ene beter zijn dan twee camera's en de tweede lens is bedoeld om informatie te verzamelen, de andere niet verzamelt terwijl je een foto maakt.

Afgezien van groothoekfoto's (er is geen manier waarop een computeralgoritme ze opnieuw kan maken), jij kan doe alles zo goed of beter met één lens dan met twee, maar het is niet gemakkelijk. Google gebruikt een enkele camera aan de achterzijde en een laserdiode in de Pixel 2 om uitstekende foto's te maken met een enkele lens, maar het maakt ook gebruik van ongelooflijk krachtige ML-algoritmen (machine learning) die "weten" hoe de objecten die u op een foto ziet eruit moeten zien. De software kan dan de foto aanpassen, zodat de dingen eruit zien zoals de algoritmen, en hopelijk denken onze ogen dat ze zouden moeten.

Niet elk bedrijf dat smartphones maakt, heeft de middelen om de juiste realtime ondersteuning voor meerdere camera's te bouwen. Nu doet Google het voor hen.

Samsung heeft geen toegang tot dergelijke ML-algoritmen, althans niet de algoritmen waarmee ze tevreden zijn. Wat Samsung wel heeft, is een team van geweldige hardware-ingenieurs die bijna elk probleem kunnen oplossen en het softwareteam dat de hardware kan laten werken zoals het hoort. De Galaxy Note 8 (en andere high-end modellen) maakt gebruik van twee camera's aan de achterkant van de telefoon om dingen te doen zoals afstand meten en focus aanpassen en het valt niet te ontkennen dat het even uitstekend werk levert. Dit komt omdat Samsung de middelen heeft om het probleem op hun eigen manier aan te pakken om zoiets als portretmodusfoto's te ondersteunen.

Niet elk bedrijf dat Android-telefoons maakt, heeft de middelen om twee of meer camera's tegelijkertijd te gebruiken verzamel gegevens en verpak alles in één foto, dus Google maakt het gemakkelijker met de nieuwe multi-camera van Android Pie API.

In Android Pie kunnen ontwikkelaars beeldgegevens van twee of meer camera's tegelijk verzamelen. Dat betekent dat een telefoon met twee camera's aan de achterkant of twee camera's aan de voorkant in realtime beeldgegevens van elk kan combineren en foto's kan maken die gebruikmaken van naadloos zoomen, bokeh, stereovisie of bijna alles waar een ontwikkelaar van kan dromen met twee verschillende beeldstromen gegevens. Ontwikkelaars kunnen ook gegevens ophalen van een "logische" camera die tijdens het gebruik schakelt tussen een of meer camera's.

Deze ideeën zijn niet nieuw, maar native Android-ondersteuning is - en dat is een groot probleem.

Dit betekent dat een derde "virtuele" camera kan worden gemaakt die beeldgegevens ophaalt met een of beide achtercamera's. Een applicatie kan "normale" gegevens ophalen via één camera, afstandsgegevens voor een naadloze zoom door een seconde, en schakel de originele camera heen en weer om een ​​virtuele stream te vormen om zoiets als een fotofilter op de achtergrond te verwerken. Deze omschakeling zou zo snel gebeuren dat de originele afbeeldingsgegevens ongewijzigd zouden blijven.

Je zou een ingezoomde foto kunnen hebben door een telelens die ook hardware kan gebruiken om een ​​zwart-witte achtergrond te creëren, compleet met digitale bokeh. Je zou waarschijnlijk nooit zoiets moeten doen, maar als een ontwikkelaar het zou willen aanbieden, zou hij of zij dat kunnen.

Deze veranderingen zijn geen "nieuwe" ideeën. Ze lijken erg op wat bedrijven leuk vinden Samsung en LG hebben gedaan met telefoons die meer dan één camera gebruiken om een ​​foto te maken. Het verschil is dat Samsung en LG had om het te doen omdat het iets was dat nog nooit eerder was gedaan. Google die deze ondersteuning rechtstreeks aan Android toevoegt, betekent betere foto's van fabrikanten die niet over dezelfde middelen beschikken als Samsung of LG.

De Multi-camera API ondersteunt ook zwart-witcamera's (denk aan zwart-wit). Als de camera's daartoe in staat zijn, worden ze volledig ondersteund, net als de hoofdcamera met hoge resolutie op een telefoon.

Nog meer lekkers

De Multi-camera API in Android 9 krijgt alle aandacht en zorgt voor de grotere impact, maar er zijn een paar andere belangrijke wijzigingen aan de camera met Pie.

Sessieparameters zijn een manier waarop ontwikkelaars hun app een foto kunnen laten maken zonder dat het een eeuwigheid duurt om te verwerken, zelfs als ze gebruikmaken van de nieuwe Multi-camera API. Met functies als 'Session_Regular' en 'Session_High-Speed' kan een ontwikkelaar beslissen hoeveel van een telefoon beperkte resource pool kan worden gebruikt om snel een foto te maken wanneer dat nodig is en niet zo snel wanneer het moet niet.

Door het delen van Surface kunnen applicaties "verschillende gebruiksscenario's aan zonder de noodzaak om het streamen van camera's te stoppen en te starten". Dit betekent een app hoeft niet te stoppen met werken aan het ophalen van beeldgegevens die door de lens (en) worden gezien terwijl u beslist wat u met de vorige wilt doen foto. Dat is belangrijk als je denkt aan zaken als de korte clips die we als livefoto's beschouwen.

Andere, nog kleinere wijzigingen zijn een API waarmee het scherm als een flitser kan werken door wit te knipperen als een gewone cameraflitser in plaats van dat een ontwikkelaar dat zelf moet coderen, zoals evenals toegang tot OIS-tijdstempels (optische beeldstabilisatie) voor speciale effecten op toepassingsniveau - elke app kan een foto stabiliseren, evenals de ingebouwde camera-app hiermee verandering.

Last but not least komt er goede ondersteuning voor externe USB-camera's, dus zaken als inspectiecamera's, microscopen of zelfs telescopen kunnen via de USB-poort van uw telefoon worden gebruikt zonder dat u veel ontwikkelaarswerk hoeft te doen om een bestuurder maar met meer functies dan een standaard "USB-webcam" -interface die in sommige gevallen tegenwoordig werkt.

Geen van deze veranderingen zal ons een betere fotograaf maken, maar het zal onze camera's goed genoeg maken om betere foto's te maken. Uiteindelijk is dat het enige dat telt, toch?

Jerry Hildenbrand

Jerry is de vaste nerd van Mobile Nation en daar trots op. Er is niets dat hij niet uit elkaar kan halen, maar veel dingen kan hij niet weer in elkaar zetten. Je vindt hem op het Mobile Nations-netwerk en dat kan sla hem op Twitter als je hey wilt zeggen.

instagram story viewer