Il y a une raison pour laquelle le Pixel 3 a été salué comme le meilleur téléphone avec appareil photo. Google utilise des algorithmes logiciels dans son package HDR + pour traiter les pixels, et lorsqu'ils sont combinés avec un petit peu d'apprentissage automatique, des photos vraiment spectaculaires peuvent provenir d'un téléphone qui peut avoir un problème standard Matériel.
Pour aider à traiter ces algorithmes, Google a utilisé un processeur spécialisé appelé Pixel Visual Core, une puce que nous avons vue pour la première fois en 2017 avec le Pixel 2. Cette année, il semble que Google a a remplacé le Pixel VIsual Core par quelque chose appelé Pixel Neural Core.
Google utilise peut-être des techniques de réseau neuronal pour rendre les photos encore meilleures sur le Pixel 4.
L'original Pixel Visual Core a été conçu pour aider les algorithmes utilisés par le traitement d'image HDR + de Google, ce qui rend les photos prises avec le Pixel 2 et le Pixel 3 si belles. Il a utilisé une programmation d'apprentissage automatique et ce qu'on appelle la photographie informatique pour remplir intelligemment les parties d'une photo qui n'étaient pas tout à fait parfaites. L'effet était vraiment bon; il permet à un téléphone équipé d'un capteur de caméra standard de prendre des photos aussi bonnes ou meilleures que tout autre téléphone disponible.
Verizon propose le Pixel 4a pour seulement 10 $ / mois sur les nouvelles lignes illimitées
Si le Pixel Neural Core est ce que nous pensons être, le Pixel 4 sera une fois de plus en lutte pour la première place en matière de photographie sur smartphone. Voici pourquoi.
Les réseaux de neurones
Il semble que Google utilise une puce inspirée d'une technique de réseau neuronal pour améliorer le traitement de l'image dans son téléphone Pixel pour 2019. Un réseau de neurones est quelque chose que vous avez peut-être vu mentionné une fois ou deux, mais le concept n'est pas expliqué très souvent. Au lieu de cela, cela peut ressembler à un ordinateur de niveau Google qui ressemble à de la magie. Ce n'est pas le cas, et l'idée derrière un réseau de neurones est en fait assez facile à comprendre.
Les réseaux neuronaux collectent et traitent les informations d'une manière qui ressemble au cerveau humain.
Les réseaux de neurones sont des groupes d'algorithmes modelés sur le cerveau humain. Pas à quoi un cerveau ressemble ou fonctionne même, mais comment il traite les informations. Un réseau neuronal prend des données sensorielles à travers ce qu'on appelle la perception de la machine - des données collectées et transférées via des capteurs externes, comme un capteur de caméra - et reconnaît les modèles.
Ces modèles sont des nombres appelés vecteurs. Toutes les données extérieures du monde «réel», y compris les images, les sons et le texte, sont traduites en un vecteur et classées et cataloguées sous forme d'ensembles de données. Pensez à un réseau neuronal comme une couche supplémentaire au-dessus des éléments stockés sur un ordinateur ou un téléphone et cette couche contient des données sur ce que tout cela signifie - à quoi il ressemble, à quoi il ressemble, ce qu'il dit et quand arrivé. Une fois qu'un catalogue est construit, les nouvelles données peuvent être classées et comparées à celui-ci.

Un exemple concret aide tout cela à avoir plus de sens. NVIDIA fabrique des processeurs très performants pour exécuter des réseaux neuronaux. L'entreprise a passé beaucoup de temps numériser et copier des photos de chats dans le réseau, et une fois terminé, le groupe d'ordinateurs via le réseau neuronal pouvait identifier un chat sur n'importe quelle photo qui en avait un. Les petits chats, les grands chats, les chats blancs, les chats calicot, même les lions des montagnes ou les tigres étaient des chats parce que le réseau neuronal avait tellement de données sur ce qu'un chat «était».
Avec cet exemple à l'esprit, il n'est pas difficile de comprendre pourquoi Google voudrait exploiter cette puissance dans un téléphone. Un Neural Core capable de s'interfacer avec un large catalogue de données serait en mesure d'identifier ce que voit l'objectif de votre appareil photo, puis de décider quoi faire. Peut-être que les données sur ce qu'il voit et ce qu'il attend pourraient être transmises à un algorithme de traitement d'image. Ou peut-être que les mêmes données pourraient être transmises à l'Assistant pour identifier un pull ou une pomme. Ou peut-être pourriez-vous traduire un texte écrit encore plus rapidement et plus précisément que Google ne le fait actuellement.
Il n'est pas exagéré de penser que Google pourrait concevoir une petite puce qui pourrait s'interfacer avec un réseau neuronal et le processeur d'image à l'intérieur d'un téléphone et il est facile de comprendre pourquoi il voudrait le faire. Nous ne savons pas exactement ce qu'est le Pixel Neural Core ou à quoi il pourrait être utilisé, mais nous en saurons certainement plus une fois que nous verrons le téléphone et les détails réels lorsqu'il sera annoncé "officiellement".