Artigo

Veja por que o chip Neural Core do Pixel 4 pode mudar o jogo da fotografia

protection click fraud

Há uma razão pela qual Pixel 3 foi elogiado como o melhor telefone com câmera. O Google usa algoritmos de software dentro de seu pacote HDR + para processar pixels e, quando combinados com um pouco de aprendizado de máquina, algumas fotos realmente espetaculares podem vir de um telefone que pode ter hardware.

Para ajudar a processar esses algoritmos, o Google usou um processador especializado chamado Pixel Visual Core, um chip que vimos pela primeira vez em 2017 com o Pixel 2. Este ano, parece que o Google substituiu o Pixel VIsual Core por algo chamado Pixel Neural Core.

O Google pode estar usando técnicas de rede neural para tornar as fotos ainda melhores no Pixel 4.

O original Pixel Visual Core foi projetado para ajudar os algoritmos usados ​​pelo processamento de imagem HDR + do Google, que faz com que as fotos tiradas com o Pixel 2 e o Pixel 3 tenham uma ótima aparência. Ele usou alguma programação de aprendizado de máquina e o que é chamado de fotografia computacional para preencher de forma inteligente as partes de uma foto que não eram exatamente perfeitas. O efeito foi muito bom; ele permite que um telefone com um sensor de câmera disponível no mercado tire fotos tão boas ou melhores do que qualquer outro telefone disponível.

A Verizon está oferecendo o Pixel 4a por apenas US $ 10 / mês nas novas linhas Unlimited

Se o Pixel Neural Core é o que acreditamos que seja, o Pixel 4 estará mais uma vez na luta pelo primeiro lugar quando se trata de fotografia para smartphones. Aqui está o porquê.

Redes neurais

Parece que o Google está usando um chip modelado a partir de uma técnica de rede neural para melhorar o processamento de imagem dentro de seu smartphone Pixel para 2019. Uma rede neural é algo que você pode ter visto mencionado uma ou duas vezes, mas o conceito não é explicado com muita frequência. Em vez disso, pode parecer algum tipo de mumbo-jumbo de computador do nível do Google que lembra magia. Não é, e a ideia por trás de uma rede neural é realmente muito fácil de entender.

As redes neurais coletam e processam informações de uma forma que se assemelha ao cérebro humano.

As redes neurais são grupos de algoritmos modelados a partir do cérebro humano. Não a aparência ou funcionamento do cérebro, mas como ele processa as informações. Uma rede neural obtém dados sensoriais por meio do que é chamado de percepção de máquina - dados coletados e transferidos por meio de sensores externos, como um sensor de câmera - e reconhece padrões.

Esses padrões são números chamados de vetores. Todos os dados externos do mundo "real", incluindo imagens, sons e texto, são traduzidos em um vetor e classificados e catalogados como conjuntos de dados. Pense em uma rede neural como uma camada extra em cima de coisas armazenadas em um computador ou telefone e essa camada contém dados sobre o que tudo significa - como parece, como soa, o que diz e quando aconteceu. Uma vez que um catálogo é construído, novos dados podem ser classificados e comparados a ele.

Um exemplo do mundo real ajuda a fazer mais sentido. A NVIDIA fabrica processadores que são muito bons para executar redes neurais. A empresa passou muito tempo digitalizando e copiando fotos de gatos na rede e, uma vez terminado, o cluster de computadores através da rede neural poderia identificar um gato em qualquer foto que contivesse um. Gatos pequenos, gatos grandes, gatos brancos, gatos chita, até mesmo leões da montanha ou tigres eram gatos porque a rede neural tinha muitos dados sobre o que um gato "era".

Com esse exemplo em mente, não é difícil entender por que o Google iria querer aproveitar esse poder dentro de um telefone. Um núcleo neural capaz de interagir com um grande catálogo de dados seria capaz de identificar o que a lente de sua câmera está vendo e, então, decidir o que fazer. Talvez os dados sobre o que vê e o que espera possam ser passados ​​para um algoritmo de processamento de imagem. Ou talvez os mesmos dados possam ser enviados ao Assistente para identificar um suéter ou uma maçã. Ou talvez você pudesse traduzir o texto escrito de forma ainda mais rápida e precisa do que o Google faz agora.

Não é exagero pensar que o Google poderia projetar um pequeno chip que pudesse interagir com uma rede neural e o processador de imagem dentro de um telefone e é fácil ver por que ele faria isso. Não temos certeza do que exatamente é o Pixel Neural Core ou para que pode ser usado, mas certamente saberemos mais assim que vermos o telefone e os detalhes reais quando for "oficialmente" anunciado.

instagram story viewer