Os smartphones Google Pixel podem não ter as câmeras mais poderosas ou versáteis em termos de hardware, mas eles mais do que compensam no uso de software. O Google usa IA computacional para ajudar a impulsionar as imagens, tornando os Pixels alguns dos melhores câmeras point-and-shoot para smartphone no mercado. O Pixel 4a 5G e Pixel 5 ambos aumentaram as expectativas, particularmente com a adição do novo recurso Portrait Light.
Detalhes do Google em uma postagem de blog como o Portrait Light permite ao usuário ajustar a iluminação direcional de uma imagem depois que a foto foi tirada. É um recurso aplicado automaticamente a fotos de pessoas, incluindo fotos de visão noturna. É semelhante a um recurso de luz de estúdio no LG G8, que dependia mais do hardware do sensor Time-of-Flight da câmera selfie. A abordagem do Google para os pixels é inteiramente baseada em software, contando com modelos e aprendizado de máquina.
Ofertas VPN: Licença vitalícia por US $ 16, planos mensais por US $ 1 e mais
Fonte: Google
Os engenheiros do Google primeiro tiveram que treinar seu modelo, apresentando-o com vários exemplos de fotos com diferentes intensidades de luz e direções. Até mesmo a pose da cabeça do modelo foi levada em consideração, o que permitiu que o modelo aprendesse como a luz é aplicada em diferentes faces e em diferentes condições.
Levando essas variáveis em consideração, o modelo renderizaria esferas com base no perfil de iluminação de uma fotografia, incluindo cor, intensidade e direcionalidade. Então, aplicando práticas de iluminação comuns em fotografia, como luz principal e luz de preenchimento, os engenheiros foram capazes de determinar onde aplicar melhor a iluminação sintética em uma imagem. Mas esse foi apenas o primeiro passo.
Os engenheiros do Google também tiveram que demonstrar essas diferentes fontes de iluminação sintética para que o modelo fosse replicado. Para fazer isso, eles utilizaram um Light Stage, que é uma plataforma esférica equipada com mais de 300 luzes LED e mais de 60 câmeras, todas colocadas em ângulos diferentes. Ao capturar diferentes pessoas com diferentes gêneros, tons de pele, formas de rosto e outras variáveis, o Google os engenheiros foram capazes de modelar centenas de condições de iluminação diferentes, capturando uma foto diferente por indivíduo luz. Sem entrar em detalhes, o Google foi capaz de usar as informações do Light Stage e aplicá-las a diferentes ambientes simulados.
Fonte: Google
Quando aplicado ao recurso Portrait Light, era importante que o efeito de reacendimento fosse o mais eficiente possível. O Portrait Light cria um mapa de visibilidade de luz e o usa para ajudar a construir uma versão de baixa qualidade da imagem ao ajustar a iluminação. Uma vez selecionado, o algoritmo é então ampliado e aplicado à imagem original de alta qualidade. Isso permite que o modelo funcione perfeitamente no seu dispositivo, ocupando muito pouco espaço com pouco menos de 10 MB.
A profundidade com que o Google melhora continuamente seu algoritmo de câmera Pixel é bastante impressionante. O Portrait Light é automaticamente aplicado a fotos tiradas no Google Pixel 4 e mais recente, e também funciona para fotos pré-existentes tiradas em smartphones Pixel mais antigos como o Pixel 2 e superior. Acesse o Google Fotos e veja como você pode melhorar a aparência de seus retratos!