Google Pixel 2 / XL se parece exatamente com qualquer outro smartphone, mas há algo poderoso e inovador escondido por dentro dele: a inteligência artificial (AI). Primeiro, vejamos o óbvio: o Pixel 2 / XL, ao contrário de muitos outros Smartphones, não possui duas câmeras na traseira nem na frontal. Mas ainda ainda assim, consegue capturar imagens com o Modo Retrato com muita precisão, mesmo com apenas uma câmera.
Mas como isso é possível? Pois bem, o renomado site PhoneArena tomou a liberdade de criar um artigo descrevendo tudo que é possível fazer com o conjunto de câmeras dos novos smartphones do Google. Tudo se resume na engenharia inteligente e o poder da IA que se juntam para tornar isso possível.
Explicando o modo retrato.

HDR+ é “animal”
O HDR+ no Pixel 2 é completamente diferente. Faz até 10 fotografias, e faz isso toda vez. Essas imagens são subexpostas para evitar ficar com brilho estourado (queimados) e, em seguida, são todas combinados e alinhadas em uma única imagem.
O poder da Inteligencia artificial (IA)
Ao usar a imagem HDR+, o Smartphone deve decidir qual parte da imagem deve estar em foco e qual deve ser borrada. É aí que a inteligência artificial trabalha: o Google treinou uma rede neural para reconhecer pessoas, animais de estimação, flores e coisas do gênero. A rede neural filtra a imagem reconhecendo as sombras dos arredores em torno de cada pixel primeiro, e começa a descobrir cores e bordas, então continua a filtrar até achar rostos, depois características faciais, e assim por diante.
A tecnologia de Pixels Duplos
O Pixel 2 possui um sensor de câmera dual pixel. Isso não é novo: os celulares Samsung foram os primeiros a ter isso. O que se resume é que, no sensor da câmera, cada pixel está realmente dividido em dois pequenos subpíxeles (é chamado de Autofoco Dual Pixel ou DPAF) que captura a mesma informação de um ângulo muito, muito rapidamente.
Essa diferença foi usada no Galaxy S7 em diante, mas para dar um nível superior por sua auto-focagem ultra rápida. O Google encontrou outro uso para isso: ele usa essa diferença muito pequena para determinar quão longe cada objeto está da câmera. Veja o gráfico abaixo:
O resultado disso tudo:
Aqui está o resultado final, que a propósito é bastante surpreendente: as partes mais brilhantes estão mais próximas, enquanto as partes mais escuras estão mais longe:
Se parece complicado, é porque realmente é, algum trabalho de engenharia impressionante foi feito para aperfeiçoar isso e o Google trabalhou arduamente para fazer com que fosse filtrado o ruído em uma explosão adicional de imagens para obter resultados mais adequados.
Estes são os resultados da máscara de profundidade
[gallery columns="2" link="file" size="medium" ids="56656,56657,56658,56621"]Finalmente, todas essas etapas são combinadas em uma única imagem que entrega um resultado deslumbrante. Observe como a quantidade de desfocagem é correta e até mesmo a massa em frente é desfocada, observe cada fio de cabelo devidamente reconhecido e com foco nítido.