Google Pixel 2 / XL se parece exatamente com qualquer outro smartphone, mas há algo poderoso e inovador escondido por dentro dele: a inteligência artificial (AI). Primeiro, vejamos o óbvio: o Pixel 2 / XL, ao contrário de muitos outros Smartphones, não possui duas câmeras na traseira nem na frontal. Mas ainda ainda assim, consegue capturar imagens com o Modo Retrato com muita precisão, mesmo com apenas uma câmera.
Mas como isso é possível? Pois bem, o renomado site PhoneArena tomou a liberdade de criar um artigo descrevendo tudo que é possível fazer com o conjunto de câmeras dos novos smartphones do Google. Tudo se resume na engenharia inteligente e o poder da IA que se juntam para tornar isso possível.
Explicando o modo retrato.
HDR+ é “animal”
O HDR+ no Pixel 2 é completamente diferente. Faz até 10 fotografias, e faz isso toda vez. Essas imagens são subexpostas para evitar ficar com brilho estourado (queimados) e, em seguida, são todas combinados e alinhadas em uma única imagem.
O poder da Inteligencia artificial (IA)
Ao usar a imagem HDR+, o Smartphone deve decidir qual parte da imagem deve estar em foco e qual deve ser borrada. É aí que a inteligência artificial trabalha: o Google treinou uma rede neural para reconhecer pessoas, animais de estimação, flores e coisas do gênero. A rede neural filtra a imagem reconhecendo as sombras dos arredores em torno de cada pixel primeiro, e começa a descobrir cores e bordas, então continua a filtrar até achar rostos, depois características faciais, e assim por diante.
A tecnologia de Pixels Duplos
O Pixel 2 possui um sensor de câmera dual pixel. Isso não é novo: os celulares Samsung foram os primeiros a ter isso. O que se resume é que, no sensor da câmera, cada pixel está realmente dividido em dois pequenos subpíxeles (é chamado de Autofoco Dual Pixel ou DPAF) que captura a mesma informação de um ângulo muito, muito rapidamente.
Essa diferença foi usada no Galaxy S7 em diante, mas para dar um nível superior por sua auto-focagem ultra rápida. O Google encontrou outro uso para isso: ele usa essa diferença muito pequena para determinar quão longe cada objeto está da câmera. Veja o gráfico abaixo:
O resultado disso tudo:
Aqui está o resultado final, que a propósito é bastante surpreendente: as partes mais brilhantes estão mais próximas, enquanto as partes mais escuras estão mais longe:
Se parece complicado, é porque realmente é, algum trabalho de engenharia impressionante foi feito para aperfeiçoar isso e o Google trabalhou arduamente para fazer com que fosse filtrado o ruído em uma explosão adicional de imagens para obter resultados mais adequados.
Estes são os resultados da máscara de profundidade
Finalmente, todas essas etapas são combinadas em uma única imagem que entrega um resultado deslumbrante. Observe como a quantidade de desfocagem é correta e até mesmo a massa em frente é desfocada, observe cada fio de cabelo devidamente reconhecido e com foco nítido.
3 Comentários
Por que o cara usa um coquero de corte nos cabelo?
Uma pena que os smarts estejam cheios de bugs…
Caraca meu show de bola fiquei impressionado com as imagens e o trabalho da Google.