A Apple vem, nos últimos anos, investindo fortemente em novas tecnologias para as câmeras que equipam os iPhones e também os iPads.
Exemplos disso, é claro, não faltam: temos desde recursos de software, como o modo Retrato e os Estilos Fotográficos, até funções que só são possíveis graças aos avanços no hardware, como o flash True Tone e o Photonic Engine, por exemplo.
Neste artigo específico, vamos falar um pouco sobre os Focus Pixels. Veja, a seguir, tudo o que você precisa saber sobre essa tecnologia!
Os Focus Pixels apareceram pela primeira vez com os iPhones 6 e 6 Plus, lançados em 2014.
Graças a um processador de sinal de imagem (image signal processor, ou ISP) aprimorado pela Maçã, uma quantidade maior de informações sobre a imagem é enviada ao sensor da câmera, resultando em um foco automático melhor e ainda mais rápido — o que pode ser visto na pré-visualização da foto ou do vídeo na tela do aparelho.
Na prática, isso já é bastante conhecido na indústria da fotografia como foco automático com detecção de fase (phase-detect auto focus, ou PDAF), presente inclusive em câmeras DSLR e mirrorless profissionais.
Isso funciona através de um mascaramento de parte dos pixels, que são “cobertos” e depois comparados a outros pixels cobertos para verificar a luz que “entra” neles; depois, então, faz-se a identificação se o objeto está ou não em foco.
Para tornar isso cada vez melhor, a Apple implementou melhorias para o recurso no decorrer dos anos. Quer exemplos? No iPhones 6/6 Plus, o número era de cerca de 1 pixel para cada 64 subpixels; nos iPhones 6s/6s Plus e 7/7 Plus, esse número diminuiu para 32; nos iPhones 8 Plus, para 20; e, nos XS/XS Max, para apenas 16 — tudo isso, claro, levando em consideração que, quanto menor a quantidade, melhor será o resultado final.
via AppleToolBox, TechCrunch