Como não poderia deixar de ser, cada ano traz novidades (mais ou menos) significativas para o sistema de câmeras dos iPhones. Mas, para além dos avanços tecnológicos no hardware e no software, o que rege essas evoluções? É exatamente isso que dois executivos da Maçã, Francesca Sweet (gerente de marketing do iPhone) e John McCormack (vice-presidente de engenharia de software de câmera) tentaram responder.
Em uma entrevista ao PetaPixel, os dois deixaram uma coisa bem evidente desde o princípio: a raiz filosófica da Apple, quando se trata de câmera, é deixar que os usuários “vivam suas vidas e capturem fotos sem a distração da tecnologia”. McCormack afirmou, com razão, que nem todos são — e nem querem ser — fotógrafos:
Como fotógrafos, nós tendemos a pensar muito em coisas como ISO, movimentação do objeto, etc. A Apple quer tirar todos esses elementos da equação e permitir que as pessoas mergulhem no momento, tirem uma boa foto e voltem a fazer o que estão fazendo.
O executivo explicou que, no geral, o objetivo da Maçã é fazer com que o software realize — instantaneamente — boa parte dos ajustes que um fotógrafo profissional realizaria posteriormente, numa suíte de edição.
A fotografia computacional ajuda bastante nesse aspecto, e recursos como o Deep Fusion, o HDR Inteligente e o Modo Noite permitem que configurações como exposição, contraste, detalhes, sombras e destaques sejam precisamente ajustados por debaixo dos panos, sem nenhuma intervenção do usuário.
Citando especificamente o HDR Inteligente 3, McCormack explicou como a tecnologia traz um benefício prático para os consumidores em duas situações específicas: fotografias a céu aberto e dentro de bares e restaurantes.
O céu é notoriamente difícil de se capturar corretamente, e o HDR Inteligente 3 nos permite “separar” o céu e tratá-lo de uma forma independente, para somente depois juntá-lo ao restante da cena e recriar de forma mais fiel o que seria estar lá naquele momento. […] Sobre restaurantes, toda a luz ambiente natural é difícil para um fotógrafo. Luzes mistas, fracas, bagunçam a cor. Nós entendemos qual a aparência da comida, e podemos otimizar as cores e a saturação de acordo com isso de forma mais fiel.
Os executivos falaram também sobre o formato ProRAW, que fez sua estreia nos iPhones 12 Pro. Segundo McCormack, o recurso é uma forma de oferecer toda a inteligência do sistema de câmeras da Apple sem tirar das mãos do usuário o poder da edição — preservando, nos ajustes, seu alcance tonal e outras informações importantes da captura.
No fim das contas, segundo o executivo, o principal fator de sucesso das câmeras dos iPhones não são os elementos de hardware ou software separadamente, e sim a integração entre tudo isso:
Nós não costumamos pensar num eixo único, tipo, “se nós fizermos isso no hardware algo mágico vai acontecer”. Como nós projetamos tudo, desde a lente até os gráficos e o processador, conseguimos muito mais espaços onde podemos inovar.
Faz sentido.
via AppleInsider