iPhones 12 Pro ganharão recurso para auxiliar pessoas cegas Tudo graças à mágica do scanner LiDAR

Câmera do iPhone 12 Pro

Já sabemos que os iPhones 12 Pro e 12 Pro Max são os primeiros smartphones da Apple a trazerem, no seu módulo de câmeras, um scanner LiDAR. Sabemos, também, que a adição do sensor trará algumas melhorias para fotos e vídeos — além, claro, das experiências em realidade aumentada mais realistas e todo o resto. Mas ele também poderá melhorar, na prática, a vida de muita gente.

Publicidade

Como informou o TechCrunch, o iOS 14.2 (liberado hoje em versão Release Candidate) adicionará nos iPhones 12 Pro um novo modo de acessibilidade focado em pessoas cegas ou com deficiências visuais, chamado People Detection (Detecção de Pessoas). Ele é integrado ao aplicativo Lupa e sua função é auto-explicativa: a ideia é usar o scanner LiDAR para detectar outras pessoas num ambiente e, com isso, ajudar o usuário a se mover e ter mais independência.

Vale notar que esse essa novidade até pintou na primeira versão beta do iOS 14.2, mas aparentemente ela precisa do scanner LiDAR para funcionar e, por isso, a Apple limitou tudo aos novos aparelhos topos-de-linha.

O recurso tem várias aplicações práticas. Com ele, um usuário com deficiência visual pode, por exemplo, ser avisado caso a pessoa à sua frente numa fila se mova, se um determinado assento no transporte público está ocupado, se outra pessoa está se aproximando durante uma caminhada… bom, as possibilidades são enormes.

Publicidade

O ângulo de captura do recurso é o mesmo da câmera grande-angular dos iPhones, e o scanner LiDAR tem um alcance de até cinco metros. Num ambiente que tenha mais de uma pessoa, o iPhone focará naquela que está mais próxima do usuário.

O sistema de detecção de pessoas pode emitir alertas em quatro maneiras escolhidas pelo usuário. A primeira delas é fazer com que o iPhone constantemente avise a distância da pessoa mais próxima (em pés ou em incrementos de 0,5m). Também é possível delimitar um espaço mínimo de tolerância entre o usuário e a pessoa mais próxima (o valor padrão é de 2m, mas pode ser alterado); um tom será emitido continuamente enquanto ninguém estiver dentro desse raio, e outro entrará em ação caso alguém exceda o limite.

A terceira opção é integrar a detecção de pessoas ao feedback háptico do iPhone; neste caso, o aparelho vibrará mais rápida e intensamente conforme a pessoa mais próxima vai chegando mais perto. Por fim, pessoas com deficiências visuais mais brandas podem ter essas informações na própria tela do aparelho — o dispositivo mostrará a distância exata da pessoa mais próxima e exibirá uma linha virtual até ela.

Publicidade

O sistema é derivado de um recurso do ARKit, o de oclusão de pessoas (que detecta a distância das pessoas no recinto para “colocá-las” à frente ou atrás das experiências de realidade aumentada). Ele pode ser ativado nos Ajustes do iPhone, e o usuário pode configurar o aparelho para abrir o app Lupa (com o recurso já ativado) com dois toques na traseira ou por meio da Siri.

Por mais que seja uma pena que um recurso tão valioso chegue apenas nos aparelhos mais novos e caros da Maçã (compreensivelmente, já que a coisa toda depende de um elemento de hardware), a novidade já é animadora por si só — tanto por imaginarmos mais aplicações para ela, ajudando pessoas com deficiências visuais em mais situações, como pelo fato de que, com alguma sorte, outros iPhones com scanner LiDAR surgirão no futuro, levando o auxílio a mais usuários.

Muito bom, não?

Taggeado:

Posts relacionados

Comentários

Carregando os comentários…