Ao desenhar o Apple Vision Pro — e tudo o que gira em torno dele, como o novíssimo sistema operacional visionOS —, a Apple enfrentou não apenas o desafio de conceber um produto completamente novo em seu ecossistema, como também de redesenhar e adaptar conceitos já presentes nele, como os que envolvem a privacidade do usuário.
Uma das novidades mais legais nesse sentido é a chegada do Optic ID, novo método de autenticação biométrica da empresa — que já contava, claro, com o Touch ID e o Face ID em seu portfólio. Se o último tem como foco a face do usuário, o novo método usa os avançados sensores e câmeras do headset para realizar a leitura da íris e identificá-la precisamente.
Este novo sistema usa a singularidade da sua íris — que é diferente, mesmo em gêmeos idênticos — para instantaneamente desbloquear o Apple Vision Pro.
Assim como nos outros métodos, os dados do Optic ID são armazenados com segurança usando a Secure Enclave do dispositivo — o que significa que eles são usados exclusivamente para autenticação. As tarefas possíveis são as mesmas que já conhecemos, como fazer compras na App Store, usar o Apple Pay ou preencher senhas automaticamente.
Não requerendo que o usuário faça qualquer gesto ou olhe para algum ponto em específico, o Optic ID é bastante prático e funciona de maneira instantânea. Ele também é mais seguro que o Face ID, visto que o mecanismo de autenticação facial da Maçã é suscetível a enganos envolvendo irmãos gêmeos, por exemplo.
Obviamente, a tecnologia da Apple parece ser também superior à adotada no passado por fabricantes como a Samsung. Presente em smartphones topos-de-linha da empresa, o método de leitura de íris foi descontinuado após enfrentar problemas como a possibilidade de “enganá-lo” com uma foto.
Mais destaques em privacidade
Para proteger a direção de visão, a entrada fornecida pelo olho do usuário é isolada em um processo separado em segundo plano para que aplicativos e sites não consigam “enxergar” para onde o portador do Apple Vision Pro está olhando.
Apenas a seleção final do usuário — que é feita ao piscar os olhos — é compartilhada com a Apple e com apps de terceiros. Essa seleção é a mesma existente ao tocar ou clicar em algo usando dispositivos de interface física.
Os dados da câmera, por sua vez, são processados a nível de sistema para que aplicativos individuais não precisem ter acesso à paisagem em torno do usuário. Também há um indicador visual para indicar quando elas estiverem sendo usadas para gravar um vídeo 3D.
Interessante, não? 🔐