Desenvolvedores já podem trabalhar para integrar seus aplicativos a futuros recursos da Siri alimentados pela Apple Intelligence. Entre eles, está a possibilidade de entender e realizar ações com base no que estiver sendo exibido na tela — algo que deverá ser implementado em versões futuras do iOS 18.
Com o lançamento recente das novas betas (versões .2) de seus sistemas operacionais, a Apple liberou também uma nova API 1Application programming interface, ou interface de programação de aplicações. a qual permite aos desenvolvedores tornar o conteúdo disponível para a Siri e a Apple Intelligence através do framework App Intents.
Quando um usuário faz uma pergunta sobre o conteúdo na tela ou deseja realizar uma ação nele, a Siri e a Apple Intelligence podem acessar o conteúdo para responder à pergunta e executar a ação. Se o usuário solicitar explicitamente, a Siri e a Apple Intelligence podem enviar conteúdo para serviços de terceiros compatíveis.
A companhia cita como exemplo de uso desse recurso a possibilidade de pedir à Siri para resumir o conteúdo de um documento, por exemplo, mas ele também permitirá que a assistente forneça informações sobre imagens e outros tipos de arquivos (algo que possivelmente usará a integração com o ChatGPT).
Embora a capacidade de detalhar o conteúdo da tela já esteja prevista para o iOS 18.2, pode ser que a possibilidade de realizar ações (como adicionar um número exibido na tela aos Contatos, por exemplo) não chegue antes do iOS 18.4, previsto para o primeiro semestre do ano que vem.
Obviamente, tirando os aplicativos do sistema, tudo vai depender da vontade (e da agilidade) dos desenvolvedores para adotar o framework em seus softwares — o que sempre varia bastante.
via MacRumors
Notas de rodapé
- 1Application programming interface, ou interface de programação de aplicações.