O melhor pedaço da Maçã.

Apple Intelligence suportará novos idiomas e será aberta para desenvolvedores

Divulgação/Apple

Abrindo a WWDC25, a Apple anunciou uma grande atualização para a Apple Intelligence. Os novos recursos, de acordo com a Maçã, têm foco em produtividade, criatividade, privacidade e integração mais profunda ao dia a dia do usuário.

Publicidade

Em primeiro lugar, a empresa anunciou que, até o fim deste ano, a sua inteligência artificial será compatível com oito novos idiomas: dinamarquês, holandês, norueguês, português (de Portugal), sueco, turco, chinês tradicional e vietnamita.

Além disso, entre as novidades, está a Live Translation (algo como “Tradução ao Vivo”), que permite conversas com tradução em tempo real diretamente nos apps Mensagens (Messages), FaceTime e até em ligações telefônicas do app Telefone (Phone).

Já o Image Playground e os Genmojis, recursos já conhecidos pelos usuários, oferecerão mais formas de se expressar visualmente — incluindo a criação de imagens no estilo pintura a óleo ou arte vetorial, com a ajuda do ChatGPT, bem como a mixagem de dois diferentes Genmojis.

A Inteligência Visual (Visual Intelligence) também será aprimorada. Será possível usar o que está na tela do iPhone para buscar informações, fazer ações rápidas ou até identificar itens de uma imagem e procurar por produtos parecidos online. Basta usar os mesmos botões para capturar uma imagem e acessar tais recursos.

No Apple Watch, o destaque fica por conta do Workout Buddy, uma experiência de treino personalizada que usará dados do usuário para gerar motivação em tempo real, com uma voz criada a partir dos treinadores do Apple Fitness+. Ele funciona com fones Bluetooth e exige um iPhone compatível com Apple Intelligence (ou seja, iPhones 15 Pro e 15 Pro Max ou mais recentes), porém inicialmente só funcionará em inglês.

Publicidade

Outra grande novidade é que, pela primeira vez, desenvolvedores poderão integrar o modelo de IA da Apple diretamente em seus apps. Com o novo framework Foundation Models, será possível criar experiências inteligentes que funcionam mesmo offline, com total respeito à privacidade. E tudo isso com poucas linhas de código usando Swift.

Os Atalhos (Shortcuts) do sistema também ganharão superpoderes. Será possível criar ações inteligentes que resumem textos, comparam transcrições de áudio com anotações, criam imagens e muito mais — tudo integrado à Apple Intelligence.

A Apple também anunciou melhorias em diversos apps nativos. O Mail destacará e resumirá emails importantes, o app Carteira (Wallet) organizará informações de rastreio de pedidos e o Mensagens (Messages) sugerirá enquetes automaticamente e permitirá personalizar conversas com planos de fundo criados no Image Playground.

Os novos recursos já estão disponíveis para testes por desenvolvedores, e uma versão beta pública será lançada no próximo mês. O lançamento oficial está previsto para o outono (no hemisfério norte), com suporte aos iPhones 16e, 16, 16 Plus, 16 Pro, 16 Pro Max, além do 15 Pro e do 15 Pro Max, aos iPads com chip A17 Pro e aos Macs com chip M1 ou mais recentes.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Promoções na App Store: Wars of Wanon:The Future Story, Unpossible, Deco: Wallpaper Creator e mais!

Próx. Post

Liquid Glass: Apple anuncia novo design universal para os seus sistemas

Posts relacionados