
Renan Denadai
Graduado em Design Gráfico pela UNIMEP em 2014, mora em Piracicaba (SP) e é apaixonado pelo ecossistema Apple. Atualmente usa um iPhone 14 Pro, um MacBook Air (M1), AirPods Pro 2 e AirPods Max, além de ter a casa inteira automatizada com HomeKit, gerenciada por um HomePod mini. Já teve muitos outros dispositivos Apple ao longo dos anos e acompanha de perto as inovações da marca. É fundador das empresas Planta Pronta e Meu Emprego.
É quase unânime na internet hoje dizer que a Apple ficou para trás na corrida pela inteligência artificial. Virou meme, virou chacota: vídeos da Siri errando coisas básicas viralizam com facilidade, enquanto a concorrência parece disparar cada vez mais à frente. Mas será mesmo que a Apple está tão atrasada assim?
Eu acredito que não. Claro, é evidente que a Apple começou atrás das concorrentes e demorou para mostrar resultados, mas o ponto aqui não é fingir que esse atraso não existiu — e sim destacar que, quando lançar a sua nova versão da Siri com os recursos de IA prometidos, ela tem grandes chances de se posicionar de forma competitiva no mercado, trazendo diferenciais relevantes que vão muito além de simplesmente correr atrás das rivais.
Não faria sentido a Apple lançar uma cópia do ChatGPT ou do Gemini. O verdadeiro diferencial, que ela sabe explorar melhor do que ninguém, é a integração profunda com o seu ecossistema. E, pensando nesses termos, a concorrência também ainda não disparou tanto assim: o Google está apenas começando a substituir o seu Assistente pelo Gemini no Android; a Meta começou recentemente a integrar a sua IA às redes sociais, e os tão falados óculos Ray-Ban com IA ainda estão liberando recursos aos poucos, como a função de perguntar sobre algo que você está vendo pela câmera; a Amazon prometeu uma grande atualização para a Alexa que ainda não foi lançada. Ou seja, mesmo que a Apple esteja tecnicamente atrasada, o cenário geral indica que, com o lançamento da nova Siri na próxima versão do iOS, ela poderá muito bem ficar bem posicionada para competir.
Mais do que isso, penso que em pouco tempo a Apple poderá oferecer soluções de inteligência artificial tão práticas que você provavelmente preferirá usar a Siri na maior parte do tempo, mesmo existindo modelos tecnicamente mais poderosos disponíveis no mercado. E eu explicarei o motivo.
Primeiro, é importante entender por que, de fato, a Apple enfrenta tanta dificuldade hoje. Enquanto empresas como OpenAI, Google e Anthropic decidiram rodar seus grandes modelos de linguagem (LLMs 1Large language models, ou modelos de linguagem em grande escala., como ChatGPT e Gemini) na nuvem, a Apple optou pelo caminho mais complexo: processar tudo diretamente no dispositivo do usuário. Essa decisão tem um preço alto em dificuldade técnica.
A aposta da Apple
Para contextualizar, modelos como o GPT-4 precisam de dezenas de gigabytes de RAM 2Random access memory, ou memória de acesso aleatório. e placas gráficas avançadas, como a NVIDIA A100, que custa em torno de US$20 mil (mais de R$100 mil) a unidade. Agora imagine a Apple tentando colocar uma inteligência comparável dentro de um iPhone com apenas 8GB de memória, enquanto simultaneamente roda o iOS e vários aplicativos.
Além disso, cada interação com a Siri utiliza múltiplos modelos paralelos: um modelo converte a sua fala em texto; outro interpreta esse texto gerando uma resposta escrita (o modelo de linguagem em si); um terceiro modelo converte essa resposta textual novamente em fala audível; e, finalmente, há o modelo separado chamado RAG (Retrieval-Augmented Generation).
O RAG é responsável por buscar e indexar informações no dispositivo para fornecer contexto imediato ao modelo principal. Por exemplo, quando você pergunta: “Qual foi a última mensagem que a minha mãe me enviou?”, é o modelo RAG que rapidamente localiza essa informação no seu histórico de mensagens e a disponibiliza para a IA responder instantaneamente.
Rodar simultaneamente tantos modelos avançados offline em um dispositivo móvel, garantindo ainda velocidade, baixo consumo de energia e privacidade, eleva ainda mais o nível do desafio técnico enfrentado pela Apple.
Sim, o desafio é colossal, mas também traz diferenciais poderosos: privacidade absoluta e contexto imediato das informações pessoais do usuário. E é justamente por isso que, apesar do atraso aparente, acredito que a Apple fez a escolha estratégica correta. Quando conseguir resolver os desafios técnicos e lançar a sua versão aprimorada da Siri, ela terá algo que as outras dificilmente alcançarão: uma IA profundamente integrada à vida pessoal dos usuários.
Como atingir o objetivo?
Mas será que a Apple conseguirá, ao menos, entregar uma inteligência artificial “razoável”, capaz de lidar com a maioria das necessidades cotidianas? Tudo indica que sim. Hoje, existem modelos open source cada vez mais eficientes e competitivos, que exigem pouquíssimos recursos para rodar.
Por exemplo, durante o Google I/O, foi anunciado o Gemma-3n, uma versão do Gemma-3 (modelo de código aberto com licenças permissivas para uso comercial) baseada na arquitetura Gemini Nano, que precisa de apenas 2GB de RAM para funcionar em dispositivos móveis, oferecendo recursos multimodais (texto, áudio e visão). Isso permitiria, por exemplo, compartilhar a tela do dispositivo ou usar a câmera em tempo real durante uma conversa com áudio e vídeo.
No teste LLM Arena (Chatbot Arena Leaderboard), esse modelo obteve pontuações próximas e, em alguns casos, até superiores a modelos amplamente utilizados como ChatGPT, Gemini e Claude.

Portanto, mesmo que a Apple não consiga desenvolver um modelo próprio excepcional em curto prazo, ela ainda poderia facilmente utilizar um desses modelos open source, realizando ajustes finos para o seu ecossistema e alcançando rapidamente um nível competitivo.
As armas da Apple
Agora, vamos ao principal: por que você preferirá usar a Siri em vez de outros modelos como o ChatGPT na maior parte das vezes? A resposta está em dois fatores fundamentais: facilidade e contexto.
A facilidade é essencial. A maioria das pessoas usa o iPhone, o Apple Watch, os AirPods ou o Mac o tempo todo. Nada será mais simples do que chamar a Siri rapidamente, sem precisar abrir aplicativos externos, digitar ou explicar seu contexto do zero.
O contexto é igualmente decisivo. Imagine estar dirigindo com o CarPlay ativado, conversando com alguém e, sem interromper ou explicar nada, simplesmente perguntar algo à Siri. Ela já saberá o contexto da conversa e poderá responder imediatamente. Esse nível de integração e antecipação será possível graças aos dispositivos da Apple estarem sempre ativos, ouvindo e registrando informações úteis sobre seu dia a dia — tudo rodando diretamente no dispositivo, garantindo privacidade total.
Mas talvez o ponto mais interessante seja o contexto do mundo real. Hoje, estamos acostumados com dispositivos que capturam informações do nosso ambiente digital, mas o próximo passo são dispositivos que monitoram e compreendem o ambiente físico, o mundo ao nosso redor. Rumores frequentes publicados aqui no MacMagazine sugerem que a Apple está próxima de lançar dispositivos com esse propósito:
- “Apple Glasses”: óculos leves com realidade aumentada, capazes de captar continuamente imagens, áudio e até informações espaciais detalhadas.
- AirPods com câmeras: fones discretos que poderiam identificar gestos, reconhecer objetos próximos e capturar pequenos momentos do cotidiano para ajudar na interação com a Siri.
- HomePod com tela e câmera: uma nova versão que atuaria como hub doméstico inteligente, com capacidade de reconhecer ambientes, objetos e atividades, oferecendo uma interação muito mais profunda com a casa.
Esses dispositivos formariam uma rede contínua de sensores inteligentes que, por sua vez, alimentariam a Siri com informações preciosas do mundo real, levando a facilidade e o contexto que já conhecemos no ambiente digital para a realidade física.
Com isso, situações como essas abaixo se tornariam comuns:
- Você está saindo atrasado de casa e não encontra suas chaves. Ao invés de perder tempo procurando, pergunta à Siri: “Onde estão minhas chaves?” Seus óculos ou AirPods com câmeras respondem imediatamente onde elas estão.
- Durante o preparo de uma refeição, você esquece de adicionar um ingrediente. Seus óculos inteligentes avisam gentilmente: “Você esqueceu de colocar o sal no arroz”.
- Você tenta comer algo que não é recomendado devido a problemas de saúde, e discretamente seus AirPods alertam: “Seu colesterol está alto, talvez seja melhor evitar este alimento hoje”.
- Ao praticar um instrumento, seus dispositivos inteligentes percebem um erro recorrente e sugerem ajustes como se fossem um professor particular.
Esses exemplos mostram claramente como dispositivos contextuais têm potencial de transformar tarefas cotidianas em algo mais fácil e intuitivo. Inclusive, essa vantagem estratégica é tão relevante que empresas líderes em IA já perceberam a necessidade urgente de ter dispositivos próprios. Um exemplo disso é a recente aquisição da empresa io, do lendário designer da Apple Jony Ive, pela OpenAI. Eles anunciaram que pretendem desenvolver um dispositivo para oferecer facilidade e contexto na vida real das pessoas.
No entanto, mesmo que esse dispositivo da OpenAI seja interessante, partirão praticamente do zero, sem o nível de integração e acesso às informações pessoais que a Apple já possui nos dispositivos atuais.
Conclusão
Claro que as inteligências artificiais mais sofisticadas, rodando em servidores com imensos recursos computacionais, continuarão desempenhando papéis essenciais em áreas como programação (auxiliando desenvolvedores a criar sistemas complexos), descobertas científicas (acelerando pesquisas para novas tecnologias e inovações disruptivas) e avanços médicos (ajudando na busca por curas para doenças como o câncer, no mapeamento genético e no desenvolvimento de medicamentos de ponta). Além disso, esses modelos são fundamentais para enfrentar grandes desafios globais, como mudanças climáticas, otimização energética e exploração espacial.
O avanço contínuo desses sistemas é crucial para responder às grandes questões da humanidade, como nossa origem, o sentido da vida ou mesmo para descobrirmos uma nova Física. No entanto, para as necessidades cotidianas e perguntas comuns do dia a dia, já ficou evidente que não faz diferença prática se a IA possui complexas cadeias de raciocínio ou inteligência extrema. Para esses casos, a simplicidade, a praticidade e a integração ao contexto diário são muito mais importantes.
Por tudo isso, acredito que a Apple está bem posicionada para vencer na era cotidiana da inteligência artificial, não necessariamente ter a IA mais poderosa, mas por oferecer a IA mais prática, integrada e verdadeiramente pessoal.
Notas de rodapé
- 1Large language models, ou modelos de linguagem em grande escala.
- 2Random access memory, ou memória de acesso aleatório.