Algumas opiniões obtusas são perenes. Quem acompanha o mundo do iPhone desde o começo, provavelmente se lembrará de quando era lugar-comum se deparar com alguém lamuriando o fato de ter que pagar por aplicativos que tinham a ousadia de não serem gratuitos.
“Se eu já paguei uma fortuna pelo iPhone, deveriam me fornecer os apps de graça!!1! Está embutido no preço do aparelho!!” Diziam os irredutíveis incomodados com a ideia de pagar R$0,99 por um aplicativo, revelando não terem ideia do que estavam falando e, ao mesmo tempo, quão pouco eles valorizavam e respeitavam o trabalho e o talento dos desenvolvedores.
Nos anos que se sucederam, a necessidade de pagar por aplicativos se tornou menos problemática. Porém, vimos esse tipo de concepção errada passar a se manifestar de outras formas. Assinaturas de apps, sites com paywalls, o mito da obsolescência programada… inevitavelmente, quando esses assuntos entram na roda, surge um representante do clube do “isso faz parte de uma manipulação para distrair os ingênuos e fazê-los gastar mais dinheiro, mas felizmente eu enxergo a verdade e estou livre de tudo isso”, com a pompa de um discípulo Adam Smith, mas com uma lógica conspiratória digna de 5ª série na tentativa de desmascarar a insolência do capitalismo selvagem.
Pois bem. Cá estamos em 2024, e a bola da vez é a assinatura de recursos e serviços de IA 1inteligência artificial.. Nos últimos dias, uma especulação de que uma possível assinatura da Apple Intelligence poderia custar US$20 mensais causou uma certa comoção, graças em parte ao medo de que as funções já anunciadas pela Apple passem a ser pagas em algum momento.
Isso provavelmente não acontecerá. No entanto, os anúncios do evento Made by Google da última terça-feira (13/8) podem ajudar a dar mais clareza sobre o que realmente pode estar por vir.
Como o mercado tem se organizado
Para entender o que está acontecendo, vale separar o mercado em duas categorias: as empresas que nasceram por conta da IA generativa, e as gigantes que já existiam antes do boom dessa tecnologia.
No primeiro caso, startups como a OpenAI, a Anthropic e a Perplexity têm adotado a mesma estratégia: elas cobram US$20 mensais 2Nada barato, mesmo para os padrões dos americanos. em troca do acesso a um modelo mais avançado, ou então de um limite mais generoso na quantidade de consultas consecutivas em comparação com o acesso gratuito ao mesmo modelo (às vezes, ambos).
No caso do ChatGPT, usuários do plano pago podem enviar aproximadamente 80 mensagens a cada 3 horas. Dependendo da demanda e da carga nos servidores, a OpenAI reduz temporariamente esse limite.
E a carga nos servidores é a chave aqui. Ao contrário da Apple Intelligence, por exemplo, que inicialmente funcionará apenas em inglês e apenas em dispositivos cuja região esteja configurada para os Estados Unidos, chatbots como o ChatGPT e o Claude estão disponíveis em múltiplos idiomas, no mundo todo.
Por isso, a cobrança dos elevados US$20 mensais acaba cumprindo dois papéis: ela gera receita para complementar a cobertura dos custos de hospedagem e de uso dos modelos mais dispendiosos 3Isso sem mencionar o treinamento dos modelos, que de longe é a parte mais cara., e também atua como uma espécie de filtro apoiado no conceito mais básico de demanda e oferta para que a coisa toda siga funcionando sem que os servidores abram o bico (com uma frequência ainda maior).
Já o segundo caso é o de empresas como o Google, a Apple e a Meta, que já existiam muito antes do lançamento do GPT-1 em 2018. Elas têm condições e saúde financeira suficiente para registrarem prejuízos nas suas iniciativas de IA por anos, se isso significar o fortalecimento dos seus ecossistemas longo prazo. Startups começando agora não têm essa opção, exceto se alguém como a Microsoft decidir bancar a operação, como foi o caso da OpenAI.
E enquanto a Meta com seus modelos gratuitos e de código aberto tem adotado a estratégia de tentar virar o Linux (palavras do Zuck, não minhas) do segmento de IAs, impedindo assim que seus concorrentes ocupem esse território, o Google tem adotado uma abordagem mista, disponibilizando a maioria dos seus recursos de IA gratuitamente. Mas não todos.
Entra o Gemini Advanced
Seguindo a linha do resto do mercado, o Google anunciou em fevereiro de 2024 o plano Gemini Advanced que, por US$20 mensais, oferece acesso a uma versão mais avançada do seu modelo, além de expandir a janela de contexto para 1 milhão de tokens 4Tokens são parecidos com sílabas, mas com uma lógica diferente na forma de dividir as palavras. Em média, cada palavra costuma ter de 2 a 3 tokens. A janela de contexto de tokens corresponde à quantidade de texto que o LLM (Large Language Model) consegue armazenar durante o papo antes de começar a se perder.. Para efeito de comparação, a janela de contexto atual do ChatGPT pago é de “apenas” 128 mil tokens.
Para tentar deixar o plano ainda mais atraente, o Google associou o Gemini Advanced à assinatura do Google One, oferecendo benefícios como 2TB de espaço no Google Drive e integração entre o Gemini e produtos como o Gmail e o Google Docs.
Pois bem. Na última terça-feira, durante o evento Made by Google, a empresa revelou mais um benefício exclusivo para assinantes do Gemini Advanced: a funcionalidade Gemini Live que, assim como o Advanced Voice Mode do ChatGPT, permite conversar com o LLM por meio de voz, em tom natural, e com uma latência bem reduzida considerando tudo o que está acontecendo durante a conversa.
Até poucos meses atrás, isso era tecnologicamente impossível de se oferecer, por exigir mais poder de fogo e velocidade de processamento de tokens do que era possível oferecer.
Ainda assim, esse é um recurso cuja estrutura básica necessária é cara. E é por isso que o Advanced Voice Mode da OpenAI ainda está disponível apenas em beta para uma quantidade minúscula de assinantes do ChatGPT Plus, e também é por isso que, apesar de o Gemini Live não ser exclusivo dos telefones Pixel 9, ele só funciona em inglês e para assinantes do Gemini Advanced.
OK, mas e a Apple?
Fiquei bem surpreso quando a Apple anunciou que tudo o que foi apresentado sobre a Apple Intelligence durante a WWDC24 seria disponibilizado sem custo adicional. Se eu tivesse apostado, teria perdido dinheiro na expectativa de ver pelo menos alguns recursos serem disponibilizados apenas para assinantes do iCloud+ ou do Apple One.
Em retrospecto, no entanto, faz sentido. Sabendo agora que sua tecnologia estaria aquém do resto do mercado e que a quantidade de recursos disponíveis inicialmente não seria suficiente para justificar uma assinatura, a Apple optou por restringir o uso (e a possível frustração dos early adopters) de outra forma enquanto arruma a casa: pela quantidade de hardwares compatíveis associada ao suporte exclusivo do inglês.
Ao contrário de quando anunciou a função de SOS de Emergência via satélite, por exemplo, em que disse de antemão que o serviço passaria a ser pago no futuro, a Apple não fez este alerta sobre os recursos da Apple Intelligence anunciados na WWDC24. Por isso, a possibilidade de que isso passe a ser pago em algum momento soa como bastante improvável.
No entanto, o que nós vimos da Apple Intelligence na WWDC24 foi apenas uma parte da história. A outra nós provavelmente conheceremos em breve, com o anúncio da linha de “iPhones 16 e 16 Pro” e de suas inevitáveis funcionalidades exclusivas de IA.
Aqui sim, há chance de vermos recursos (provavelmente apoiados em processamento na nuvem) que a Apple anunciará como gratuitos por certo tempo para quem comprar os novos iPhones, mas que usuários de outros dispositivos compatíveis com a Apple Intelligence precisão assinar ou pagar para acessar.
E que fique claro: toda a comoção dos últimos dias sobre a possível assinatura da Apple Intelligence por US$20 mensais foi fruto de uma entrevista com um analista a um canal de TV americano, e tudo não passou de uma especulação bastante óbvia frente ao fato de que todo o resto do mercado já cobra os mesmos US$20 mensais por recursos avançados.
Aliás, o que surpreende aqui é justamente o fato de a Apple ser a única que não vai cobrar (por enquanto) por recursos de IA. Mas quando isso acontecer, vale resistir à tentação de classificar instintivamente a coisa toda como um grande conluio para esvaziar ainda mais as carteiras de todo mundo.
Seria ótimo poder usar tudo de graça? É óbvio. E no longo prazo, provavelmente será assim. Mal comparando, daqui a alguns anos a ideia de pagar para usar funções de IA soará tão absurda quanto pagar por um recurso de autocorretor ou por uso de Bluetooth. Mas enquanto não chegamos lá, quem estuda tecnologia sabe que a possibilidade de interagir com esses modelos a partir dos nossos próprios dispositivos em 2024 beira um milagre tecnológico.
Embora pagar US$20 mensais não seja algo acessível para todos, são os pagantes dessa mensalidade que irão fomentar justamente a evolução para que esse acesso torne-se mais amplo, mais barato, e em um prazo muito menor do que os mais otimistas poderiam ter imaginado há apenas alguns anos. Se isso não lhe empolga quanto ao que o futuro nos reserva, eu honestamente não sei o que lhe dizer.
Notas de rodapé
- 1inteligência artificial.
- 2Nada barato, mesmo para os padrões dos americanos.
- 3Isso sem mencionar o treinamento dos modelos, que de longe é a parte mais cara.
- 4Tokens são parecidos com sílabas, mas com uma lógica diferente na forma de dividir as palavras. Em média, cada palavra costuma ter de 2 a 3 tokens. A janela de contexto de tokens corresponde à quantidade de texto que o LLM (Large Language Model) consegue armazenar durante o papo antes de começar a se perder.