Que existe um hype totalmente desproporcional e exagerado sobre as possibilidades abertas pelas ferramentas atuais de inteligência artificial, ninguém discute.
Não faltam trambiqueiros tentando aproveitar o momento para espremer uma graninha extra de investidores e clientes, apresentando produtos que, na melhor das hipóteses, são apenas uma interface arrumadinha aplicada sobre as APIs 1Application programming interface, ou interface de programação de aplicações. de um ChatGPT da vida.
Para piorar, há muito mais gente falando sobre o tema do que há pessoas verdadeiramente habilitadas para fazê-lo, mais ou menos como acontece no segmento de crypto, por exemplo, que vive desde sempre sob o estigma da pilantragem.

Da mesma forma, há quem imediatamente revire os olhos e se recuse a participar de, ou sequer acompanhar (e muito menos verdadeiramente contribuir com) qualquer discussão envolvendo IA. Isso também é compreensível, dadas as duas premissas anteriores. Mas também é possivelmente a coisa mais míope e perigosa que essas pessoas podem fazer em relação ao próprio futuro profissional.
Há quase dois anos, eu coapresento — ao lado do Fabrício Carraro — o podcast IA Sob Controle. Lá, nós já tivemos a oportunidade de conversar com centenas de pessoas brasileiras e estrangeiras que estão diretamente ligadas ao desenvolvimento e à evolução das ferramentas que vêm causando tanto burburinho.
Pesquisadores de Stanford, médicos da Johns Hopkins University, engenheiros da OpenAI, da DeepMind, da Anthropic e da Perplexity, executivos da Microsoft, da Meta e da NVIDIA, o genial Stephen Wolfram e, até mesmo, um deputado do Parlamento Europeu já passaram por lá para deixarem as suas impressões sobre como chegamos até aqui, o que está acontecendo, e, principalmente, como podemos nos preparar para o que vem pela frente.
Especificamente sobre o futuro, cada convidado tem um ponto de vista e uma opinião diferente a respeito de como e quanto tempo levará até que as IAs se tornarem úteis e inteligentes no nível que a ficção científica nos promete há séculos. Por outro lado, todos tendem a concordar com o seguinte ponto: esse dia vai chegar.
O inverno cíclico da IA
Quem acompanha a evolução do segmento de aprendizado de máquina há mais tempo do que apenas os últimos dois ou três anos costuma falar com propriedade sobre os “invernos da IA”, que seguem basicamente a mesma sequência de eventos:
- Depois de anos sem grandes novidades, alguém descobre uma nova forma de aplicar aprendizado de máquina para cumprir tarefas que não eram possíveis até então;
- O mercado se empolga com a nova possibilidade e, sem compreender exatamente a tecnologia, cria uma expectativa irreal a respeito do que ela proporcionará;
- Atinge-se um teto em relação ao que realmente dá para fazer com essa nova tecnologia;
- 📍 Você está aqui Com o tempo, fica cada vez mais fácil e barato desenvolver e dominar essa tecnologia, diluindo o seu valor;
- Tanto o setor privado quanto governos passam a dedicar seus recursos a outras áreas;
- Depois de anos sem grandes novidades, alguém descobre uma nova forma de aplicar aprendizado de máquina para cumprir tarefas que não eram possíveis até então.
Em linhas bastante gerais, o primeiro grande inverno da IA começou na primeira metade dos anos 1970, sucedendo os primeiros avanços significativos em aprendizado de máquina, redes neurais e compreensão de linguagem natural. Já o segundo grande inverno da IA começou no final dos 1980, após o fracasso do mercado de computadores LISP. Antes e depois desses períodos, houve ciclos menos expressivos de expectativa, decepção e desinvestimento em IA, por vezes acompanhados de cancelamento de projetos governamentais.

Especificamente sobre o período que estamos vivendo, duas coisas têm ficado bastante claras — especialmente ao longo do último ano:
- Existe um limite para o que a arquitetura de Transfomers e os LLMs 2Large language models, ou grandes modelos de linguagem. realmente conseguem fazer — o que inequivocamente não significa que eles sejam inúteis, vaporware ou qualquer outra completa bobagem do tipo. Mais sobre isso à frente.
- Tem ficado cada vez mais barato — tanto em termos de investimento bruto quanto em poder computacional — treinar um LLM bastante potente, o que significa que, com uma barreira de entrada cada vez menor, passa a fazer menos sentido investir irrestritamente em empresas que tenham essas tecnologias em seu cerne.
O que torna o nosso período potencialmente diferente dos outros que precederam um inverno da IA é que nós já temos visto alternativas às limitações das formas como a arquitetura de Transformers e como os LLMs funcionam. Mais do que isso, essas alternativas já têm aberto portas que ninguém sabia que existiam até mesmo quando parecia que o teto dos Transformers e LLMs seria mais alto.
Falo, por exemplo, de modelos de raciocínio 3Que, ao contrário dos modelos de aprendizado não supervisionado, como é o caso do atual GPT-4.5, não geram a resposta imediatamente. Eles passam mais tempo fazendo inferência ou “pensando”, e iterando sobre a geração da resposta até atingir um resultado ideal e — sempre — melhor. Para esses modelos, ainda não há um teto muito bem definido sobre a partir de quando deixa de valer a pena aplicar poder computacional na etapa de inferência. Via de regra, quanto mais poder computacional, melhor é o resultado, sem um teto à vista., LLMs de difusão 4Que, ao contrário dos LLMs autorregressivos “normais” — que leem a pergunta, calculam o primeiro token da resposta, leem a pergunta novamente junto ao primeiro token da resposta, calculam o segundo token e, assim por diante — geram a resposta inteira de uma vez. Feito isso, eles vão iterando sobre o cálculo de probabilidade de todos os tokens ao mesmo tempo, como se estivessem removendo ruído de uma imagem até chegar a um resultado 100% nítido., e estudos bem promissores, como as Redes Neurais Líquidas do MIT ou a arquitetura JEPA 5Joint embedding predictive architecture, ou arquitetura preditiva de incorporação conjunta. proposta por Yann LeCun (cientista-chefe da Meta), que basicamente “compreende” o conceito e o significado por trás da palavras, ao invés de tratar tudo como apenas tokens mais prováveis. Se isso se parece bastante com a Wolfram Language e seu modelo simbólico de mundo, é porque é.

Tudo isso para dizer que, pela primeira vez, a humanidade pode estar prestes a pular totalmente o próximo inverno da IA, indo diretamente à etapa seguinte desse ciclo de evolução. O problema é que, ao mesmo tempo em que isso é absolutamente empolgante para quem se interessa por tecnologia, também pode trazer consequências graves e inéditas para o resto do mundo — que não terá tempo hábil para se adaptar ao novo cenário. E é aí que entra o seu emprego.
Correndo contra o meteoro
Quando pensamos em trabalhos que a evolução tecnológica eliminou, muitos de nós lembramos de ascensoristas, telefonistas de painéis manuais ou talvez acendedores de lampiões (responsáveis por acendê-los e apagá-los nas ruas, antes da eletricidade).
Alguns outros trabalhos, como o de datilógrafos, não foram exatamente extintos, mas absorvidos como parte do mínimo que passou a se esperar de um profissional ao longo do seu dia de trabalho.

Em todos esses casos, a necessidade suprida por esses trabalhos não deixou de existir. As pessoas ainda se locomovem entre andares de prédios, elas ainda precisam se comunicar, elas ainda precisam de iluminação pública e, sem dúvida, elas precisam de textos digitados. A diferença entre o que aconteceu com esses trabalhos e o futuro na era das IAs é que eles tornaram-se obsoletos de forma gradual, de modo que a trama socioeconômica pôde absorvê-los organicamente em outras áreas.
Mas o que acontece quando uma quantidade muito maior de cargos ocupados por milhões de pessoas torna-se obsoleta ou perde o seu valor em um intervalo curto? É o que nós provavelmente estamos a alguns anos de descobrir.
A essa altura, tendo conversado com inúmeros profissionais de múltiplas áreas e tendo lido mais estudos do que eu conseguiria contar, eu tenho uma certeza: se o seu trabalho envolve o uso de um computador, esse aspecto do seu trabalho será substituível (note que eu disse substituível, e não substituído) por uma IA, ou por um conjunto de IAs orquestradas por coleções de agentes inteligentes.
Da forma como eu vejo, isso é absolutamente inevitável, assim como a calculadora substituiu o ábaco, e como o computador substituiu a máquina de escrever (e a calculadora). Se você atua apenas como uma ferramenta para o cumprimento do seu trabalho, você ficará obsoleto, assim como você aposentou ferramentas obsoletas em prol de outras que agilizaram o cumprimento do seu trabalho.
Não será hoje, não será amanhã e, possivelmente, não será dentro dos próximos dois ou três anos. Mas em um futuro não muito distante, uma IA ou um conjunto de IAs certamente cumprirá com perfeição, e em questão de minutos ou de horas, boa parte de tudo o que você fez no seu trabalho usando o computador ao longo das últimas semanas.
Esse futuro já começou
Atualmente, para algumas profissões, saber quando e como usar um LLM já traz ganhos significativos de produtividade e qualidade do trabalho em comparação a alguém que não sabe.
Por outro lado, é claro que tentar usá-los para a tarefa errada é o mesmo que tentar usar um forno como se fosse uma bicicleta. Aliás, esse geralmente é o caso dos críticos mais barulhentos (e via de regra mal informados) a respeito dessas novas tecnologias. Essas pessoas, sem sombra de dúvida, serão as primeiras a serem passadas para trás nos próximos anos — e a culpa será 100% delas mesmas.
Um exemplo básico desse cenário é o mercado de desenvolvimento. Em um papo recente, Jared Friedman, sócio-gerente da Y Combinator, a aceleradora de startups mais influente e bem-sucedida da história da tecnologia, disse o seguinte:
Nós perguntamos [aos fundadores que estamos financiando]: qual porcentagem da sua base de código você estima que foi gerada por IA? […] De todos os caracteres do seu código, […] qual porcentagem de caracteres foi digitada por um humano em comparação aos que vieram de uma IA?
Um quarto dos fundadores disse que mais de 95% da base de código deles havia sido gerada por IA. […] E não é que nós financiamos um bando de fundadores não técnicos. Cada uma dessas pessoas é altamente técnica. Eles teriam sido capazes de escrever o seu próprio produto do zero há um ano. Mas agora eles estão usando IA para escrever 95% do código.
Partindo dessa premissa, o que diferenciará um bom profissional de um ruim no futuro? Bem, essa é a questão, não?
No caso específico de programação, partindo da premissa de que a tarefa de um desenvolvedor é transformar a sua inteligência em código para suprir uma necessidade específica com o seu aplicativo, a diferença estará justamente na habilidade de tangibilizar essa visão da forma mais eficiente possível, com ou sem a mão na massa.
Agora extrapole isso para o seu dia a dia. Independentemente da sua área, se há aspectos do seu trabalho que poderiam ser substituídos por uma pessoa mais capaz do que você, esses aspectos certamente poderão ser executados por uma IA com um custo muito menor e de uma forma muito mais rápida do que você jamais conseguirá fazer.
E se isso soa catastrofista ou urgente demais, bem-vindo. Agora você entende o tamanho do problema que isso poderá representar, caso o ritmo da evolução da tecnologia ultrapasse a velocidade com a qual a sociedade será capaz de se adaptar a essas mudanças 6Quem aí está com energia para tentar debater Renda Básica Universal com educação e sem brigar?.
A boa notícia é que ainda dá tempo de se preparar para esse futuro. Aliás, o simples fato de você estar lendo esse texto até o final mostra que você está mais antenado e interessado em se preparar para isso do que a maioria, o que já é um excelente começo.
A minha sugestão é a seguinte: a partir de agora, invista todo o tempo que você puder no desenvolvimento de habilidades e capacidades que só você poderá oferecer ao seu trabalho, usando a IA como um multiplicador do seu valor — e não apenas competindo com ela.
Da mesma forma que um aplicativo bem-sucedido depende mais da boa execução da ideia do que apenas da qualidade do código, certamente existe uma forma de aplicar essa lógica ao seu ganha-pão. Como exatamente fazer isso… bem, caberá a você descobrir. Com sorte, nos encontraremos do outro lado dessa que é a época mais empolgante e mais assustadora que a tecnologia já proporcionou.
Notas de rodapé
- 1Application programming interface, ou interface de programação de aplicações.
- 2Large language models, ou grandes modelos de linguagem.
- 3Que, ao contrário dos modelos de aprendizado não supervisionado, como é o caso do atual GPT-4.5, não geram a resposta imediatamente. Eles passam mais tempo fazendo inferência ou “pensando”, e iterando sobre a geração da resposta até atingir um resultado ideal e — sempre — melhor. Para esses modelos, ainda não há um teto muito bem definido sobre a partir de quando deixa de valer a pena aplicar poder computacional na etapa de inferência. Via de regra, quanto mais poder computacional, melhor é o resultado, sem um teto à vista.
- 4Que, ao contrário dos LLMs autorregressivos “normais” — que leem a pergunta, calculam o primeiro token da resposta, leem a pergunta novamente junto ao primeiro token da resposta, calculam o segundo token e, assim por diante — geram a resposta inteira de uma vez. Feito isso, eles vão iterando sobre o cálculo de probabilidade de todos os tokens ao mesmo tempo, como se estivessem removendo ruído de uma imagem até chegar a um resultado 100% nítido.
- 5Joint embedding predictive architecture, ou arquitetura preditiva de incorporação conjunta.
- 6Quem aí está com energia para tentar debater Renda Básica Universal com educação e sem brigar?