O melhor pedaço da Maçã.

“Apple GPT” vindo aí? Empresa compartilha seus avanços em IA

Adrian Tusar / Shutterstock.com
AppleGPT

De todas as Big Techs, a Apple talvez seja a que está mais “atrasada” em se tratando de recursos de inteligência artificial. Enquanto nomes como Google e Microsoft já até lançaram os seus próprios chatbots à la ChatGPT (da OpenAI), as aplicações de IA da Maçã para esse tipo de tecnologia ainda se limitam a recursos mais simples dentro de seus sistemas, como a Siri.

Publicidade

Isso não quer dizer, porém, que a gigante de Cupertino está ignorando essa nova tendência do mundo da tecnologia. Só nessa semana, a empresa divulgou dois avanços na área de IA generativa e modelos de linguagem LLM1Large language model, ou modelo largo de linguagem. que poderão muito bem dar as caras nos seus produtos no futuro.

Na última terça-feira, por exemplo, a Apple publicou um artigo científico que fala mais sobre uma ferramenta de IA intitulada Human Gaussian Splats (ou simplesmente HUGS), a qual explora uma técnica chamada 3D Gaussian Splatting para criar modelos animados de humanos a partir de vídeos curtos. Essa tecnologia, segundo a empresa, usa boas doses de aprendizado de máquina e de visão computacional para funcionar.

Um dos membros da equipe de engenheiros da Apple, Anurag Ranjan, compartilhou no X (antigo Twitter) vídeos que mostram a ferramenta em ação. Ainda de acordo com o documento publicado pela empresa [PDF], a ferramenta é capaz de criar um avatar completamente animado de um humano a partir de um cena estática em apenas 30 minutos.

Apresentando 🫂 HUGS: Human Gaussian Splats — capaz de criar avatares animáveis ​​(3DGS) a partir de um vídeo casual (50-100 quadros) em aproximadamente 30 minutos. Nossos avatares podem ser facilmente incorporados em outras cenas (NeRF). (1/4)
Projeto: machinelearning.apple.com/research/hugs
arXiv: arxiv.org/abs/2311.17910

O material usado para gerar esses avatares, como dito, não precisa ser muito longo, podendo ter algo em torno de 50 a 100 quadros no total, que é o equivalente a um vídeo de 2 a 4 segundos de duração (a 24qps). Para obter modelos com uma quantidade maior de detalhes, entretanto, é necessário que o vídeo cubra o maior número possível de superfícies de uma pessoa.

Publicidade

O HUGS pode renderizar animações “de alta qualidade” em HD e a 60qps em apenas 1 hora e 30 minutos. Segundo a Apple, isso é até 100x mais rápido do que outros métodos conhecidos, como o NeuMan e o Vid2Avatar.

Embora o desenvolvimento desse tipo de ferramenta ainda esteja nos seus primeiros estágios, não é difícil ver algo do tipo aterrissando em um Vision Pro da vida, que, inclusive, contará com avatares 3D personalizados de seus usuários, chamados de Personas.

LLM in a flash

Em outro documento de pesquisa publicado nesta semana [PDF], a Apple detalhou uma nova técnica que permite rodar aplicações de LLM, como o famoso ChatGPT (ou o misterioso “Apple GPT”), na memória flash de um dispositivo como o iPhone, em vez da RAM2Random access memory, ou memória de acesso aleatório., como é mais tradicional.

Isso é especialmente útil pois ferramentas desse tipo costumam utilizar uma grande quantidade memória para funcionar, o que pode ser um problema para dispositivos móveis, que costumam contar com quantidades reduzidas de RAM. A memória flash, geralmente usada para armazenar coisas como aplicativos, fotos e vídeos, por outro lado, é bem mais abundante, chegando à casa do 1-2TB em alguns casos.

Publicidade

Essa técnica é parecida com o que já acontece no macOS, por exemplo, com a memória swap, que passa a usar o armazenamento do computador como uma espécie de extensão da RAM para diminuir o estresse causado pelas aplicações abertas e evitar engasgos. Em outras palavras, a memória flash é tratada com uma espécie de “memória virtual”, como explicado pela própria Maçã.

De acordo com os engenheiros da gigante de Cupertino, recorrer à memória flash pode fazer modelos de IA rodarem com até o dobro de memória originalmente disponível em um iPhone, o que também se traduz em velocidades de CPU3Central processing unit, ou unidade central de processamento. até 5x maiores e de GPU4Graphics processing unit, ou unidade de processamento gráfico. até impressionantes 25x maiores.

“Este avanço é particularmente crucial para implementar LLMs avançados em ambientes com recursos limitados, expandindo assim sua aplicabilidade e acessibilidade”, explicaram os engenheiros.

Publicidade

As aplicações para essa técnica nos dispositivos da Maçã são inúmeras, indo desde um “Apple GPT” até recursos de inteligência artificial na hora de processar fotos e vídeos. Ela também permite que tudo isso rode no próprio dispositivo do usuário, sem precisar enviar um dado sequer para a nuvem — justamente uma das metas da Apple para esse tipo de recurso, considerando a maior privacidade.


Caso o desenvolvimento de todas essas tecnologias siga como o planejado, é possível que vejamos a Apple alcançar suas rivais no mundo da IA em um futuro relativamente próximo.

Bom saber, não? 🙂

via VentureBeat, MacRumors

Notas de rodapé

  • 1
    Large language model, ou modelo largo de linguagem.
  • 2
    Random access memory, ou memória de acesso aleatório.
  • 3
    Central processing unit, ou unidade central de processamento.
  • 4
    Graphics processing unit, ou unidade de processamento gráfico.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Instagram ganha pré-visualização de posts e filtro para comentários de verificados

Próx. Post

Beeper Mini requer iPhone com jailbreak como último recurso contra bloqueio

Posts Relacionados