O melhor pedaço da Maçã.

Apple Intelligence se sai melhor que outros LLMs em benchmarks

Apple Intelligence

Aproveitando a introdução da Apple Intelligence, a Maçã divulgou mais detalhes sobre os seus dois modelos de IA generativa: o de linguagem no dispositivo (on-device) e um maior, baseado no servidor com o Private Cloud Compute.

Publicidade

Antes de mais nada, é importante frisar os quatro princípios da empresa na Apple Intelligence, sendo eles:

  • A criação de ferramentas a fim de que os usuários alcancem os seus objetivos;
  • A construção de produtos que evitam a perpetuação de estereótipos e vieses sistêmicos nas ferramentas e modelos de IA;
  • Um cuidado para evitar que as ferramentas não sejam mal utilizadas ou levem a possíveis danos;
  • Uma proteção à privacidade dos usuários — usando o processamento no próprio dispositivo e a infraestrutura do Private Cloud Compute.

Em um documento extenso, a empresa descreve que o modelo que roda no dispositivo possui cerca de 3 bilhões de parâmetros, enquanto que o modelo de linguagem grande (LLM, na sigla em inglês) é hospedado em servidores da própria empresa, alimentados pelo Apple Silicon.

O interessante é que a Maçã faz o treinamento usando dados licenciados, o que inclui informações selecionadas a fim de aprimorar os recursos mais específicos e de dados disponíveis publicamente, coletados pelo rastreador da web AppleBot. Mesmo assim, ela frisa que os editores da web, se quiserem, poderão desabilitar o uso do seu conteúdo pela Apple Intelligence. 

Publicidade

Como a Apple leva a privacidade a sério, ela deixa bem claro que nunca usa dados pessoais privados dos usuários, bem como interações feitas por eles — de forma com que alguns filtros são aplicados a fim de que as informações mais pessoais sejam totalmente removidas.

Outro dado interessante apresentado no documento é de que o tamanho do vocabulário no modelo de linguagem no dispositivo é de 49.000, enquanto que o modelo de servidor usa um tamanho de vocabulário de 100.000, incluindo a linguagem adicional e os tokens técnicos.

Com as otimizações feitas e usando um iPhone 15 Pro como exemplo, foi possível atingir uma latência de cerca de 0,6 milissegundo por token de prompt e uma taxa de geração de 30 tokens por segundo.

Publicidade

Para pôr em prova os modelos, a Apple usou a referência Instruction-Following Eval (IFEval) para fazer uma comparação das suas capacidades de acompanhamento de instruções com modelos de tamanho comparável.

Como pode-se observar, os resultados sugerem que o modelo no dispositivo e no servidor da Maçã seguem instruções detalhadas de uma maneira melhor do que os modelos de código aberto e comerciais.

Em outro gráfico, uma comparação foi feita de maneira a avaliar a capacidade de escrita dos modelos da Apple em benchmarks internos de resumo e composição, consistindo em uma variedade de instruções de escrita.

Mais detalhes sobre os modelos de IA generativa da Apple podem ser conferidos nessa página.

via MSPowerUser

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Privacidade da Apple Intelligence e de novos recursos são destacadas pela empresa

Próx. Post

Após keynote, Tim Cook fala sobre avanços em IA e compromissos com privacidade [atualizado]

Posts relacionados