A Meta apresentou o Llama 3 como a nova geração de seus modelos de linguagem distribuídos para uso amplo, começando por versões pré-treinadas e ajustadas por instrução com 8B e 70B parâmetros.1 O anúncio coloca a empresa novamente no centro da disputa por modelos abertos, agora com foco declarado em raciocínio, geração de código, seguimento de instruções e melhor comportamento em cenários reais.

O lançamento não é apenas técnico. A Meta também está usando o Llama 3 para fortalecer o Meta AI, assistente disponível em produtos como Facebook, Instagram, WhatsApp, Messenger e na web em mercados selecionados.2 Isso aproxima a estratégia de duas frentes que nem sempre caminham juntas: distribuir modelos para desenvolvedores e, ao mesmo tempo, embuti-los em experiências de consumo em grande escala.

Segundo a Meta, o Llama 3 usa um tokenizer de 128 mil tokens, grouped query attention nos dois tamanhos iniciais e treinamento em até 15 trilhões de tokens. A empresa também afirma ter melhorado processos de pós-treinamento para reduzir recusas indevidas, aumentar alinhamento e diversificar respostas.1

Abertura vira estratégia de plataforma

Modelos abertos oferecem uma proposta diferente de APIs fechadas. Eles permitem executar em infraestrutura própria, ajustar para domínios específicos, avaliar pesos, medir latência local e construir governança mais próxima dos dados da organização. Esse controle interessa a empresas que não querem concentrar toda a estratégia de IA em um único fornecedor de API.

Ao mesmo tempo, abertura não elimina custo nem responsabilidade. Rodar Llama 3 com qualidade exige infraestrutura, quantização quando necessário, observabilidade, avaliação de segurança, testes de prompt, filtros, versionamento e decisões claras sobre dados. A liberdade de implantação vem acompanhada de trabalho operacional.

A vantagem da Meta está em combinar distribuição aberta com escala de produto. O Meta AI cria um laboratório de uso cotidiano, enquanto a comunidade de desenvolvedores testa integrações, ferramentas, fine-tuning e deploy em nuvem ou edge. Esse ciclo pode acelerar a maturidade do ecossistema ao redor do modelo.

O assistente muda a pressão competitiva

O Meta AI mostra como modelos de linguagem estão deixando de ser apenas chatbots isolados. A integração com busca, feed, mensagens e geração de imagens coloca IA dentro de fluxos já existentes. Para usuários, isso reduz atrito. Para concorrentes, aumenta a exigência de entregar modelos capazes, baratos e disponíveis em muitos pontos de contato.

Na prática, a disputa não se limita a benchmarks. O valor aparece em latência, custo por resposta, suporte a idiomas, qualidade em tarefas de trabalho, ferramentas de criação e segurança contra abuso. Um modelo de 8B eficiente pode ser mais útil do que um modelo maior em cenários de alto volume, enquanto o 70B oferece mais capacidade para tarefas complexas.

Para empresas, Llama 3 amplia o leque de arquitetura. É possível comparar modelos fechados, modelos abertos gerenciados por provedores e execução própria. Essa comparação deve considerar privacidade, custo total, capacidade de auditoria, suporte, licenças e qualidade por caso de uso.

O anúncio também pressiona o vocabulário do mercado. "Aberto" pode significar pesos disponíveis, licença com condições, documentação, código de inferência, datasets não publicados ou diferentes níveis de transparência. Equipes técnicas precisam ler os termos com cuidado antes de transformar entusiasmo em dependência.

O Llama 3 chega, portanto, como produto, infraestrutura e mensagem competitiva. A Meta quer que desenvolvedores tratem seus modelos como base prática para IA generativa, enquanto leva a mesma tecnologia para assistentes que alcançam usuários comuns dentro de aplicativos já dominantes.


  1. Meta AI, "Introducing Meta Llama 3: The most capable openly available LLM to date", 18 abr. 2024.
  2. Meta Newsroom, "Meet Your New Assistant: Meta AI, Built With Llama 3", 18 abr. 2024.