A disputa em torno da IA de fronteira entrou numa fase menos centrada em demonstração pública e mais concentrada em avaliação, acesso controlado e segurança antes do lançamento. O Center for AI Standards and Innovation, dentro do NIST, anunciou novos acordos com Google DeepMind, Microsoft e xAI para realizar avaliações pré-deployment, pesquisa direcionada e análise de capacidades de modelos avançados.1

O ponto relevante não é apenas a lista de empresas. O anúncio coloca o governo dos Estados Unidos mais perto dos modelos antes que eles cheguem ao mercado, inclusive em avaliações de sistemas ainda não liberados ao público. Segundo o NIST, o CAISI já concluiu mais de 40 avaliações desse tipo, algumas envolvendo modelos de ponta que permanecem inéditos.1

Pré-lançamento vira parte da confiança

Até pouco tempo, a confiança em modelos de IA avançados dependia principalmente de documentação do fornecedor, benchmarks públicos, red teaming contratado e comportamento observado depois do lançamento. O acordo do CAISI muda a conversa porque adiciona uma etapa anterior: testar capacidades sensíveis antes que a distribuição aconteça em escala.

Essa etapa é especialmente importante em cibersegurança. Modelos com raciocínio, geração de código, uso de ferramentas e capacidade de seguir etapas longas podem ajudar defensores, mas também podem acelerar reconhecimento, exploração e automação ofensiva. Por isso, avaliar apenas a interface final do produto não basta. O NIST afirma que desenvolvedores frequentemente fornecem versões com salvaguardas reduzidas ou removidas para que avaliadores entendam capacidades ligadas à segurança nacional.1

Essa decisão cria uma tensão inevitável. Testar modelos mais permissivos ajuda a medir risco real, mas exige ambiente, cadeia de custódia, equipe técnica e governança forte. O anúncio também menciona avaliações em ambientes classificados e participação de especialistas de diferentes órgãos por meio da TRAINS Taskforce. A mensagem é clara: IA de fronteira deixou de ser apenas produto de software e passou a entrar no vocabulário de infraestrutura crítica.

Agentes ampliam a superfície de ataque

O movimento do CAISI conversa com outra frente que ganhou peso nesta semana: a orientação conjunta sobre adoção cuidadosa de serviços de IA agentiva, assinada por agências de segurança cibernética dos Estados Unidos, Austrália, Canadá, Nova Zelândia e Reino Unido.2

O guia trata agentes de IA como sistemas que combinam modelo, ferramentas, dados externos, memória, planejamento e permissões de execução. Isso muda o risco. Um chatbot responde; um agente pode agir. Ele pode ler dados, chamar APIs, acionar fluxos de trabalho, modificar arquivos, enviar mensagens ou operar sobre sistemas internos. Cada integração vira uma nova borda.

As categorias de risco são familiares para quem administra ambientes corporativos, mas ficam mais agudas com autonomia: privilégio excessivo, configuração insegura, comportamento desalinhado, falhas estruturais e dificuldade de responsabilização. O guia recomenda alinhar riscos de IA ao modelo de segurança existente, evitar acesso amplo ou irrestrito e usar agentes, preferencialmente, em tarefas de baixo risco e baixa sensibilidade.2

Empresas precisam sair do piloto informal

Para empresas que já testam assistentes e agentes em áreas de suporte, desenvolvimento, finanças, compras, atendimento ou operações, a consequência prática é simples: piloto sem governança deixa de ser aceitável. Agente precisa de dono, identidade, escopo, logs, política de acesso, critérios de aprovação humana e plano de resposta.

Também é preciso separar tipos de uso. Um agente que resume documentos internos tem um perfil de risco diferente de outro que aprova pagamentos, altera infraestrutura ou interage com clientes. Tratar tudo como "IA" esconde diferenças operacionais enormes.

O debate de maio mostra que a pergunta principal está mudando. Não basta perguntar qual modelo é melhor. É preciso perguntar quem testou, em que condições, com quais permissões, sob quais salvaguardas e com que capacidade de interromper o fluxo quando algo sai do esperado. A vantagem competitiva continua existindo, mas ela passa a depender de controles tão concretos quanto os próprios modelos.


  1. NIST, "CAISI Signs Agreements Regarding Frontier AI National Security Testing With Google DeepMind, Microsoft and xAI", 5 maio 2026.
  2. Australian Signals Directorate's Australian Cyber Security Centre, "Careful adoption of agentic AI services", 1 maio 2026.