O NIST publicou o Artificial Intelligence Risk Management Framework 1.0, uma orientação voluntária para organizações que projetam, desenvolvem, implantam ou usam sistemas de IA. A proposta é ajudar a gerenciar riscos de uma tecnologia que mistura componentes técnicos, dados, comportamento humano e impacto social.1

O documento chega em um momento de aceleração da IA generativa e de maior pressão por confiança. Modelos começam a entrar em atendimento, seleção, crédito, produtividade, análise de documentos e código. Ao mesmo tempo, seus erros não se parecem exatamente com falhas tradicionais de software: podem envolver dados enviesados, degradação ao longo do tempo, explicabilidade limitada e efeitos sobre pessoas em contextos sensíveis.

Governar, mapear, medir e gerenciar

O núcleo do AI RMF é organizado em quatro funções: govern, map, measure e manage.1 A linguagem é deliberadamente operacional. Governança define responsabilidades, cultura, políticas e prestação de contas. Mapeamento entende contexto, usuários, objetivos e impactos. Medição busca avaliar desempenho, segurança, robustez, viés e confiabilidade. Gestão transforma esse diagnóstico em decisões, controles e acompanhamento contínuo.

Essa divisão é útil porque evita reduzir risco de IA a um checklist de modelo. Um sistema pode ser tecnicamente sofisticado e ainda inadequado para um processo de alto impacto. Também pode ter bons resultados em benchmark e falhar quando encontra dados diferentes, comportamento adversarial ou usuários que interpretam a saída como verdade absoluta.

Para empresas, o framework ajuda a criar vocabulário comum entre engenharia, jurídico, segurança, compliance, produto e liderança. O debate deixa de ser apenas "podemos usar IA?" e passa a incluir perguntas mais concretas: quais danos são plausíveis, como são medidos, quem aprova o uso, que evidências sustentam a decisão e como o sistema será monitorado.

Confiança precisa ser desenhada

O NIST enfatiza que sistemas de IA são sociotécnicos, influenciados por dinâmicas sociais e comportamento humano.1 Essa observação muda o centro da discussão. Não basta avaliar o modelo isolado; é preciso considerar o processo onde ele opera, o usuário que recebe a recomendação, o incentivo de quem interpreta o resultado e o impacto de uma decisão errada.

Na prática, isso significa documentar dados de treinamento e avaliação, limites conhecidos, usos proibidos, dependências externas e procedimentos de exceção. Também exige métricas que façam sentido para o domínio. Em um chatbot, factualidade e escalonamento para humano podem ser críticos. Em crédito ou RH, equidade, explicabilidade e contestação importam mais. Em segurança, taxa de falso positivo e falso negativo afeta diretamente operação.

O caráter voluntário do AI RMF não reduz sua relevância. Frameworks desse tipo costumam servir como base para compras, auditorias, políticas internas e expectativas regulatórias. Quem começa a estruturar inventário, avaliação e governança agora ganha maturidade para responder a clientes, conselhos e autoridades quando a adoção de IA se tornar mais ampla.

A publicação do NIST sinaliza que confiança em IA não nasce de uma promessa de fornecedor. Ela precisa ser desenhada, medida e revisada ao longo do ciclo de vida do sistema. Esse é o trabalho menos vistoso da IA, mas é o que permite que a tecnologia seja usada em ambientes onde erro, abuso e opacidade têm custo real.


  1. NIST, "NIST Risk Management Framework Aims to Improve Trustworthiness of Artificial Intelligence", 26 jan. 2023.