A União Europeia alcançou um acordo político provisório sobre o AI Act, abrindo caminho para a primeira legislação horizontal de grande alcance sobre inteligência artificial. O texto negociado entre Parlamento e Conselho busca proteger direitos fundamentais, democracia, Estado de Direito e sustentabilidade ambiental, enquanto preserva espaço para inovação.1

O acordo transforma a regulação de IA em pauta executiva para empresas de tecnologia, bancos, seguradoras, fornecedores de software, órgãos públicos e startups. A lógica central é baseada em risco: quanto maior o potencial de dano de um sistema, maiores as obrigações de documentação, governança, transparência e controle.

Proibições definem limites políticos

O AI Act estabelece uma lista de usos proibidos por risco a direitos e liberdades. Entre eles estão sistemas de categorização biométrica baseados em características sensíveis, scraping indiscriminado de imagens faciais da internet ou de CFTV para criar bases de reconhecimento facial, reconhecimento de emoções em locais de trabalho e instituições de ensino, social scoring e manipulação comportamental.

Essas proibições comunicam uma fronteira política: nem todo uso tecnicamente possível deve ser aceito em mercado ou administração pública. O debate europeu tenta separar automação útil de vigilância, discriminação e assimetrias de poder que podem se tornar permanentes quando codificadas em sistemas.

O acordo também trata identificação biométrica remota por autoridades. A regra geral é restritiva, com exceções delimitadas para finalidades como busca de vítimas, prevenção de ameaça terrorista específica e localização de suspeitos de crimes graves, sujeitas a salvaguardas e autorização prévia.

Para fornecedores, isso significa que o desenho de produto precisa começar por finalidade, dados, contexto de uso e impacto sobre pessoas. Não basta documentar o modelo; é preciso justificar onde ele será usado e por quem.

Sistemas de alto risco ganham obrigações claras

Sistemas classificados como alto risco passam a ter exigências adicionais. O Parlamento destaca obrigações como avaliação de impacto sobre direitos fundamentais, aplicável também a setores como seguros e bancos. Sistemas usados para influenciar eleições e comportamento de eleitores também entram como alto risco.1

Consumidores terão direito de apresentar reclamações e receber explicações significativas sobre decisões baseadas em sistemas de alto risco que afetem seus direitos. Esse ponto pressiona empresas a manter rastreabilidade, logs, documentação e canais de contestação desde a fase de implantação.

O texto também cria guardrails para sistemas e modelos de IA de propósito geral. Eles devem cumprir requisitos de transparência, documentação técnica, respeito ao direito autoral europeu e divulgação de resumos detalhados sobre conteúdo usado em treinamento. Modelos de alto impacto com risco sistêmico terão obrigações mais duras, como avaliação de modelo, mitigação de riscos, testes adversariais, relato de incidentes graves, cibersegurança e informação sobre eficiência energética.

Multas tornam governança inevitável

O acordo prevê multas que variam conforme infração e porte da empresa, chegando a 35 milhões de euros ou 7% do faturamento global. Esse patamar coloca IA no mesmo nível de atenção de privacidade, concorrência e segurança para conselhos de administração.

O texto ainda precisa passar por adoção formal de Parlamento e Conselho, mas o sinal regulatório está dado. Empresas que desenvolvem ou compram IA devem começar a classificar casos de uso, mapear dados, registrar fornecedores, criar processos de avaliação e revisar contratos. A vantagem competitiva deixa de ser apenas lançar modelos rapidamente; passa a incluir provar que eles podem ser usados com segurança, explicabilidade e responsabilidade.


  1. European Parliament, "Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI", 9 dez. 2023.