A regulamentação da inteligência artificial no Brasil avançou nesta quinta-feira (5) com a aprovação de um projeto na comissão especial do Senado. Relatado pelo senador Eduardo Gomes (PL-TO), o texto segue agora para votação no plenário principal da Casa, já incluído na agenda do mesmo dia.
O presidente do Senado, Rodrigo Pacheco (PSD-MG), espera concluir as etapas de análise e votação ainda hoje, destacando a urgência do tema, que foi definido como uma das prioridades legislativas do ano, ao lado do presidente da Câmara, Arthur Lira (PP-AL), segundo matéria do g1.
O projeto busca estabelecer regras e limites para o uso da tecnologia, abrangendo aplicações que vão desde pesquisas em mecanismos como o Google e a criação de textos com ferramentas como o ChatGPT até ações de segurança, como a localização de fugitivos pela Justiça.
Para que o projeto se torne lei, ele precisa ser aprovado pelos senadores e, em seguida, pelos deputados federais. Caso não haja alterações no texto durante sua tramitação na Câmara, o próximo passo será a sanção presidencial pelo presidente Luiz Inácio Lula da Silva (PT).
O que propõe o projeto?
O texto estabelece limites claros para o uso da IA visando proteger direitos fundamentais e garantir segurança jurídica em setores que utilizam a tecnologia. Algumas das práticas que serão proibidas incluem:
- Manipulação de comportamento de usuários ou grupos que causem danos à saúde, segurança ou outros direitos fundamentais;
- Exploração de vulnerabilidades dos usuários para influenciar decisões;
- Uso de IA para avaliar personalidade ou comportamento social com o objetivo de oferecer serviços ou políticas públicas;
- Sistemas que analisem traços de personalidade ou comportamento para prever crimes ou reincidência;
- Criação ou disseminação de materiais envolvendo abuso sexual de menores;
- Utilização de armas autônomas que atuem sem intervenção humana.
A proposta também regulamenta o uso de reconhecimento biométrico à distância, permitindo-o apenas em situações específicas, como captura de fugitivos ou investigações criminais com autorização judicial.
Quais são as penalidades para violações?
O projeto prevê multas de até R$ 50 milhões ou 2% do faturamento da empresa infratora por cada violação cometida. Outras penalidades incluem:
- Suspensão temporária ou definitiva das operações relacionadas ao sistema de IA;
- Restrições ao tratamento de bases de dados;
- Proibição de participar de ambientes regulatórios experimentais por até cinco anos.
Sistemas de alto risco
Atividades classificadas como de alto risco terão regulamentações mais rigorosas. Exemplos incluem:
- Gestão de fronteiras e controle migratório;
- Aplicações médicas que apresentem riscos à integridade física e mental;
- Sistemas de controle de trânsito e distribuição de recursos como água e energia elétrica;
- Avaliações relacionadas a benefícios sociais, como o Bolsa Família;
- Processos de recrutamento, triagem e decisões trabalhistas.
Apesar das restrições, o texto autoriza o uso de IA para análise de credibilidade de provas e outras finalidades relacionadas à segurança pública, desde que respeitem critérios estabelecidos.
Direitos Autorais e IA generativa
Na questão de Direitos Autorais, plataformas de IA deverão informar quando utilizarem conteúdos protegidos. Os titulares das obras poderão proibir o uso ou negociar remuneração, individual ou coletiva, com critérios de proporcionalidade e o porte da empresa. A regra vale para autores no Brasil e em países com legislações similares.
No tópico sobre IA generativa, o texto determina que ferramentas que criam conteúdos a partir de dados reais deverão sinalizar os originais e oferecer canais de verificação, sendo que o órgão do governo poderá implementar medidas para identificar e rotular esses conteúdos.
Quem será responsável pela fiscalização?
O SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial), coordenado pela ANPD (Autoridade Nacional de Proteção de Dados), será responsável pela supervisão. O SIA terá a missão de regular inteligências artificiais classificadas como de alto risco e incentivar práticas de autorregulação entre empresas do setor.
Essas empresas poderão criar agências privadas para estabelecer padrões técnicos, compartilhar experiências e informar riscos associados ao uso da tecnologia.
LEIA MAIS