Regulamentação prevê diretrizes e boas práticas para uso e exploração da inteligência artificial; projeto ainda será votado no Plenário do Senado e na Câmara dos Deputados Na última quinta-feira (5), a comissão temporária do Senado, responsável por discutir a regulamentação da inteligência artificial (IA) no Brasil, aprovou, por unanimidade, o relatório do senador Eduardo Gomes (PL-TO), que foi favorável ao PL 2.338/2023, de autoria do senador Rodrigo Pacheco. O consenso veio após 198 emendas, sendo 84 delas acatadas total ou parcialmente pelo relator. A votação da Casa está prevista para a próxima terça-feira (10).
🔎 Tudo sobre inteligência artificial: tire as principais dúvidas sobre o tema
➡️ Inteligência artificial: 5 coisas que você precisa saber antes de usar
Caso aprovado, o projeto será enviado à Câmara dos Deputados para análise. O texto estabelece regras e boas práticas para o desenvolvimento e o uso de sistemas de IA, incluindo medidas para proteger os usuários contra potenciais danos causados pela tecnologia. Além disso, prevê a responsabilização judicial das empresas envolvidas, definindo possíveis violações e punições aplicáveis.
Comissão do Senado aprova projeto de regulamentação da inteligência artificial (IA) no Brasil
Reprodução/Edilson Rodrigues/Agência Senado
🔔 Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews
📝 Inteligência artificial é perigosa? Tire dúvidas no Fórum do TechTudo
Entre as garantias previstas, estão o direito dos cidadãos a explicações claras e à revisão humana de decisões automatizadas que tenham impacto jurídico significativo. Além disso, no uso de sistemas de identificação biométrica, será obrigatória a proteção contra discriminação. O texto define, ainda, a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), que será responsável pela fiscalização das diretrizes.
A expectativa dos presidentes do Senado, Rodrigo Pacheco (PSD-MG), e da Câmara dos Deputados, Arthur Lira (PP-AL), é de que o texto seja aprovado no Congresso ainda este ano. A seguir, conheça as novas regras aprovadas pela comissão temporária do Senado e entenda o que pode mudar na regulamentação da IA no Brasil.
Quando o projeto será votado?
Na última quinta-feira (5), a Comissão Temporária Interna sobre Inteligência Artificial (CTIA) do Senado aprovou, por unanimidade, o relatório do senador Eduardo Gomes (PL-TO), favorável ao PL 2.338/2023, de autoria do senador Rodrigo Pacheco. O consenso foi alcançado após a apresentação de 198 emendas, propostas para modificar o texto, das quais 84 foram acatadas total ou parcialmente pelo relator.
Após a decisão da comissão, o texto chegou a ser incluído na pauta de discussão no Plenário, mas, a pedido de alguns parlamentares, a votação foi adiada. Os principais argumentos foram a baixa presença física de parlamentares no local e o desconhecimento sobre o projeto, que havia sido encaminhado minutos antes. A decisão deve ocorrer na próxima sessão, prevista para terça-feira (10). Caso aprovada, a proposta será encaminhada à Câmara dos Deputados para análise e, se não sofrer mudanças, seguirá para a sanção do presidente Luiz Inácio Lula da Silva (PT).
Riscos
Manifestantes pedem regulamentação da IA em comissão temporária do Senado
Reprodução/Geraldo Magela/Agência Senado
O PL propõe dividir os sistemas de IA em diferentes níveis de risco para os usuários, com regras mais rigorosas para aplicações de alto risco e proibição de modelos considerados de “risco excessivo”. Esta classificação, que gerou muita discussão entre os senadores, inclui ferramentas usadas em segurança, infraestrutura e recrutamento, que deverão ter supervisão humana para diminuir esses perigos. Uma das mudanças mais importantes do projeto foi a inclusão da avaliação preliminar de riscos nos sistemas de IA, obrigatória apenas para sistemas generativos e de propósito geral. Para os demais casos, a análise será opcional, mas recomendada como boa prática.
A fiscalização das regras ficará a cargo do Sistema Nacional de Regulação e Governança de IA, que também deverá criar um banco de dados público com informações sobre impacto e riscos dos sistemas de inteligência artificial no Brasil. O PL também autoriza a criação de uma agência privada de autorregulação, reunindo empresas de IA para definir critérios técnicos e para atuar junto às autoridades competentes.
Para Marcos Oliveira, country manager da empresa de segurança cibernética Palo Alto Networks, o projeto é um passo importante para o Brasil, mas o texto ainda apresenta muitas brechas, especialmente no que diz respeito aos ângulos relacionados aos desenvolvedores desses modelos e à forma como as empresas utilizarão a IA.
“Essa falta de clareza pode dificultar a proteção contra riscos cibernéticos. Para as empresas que pretendem adotar a ferramenta, três pontos devem ser considerados: garantir visibilidade completa sobre o uso de todas as diferentes aplicações de IA; proteger dados confidenciais que possam ser trafegados sem aprovação ou controle interno adequado; e adotar tecnologias de cibersegurança capazes de compreender as diversas arquiteturas de IA, além de defender os sistemas contra ataques sofisticados baseados em inteligência artificial”, destaca o especialista.
Direitos autorais
O projeto de regulamentação da IA também inclui medidas para proteger os direitos autorais de criadores de conteúdo e obras artísticas. O uso desses materiais será permitido em processos de treinamento de sistemas de inteligência artificial, desde que realizado por instituições como museus, bibliotecas e instituições educacionais e de pesquisa, exclusivamente para fins não comerciais. Mesmo nesses casos, o uso do conteúdo não poderá prejudicar os interesses econômicos dos titulares.
No caso de sistemas de IA com fins comerciais, as empresas deverão remunerar os autores das obras, podendo negociar o pagamento de forma individual ou coletiva. A remuneração será calculada com base na proporcionalidade, razoabilidade e no porte da empresa desenvolvedora. Além disso, o uso de imagem e voz nesses sistemas deverá respeitar os direitos de personalidade, com consentimento prévio e sem danos à honra, reputação ou intimidade. A violação dessas garantias poderá resultar em ações judiciais.
IA generativa
A proposta de regulamentação prevê regras específicas para modelos de inteligência artificial generativa, ou seja, sistemas capazes de criar ou modificar textos, áudios, vídeos e outros conteúdos. É o caso, por exemplo, de ferramentas como o MidJourney AI o DALL-E, além de assistentes virtuais que se adaptam a diferentes tarefas, como ChatGPT, Gemini Google e Claude.AI.
Antes de serem disponibilizados no mercado, esses sistemas deverão passar por uma avaliação preliminar para classificação de risco. Os agentes responsáveis precisam demonstrar que identificaram e mitigaram riscos relacionados aos direitos fundamentais, ao meio ambiente, à liberdade de expressão, à integridade da informação e à democracia. Além disso, os sistemas devem ser projetados para minimizar o uso de energia e outros recursos, conforme a legislação.
Ferramentas de IA generativa, como o ChatGPT, poderão ter regras específicas
Ascannio / Shutterstock.com
Conteúdos gerados ou modificados por IA deverão conter identificadores, como metadados, que permitam verificar a autenticidade e a origem do material. A regulamentação dessas medidas será desenvolvida em parceria com a iniciativa privada, profissionais de pesquisa e sociedade civil. No caso de uso de materiais audiovisuais envolvendo pessoas reais, será obrigatório respeitar os direitos de personalidade previstos no Código Civil, respeitando o consentimento prévio e a proteção à honra, reputação e intimidade.
Trabalhadores
O projeto aprovado pela comissão temporária do Senado também estabelece medidas para proteger os direitos dos profissionais diante do impacto da IA no mercado de trabalho. O SIA, em parceria com o Ministério do Trabalho, deverá implementar diretrizes para minimizar efeitos negativos, como perda de empregos e oportunidades de carreira. Por sugestão do senador Fabiano Contarato (PT-ES), o projeto incluiu o desenvolvimento de programas de treinamento e capacitação contínua, visando valorizar e aprimorar os profissionais.
Punições
O descumprimento das normas poderá resultar em penalidades administrativas e até em responsabilização civil em casos de danos causados a terceiros. As empresas de tecnologia poderão ser multadas em até R$ 50 milhões ou 2% do faturamento por infração. Também estão previstas punições como suspensão parcial ou total, temporária ou permanente, do desenvolvimento, fornecimento ou uso do sistema de IA e restrição do uso de bases de dados específicas. As infrações também podem levar à proibição, por até cinco anos, da participação em regimes de sandbox regulatório, impedindo que as empresas testem novas tecnologias em ambientes supervisionados por autoridades reguladoras.
Vale lembrar que a regulamentação não inclui sistemas usados por pessoas físicas para fins particulares, ferramentas utilizadas para defesa nacional e sistemas de desenvolvimento e testagem de aplicações de IA que ainda não estejam disponíveis no mercado. As regras também não se aplicam a sistemas que forneçam infraestrutura para dados de outros modelos de inteligência artificial.
Com informações de G1 e Agência Senado (1 e 2).
Mais do TechTudo
Veja também: Qual é o melhor App de 2024? E o melhor produto com IA?
Qual é o melhor App de 2024? E o melhor produto com IA?