Cuiabá, 12 de Dezembro de 2024

BRASIL Quinta-feira, 05 de Dezembro de 2024, 07:48 - A | A

Quinta-feira, 05 de Dezembro de 2024, 07h:48 - A | A

em tramitação

Senado pode votar nesta quinta o projeto de regulamentação da inteligência artificial

Presidente da Casa, senador Rodrigo Pacheco, disse que quer votar texto no plenário assim que for aprovado na comissão especial. Projeto prevê algumas proibições para a IA, considerado efeitos de 'alto risco'

GloboNews

O Senado pode votar nesta quinta-feira (5) o projeto que regulamenta o uso da inteligência artificial no país. Essa é a intenção do presidente da Casa, senador Rodrigo Pacheco (PSD-MG).

A proposta ainda depende de votação na Comissão Temporária de Inteligência Artificial do Senado, que está prevista para as 9h. Pacheco disse que, em seguida, pautará o texto também no plenário do Senado.

"Eu pautei para amanhã [quinta], às 11h, na sessão do plenário do Senado. Eu aguardo ele ser apreciado na comissão, às 9h, e, tão logo seja aprovado, já vai direto para o plenário amanhã [quinta-feira] mesmo", disse o presidente do Senado nesta quarta-feira à Globonews.

A proposta é uma das prioridades de Pacheco, autor da proposta, que quer concluir a votação na Casa enquanto estiver na presidência do Senado.

“O Congresso Nacional tem trabalhado para produzir um arcabouço legislativo sólido que regule as tecnologias digitais e a mídia, trazendo segurança jurídica para esse segmento", disse Pacheco.

"Para isso, precisamos de uma infraestrutura digital eficiente, inclusiva e resiliente, que promova a conectividade global em prol da redução das desigualdades, tendo sempre como meta o desenvolvimento social centrado no ser humano”.

A proposta serve para definir os limites e as permissões para o uso da tecnologia, que vai desde uma busca no Google ou a redação de um artigo no ChatGPT até a captura de fugitivos da Justiça.

Se for aprovado, o projeto seguirá para a Câmara dos Deputados.

Proibições
O relatório estabelece condutas proibidas para as plataformas responsáveis por IA. Entre elas, estão:

????técnicas para induzir o comportamento do usuário ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;

????exploração de vulnerabilidades dos usuários;

????avaliação, por parte do governo, de cidadão, por meio de seu comportamento social e personalidade, na hora de oferecer serviços e políticas públicas;

???? avaliar os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência; e

????sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;

????utilização da IA como armas autônomas, que selecionam alvos e atacam sem a intervenção humana.

O uso de identificação biométrica à distância, em tempo real, em espaços públicos será permitido apenas para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão.

O uso para colher provas em inquéritos policiais também será permitido apenas com autorização judicial e quando não houver outros meios.

Sanções
O relator manteve uma das propostas vindas do presidente do Senado, Rodrigo Pacheco (PSD-MG), que possibilita a aplicação de multa de até R$ 50 milhões ou 2% do faturamento, em caso de pessoa jurídica, para cada violação cometida pelas empresas de tecnologia.

Outras sanções previstas são:

▶️suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA

▶️proibição de tratamento de determinadas bases de dados

▶️proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos

Procedimentos de alto risco
O texto determina atividades de inteligência artificial consideradas de alto risco.

????Apesar de impedir o sistema de prever crimes com base nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações.
Segundo o texto, o objetivo seria "prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares".

Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções.

Nesse caso, fica excluído sistema de autenticação biométrica para confirmar uma pessoa específica, singular.

Entre os procedimentos de alto risco estão:

▶️gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional;

▶️aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas;

▶️controles de trânsito, redes de abastecimento de água e eletricidade;

▶️informações para acesso de estudantes a cursos técnicos e universidade;

▶️critérios de acesso à concessão de benefícios, como revisão de cadastros no Bolsa Família ou até apuração de fraudes em atestados do INSS;

▶️recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho.

Sistema de regulação
O projeto cria um órgão para fiscalizar o uso de IA no Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Segundo o texto, o sistema será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD).

Caberá ao SIA regulamentar as inteligências artificiais de alto risco que, por exemplo, impactem negativamente no exercício de direitos e liberdades dos usuários.

O texto prevê ainda a possibilidade de empresas de IA se associarem para criar uma espécie de agência privada para a autorregulação do sistema. De acordo com o texto, a autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:

▶️compartilhamento de experiências sobre o uso de inteligência artificial;

▶️definição contextual de estruturas de governança;

▶️atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e

▶️canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado.

 

Comente esta notícia