Total de visualizações de página

quinta-feira, 28 de novembro de 2024

Senador lê relatório de projeto para regular IA com garantia de direitos autorais e trava contra indução de comportamento

<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>


Texto tramita na Comissão Temporária de Inteligência Artificial do Senado. Segundo o presidente da comissão, senador Carlos Viana (Podemos-MG), o projeto deve ser votado na próxima terça-feira.
<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>
Por Marcela Cunha, g1 — Brasília

Postado em 28 de novembro de 2024 às 14h55m

#.* Post. - Nº.\  5.011 *.#

Imagem gerada por inteligência artificial. — Foto: Banco de imagem gerado por IA
Imagem gerada por inteligência artificial. — Foto: Banco de imagem gerado por IA

O senador Eduardo Gomes (PL-TO) leu, nesta quarta-feira (28) a quarta versão de seu relatório sobre o projeto que vai regulamentar o uso de inteligência artificial (IA) no Brasil.

O texto tramita na Comissão Temporária de Inteligência Artificial do Senado. Segundo o presidente da comissão, senador Carlos Viana (Podemos-MG), o projeto deve ser votado na próxima terça-feira (3).

A proposta serve para definir os limites e as permissões para o uso da tecnologia, que vai desde uma busca no Google ou a redação de um artigo no ChatGPT até a captura de fugitivos da Justiça.

Caso aprovado na comissão, o texto ainda terá de passar pelos plenários do Senado e da Câmara, e ser sancionado pelo presidente Luiz Inácio Lula da Silva (PT), para virar lei.

Proibições

O relatório estabelece condutas proibidas para as plataformas responsáveis por IA. Entre elas, estão:

🚫técnicas subliminares para induzir o comportamento do usuário ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;

🚫exploração de vulnerabilidades dos usuários;

🚫avaliação, por parte do governo, de cidadão, por meio de seu comportamento social e personalidade, na hora de oferecer serviços e políticas públicas;

🚫sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;

🚫tecnologia que considere ficha criminal e traços de personalidade para supor e prever risco de cometimento de crime ou reincidência;

🚫utilização da IA como armas autônomas, que selecionam alvos e atacam sem a intervenção humana.

O uso de identificação biométrica à distância, em tempo real, em espaços públicos será permitido apenas para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão.

O uso para colher provas em inquéritos policiais também será permitido apenas com autorização judicial e quando não houver outros meios.

Goiânia recebe feira nacional de robótica e inteligência artificial

Direitos autorais

O texto assegura os direitos autorais de empresas jornalísticas, escritores e artistas. Pelo projeto, as big techs, como Google e Microsoft, precisariam de autorização do autor para usar conteúdos protegidos na hora de gerar respostas.

De acordo com a proposta, as empresas que desenvolvem e aplicam IA teriam de pagar uma remuneração aos autores para poder ter as produções disponíveis em seus bancos de dados.

O texto estabelece que o cálculo da remuneração considere os princípios da razoabilidade e da proporcionalidade e elementos relevantes, tais como a complexidade do sistema de IA desenvolvido, o porte do agente de IA, o ciclo de realização econômica dos sistemas de IA, o grau de utilização dos conteúdos, o valor relativo da obra ao longo do tempo e os efeitos concorrenciais dos resultados em relação aos conteúdos originais utilizados.

Sanções

O relator manteve uma das propostas vindas do presidente do Senado, Rodrigo Pacheco (PSD-MG), que possibilita a aplicação de multa de até R$ 50 milhões ou 2% do faturamento, em caso de pessoa jurídica, para cada violação cometida pelas empresas de tecnologia.

Outras sanções previstas são:

▶️suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA

▶️proibição de tratamento de determinadas bases de dados

▶️proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos

Procedimentos de alto risco

O texto determina atividades de inteligência artificial consideradas de alto risco.

🔎Apesar de vedar o sistema de prever crimes com base nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações.

Segundo o texto, o objetivo seria "prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares".

Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções.

Nesse caso, fica excluído sistema de autenticação biométrica para confirmar uma pessoa específica, singular.

Entre os procedimentos de alto risco estão:

▶️gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional;

▶️aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas;

▶️controles de trânsito, redes de abastecimento de água e eletricidade;

▶️informações para acesso de estudantes a cursos técnicos e universidade;

▶️critérios de acesso à concessão de benefícios, como revisão de cadastros no Bolsa Família ou até apuração de fraudes em atestados do INSS;

▶️recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho.

Sistema de regulação

O projeto cria um órgão para fiscalizar o uso de IA no Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Segundo o texto, o sistema será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD).

Caberá ao SIA regulamentar as inteligências artificiais de alto risco que, por exemplo, impactem negativamente no exercício de direitos e liberdades dos usuários.

O texto prevê ainda a possibilidade de empresas de IA se associarem para criar uma espécie de agência privada para a autorregulação do sistema. De acordo com o texto, a autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:

▶️compartilhamento de experiências sobre o uso de inteligência artificial;

▶️definição contextual de estruturas de governança;

▶️atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e

▶️canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado.

----++-====-----------------------------------------------------------------------=======;;==========---------------------------------------------------------------------------------====-++----

Nenhum comentário:

Postar um comentário