Total de visualizações de página

terça-feira, 3 de setembro de 2024

'Primeiro passo': como especialistas veem decisão do governo de liberar uso de dados brasileiros para treinar IA da Meta

<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>


Big tech apresentou plano de conformidade e anunciou medidas visando aumentar transparência da prática.
<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>
Por Vivian Souza, Lara Castelo, g1

Postado em 03 de setembro de 2024 às 06h00m

#.* Post. - Nº.\  4.953 *.#

ANPD libera coleta de dados dos usuários para o treinamento de IA da Meta. — Foto: Reuters
ANPD libera coleta de dados dos usuários para o treinamento de IA da Meta. — Foto: Reuters

A decisão do governo que permite o uso de dados de brasileiros pela Meta para treinar inteligência artificial é vista por especialista ouvidos pelo g1 como um primeiro passo para a regulamentação dessa prática.

A Meta é dona do Instagram, do Facebook, do Threads e do WhatsApp.

Em julho, a Autoridade Nacional de Proteção de Dados (ANPD) suspendeu a coleta de dados de usuários da Meta para o treinamento de IA.

Isso aconteceu após o Instituto de Defesa de Consumidores (Idec) questionar a ANPD sobre os riscos à privacidade de quem usa a Meta e a falta de transparência da plataforma sobre esse compartilhamento de dados.

Mas, nesta sexta-feira (30), a ANPD liberou a big tech para a prática sob a condição do cumprimento de um "plano de conformidade" (veja mais detalhes abaixo), para adequar o tratamento dos dados ao disposto na Lei Geral de Proteção de Dados (LGPD).

Já o Tribunal Federal da 3ª Região (TRF-3) suspendeu liminar anteriormente concedida que proibia o aplicativo de mensagens WhatAapp de compartilhar dados dos usuários brasileiros com outras empresas do Grupo Meta.

Para os especialistas em inteligência artificial entrevistados pelo g1, usar dados pessoais para treinar inteligência artificial é algo consolidado no mercado e faz parte do caminho para a criação de produtos mais diversos e adaptados à cultura brasileira.

Mas, por se tratar de algo novo, os especialistas concordam que falta regulamentação sobre o tema e que o caso da Meta pode indicar uma nova direção para o mercado.

Além disso, é importante ficar de olho se a empresa será clara na comunicação ao usuário sobre como os seus dados serão usados, para que haja uma compreensão do que significaria aceitar ou não a coleta, afirma Yasmin Curzi, pesquisadora do Karsh Institute of Democracy, na Universidade de Virginia, nos Estados Unidos.

Em coletiva de imprensa nesta sexta-feira (30), a diretora da Agência Nacional de Proteção de Dados (ANPD), Miriam Wimmer, destacou alguns parâmetros estabelecidos com a nova decisão:

  • a empresa deve deixar explícito o que será feito com os dados;
  • o usuário deve ter o direito de negar a coleta de seus dados e o formulário para isso deve ter um acesso simplificado;
  • dados coletados não podem remeter aos seus donos;
  • é preciso proteger o público vulnerável, como crianças e adolescentes.

Por outro lado, o Instituto de Defesa de Consumidores (Idec) criticou a decisão da ANPD e disse que, as exigências contemplam "somente o mínimo necessário, aquém do disposto na LGPD".

"A principal questão não é apenas a identificação dos usuários, mas o uso compulsório de seus dados pessoais para uma finalidade que vai além da prestação do serviço e que visa unicamente o lucro da empresa", diz o Idec. 
‘Primeiro passo’

O compartilhamento de dados de usuários para o treinamento de IA já é consolidado no mercado, mas faltam diretrizes sobre o tema, explica o advogado especializado em direito digital, Carlos Affonso Souza, diretor do Instituto de Tecnologia e Sociedade (ITS).

Por isso, orientações da ANPD no sentido de aumentar a transparência dessa prática ao usuário são bem-vindas, afirma.

Agora, pelo menos, temos uma orientação da ANPD sobre o assunto, diz.

O especialista destaca ainda que as instruções dadas à Meta jogam luz nas práticas do mercado como um todo. Isso porque, segundo ele, a tendência é que as demais empresas de tecnologia que atuam no Brasil sigam os mesmos passos para não serem alvo da ANPD.

Mas ele espera que esse seja só o primeiro passo.

O melhor seria que a agência usasse esse caso como um impulso para fornecer ainda mais informações às empresas de tecnologia sobre o assunto. Afinal, hoje, elas são empresas de IA.

A opinião é compartilhada pelo professor da Pontifícia Universidade Católica de São Paulo (PUC-SP) especializado em inteligência artificial Diogo Ortiz.

Para ele, o problema está em a Meta não deixar claro aos usuários quais dados iria coletar e em como as pessoas poderiam se recusar a participar do treinamento da IA.

Segundo a ANPD, por exemplo, o acesso ao formulário por meio do qual o usuário poderia dizer que não quer participar dos testes era difícil. Agora, o link com o formulário será enviado no e-mail do usuário.

Nesse sentido, Ortiz acredita que, com as alterações exigidas pela ANPD, as informações ficarão mais claras para o usuário.

Para Curtiz, da Universidade de Virginia, a ANPD precisa fiscalizar a transparência da Meta na notificação que será enviada ao usuário com o direito de oposição.

"A notificação não pode ser um padrão obscuro", afirma. O texto precisa ser explicativo, de fácil compreensão e que deixe claro que as publicações e fotos serão usadas para treinar a inteligência artificial.

Além disso, muitas pessoas podem não entender o que significa o "direito de oposição". Portanto, seria fundamental ter uma campanha da ANPD que ensinasse isso à população, aponta.

Ortiz, da PUC SP, pontua que o estranhamento dos usuários em relação ao compartilhamento dos dados para o treinamento de IAs acontece por se tratar de algo novo, que não existia quando a LGPD foi instituída no Brasil.

O professor destacou que 95% do treinamento da IA da Meta foi feito em inglês e que o uso dos dados das redes sociais dos brasileiros para o treinamento da IA pode facilitar a adaptação ao consumo e a cultura do país.

O especialista afirma que seria interessante se os dados coletados pela Meta fossem compartilhados com programadores brasileiros evitando um extrativismo digital, onde apenas a empresa estrangeira cresceria com as informações de brasileiros.

Dados de crianças

Ortiz é contra a coleta de dados pessoais de crianças e adolescentes. Por enquanto, este tipo de extração está suspenso pela ANPD, mas deve ser tema de conversas entre o órgão e a Meta.

Ainda assim, para Curzi, isso já pode ser um problema, uma vez que as fotos de crianças publicadas pelos pais poderão ser usadas pela IA. Bem como imagens de sites de notícias e com direitos autorais.

Contudo, a pesquisadora pontua que, sem o usuário manifestar o direito de oposição no formulário, a Meta estaria dentro da legalidade ao usar esse tipo de conteúdo.

O que a ANPD quer da Meta:

  • que em cinco dias úteis ela apresente um cronograma de implementação do "plano de conformidade";
  • que a empresa tenha uma atenção especial ao prazo mínimo de 30 dias entre o envio da notificação aos usuários e o início do uso dos dados;
  • que a Meta garanta o "direito de oposição" dos usuários (o chamado "opt-out"). Ou seja, que o usuário da rede tenha o direito de não fornecer seus dados para o treinamento dos sistemas.
  • Que o usuário que tenha contas vinculadas poderá assinalar a oposição apenas uma vez, e esta já valerá para todas as redes da Meta.
  • Que, quem não possui uma conta nas redes sociais, mas teve alguma informação exposta por terceiros, possa buscar nos sites das plataformas um formulário para detalhar quais dados seus gostaria de remover do banco da Meta.
O que diz a Meta

A Meta informou nesta sexta-feira (30) que, em resposta às recomendações da ANPD, está "oferecendo transparência adicional para ajudar os usuários do Facebook e do Instagram no Brasil a entenderem como treinamos os modelos que alimentam nossas experiências de Inteligência Artificial generativa".

Segundo a empresa, as medidas incluem:

  • notificações no Facebook e no Instagram, e e-mails "para que os usuários no Brasil saibam como planejamos expandir nossas experiências de IA na Meta";
  • inclusão, nas notificações e e-mails, de um link para o "formulário de oposição" – onde os usuários poderão expressar que não querem contribuir com seus dados para o treinamento da inteligência artificial.
  • atualização da Política de Privacidade e o Aviso de Privacidade do Brasil;
  • possibilidade de o usuário se opor ao uso de seus dados a qualquer tempo;
  • banners na Central de Privacidade da Meta, bem como na Política de Privacidade, "para conscientizar os usuários que estão no Brasil sobre como tratamos os dados dos usuários e com links direcionando para o formulário de oposição";
  • uso de informações públicas de contas de usuários nas plataformas

------++-====-----------------------------------------------------------------------=======;;==========---------------------------------------------------------------------------------====-++----