Total de visualizações de página

terça-feira, 15 de dezembro de 2020

Huawei testou sistema de reconhecimento facial que emitia alerta de acordo com etnia, diz jornal

=======.=.=.= =---____---------   ---------____------------____::_____   _____= =..= = =..= =..= = =____   _____::____--------------______---------   -----------____---.=.=.=.= ====


Reportagem do 'Washington Post' revelou documentos em que companhia diz ser possível enviar 'alarme' para autoridades ao identificar uigures, minoria muçulmana na China.  
===+===.=.=.= =---____---------   ---------____------------____::_____   _____= =..= = =..= =..= = =____   _____::____-------------______---------   ----------____---.=.=.=.= +====
Por G1  
15/12/2020 14h45 Atualizado há 06 horas
Postado em 15 de dezembro de 2020 às 20h45m

  *.- Post.N. -\- 3.906 -.*  

Huawei trabalhou com startup Megvii em sistema de reconhecimento facial que podia alertar autoridades sobre a presença de uigures. — Foto: REUTERS/Aly Song
Huawei trabalhou com startup Megvii em sistema de reconhecimento facial que podia alertar autoridades sobre a presença de uigures. — Foto: REUTERS/Aly Song

A empresa chinesa Huawei testou sistemas de reconhecimento facial que poderiam alertar autoridades sobre a presença de uigures, uma minoria muçulmana do país, de acordo com duas reportagens do jornal "Washington Post".

A primeira matéria, publicada na terça-feira passada (8), revelou documentos da empresa obtidos pelo grupo de pesquisa de vigilância por imagem "IPVM".

O material explicava o funcionamento desse sistema, e estava disponível no próprio site da companhia.

Os papéis mostraram que a Huawei trabalhou com uma startup de reconhecimento facial chamada Megvii em 2018, e que as companhias testaram um sistema de inteligência artificial que poderia escanear rostos em uma multidão e estimar a idade, sexo e etnia de pessoas.

Se esse sistema identificasse o rosto de uma pessoa pertencente à minoria muçulmana uigur, ele poderia emitir um "alarme" para autoridades.

As duas empresas confirmaram ao "Washington Post" que o documento era legítimo, e um porta-voz da Huawei afirmou que se tratava somente de "um simples teste que não teve aplicações no mundo real".

Em outra reportagem, publicada no último sábado (12), o jornal afirmou que a Huawei trabalhou com diversas empresas para desenvolver produtos de vigilância, com base em materiais de marketing disponíveis no site da companhia.

Documentos de pelo menos quatro parcerias falavam sobre a capacidade de identificar pessoas por etnia.

Após o contato do jornal, o material de marketing foi removido do site. Em comunicado ao "Washington Post" a Huawei disse que "não tolera o uso de suas tecnologias para discriminar ou oprimir membros de qualquer comunidade".

Uso de reconhecimento facial é alvo e críticas 

Uso de sistemas de reconhecimento facial na segurança pública é alvo de críticas de especialistas, por preocupações com privacidade e com a precisão desse tipo de tecnologia.

Em junho passado, após o assassinato de George Floyd na cidade de Minneapolis, a IBM anunciou que não iria mais desenvolver e pesquisar tecnologias de reconhecimento facial, alegando riscos de privacidade e possíveis injustiças caso a tecnologia fosse usada por forças policiais.

Pouco depois, a Amazon anunciou uma moratória de um ano para o uso da sua plataforma chamada "Rekognition", mas disse planejar voltara vendê-la após regulamentações do setor nos EUA.

Sanções dos EUA

O Departamento de Comércio dos Estados Unidos adotou sanções a 8 empresas chinesas, incluindo a Megvii, no ano passado. A decisão estava relacionada com "violações de direitos humanos" contra uigures e outros grupos muçulmanos.

O governo americano também restringiu a atuação da Huawei no país, impedindo a exportação de tecnologia americana para a companhia e restringindo negócios, alegando que o uso de equipamentos de telecomunicações da empresa representa uma ameaça à segurança nacional, algo que a companhia nega.

------++-====-----------------------------------------------------------------------=================---------------------------------------------------------------------------------====-++------