Total de visualizações de página

sábado, 4 de setembro de 2021

Apple adia sistema que analisará imagens suspeitas de abuso infantil

===+===.=.=.= =---____---------   ---------____------------____::_____   _____= =..= = =..= =..= = =____   _____::____-------------______---------   ----------____---.=.=.=.= +====


Alguns especialistas em privacidade criticaram a ferramenta e apontaram que ela poderia ser usada para promover perseguições políticas. Empresa disse que receberá contribuições e levará mais tempo para liberar a solução.
===+===.=.=.= =---____---------   ---------____------------____::_____   _____= =..= = =..= =..= = =____   _____::____-------------______---------   ----------____---.=.=.=.= +====
Por G1

Postado em 04 de setembro de 2021 às 10h25m

  *.- Post.N. -\- 4.123 -.* 

Apple — Foto: REUTERS/David Gray
Apple — Foto: REUTERS/David Gray

A Apple afirmou nesta sexta-feira (3) que adiará a implementação de uma ferramenta que analisará suspeitas de abuso infantil em imagens enviadas ao serviço de armazenamento na nuvem iCloud.

O plano da Apple de incluir um mecanismo de verificação é alvo de críticas de ativistas em privacidade, que consideram haver um risco da ferramenta ser usada por governos repressivos para procurar outros materiais para censura ou perseguições políticas.

Segundo a agência Reuters, funcionários da Apple também criticaram o plano internamente.

A empresa afirmou que o adiamento será usado para receber contribuições de especialistas e aprimorar o recurso. Porém, as mudanças levarão mais tempo para serem concluídas.

"Com base no feedback de consumidores, grupos ativistas, pesquisadores e outros, decidimos levar um tempo a mais nos próximos meses para reunir opiniões e fazer melhorias antes de lançar esses recursos extremamente importantes de segurança infantil", disse a Apple, em comunicado.

O pesquisador de segurança cibernética na Universidade John Hopkins, Matthew Green, foi um dos críticos da proposta da Apple. Ele disse nesta sexta-feira que a decisão da companhia de adiar o recurso é "promissora".

Segundo ele, a Apple deveria ser mais transparente e explicar por que analisará mais arquivos.

"Passar de nenhum escaneamento (exceto anexos de e-mail) para escanear a biblioteca de fotos de todo mundo era um salto enorme. Você precisa justificar esse tipo de escalada", afirmou, em seu perfil no Twitter.

Entenda o recurso anunciado pela Apple

A Apple anunciou em agosto uma ferramenta de detecção de material de abuso sexual infantil (CSAM, na sigla em inglês). Com a solução, a empresa cruzaria imagens armazenadas no iCloud com registros de abusos de menores presentes em bancos de dados de autoridades.

Caso encontrasse imagens suspeitas, a Apple realizaria uma revisão humana e poderia denunciar o usuário para autoridades. A empresa disse que não usaria o sistema para nenhum outro fim, mesmo que solicitado por países.

Apesar da promessa, alguns especialistas em privacidade e segurança apontaram que a solução poderia ser usada para buscar conteúdos genéricos e para governos perseguirem opositores.

O objetivo era lançar a solução até o fim do ano por meio de atualizações de software iPhone, iPad e Mac. A Apple não informou uma nova previsão de quando ele será implementado.

Confira as novidades do iPhone 12
Confira as novidades do iPhone 12

------++-====-----------------------------------------------------------------------=================--------------------------------------------------------------------------------====-++-----