Em depoimento ao Senado dos EUA, executivos de Twitter, Google e Facebook afirmam que estão desenvolvendo soluções de inteligência artificial para retirar conteúdo nocivo de suas plataformas.
Por Reuters
Postado em 18 de setembro de 2019 às 22h30m
Postado em 18 de setembro de 2019 às 22h30m
Grandes empresas de mídia social — como Google, Facebook e Twitter —disseram durante um painel do Senado dos Estados Unidos nesta quarta-feira (18) que estão fazendo mais para remover conteúdo violento ou extremista das plataformas.
Essas empresas foram duramente criticadas nos últimos meses por serem usadas para disseminação de publicações que endossam grupos extremistas ou pelo compartilhamento de vídeos violentos.
Chamou a atenção o caso do ataque a mesquitas em Christchurch, na Nova Zelândia, que deixou mais de 50 mortos e que foi transmitido pelo terrorista ao vivo no Facebook.
A chefe de gerenciamento de políticas globais do Facebook, Monika Bickert, disse ao Comitê de Comércio do Senado que os sistemas de detecção da companhia "reduziram o tempo médio necessário para a nossa inteligência artificial encontrar uma violação no Facebook Live para 12 segundos". Essa redução é de 90% no tempo médio de detecção, segundo sela, se comparada a alguns meses atrás.
Bickert disse que o Facebook pediu ajuda da polícia para acessar "vídeos que poderiam ser ferramentas úteis de treinamento" para a tecnologia de aprendizado de máquina. Com mais informações disponíveis, como imagens da polícia, a ferramenta teria maior subterfúgio para detectar conteúdo nocivo aos usuários.
O diretor de políticas públicas do Twitter, Nick Pickles, disse que o site suspendeu mais de 1,5 milhão de contas por promoção do terrorismo entre agosto de 2015 e o final de 2018. Segundo ele, "mais de 90% dessas contas foram suspensas por meio de nossas medidas proativas".
O diretor global da unidade de política da informação do Google, Derek Slater, disse que a resposta para esse problema de disseminação de conteúdo nocivo é "uma combinação de tecnologia e pessoas".
"A tecnologia pode ficar melhor e melhor em identificar padrões. As pessoas podem ajudar a lidar com as nuances certas", disse. Dos 9 milhões de vídeos removidos em um período de três meses este ano pelo YouTube, 87% foram sinalizados por inteligência artificial.
Nenhum comentário:
Postar um comentário