Total de visualizações de página

terça-feira, 6 de fevereiro de 2024

Meta vai identificar imagens criadas por IA no Facebook, Instagram e Threads

<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>


Etiquetas de inteligência artificial (IA) vão aparecer 'nos próximos meses' e em 'todos os idiomas compatíveis com cada aplicativo'.
<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>
TOPO
Por France Presse

Postado em 06 de fevereiro de 2024 às 15h55m

Post. N. - 4.831

Fachada da Meta, dona de Facebook, Instagram e WhatsApp, em foto de 7 de março de 2023 — Foto: Jeff Chiu/AP
Fachada da Meta, dona de Facebook, Instagram e WhatsApp, em foto de 7 de março de 2023 — Foto: Jeff Chiu/AP

A gigante norte-americana Meta anunciou, nesta terça-feira (6), que vai identificar "nos próximos meses" qualquer imagem gerada por inteligência artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.

A empresa já identifica imagens feitas por robôs com a ajuda de sua própria ferramenta, Meta IA, lançada em dezembro.

"Nos próximos dias, iremos rotular imagens que os usuários publicarem no Facebook, Instagram e Threads sempre que pudermos detectar indicadores, conforme as normas da indústria, que revelem se são geradas por IA", disse o responsável por assuntos internacionais da Meta, Nick Clegg, em um blog.

Daqui para frente, "queremos fazer o mesmo com conteúdos criados com ferramentas de outras empresas" como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou Clegg.

"Estamos construindo essa ferramenta no momento e começaremos a aplicar, nos próximos meses, etiquetas em todos os idiomas compatíveis com cada aplicativo", destacou.

O aumento da IA generativa faz crescer a preocupação de que as pessoas usem essas ferramentas para gerar caos político, especialmente por meio da desinformação. Quase metade da população mundial irá às urnas em 2024.

Além do risco político, o desenvolvimento de programas de IA generativa pode resultar em um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.

Como exemplo estão as deepfakes pornográficas de mulheres famosas, um fenômeno que também afeta muitas pessoas anônimas.

Antes de sua remoção, a deepfake da cantora Taylor Swift foi vista 47 milhões de vezes na rede social X (ex-Twitter), no final de janeiro. Segundo a imprensa norte-americana, a publicação permaneceu no ar na plataforma por cerca de 17 horas.

Embora Nick Clegg tenha afirmado que a ferramenta "não eliminará" totalmente o risco de produção de imagens falsas, "certamente minimizará" sua proliferação "dentro dos limites do que a tecnologia permite atualmente".

"Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa para todo mundo", garantiu Clegg à AFP.

"Eu espero profundamente que, fazendo isso, tomando esse caminho, iremos incentivar o restante da indústria (...) a trabalhar junto e realmente tentar desenvolver os padrões comuns que precisamos", defendeu o líder da Meta, afirmando estar disposto a "compartilhar" sua tecnologia aberta "da forma mais ampla possível".

Em meados de janeiro, a empresa californiana OpenAI, criadora do ChatGPT, também anunciou o lançamento de ferramentas para combater a desinformação e salientou seu desejo de não permitir o uso de suas tecnologias para fins políticos.

"Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique" o processo democrático, explicou a OpenAI, destacando que seu gerador de imagens DALL-E 3 contém "ressalvas" para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos.

------++-====-----------------------------------------------------------------------=======;;==========--------------------------------------------------------------------------------====-++----