<<<===+===.=.=.= =---____-------- ----------____---------____::____ ____= =..= = =..= =..= = =____ ____::____-----------_ ___---------- ----------____---.=.=.=.= +====>>>
Etiquetas de inteligência artificial (IA) vão aparecer 'nos próximos meses' e em 'todos os idiomas compatíveis com cada aplicativo'.<<<===+===.=.=.= =---____-------- ----------____---------____::____ ____= =..= = =..= =..= = =____ ____::____-----------_ ___---------- ----------____---.=.=.=.= +====>>>
Por France Presse
Postado em 06 de fevereiro de 2024 às 15h55m
Post. N. - 4.831
Fachada da Meta, dona de Facebook, Instagram e WhatsApp, em foto de 7 de março de 2023 — Foto: Jeff Chiu/AP
A gigante norte-americana Meta anunciou, nesta terça-feira (6), que vai identificar "nos próximos meses" qualquer imagem gerada por inteligência artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.
A empresa já identifica imagens feitas por robôs com a ajuda de sua própria ferramenta, Meta IA, lançada em dezembro.
Daqui para frente, "queremos fazer o mesmo com conteúdos criados com ferramentas de outras empresas" como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou Clegg.
"Estamos construindo essa ferramenta no momento e começaremos a aplicar, nos próximos meses, etiquetas em todos os idiomas compatíveis com cada aplicativo", destacou.
O aumento da IA generativa faz crescer a preocupação de que as pessoas usem essas ferramentas para gerar caos político, especialmente por meio da desinformação. Quase metade da população mundial irá às urnas em 2024.
Além do risco político, o desenvolvimento de programas de IA generativa pode resultar em um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.
Como exemplo estão as deepfakes pornográficas de mulheres famosas, um fenômeno que também afeta muitas pessoas anônimas.
Antes de sua remoção, a deepfake da cantora Taylor Swift foi vista 47 milhões de vezes na rede social X (ex-Twitter), no final de janeiro. Segundo a imprensa norte-americana, a publicação permaneceu no ar na plataforma por cerca de 17 horas.
Embora Nick Clegg tenha afirmado que a ferramenta "não eliminará" totalmente o risco de produção de imagens falsas, "certamente minimizará" sua proliferação "dentro dos limites do que a tecnologia permite atualmente".
"Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa para todo mundo", garantiu Clegg à AFP.
"Eu espero profundamente que, fazendo isso, tomando esse caminho, iremos incentivar o restante da indústria (...) a trabalhar junto e realmente tentar desenvolver os padrões comuns que precisamos", defendeu o líder da Meta, afirmando estar disposto a "compartilhar" sua tecnologia aberta "da forma mais ampla possível".
Em meados de janeiro, a empresa californiana OpenAI, criadora do ChatGPT, também anunciou o lançamento de ferramentas para combater a desinformação e salientou seu desejo de não permitir o uso de suas tecnologias para fins políticos.
"Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique" o processo democrático, explicou a OpenAI, destacando que seu gerador de imagens DALL-E 3 contém "ressalvas" para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos.