===+===.=.=.= =---____--------- ---------____------------____::_____ _____= =..= = =..= =..= = =____ _____::____-------------______--------- ----------____---.=.=.=.= +====
Tecnologia está sendo cada vez mais usada comercialmente; uso está crescendo em algumas áreas, como de notícias, entretenimento e educação.===+===.=.=.= =---____--------- ---------____------------____::_____ _____= =..= = =..= =..= = =____ _____::____-------------______--------- ----------____---.=.=.=.= +====
Por Bernd Debusmann Jr, BBC
Postado em 07 de abril de 2022 às 13h20m
Post. N. - 4.321
Os telespectadores sul-coreanos foram informados de antemão sobre o 'deepfake' de Kim Joo-Ha — Foto: MBN
Há cerca de um ano, milhões de telespectadores em toda a Coreia do Sul estavam assistindo ao canal MBN para acompanhar as últimas notícias. No horário nobre, a apresentadora habitual do jornal, Kim Joo-Ha, começou a ler as manchetes do dia.
Era uma lista relativamente normal de histórias para o fim de 2020 — repleta de atualizações sobre a pandemia de Covid-19. No entanto, este boletim estava longe de ser normal, já que Kim Joo-Ha não estava realmente na tela.
Ela havia sido substituída por uma versão deepfake de si mesma — uma cópia gerada por computador que busca refletir perfeitamente sua voz, gestos e expressões faciais.
Os espectadores foram informados de antemão de que isso iria acontecer, e de acordo com a imprensa sul-coreana, a reação do público foi variada.
Enquanto algumas pessoas ficaram surpresas com o quão realista era, outras disseram que estavam preocupadas que a verdadeira Kim Joo-Ha pudesse perder o emprego.
A MBN afirmou que continuaria a usar deepfake para algumas notícias de última hora, enquanto a empresa por trás da tecnologia de inteligência artificial — a sul-coreana Moneybrain — anunciou que estaria procurando outros compradores na China e nos EUA.
Quando a maioria das pessoas pensa em deepfakes, elas imaginam vídeos falsos de celebridades.De fato, pouco tempo depois deste deepfake sul-coreano, um vídeo falso — mas muito realista — do ator Tom Cruise foi destaque no noticiário no mundo todo quando apareceu no TikTok.
O vídeo 'deepfake' de Tom Cruise acabou sendo removido do TikTok, mas a
conta que postou permanece lá — Foto: Reprodução/TikTok
Apesar das conotações negativas em torno do termo coloquial deepfake (as pessoas geralmente não querem ser associadas à palavra "fake"), a tecnologia está sendo cada vez mais usada comercialmente.
Mais diplomaticamente chamados de vídeos gerados por inteligência artificial, ou mídia sintética, seu uso está crescendo rapidamente em algumas áreas, como de notícias, entretenimento e educação — e a tecnologia se tornando cada vez mais sofisticada.
Um dos primeiros adeptos foi a Synthesia, companhia com sede em Londres que cria vídeos de treinamento corporativo com inteligência artificial para empresas, como o grupo de publicidade global WPP e a consultoria de negócios Accenture.
"Este é o futuro da criação de conteúdo", diz o executivo-chefe e cofundador da Synthesia, Victor Riparbelli.
Para fazer um vídeo gerado por inteligência artificial usando o sistema da Synthesia, você simplesmente escolhe entre vários avatares, digita a palavra que deseja que eles digam e pronto.
Os usuários da plataforma da Synthesia podem escolher entre vários avatares — Foto: Synthesia
Riparbelli diz que isso significa que as empresas globais podem facilmente fazer vídeos em diferentes idiomas — para cursos de treinamento internos, por exemplo.
"Digamos que você tenha 3 mil trabalhadores de armazém na América do Norte", diz ele. "Alguns falam inglês, mas alguns podem estar mais familiarizados com o espanhol."
"Se você precisa comunicar informações complexas a eles, um PDF de quatro páginas não é uma boa maneira. Seria muito melhor fazer um vídeo de dois ou três minutos, em inglês e espanhol."
"Se você tivesse que gravar cada um destes vídeos, seria um trabalho enorme. Agora podemos fazer isso com um [pequeno] custo de produção e o tempo que alguém levar para escrever o roteiro. Isso exemplifica muito bem como a tecnologia é usada hoje."
Mike Price, diretor de tecnologia da ZeroFox, empresa de segurança cibernética dos EUA que rastreia deepfakes, afirma que seu uso comercial está "crescendo significativamente ano após ano, mas os números exatos são difíceis de cravar".
Chad Steelberg, executivo-chefe da Veritone, fornecedora americana de tecnologia de inteligência artificial, observa, no entanto, que a crescente preocupação com deepfakes mal-intencionados está impedindo o investimento no uso comercial legítimo da tecnologia.
"O termo deepfake definitivamente teve uma resposta negativa em termos de investimento de capital no setor", afirma. "A mídia e os consumidores, com razão, podem ver claramente os riscos associados."
"Isso definitivamente impediu as corporações e os investidores de investir na tecnologia. Mas acho que se começa a ver essa abertura."
Mike Papas, executivo-chefe da Modulate, empresa de inteligência artificial que permite aos usuários criar a voz de um personagem ou pessoa diferente, diz que as empresas do setor comercial de mídia sintética "realmente se preocupam com a ética".
"É incrível ver a profundidade de pensamento que colocam nisso", afirma.
"Isso garantiu que os investidores também se preocupassem com isso. Eles estão perguntando sobre políticas éticas e como você vê isso."
Lilian Edwards, professora de direito, inovação e sociedade da Universidade de Newcastle, no Reino Unido, é especialista em deepfakes. E, segundo ela, uma questão em torno do uso comercial da tecnologia que não foi totalmente abordada é quem detém os direitos dos vídeos.
"Por exemplo, se uma pessoa morta é usada, como [o ator] Steve McQueen ou [o rapper] Tupac, há um debate em andamento sobre se a família deles deve possuir os direitos [e obter renda com isso]", explica.
"Atualmente, isso difere de país para país."
Deborah Johnson, professora de ética aplicada na Universidade da Virgínia, nos EUA, foi coautora recentemente de um artigo intitulado What To Do About Deepfakes? ("O que fazer com os deepfakes?", em tradução literal).
"Deepfakes são parte do problema maior de desinformação que mina a confiança nas instituições e na experiência visual — não podemos mais confiar no que vemos e ouvimos online", diz ela.
"A identificação é provavelmente a forma mais simples e importante de combater os deepfakes — se os espectadores estiverem cientes de que o que estão vendo foi fabricado, é menos provável que sejam enganados".
A professora Sandra Wachter, pesquisadora de inteligência artificial da Universidade de Oxford, no Reino Unido, afirma que a tecnologia deepfake "está avançando rapidamente".
Para a professora Sandra Wachter, a resposta aos 'deepfakes' precisa ser diferenciada — Foto: BBC
"Se você assistiu ao vídeo de Tom Cruise, pode ver como a tecnologia está ficando boa", diz ela.
"Foi muito mais realista do que o do presidente Obama de quatro anos atrás."
"Não devemos ter muito medo da tecnologia, e é preciso haver abordagens diferenciadas para isso. Sim, deve haver leis para reprimir coisas nocivas e perigosas, como discurso de ódio e pornografia de vingança". Os indivíduos e a sociedade devem ser protegidos disso.
"Mas não devemos ter uma proibição total dos deepfakes por sátira ou liberdade de expressão. E o crescente uso comercial da tecnologia é muito promissor, como passar filmes para diferentes idiomas ou criar vídeos educativos envolventes".
Um exemplo do uso educacional de vídeos gerados por inteligência artificial está na Fundação Shoah, da Universidade do Sul da Califórnia, nos EUA, que abriga mais de 55 mil testemunhos em vídeo de sobreviventes do Holocausto.
Seu projeto Dimensions In Testimony permite que os visitantes façam perguntas que levem a respostas em tempo real dos sobreviventes nas entrevistas em vídeo pré-gravadas.
Steelberg acredita que, no futuro, esta tecnologia permitirá que os netos conversem com versões de inteligência artificial de avós falecidos
"Isso é transformador, eu acho, para a forma como pensamos nossa sociedade".
Um sobrevivente do Holocausto com seu avatar na Fundação Shoah — Foto: BBC
------++-====-----------------------------------------------------------------------=================--------------------------------------------------------------------------------====-++-----
Nenhum comentário:
Postar um comentário