Total de visualizações de página

sábado, 3 de junho de 2023

Por que especialistas dizem que inteligência artificial pode levar à extinção da humanidade

<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>


Opiniões se dividem quanto a uso da ferramenta. O Center para AI Safety sugere uma série de possíveis cenários de desastre.
<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>
TOPO
Por BBC

Postado em 03 de junho de 2023 às 14h50m

Post. N. - 4.638

O Centro de Segurança de Inteligência Artificial sugere uma série de possíveis cenários de desastre por mau uso dessa tecnologia — Foto: Getty Images
O Centro de Segurança de Inteligência Artificial sugere uma série de possíveis cenários de desastre por mau uso dessa tecnologia — Foto: Getty Images

A inteligência artificial (IA) pode levar a humanidade à extinção, alertaram especialistas — incluindo os chefes da OpenAI e do Google Deepmind.

Dezenas apoiaram uma declaração publicada na página do Center for AI Safety (ou Centro de Segurança de Inteligência Artificial, em tradução livre), ong de pesquisa e desenvolvimento com sede em São Francisco, nos Estados Unidos.

"Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear", aponta a carta aberta.

Mas outros dizem que os medos são exagerados.

Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis, executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a declaração.

O texto do Center for AI Safety sugere uma série de possíveis cenários de desastre:

  • As IAs podem ser armadas — por exemplo, com ferramentas para descobrir drogas que podem ser usadas na construção de armas químicas;
  • A desinformação gerada pela IA pode desestabilizar a sociedade e "minar as tomadas de decisões coletivas";
  • O poder da IA pode se tornar cada vez mais concentrado em poucas mãos, permitindo que "regimes imponham valores restritos por meio de vigilância generalizada e censura opressiva";
  • Enfraquecimento, a partir do qual os humanos se tornam dependentes da IA, "num cenário semelhante ao retratado no filme Wall-E".

Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente, também apoiou a carta do Center for AI Safety.

Yoshua Bengio, professor de Ciências da Computação na Universidade de Montreal, no Canadá, também assinou o manifesto.

Hinton, Bengio e o professor da Universidade de Nova York (NYU), Yann LeCunn, são frequentemente descritos como os "padrinhos da IA" pelo trabalho inovador que fizeram neste campo — e pelo qual ganharam juntos o Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da computação.

Mas o professor LeCunn, que também trabalha na Meta, empresa dona do Facebook, disse que esses avisos apocalípticos são "exagerados" e que "a reação mais comum dos pesquisadores de IA a essas profecias de destruição é embaraçosa".

Muitos outros especialistas também acreditam que o medo de a IA acabar com a humanidade é irreal e uma distração de questões como preconceito em relação aos sistemas, que já são um problema.

Arvind Narayanan, um cientista da computação da Universidade de Princeton, nos EUA, disse à BBC que os cenários de desastre de ficção científica não são realistas.

"A IA atual não é nem de longe suficientemente capaz para que esses riscos se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da IA", avalia ele.

Elizabeth Renieris, pesquisadora sênior do Instituto de Ética em IA da Universidade Oxford, no Reino Unido, disse à BBC News que se preocupa com os riscos mais próximos.

"Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta. Ao mesmo tempo em que é inescrutável e incontestável", acredita ela.

Estes avanços "podem impulsionar um aumento exponencial no volume e na disseminação de desinformação, fraturando assim a realidade e corroendo a confiança do público, além de gerar mais desigualdade, principalmente para aqueles que permanecem do lado errado da divisão digital".

Muitas ferramentas de IA essencialmente "pegam carona" em "toda a experiência humana até o momento", destaca Renieris.

Várias dessas tecnologias são treinadas em conteúdo, texto, arte e música criados por humanos — e seus criadores "transferiram efetivamente uma tremenda riqueza e poder da esfera pública para um pequeno punhado de entidades privadas".

Pausa solicitada

A cobertura da imprensa sobre a suposta ameaça "existencial" da IA aumentou desde março de 2023, quando especialistas, incluindo o dono da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA.

Essa carta perguntava se deveríamos "desenvolver mentes não-humanas que eventualmente superassem em número, fossem mais espertas, nos tornassem obsoletos e nos substituíssem".

Em contraste, a nova carta divulgada por especialistas tem uma declaração muito curta, destinada a "abrir a discussão".

A declaração compara o risco ao representado pela guerra nuclear.

Em uma postagem no blog, a OpenAI sugeriu recentemente que a superinteligência pode ser regulada de maneira semelhante à energia nuclear.

"É provável que eventualmente precisemos de algo como uma AIEA (Agência Internacional de Energia Atômica) para os esforços de superinteligência", escreveu a empresa. 
'Fique tranquilo'

Sam Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de tecnologia que discutiram recentemente a regulamentação da IA com o primeiro-ministro inglês, Rishi Sunak.

Ao falar com repórteres sobre o último alerta sobre o risco de IA, Sunak enfatizou os benefícios da tecnologia para a economia e a sociedade.

"Você viu que recentemente a IA ajudou pessoas paralisadas a andar e descobriu novos antibióticos, mas precisamos garantir que isso seja feito de maneira segura e protegida", disse ele.

"É por isso que me encontrei na semana passada com CEOs de grandes empresas de IA para discutir quais são as barreiras que precisamos implementar e qual é o tipo de regulamentação que deve ser criada para nos manter seguros."

"As pessoas ficarão preocupadas com os relatos de que a IA representa riscos existenciais, como as pandemias ou as guerras nucleares. Mas quero que elas tenham certeza de que o governo está analisando isso com muito cuidado", concluiu.

Sunak disse que havia discutido a questão recentemente com outros líderes na cúpula do G7 no Japão e iria levá-lo novamente a representantes dos EUA em breve.

A cúpula de países mais ricos, inclusive, criou recentemente um grupo de trabalho sobre a IA.

------++-====-----------------------------------------------------------------------=======;;==========--------------------------------------------------------------------------------====-++----

Assembleia da Califórnia aprova projeto que obriga redes sociais a pagar por conteúdo jornalístico

<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>


Proposta prevê que empresas como Facebook, Google e Microsoft terão que repassar uma porcentagem da receita com publicidade para veículos de jornalismo. Texto agora será analisado pelo Senado estadual.
<<<===+===.=.=.= =---____--------   ----------____---------____::____   ____= =..= = =..= =..= = =____   ____::____-----------_  ___----------   ----------____---.=.=.=.= +====>>>
Por g1

Postado em 03 de junho de 2023 às 09h45m

Post. N. - 4.637

Plataformas apresentaram críticas à versão atual do PL das Fake News — Foto: Alessandro Feitosa Jr/g1
Plataformas apresentaram críticas à versão atual do PL das Fake News — Foto: Alessandro Feitosa Jr/g1

A Assembleia da Califórnia, nos Estados Unidos, aprovou nesta sexta-feira (2) por 46 votos a 6 um projeto de lei que obriga redes sociais a pagarem para usar conteúdo jornalístico em seus serviços. A proposta agora será analisada no Senado estadual.

O projeto da Lei de Preservação do Jornalismo prevê que grandes plataformas, como Facebook, Google e Microsoft, terão que repassar uma porcentagem de suas receitas com publicidade para acessar conteúdos produzidos por veículos de jornalismo digital.

Este acesso inclui aquisição, rastreamento e indexação do conteúdo jornalístico pelas plataformas. O projeto propõe que 70% do valor obtida com a regra seja destinado para jornalistas contratados pelos veículos de imprensa.

A organização News/Media Alliance, que representa cerca de 2.000 veículos de jornalismo nos Estados Unidos, afirmou que a aprovação do projeto na Assembleia da Califórnia é uma "ação decisiva e direta para salvar o jornalismo".

"Estamos extremamente encorajados a ver esse progresso em nível estadual, o que mostra que os americanos entendem a importância e o valor do jornalismo para manter suas comunidades seguras e informadas, e responsabilizar os que estão no poder", afirmou a presidente da News/Media Alliance, Danielle Coffey.

O projeto da Califórnia segue o modelo da Austrália, o primeiro país a forçar redes sociais a pagarem pelo uso de conteúdo jornalístico. A lei australiana gerou resistência de Facebook e Google, mas ambas chegaram a acordos com os veículos de mídia.

------++-====-----------------------------------------------------------------------=======;;==========--------------------------------------------------------------------------------====-++----