Eles haviam passado vários meses aperfeiçoando um algoritmo desenvolvido para conduzir um balão de hélio não tripulado de Porto Rico ao Peru. Mas algo estava errado.
O balão, controlado por inteligência artificial (IA), continuava desviando da rota.
Salvatore Candido, do agora extinto Projeto Loon,
do Google, que tinha como objetivo levar acesso à internet a áreas
remotas do planeta por meio de balões, não conseguia explicar a
trajetória da aeronave.
Seus colegas assumiram manualmente o controle do sistema e o colocaram de volta na rota.
Só
mais tarde eles perceberam o que estava acontecendo. Inesperadamente, a
inteligência artificial a bordo do balão havia aprendido a recriar uma
antiga técnica de navegação desenvolvida por humanos há séculos, senão
milhares de anos.
A técnica envolve conduzir a embarcação em ziguezague contra o vento, de modo que seja possível avançar mais ou menos na direção desejada.
Sob condições climáticas desfavoráveis, os balões autônomos aprenderam a se virar sozinhos. O fato de terem feito isso, de forma espontânea, surpreendeu a todos, inclusive aos pesquisadores que trabalhavam no projeto.
"Rapidamente percebemos que tinham sido mais espertos que a gente,
quando o primeiro balão autorizado a executar totalmente essa técnica
bateu um recorde de tempo de voo de Porto Rico ao Peru", escreveu
Candido em um blog sobre o projeto.
"Nunca me senti tão inteligente e tão burro ao mesmo tempo."
Este é exatamente o tipo de coisa que pode acontecer quando a inteligência artificial é deixada à sua própria sorte.
Diferentemente dos programas de computador tradicionais, as
IAs são projetadas para explorar e desenvolver novas abordagens para
tarefas sobre as quais seus engenheiros humanos não lhes falaram
explicitamente.
Mas enquanto aprendem como fazer essas tarefas, as IAs às vezes
apresentam uma abordagem tão inovadora que pode surpreender até mesmo as
pessoas que trabalham com esses sistemas o tempo todo.
Isso pode ser algo bom, mas também pode tornar as coisas controladas
por inteligência artificial perigosamente imprevisíveis — robôs e carros
autônomos podem acabar tomando decisões que colocam os humanos em
perigo.
Como é possível para um sistema de inteligência artificial "superar"
seus mestres humanos? E será que poderíamos controlar as mentes das
máquinas de alguma forma, para garantir que não aconteça nenhum desastre
imprevisto?
Na comunidade de IA, há um caso de criatividade que parece ser mais citado do que qualquer outro.
O momento que realmente empolgou as pessoas sobre o que a inteligência
artificial pode fazer, diz Mark Riedl, do Instituto de Tecnologia da
Geórgia, nos EUA, foi quando o DeepMind, laboratório de IA do Google,
mostrou como um sistema de machine learning (aprendizagem automática)
dominou o antigo jogo de tabuleiro Go — e depois derrotou um dos melhores jogadores humanos do mundo.
Balão satélite Loon, da Alphabet. — Foto: Loon/Divulgação
"Isso acabou demonstrando que havia novas estratégias ou táticas para
contra-atacar um jogador que ninguém realmente havia usado antes — ou
pelo menos muitas pessoas não sabiam a respeito", explica Riedl.
E ainda assim, um inocente jogo de Go desperta sentimentos diferentes entre as pessoas.
Riscos
Por um lado, o DeepMind descreveu orgulhosamente as maneiras pelas
quais seu sistema, o AlphaGo, foi capaz de "inovar" e revelar novas
abordagens para um jogo que os humanos vêm jogando há milênios.
Por
outro lado, alguns questionaram se uma inteligência artificial tão
inovadora poderia um dia representar um sério risco para os humanos.
"É ridículo pensar que seremos capazes de prever ou gerenciar o pior
comportamento das inteligências artificiais quando não podemos, na
verdade, imaginar seu possível comportamento", escreveu Jonathan Tapson,
da Universidade de Western Sydney, na Austrália, após a vitória
histórica do AlphaGo.
É importante lembrar, diz Riedl, que as inteligências artificiais não pensam realmente como os humanos.
Suas redes neurais são, de fato, vagamente inspiradas em cérebros de
animais, mas podem ser melhor descritas como "dispositivos de
exploração".
Quando tentam resolver uma tarefa ou problema, elas não trazem consigo
muitas, se é que alguma, ideia preconcebida sobre o mundo em geral.
Simplesmente tentam — às vezes, milhões de vezes — encontrar uma
solução.
"Nós, humanos, trazemos conosco muita bagagem mental, pensamos nas regras", explica Riedl.
"Os sistemas de inteligência artificial nem sequer entendem as regras, então eles mexem nas coisas de maneira muito aleatória."
Dessa forma, as IAs poderiam ser descritas como o equivalente em
silício de pessoas com Síndrome do Sábio (ou de Savant), acrescenta
Riedl, citando a condição em que um indivíduo tem uma deficiência mental
grave, mas também possui uma habilidade extraordinária, geralmente
relacionada à memória.
Uma maneira pela qual as IAs podem nos surpreender envolve sua
capacidade de lidar com problemas radicalmente diferentes, mas usando o
mesmo sistema básico.
Recentemente, uma ferramenta de machine learning desenvolvida para
gerar parágrafos de texto foi requisitada a executar uma função muito
diferente: jogar uma partida de xadrez.
O sistema em questão se chama GPT-2 e foi criado pela OpenAI. Treinado
por meio de milhões de artigos de notícias online e páginas da web, o
GPT-2 é capaz de prever a próxima palavra em uma frase com base nas
palavras anteriores.
Uma vez que os movimentos de xadrez podem ser representados em
caracteres alfanuméricos, "Be5" para mover um bispo, por exemplo, o
desenvolvedor Shawn Presser pensou que se ele treinasse o algoritmo por
meio de registros de partidas de xadrez, a ferramenta poderia aprender
como jogar ao descobrir sequências desejáveis de movimentos.
Presser treinou o sistema com 2,4 milhões de jogos de xadrez.
"Foi muito bacana ver o mecanismo de xadrez ganhando vida", diz ele.
"Eu não tinha certeza se iria funcionar."
Mas deu certo. Não é tão bom quanto computadores especialmente
projetados para xadrez — mas é capaz de jogar partidas difíceis com
sucesso.
Segundo Presser, o experimento mostra que o sistema GPT-2 tem muitos recursos inexplorados. Um "sábio" com dom para o xadrez.
Uma versão posterior do mesmo software surpreendeu os web designers
quando um desenvolvedor o treinou brevemente para produzir códigos para
exibir itens em uma página, como textos e botões.
A inteligência artificial gerou o código apropriado, embora tudo o que
tinha para seguir adiante eram descrições simples como "texto em
vermelho que diz 'eu te amo' e um botão com 'ok' nele".
Claramente, ela adquiriu a essência básica de web design, mas após um treinamento surpreendentemente curto.
Uma área em que as IAs há muito tempo impressionam é na de videogames.
Há inúmeros casos na comunidade de inteligência artificial sobre coisas
surpreendentes que os algoritmos têm feito em ambientes virtuais.
Os algoritmos costumam ser testados e aperfeiçoados, para ver o quão
capazes eles realmente são, em espaços semelhantes aos de videogames.
Em 2019, a OpenAI ganhou as manchetes com um vídeo sobre um jogo de
pique-esconde jogado por personagens controlados por machine learning.
Para a surpresa dos pesquisadores, aqueles que estavam "procurando"
acabaram aprendendo que podiam pular em cima dos itens e "surfá-los"
para ter acesso aos recintos onde havia personagens escondidos. Em
outras palavras, aprenderam a burlar as regras do jogo a seu favor.
Uma estratégia de tentativa e erro pode resultar em todos os tipos de
comportamentos interessantes. Mas nem sempre levam ao sucesso.
Dois anos atrás, Victoria Krakovna, pesquisadora da DeepMind, pediu aos
leitores de seu blog que compartilhassem histórias em que as IAs
resolveram problemas complicados — mas de maneiras imprevisivelmente
inaceitáveis.
A longa lista de exemplos que ela reuniu é fascinante. Entre eles, está um algoritmo de jogo que aprendeu a se matar no final da primeira fase — para evitar morrer na segunda fase. O objetivo de não morrer na segunda fase foi alcançado, mas não de uma forma particularmente impressionante.
Outro algoritmo descobriu que poderia pular de um penhasco em um jogo e
levar um oponente consigo para a morte. Isso deu à IA pontos
suficientes para ganhar uma vida extra e continuar repetindo essa tática
suicida em um loop infinito.
O pesquisador de inteligência artificial de videogame Julian Togelius,
da Escola de Engenharia Tandon da Universidade de Nova York, nos EUA,
pode explicar o que está acontecendo.
Ele diz que esses são exemplos clássicos de erros de "alocação de
recompensa". Quando uma inteligência artificial é solicitada a realizar
algo, ela pode descobrir métodos estranhos e inesperados de atingir seu
objetivo, onde o fim sempre justifica os meios.
Nós, humanos, raramente adotamos tal postura. Os meios e as regras que preveem como devemos jogar são importantes.
Togelius e seus colegas descobriram que esse viés voltado a objetivos
pode ser exposto em sistemas de inteligência artificial quando eles são
colocados à prova em condições especiais.
Em experimentos recentes, sua equipe descobriu que uma IA solicitada a
investir dinheiro em um banco, correria para um canto próximo do saguão
do banco virtual e esperaria para receber um retorno sobre o
investimento.
Togelius diz que o algoritmo aprendeu a associar correr para o canto
com a obtenção de uma recompensa financeira, embora não houvesse nenhuma
relação real entre seu movimento e o quanto era pago.
Isso, segundo ele, é mais ou menos como se a inteligência artificial
desenvolvesse uma superstição: "Você recebeu uma recompensa ou punição
por algo — mas por que você recebeu?"
Essa é uma das armadilhas do "aprendizado
por reforço", em que uma inteligência artificial acaba planejando uma
estratégia equivocada com base no que encontra em seu ambiente.
A inteligência artificial não sabe por que teve sucesso, ela só pode
basear suas ações em associações aprendidas. Um pouco como as primeiras
culturas humanas que começaram a associar rituais a mudanças no clima,
por exemplo. Ou os pombos.
Em 1948, um psicólogo americano publicou um artigo descrevendo um
experimento incomum em que colocava pombos em gaiolas e os recompensava
com comida de forma intermitente.
Os pombos começaram a associar a comida a o que quer que estivessem
fazendo na ocasião — seja batendo as asas ou executando movimentos
semelhantes a uma dança. Eles então repetiam esses comportamentos,
aparentemente na expectativa de que viria uma recompensa a seguir.
Os pombos podem aprender a associar a comida a certos comportamentos, e
as IAs podem exibir postura semelhante. — Foto: Divulgação CMS
Há uma grande diferença entre as IAs dos jogos testados por Togelius e
os animais vivos usados pelo psicólogo, mas Togelius sugere que o
mesmo fenômeno parece estar em ação: a recompensa se torna erroneamente
associada a um comportamento particular.
Embora os pesquisadores de inteligência artificial possam se
surpreender com os caminhos trilhados pelos sistemas de machine
learning, isso não significa necessariamente que tenham admiração por
eles.
"Nunca tive a sensação de que esses agentes pensem por si só", afirma Raia Hadsell, do DeepMind.
Hadsell fez experiências com muitas IAs que encontraram soluções
interessantes e inovadoras para problemas não previstos por ela ou seus
colegas.
Ela destaca que é exatamente por isso que os pesquisadores procuram aperfeiçoar as IAs em primeiro lugar — para que possam alcançar coisas que os humanos não conseguem por conta própria.
E ela argumenta que os produtos que usam inteligência artificial, como
carros autônomos, podem ser rigorosamente testados para garantir que
qualquer imprevisibilidade esteja dentro de certos limites aceitáveis.
"Você pode dar garantias razoáveis sobre o comportamento com base em evidências empíricas", diz ela.
O tempo dirá se todas as empresas que vendem produtos construídos com inteligência artificial são escrupulosas nesse aspecto.
Mas, ao mesmo tempo, é importante observar que as IAs que demonstram
comportamentos inesperados não estão de forma alguma confinadas a
ambientes de pesquisa. Elas já estão atuando em produtos comerciais.
No ano passado, um braço robótico que trabalhava em uma fábrica em
Berlim, desenvolvido pela empresa americana Covariant, apresentou
maneiras inesperadas de classificar os itens à medida que eles passavam
em uma esteira rolante.
Apesar de não ter sido especialmente programada para isso, a
inteligência artificial que controla o braço aprendeu a mirar no centro
dos itens em embalagens transparentes para ajudar a garantir que os
pegaria com sucesso todas as vezes.
Como esses objetos podem se confundir quando se sobrepõem, devido ao
material transparente, mirar com menos precisão significa que o robô
pode não conseguir pegar o item.
"Isso evita a sobreposição de objetos nos cantos e, em vez disso, mira
na superfície mais fácil de agarrar", afirma Peter Chen, cofundador e
presidente-executivo da Covariant.
"Isso realmente nos surpreendeu."
Em paralelo, Hadsell diz que sua equipe testou recentemente um braço
robótico que passa diferentes blocos por meio de orifícios de formatos
variados.
A mão do robô era bastante desajeitada, então a inteligência artificial
que o controlava aprendeu que, pegando e soltando repetidamente o
bloco, poderia colocá-lo na posição certa para então agarrá-lo e
passá-lo facilmente pelo orifício apropriado — em vez de tentar
manobrá-lo usando a garra.
Tudo isso ilustra uma questão levantada por Jeff Clune, da OpenAI, que
recentemente colaborou com pesquisadores do mundo todo para coletar
exemplos de IAs que desenvolveram soluções inteligentes para problemas.
Clune diz que a natureza exploratória da inteligência artificial é fundamental para seu sucesso futuro.
"Conforme estamos ampliando esses sistemas de inteligência artificial, o
que estamos vendo é que as coisas que eles fazem de maneira criativa e
impressionante não são mais curiosidades acadêmicas", afirma.
Como as IAs encontram formas melhores de diagnosticar doenças ou
entregar suprimentos de emergência, elas até salvam vidas graças à sua
capacidade de encontrar novas maneiras de resolver velhos problemas,
acrescenta Clune.
Mas ele acredita que aqueles que desenvolvem tais sistemas precisam ser
abertos e honestos sobre sua natureza imprevisível, para ajudar a
população a entender como a inteligência artificial funciona.
Afinal, é uma faca de dois gumes — a promessa e a ameaça da
inteligência artificial fazem parte do mesmo pacote. O que será que elas
vão inventar a seguir?
------++-====-----------------------------------------------------------------------=================---------------------------------------------------------------------------------====-++------