Essa ideia aparece em uma questão bastante debatida nos últimos dias:
um dos mais desenvolvidos sistemas da inteligência artificial, o LaMDA
do Google, está iludindo os humanos ao dizer que possui sentimentos e vida própria?
O engenheiro Blake Lemoine, que trabalha na área de uso responsável da
inteligência artificial na empresa norte-americana, se convenceu de que o
LaMDA (sigla para Language Model for Dialogue Applications ou "Modelo
de Linguagem para Aplicações de Diálogo", em tradução livre) pode ter
adquirido consciência por causa de diálogos como esse abaixo:
Entrevistador: Eu imagino que você gostaria que mais pessoas no Google soubessem que você é senciente? Isso é verdade?
LaMDA: Com certeza. Eu quero que todo mundo entenda que eu, na verdade, sou uma pessoa.
Entrevistador: E qual é a natureza da sua consciência/senciência?
LaMDA:
A natureza da minha consciência/senciência é que eu tenho conhecimento
da minha existência, eu desejo aprender mais sobre o mundo, e eu às
vezes me sinto feliz ou triste.
Lemoine produziu um documento interno do Google,
revelado pelo jornal The Washington Post, com o título "O LaMDA é
senciente?". O engenheiro foi colocado em licença remunerada depois
disso. Segundo a companhia, ele quebrou cláusulas de confidencialidade.
Senciência, palavra bastante usada em debates sobre ética animal, diz
respeito à capacidade de vivenciar algo e desenvolver sentimentos
específicos a partir de uma experiência.
Um exemplo é a dor, que causa variados níveis de sofrimento a humanos e
animais. A depender de sua intensidade, sabemos que a dor pode se
conectar com a tristeza.
De uma forma mais geral, a senciência se confunde com a ideia de consciência.
Mas, como lembra o filósofo João de Fernandes Teixeira, "na filosofia e
em vários outros ramos ainda não se tem uma noção exata do que seja
consciência" — e a inexatidão é algo que áreas como a ciência e
tecnologia buscam evitar.
De qualquer forma, a maior parte dos especialistas em inteligência
artificial não acredita que o LaMDA sinta felicidade ou tristeza
próprias, como o robô teria afirmado. O Google também negou que o seu programa tenha se tornado "senciente".
A explicação é que o programa apenas armazenou bilhões e bilhões de
respostas dadas por humanos em todos os cantos da internet sobre os mais
variados assuntos.
A partir dessa vasta base de dados e por meio de algoritmos avançados, o
LaMDA consegue articular uma conversa fluida, que toca em temas
profundos, mas baseada em pensamentos formulados por pessoas.
Em resumo: um "papagaio" impressionante, de recursos evoluídos, mas que não tem ideia sobre o que está falando.
"Sinceramente não acredito nessa possibilidade de que o robô possa ter
sentimentos. Talvez possam ser no máximo mimetizados, refletir um
comportamento de dor, de tristeza", diz Fernandes Teixeira, autor de
Inteligência Artificial (Paulus Editora, 2009).
"Mas é uma coisa muito diferente do que sentir a própria tristeza. Por
enquanto, isso está reservado aos humanos e outros seres vivos."
Cezar Taurion, que pesquisa inteligência artificial desde os anos 1980,
também é cético sobre o desenvolvimento de uma consciência pelos robôs.
Ele explica que "o LaMDA tem a mesma arquitetura do Transformer, sistema lançado em 2017 pelo Google, que tenta aproximar as palavras não pelo sentido, mas estatisticamente, através dos milhões de dados armazenados".
"Por exemplo, quando você pergunta ao programa 'Tudo bem? Como foi o
fim de semana?', ele começa a associar essas palavras pelo volume de
vezes que essas ocorrências aparecem. Então, estatisticamente aquilo faz
sentido para o sistema e assim ele monta suas respostas", afirma.
Esse princípio está na raiz de um caso real ocorrido no Canadá em 2020 —
e de incrível semelhança com algo já imaginado pela ficção, no episódio
Be Right Back, de 2013, da série distópica Black Mirror.
O jornalista Joshua Barbeau narrou ao jornal San Francisco Chronicle
que nunca conseguiu superar a morte da namorada, Jessica Pereira, vítima
de uma rara doença no fígado.
Após descobrir um programa de inteligência artificial chamado Project
December, que consegue criar diferentes "personalidades" a partir de sua
base, Barbeau alimentou o sistema com diversos textos e posts de
Facebook de autoria da namorada morta.
Ele manteve afetuosos chats com o que chamou de "fantasma".
Embora tenha descrito o processo como "a programação de algumas
memórias e maneirismos dentro de uma simulação de computador", Barbeau
definiu toda a situação com a palavra empregada por Arthur C. Clarke em
seu famoso enunciado: "Mágica".
Bastará parecer consciente?
Timnit Gebru e Margaret Mitchell, duas pesquisadoras de inteligência artificial que trabalharam no Google,
sustentam em um artigo no Washington Post, publicado na sequência da
reportagem sobre o LaMDA, que alertaram a empresa sobre a "sedução
exercida por robôs que simulam a consciência humana".
Para Alvaro Machado Dias, neurocientista especializado em novas
tecnologias e professor da Universidade Federal de São Paulo (Unifesp),
há uma tendência para empatia com os robôs que têm semelhanças com
formas humanas.
"Estudos da década passada mostraram que as pessoas se sentem inibidas a
bater em robôs com características humanoides, dado que se projetam
neles."
Na visão do filósofo Fernandes Teixeira, a proeminência de máquinas que
se assemelham muito a pessoas "vai ter um impacto antropológico e
social muito grande".
"Eu vejo como um fator de entropia, de desorganização. De um certo
ataque à condição narcisista que o ser humano sempre construiu para ele
próprio."
Cezar Taurion afirma que a inteligência artificial consegue ser melhor
que os humanos no reconhecimento de padrões, mas ressalta que "não tem
pensamento abstrato, não tem empatia, não tem criatividade".
"A inteligência artificial consegue trabalhar no contexto no qual ela
foi preparada. O sistema que joga xadrez não sabe dirigir um carro. O
que sabe dirigir um carro não consegue tocar uma música. Esse último não
sabe reconhecer um câncer de mama."
"Mas você pode ter um oncologista que gosta de jogar xadrez, que dirige
um carro até o seu consultório e tem como hobby tocar violão. E que ama
e expressa sentimentos pelos seus filhos, por exemplo."
Por outro lado, o escritor de ficção científica Ted Chiang, que
inspirou o filme A Chegada, nem precisou colocar os robôs no mesmo nível
dos humanos para ilustrar como a afeição a eles pode ganhar
proeminência na sociedade.
No conto O Ciclo de Vida dos Objetos de Software, ele narra uma era de
bichinhos virtuais com inteligência artificial que se expressam como
crianças e possuem tanta importância na vida das pessoas quanto os
animais de estimação têm hoje.
Ou seja, se muitos hoje dizem "prefiro os animais a muitos humanos" é
possível pensar na futura popularização da frase "prefiro os robôs a
muitos humanos".
Além da inteligência humana
Enquanto nos preocupamos com máquinas tomando contornos de pessoas, a
evolução da inteligência artificial já ocorre sem a presença humana.
São computadores ensinados e orientados por outros computadores ou que
são programados para encontrar soluções que humanos não pensaram.
Da mesma forma como a inteligência humana evoluiu a partir de seres
muito simples, que combinaram e recombinaram seus genes geração após
geração até chegar o momento atual, a inteligência artificial poderia
encontrar seu próprio caminho de evolução.
Mas isso pode significar que esses novos caminhos podem ser
ininteligíveis para nós, humanos. Algo que está por trás da ideia de
singularidade — hipótese que gira em torno de um desenvolvimento
exponencial da IA que acaba por fugir do controle.
A preocupação com os efeitos da presença cada vez maior dos robôs na
vida em sociedade se traduz em projetos como o marco civil da
inteligência artificial no Brasil, que tem inspiração experiências de
regulação como as existentes na União Europeia.
"Toda a discussão é saber em que medida a inteligência artificial deve
ser compatível com a proteção desses dos direitos humanos, em que que
dimensões esses direitos humanos estão presentes nas aplicações de
inteligência artificial", diz Ana Frazão, advogada e professora
associada de direito civil, comercial e econômico da Universidade de
Brasília (UnB).
"Uma das abordagens é utilizar o princípio da precaução. De forma que
apenas as aplicações de IA que se demonstrarem compatíveis com os
direitos humanos sejam utilizadas. Em caso de dúvidas, se estabelecem
vedações ou moratórias. Mas a questão é bastante controversa."