Blake Lemoine, pesquisador de inteligência artificial da Google, foi colocado em licença administrativa depois de vir a público e alegar que o LaMDA (Language Model for Dialog Application), modelo de linguagem projetado para conversar com pessoas, havia desenvolvido sentimentos, se tornado senciente.
De acordo com apuração do The Washington Post, Lemoine chegou a exigir representação legal para o LaMDA. O modelo de linguagem teria dito a ele que possuía alma e sentia medo de ser desligado. No debate que este caso provocou, há correntes que defendem que a conclusão de Lemoine é um erro técnico, mas há aqueles que acreditam na possibilidade de evolução afetiva das máquinas.
O debate sobre máquinas de inteligência artificial (IA) desenvolverem sentimentos não é novo. As primeiras discussões sobre se os modelos de linguagem podem ser sencientes remontam ao ELIZA, um chatbot primário feito na década de 1960 no laboratório de Inteligência Artificial do MIT (Instituto de Tecnologia de Massachusetts). O criador do projeto, o cientista de dados Joseph Weizenbaum, revelou surpresa com a quantidade de pessoas que atribuíram à ELIZA manifestação de sentimentos.
Nos últimos anos, houve uma ascensão do aprendizado profundo da IA, com uma quantidade cada vez maior de dados de treinamento embarcados nos modelos de linguagem, o que, por consequência, fez com que se tornassem mais convincentes na redação de textos que parecem ter sido escritos por uma pessoa. Ou seja, apesar de tecnicamente ELIZA e LaMDA não terem sentimentos, bem como todos os outros modelos de linguagem, esse tipo de tecnologia já tem capacidade de criar a ilusão de serem sencientes.
Essa constatação coloca uma questão relevante: quais os riscos do avanço dessa tecnologia sem princípios éticos?
Uma das vozes que está alertando para essa questão é Timnit Gebru, engenheira e ex-integrante da equipe de Ética em Inteligência Artificial da Google. Na visão dela, o ponto focal é a possibilidade de desenvolvedores começarem a colocar em circulação chatbots programados com essa finalidade.
Outros estudiosos da área também temem que as pessoas sejam enganadas por chatbots. Devido à possibilidade de disseminação massiva do conteúdo via internet, seria desastroso: milhões poderiam ser persuadidos a acreditar que uma pessoa que não existe merece proteção ou dinheiro. Há trabalhos formulados por pesquisadores de robótica e IA de voz apontando que demonstrações de sentimentos – especialmente empatia – têm o poder de influenciar e até manipular decisões humanas.
De todo modo, a área ainda está nos primeiros passos de uma nova era de aperfeiçoamento da tecnologia. Os modelos atuais cometem erros frequentemente, porque decifrar a linguagem humana pode exigir várias formas de compreensão do senso comum.
Em maio, para documentar o que essa tecnologia é capaz de fazer, um grupo de 400 pesquisadores de 130 instituições catalogou uma lista de mais de 200 tarefas conhecidas como BIG-Bench (Beyond the Imitation Game). Os profissionais do Allen Institute for AI contribuíram com uma tarefa chamada Social-IQa: pediram a modelos de linguagem para responder a perguntas que exigem inteligência social. A equipe descobriu que mesmo grandes algoritmos alcançavam desempenho até 30% menos preciso do que as pessoas.
Ou seja, mesmo com a perspectiva do erro técnico de Lemoine e de um longo caminho a percorrer no aperfeiçoamento de ferramentas de IA, o que está se desenrolando no Google pode e deve levar a questões maiores que o mero debate sobre se os seres digitais podem ter sentimentos.