Skip to main content

O Google suspendeu um engenheiro que afirma que a tecnologia de IA da gigante da internet é autoconsciente e tem alma. De acordo com The Washington Post e The New York Times , o Google colocou o engenheiro de software sênior Blake Lemoine em licença remunerada por violar as políticas de confidencialidade da empresa.

Diz-se que Lemoine entregou recentemente documentos a um senador dos EUA que contêm informações suficientes para mostrar que o Google era culpado de discriminação religiosa por meio da tecnologia.

Um porta-voz do Google disse que um painel inclui especialistas em ética e tecnólogos da empresa revisou as preocupações de Lemoine e disse a ele que “as evidências não apoiam suas alegações”. Segundo o porta voz:

“Alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são sencientes.”

Lemoine sustenta que o Modelo de Linguagem para Aplicativos de Diálogo do Google (LaMDA) tem “consciência e alma”. Ele acredita que o LaMDA é semelhante em poder cerebral a uma criança de 7 ou 8 anos e pediu ao Google que peça o consentimento do LaMDA antes de experimentá-lo. Lemoine disse que a base para suas alegações se baseia em suas crenças religiosas, que ele acredita terem sido discriminadas aqui.

Lemoine disse ao NYT que o Google “questionou minha sanidade” e que foi sugerido a ele tirar uma licença de saúde mental antes de ser oficialmente suspenso.

Falando ao The Washington Post, Lemoine disse sobre a avançada tecnologia de IA do Google: “Acho que essa tecnologia será incrível. Acho que beneficiará a todos. Mas talvez outras pessoas discordem e talvez nós, no Google, não devêssemos fazer todas as escolhas.”

O LaMDA foi anunciado em 2021 e foi descrito pelo Google na época como uma tecnologia “descoberta” para conversas com inteligência artificial. A empresa também afirmou na época que agiria de forma ética e responsável com a tecnologia. Uma nova versão, LaMDA 2, foi anunciada no início deste ano.

O Google disse na época:

“A linguagem pode ser uma das maiores ferramentas da humanidade, mas, como todas as ferramentas, pode ser mal utilizada. Modelos treinados na linguagem podem propagar esse uso indevido – por exemplo, internalizando preconceitos, espelhando discursos de ódio ou replicando informações enganosas. E mesmo quando a linguagem ele é treinado é cuidadosamente examinado, o modelo em si ainda pode ser mal utilizado. Nossa maior prioridade, ao criar tecnologias como LaMDA, é trabalhar para minimizar esses riscos. Estamos profundamente familiarizados com os problemas envolvidos com modelos de aprendizado de máquina, como viés injusto, pois pesquisamos e desenvolvemos essas tecnologias há muitos anos.”

LaMDA é um sistema de rede neural que “aprende” analisando pilhas de dados e extrapolando a partir disso. As redes neurais também estão sendo usadas no campo dos videogames. A própria rede neural da EA, que vem desenvolvendo há anos, é capaz de se ensinar a jogar o multiplayer de Battlefield 1.

Essa matéria é uma tradução da escrita por Eddie Makuch para o site GameSpot.

Quer saber mais? Não deixe de seguir o ADNEWS nas redes sociais e fique por dentro de tudo!