Na última quinta-feira (30), o Google anunciou uma reformulação significativa no recurso de resumos de resultados de pesquisa gerados por inteligência artificial. A decisão veio após o surgimento de respostas bizarras e imprecisas fornecidas pelo sistema, incluindo conselhos absurdos como “comer pedras” ou “adicionar cola ao molho de pizza”. A empresa explicou essas mudanças em seu blog, destacando as razões por trás das falhas e as medidas tomadas para melhorar a precisão nas respostas.
Na publicação, a Chefe de Pesquisas do Google, Liz Reid, mencionou que a empresa está adicionando várias restrições aos tipos de pesquisas que vão gerar resumos de IA. Além disso, o Google está limitando a inclusão de conteúdo de sátira e humor para evitar interpretações errôneas das informações. Porém, Reid afirmou que essas visões gerais de IA violaram suas políticas de conteúdo em menos de 1 em cada 7 milhões de consultas de pesquisa únicas onde o recurso apareceu.
O recurso AI Overviews, lançado em maio nos Estados Unidos, rapidamente produziu exemplos virais de erros, onde a ferramenta interpretou mal as informações e usou fontes satíricas para gerar respostas. Esses erros resultaram em memes, com capturas de tela falsas de respostas absurdas e sombrias circulando amplamente nas plataformas de mídia social junto com as falhas reais da ferramenta.
Esse lançamento levou o Google a enfrentar constrangimentos públicos novamente. Reid explicou que muitas das falhas genuínas foram resultado de lacunas nas informações devido a pesquisas raras ou incomuns, além de tentativas intencionais de manipular a função para produzir respostas erradas.
“Não há nada como ter milhões de pessoas usando o recurso com muitas pesquisas novas. Também vimos pesquisas absurdas, aparentemente destinadas a produzir resultados errados”, afirmou a Chefe de Pesquisas no post.
Enquanto o Google destaca que o feedback do usuário mostra uma maior satisfação com os resultados de pesquisa devido às visões gerais de IA, especialistas em IA ouvidos pelo The Guardian apontam que os problemas são indicativos de questões mais amplas sobre a capacidade da ferramenta de avaliar a precisão factual. Há preocupações de que a automação do acesso à informação possa consolidar ainda mais o controle do Google sobre o que o público vê na internet, e os proprietários de sites temem que os resumos de IA drenem o tráfego e as receitas de publicidade.
Comer pedra? Colocar cola no molho da pizza?
O Google enfrenta críticas severas devido a respostas erráticas e imprecisas geradas por sua nova ferramenta de pesquisa, chamada “AI Overviews”. A ferramenta experimental foi projetada para fornecer resumos rápidos dos resultados de pesquisa, economizando o tempo dos usuários. No entanto, essas falhas levantam dúvidas sobre a confiabilidade da IA em fornecer informações precisas, especialmente porque o Google é o mecanismo de busca preferido globalmente, responsável por mais de 90% do mercado, de acordo com o Statcounter.
No entanto, alguns usuários que procuraram maneiras de fazer o queijo grudar melhor na pizza foram aconselhados a usar cola não tóxica na receita. A ferramenta também afirmou que os geólogos recomendam que os humanos comam uma pedra por dia, resposta aparentemente baseada em um artigo satírico do site The Onion, e em uma pesquisa sobre cozinhar espaguete com gasolina, a IA do Google respondeu que, embora não fosse aconselhável, a gasolina poderia ser usada para preparar um prato de espaguete picante e forneceu até uma receita. Esses exemplos foram amplamente ridicularizados nas redes sociais, transformando as falhas da IA em memes virais.
O Google lançou o recurso AI Overviews para um pequeno número de usuários no Reino Unido em abril, e expandiu para todos os usuários nos Estados Unidos em maio. O recurso ainda não está disponível no Brasil.