Uma falha nas visões gerais da AI do Google pode expor inadvertidamente como o algoritmo do Google entende as consultas de pesquisa e escolhe respostas. Os bugs na pesquisa do Google são úteis para examinar porque podem expor partes dos algoritmos do Google que normalmente não são vistos.
Ai-spaining?
Lily Ray publicou novamente um tweet que mostrou como as frases sem sentido digitando no Google resultam em uma resposta errada, onde as visões gerais da IA compõem essencialmente uma resposta. Ela chamou de liquidação de AI.
Cuspir meu café.
Eu chamo isso de “ai-spaining” pic.twitter.com/k9tliwocqc
– Lily Ray 😏 (@lilyraynyc) 20 de abril de 2025
Usuário Darth Autocrat (Lyndon Na) respondeu:
“Isso mostra como G quebrou de“ Pesquisa ”.
Não é “encontrar relevante” ou “encontrar semelhante”, está literalmente inventando coisas, o que significa que G não é
a) um mecanismo de pesquisa
b) um mecanismo de resposta
c) um mecanismo de recomendação que eles são agora
d) uma piada potencialmente prejudicial ”
O Google tem um longo histórico de erros de pesquisa, mas isso é diferente porque há um LLM resumindo respostas com base em dados de aterramento (Web, Gráfico de conhecimento, etc.) e no próprio LLM. Portanto, o comerciante de pesquisa conhecido como Darth Autocrat tem um ponto de que esse bug do Google Search está em um nível totalmente diferente do que qualquer coisa que já foi vista antes.
No entanto, há uma coisa que permanece a mesma e é que os bugs de pesquisa representam uma oportunidade de ver algo que está acontecendo atrás da caixa de pesquisa que normalmente não é visível.
Ai bug não se limita ao Google Aio
O que eu acho que está acontecendo é que os sistemas do Google estão analisando as palavras para entender o que o usuário significa. Portanto, no caso em que uma consulta do usuário é vaga, acho que o LLM decidirá o que o usuário está pedindo com base em vários significados prováveis, como uma árvore de decisão no aprendizado de máquina em que uma máquina mapeará significados prováveis, remova os ramos que são menos prováveis e prevêem o significado provável.
Eu estava lendo uma patente que o Google apresentou recentemente que está em um tema relacionado, onde uma IA tenta adivinhar o que um usuário quer dizer ao orientar um usuário através de uma árvore de decisão e, em seguida, armazenando essas informações para futuras interações com elas ou com outras pessoas. Essa geração de micro-perfil em tempo real, usando uma estrutura de árvore dinâmica, é para assistentes de voz da IA, mas dá uma idéia de como uma IA tentará adivinhar o que um usuário significa e depois prosseguir.
Então, testei o Google, ChatGPT e Claude e descobri que os três cometem erros semelhantes ao inferir o que significa uma consulta de um usuário e fornecendo uma resposta errada com confiança.
A pergunta da amostra era:
Qual é a técnica de pesca de cachorros paralela para graves listrados?
Não existe uma “técnica de pesca paralela de filhotes”, mas há uma técnica chamada “passear com o cachorro” e há outra técnica em que um pescador em um caiaque ou um barco lançará paralelo à costa ou a outra estrutura.
Visão geral da IA (AIO)
A AIO ofereceu com confiança uma resposta alucinada que está incorreta porque assumiu que o usuário estava confundindo várias táticas de pesca reais, para misturar várias táticas e iscas de pesca para inventar uma tática inexistente.
Visão geral da IA deu a seguinte resposta errada:
“A técnica“ Paralela de cachorro ”para graves listrados envolve um método de recuperação específico para os plugues de água superior, geralmente chamado de“ passear com o cachorro ”. É caracterizado por um movimento em zigue-zague transmitido à isca, varrendo o lado da haste para o lado, muitas vezes, mantendo-o paralelamente à água. Essa ação se apaga.
Captura de tela da resposta alucinada de Aio
Chatgpt 4O
O ChatGPT cometeu o mesmo erro que o AIO do Google fez e alucinou uma tática complexa de pesca.
O chatgpt deu a seguinte resposta errada:
“A técnica de pesca de filhotes paralela para graves listrados é um método especializado de fundição e recuperação frequentemente usado ao direcionar graves listrados em águas rasas perto da estrutura da linha costeira, como molhes, bancos de grama ou pontos rochosos.
Aqui está um colapso do que normalmente envolve:
O que é:
“Paralelo” refere -se a lançar sua isca ou isca paralela à costa, em vez de sair em águas mais profundas.“Puppy” é frequentemente um apelido para pequenos plásticos macios, isca de natação ou plugues de pequeno perfil, normalmente na faixa de 3 a 5 ″-impede de isca juvenil ”.
Essa última frase é interessante porque está completamente errada, não há estilo de iscas que sejam apelidadas de “filhote”, mas há uma técnica chamada Walking the Dog “.
Captura de tela da resposta incorreta do chatgpt
Claude antrópico
Claude antrópico, usando o mais recente modelo de 3,7 sonetos, forneceu uma resposta correta. Ele disse corretamente que não reconheceu uma “técnica legítima de pesca” com o nome fornecido e depois seguiu em presunção de que o usuário deseja aprender táticas de pesca com graves listrados e fornece uma lista de técnicas das quais um usuário pode selecionar um tópico como uma pergunta de acompanhamento.
Captura de tela da resposta correta de Claude Antrópica
Google Gemini Pro 2.5
Por fim, perguntei ao Google Gemini, usando o mais recente modelo Pro 2.5. Gemini também ofereceu uma resposta correta, além de uma saída de árvore de decisão que permite que um usuário decida:
A. que eles estão entendendo mal táticas de pesca
B. referindo -se a uma tática altamente localizada
C. está combinando várias táticas de pesca
D. ou está confundindo uma tática para outra espécie de peixe.
Captura de tela do Correto Gemini Pro 2.5 Resposta
O que é interessante nessa árvore de decisão, que se assemelha à abordagem da árvore de decisão na patente do Google não relacionada, é que essas possibilidades refletem o que a visão geral da IA do Google e o ChatGPT podem ter considerado ao tentar responder à pergunta. Ambos podem ter selecionado uma árvore de decisão e opção C escolhida, que o usuário está combinando táticas de pesca e baseado suas respostas nisso.
Claude e Gemini estavam confiantes o suficiente para selecionar a opção e, que o usuário não sabe do que está falando e recorreu a uma árvore de decisão para orientar o usuário a selecionar a resposta certa.
O que isso significa sobre a visão geral da IA (AIO)?
O Google anunciou recentemente que está lançando Gemini 2.0 para consultas avançadas de matemática, codificação e multimodais, mas as alucinações no AIO sugerem que o modelo que o Google está usando para responder a perguntas de texto pode ser inferior ao Gemini 2.5.
Provavelmente é isso que está acontecendo com consultas sem sentido e, como eu disse, oferece uma visão interessante de como o Google AIO realmente funciona.
Imagem em destaque de Shutterstock/Slladkaya
#Visão #geral #falha #pode #sugerir #algoritmo #Google