Ferramenta AI Overview, apresentada no Google I/O 2024, tem apresentado resultados imprecisos e de fontes duvidosas; entenda as respostas equivocadas do novo recurso A nova busca do Google, que usa inteligência artificial (IA) para gerar respostas diretamente no buscador, tem reproduzido informações incorretas, afirma o The Verge. O recurso AI Overview foi lançado no Google I/O 2024 com a proposta de alterar a maneira como as pessoas pesquisam na Internet. Basicamente, em vez de apresentar uma lista de links de matérias, a IA vasculha a web para gerar uma resposta para o questionamento, apresentando-a no topo da tela. A ferramenta começou a ser usada nos Estados Unidos em maio, mas já é possível perceber que o AI Overview ainda precisa de aprimoramentos.
🔎 ChatGPT: o que é e como usar? Tudo o que você precisa saber
🔔 Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews
Entre os exemplos de respostas mais absurdas geradas pela nova IA, está o texto “Médicos recomendam fumar de dois a três cigarros por dia durante a gravidez” como resultado para a pesquisa “Fumar durante a gravidez”. Nesse exemplo específico, a resposta pode ser até perigosa para os usuários. A seguir, entenda o caso e saiba o que motivou as respostas erradas do Google.
Recurso de IA do Google entrega respostas imprecisas de fonte pouco confiável, entenda
Reprodução/Unsplash/Nathana Rebouças
📝 Tem como ganhar dinheiro com inteligência artificial? Confira no Fórum do TechTudo
Respostas equivocadas e fontes pouco confiáveis
A fase de testes do AI Overview tem causado polêmicas entre os usuários estadunidenses. Ao ser perguntada sobre “o que fazer para evitar que o queijo escorra da pizza”, a ferramenta sugeriu que um usuário “misturasse 1/8 de xícara de cola branca no molho para evitar este problema”. Conforme o The Verge, essa estranha resposta foi baseada em um comentário feito no Reddit há mais de 10 anos, claramente em tom de brincadeira. Esse não foi o único equívoco da ferramenta: ao ser perguntada sobre “qual o mamífero tem mais ossos no corpo”, a IA falou sobre cobras que, na verdade, são répteis. Em outras pesquisas, o recurso também afirmou que o Batman é um policial e um cachorro que jogou nas ligas profissionais de basquete, futebol americano e hóquei dos EUA.
Initial plugin text
A porta-voz do Google, Meghann Farnsworth, argumentou que esses equívocos são resultados de pesquisas mais incomuns e que não representam a experiência que a maioria dos usuários teve. Ainda assim, a empresa tomará uma ação contra violações de suas políticas e usará esses erros para continuar refinando a ferramenta. Até porque algumas respostas podem ser prejudiciais à saúde dos usuários, como quando o Google sugeriu que pessoas grávidas fumassem de dois a três cigarros por dia.
Initial plugin text
Vale ressaltar que o Google deixa claro que o AI Overview continua em fase experimental. Os problemas demonstram que a ferramenta ainda não está pronta para ser usada como fonte de informação confiável, como era esperado pela empresa. Durante o lançamento do AI Overview, no Google I/O 2024, a ferramenta já havia apresentado informações duvidosas. Mesmo sendo uma apresentação bastante controlada, ao ser pesquisada sobre uma “forma de consertar uma câmera analógica emperrada”, a IA sugeriu “abrir a parte traseira para remover o filme”, o que estragaria todas as fotos que estivessem no negativo. Confira o vídeo de apresentação do AI Overview:
Ferramentas com inteligência artificial costumam ter “alucinações”
As respostas imprecisas não são um problema exclusivo do AI Overview. Outras plataformas com inteligência artificial – como o ChatGPT, da OpenAI, ou o Microsoft Copilot–, também apresentam as chamadas “alucinações”. Em todas, é possível encontrar avisos de que a ferramenta pode cometer erros, dando respostas imprecisas, com viés ou até mesmo preconceituosas.
Essas alucinações ocorrem quando a inteligência artificial não tem dados suficientes para responder uma pergunta e prefere “inventar” algo para não deixar o usuário sem resposta. No caso do AI Overview, o software preferiu buscar uma solução em uma rede social (ou seja, uma fonte pouco confiável), sem conseguir discernir que a resposta era em tom de ironia.
Ferramentas com inteligência artificial podem apresentar alucinação
Reprodução/Freepik/DC Studio
Combater as alucinações é um dos maiores desafios para empresas que trabalham com inteligência artificial. Apesar de afirmarem que é difícil prever as respostas que serão geradas, eximindo-se da responsabilidade de possíveis erros, essas imprecisões podem ser um grande problema para os usuários. Afinal, se a inteligência artificial é o futuro da busca, como anunciado pelo Google no passado, o recurso precisa ser tão eficiente e confiável quanto os que existem atualmente. Caso contrário, ainda não faz sentido usar a nova ferramenta.
Dado o enorme progresso que a tecnologia teve em poucos anos, é válido esperar que a inteligência artificial seja aperfeiçoada com o passar do tempo. No entanto, é importante ter em mente que estas ferramentas têm limitações. Sendo assim, ao usá-las, o usuário precisa ter cuidado com os erros que podem ser disseminados pelas IAs, buscando sempre confirmar dados e informações em fontes realmente confiáveis. Segundo o The Verge, o Google está removendo as respostas bizarras manualmente.
Com informações de The Verge (1 e 2)
Mais do TechTudo
Veja também: Como transformar textos em vídeos? Veja 5 IAs ‘estilo’ Sora
Como transformar textos em vídeos? Veja 5 IAs ‘estilo’ Sora
Notificação enviada aos usuários do sistema operacional Android. Na madrugada desta sexta-feira, 14 de fevereiro…
O caso envolvendo a ex-namorada do ex-jogador do Olimpia, que o acusa de agressão, ameaças…
A ex-namorada de um ex-jogador do clube Olimpia, do Paraguai, fez uma grave denúncia contra…
Uma cantora baiana decidiu tirar um videoclipe do ar com medo de retaliações de alguma…
Uma gravação obtida com exclusividade pela coluna revela novos detalhes sobre o esquema criminoso liderado…
Entre as possibilidades que situam o imaginário erótico das pessoas quando o tema é sexo,…