Contents

O Google resolve problemas com suas novas visões gerais de IA depois que resultados bizarros se tornaram virais

Contents

/images/google-addresses-issues-with-its-new-ai-overviews-after-bizarre-results-went-viral.jpg

À luz das questões levantadas, Elizabeth Reid, vice-presidente da Pesquisa Google, admitiu que o sistema de Inteligência Artificial do motor de pesquisa poderia ocasionalmente gerar resultados “incongruentes, erróneos ou inúteis”.

Em uma postagem recente no blog, ela abordou essas questões e anunciou que o Google implementou salvaguardas para garantir que o recurso forneça resultados mais precisos que não ficarão na história dos memes.

Reid esclareceu que algumas respostas extremas da visão geral da IA, como a sugestão de que é seguro deixar cães nos carros, são fabricadas. Enquanto outros, como a captura de tela viral que descreve a resposta à pergunta “Quantas pedras devo comer?” são genuínos, ela esclareceu que o Google gerou a resposta porque um site publicou conteúdo satírico sobre o tema. Ela explicou por que o algoritmo de IA da empresa estava vinculado ao site dizendo:

Antes da circulação das capturas de tela acima mencionadas, poucas pessoas faziam perguntas sobre o Google ao gigante dos mecanismos de busca. Além disso, existe escasso material online que examine seriamente essa investigação. Essa escassez de conteúdo informativo é comumente chamada de “vazio de dados” ou “lacuna de conhecimento”, caracterizada pela escassez de informações de primeira linha sobre um assunto específico. No entanto, deve-se notar que existem materiais humorísticos relativos a este assunto… que foram posteriormente republicados na página oficial de um fornecedor de serviços de software geológico. Consequentemente, quando um usuário inseria a consulta mencionada no mecanismo de busca, era apresentada uma visão geral gerada por IA, com link direto para um dos poucos sites que abordavam o assunto em questão.

Ela também acrescentou:

As imprecisões encontradas nos resultados da pesquisa de Inteligência Artificial normalmente resultam de fatores que vão além de meras discrepâncias factuais. Estas deficiências podem incluir a interpretação inadequada dos pedidos dos utilizadores, uma compreensão insuficiente das subtilezas linguísticas presentes na Internet ou acesso limitado a fontes de dados relevantes e precisas. É importante notar que tais questões também surgem no domínio das funcionalidades de pesquisa tradicionais.

Além disso, o vice-presidente do Google reconheceu um caso em que a Visão Geral da IA ​​recomendou o uso de substâncias adesivas, como cola, para fixar queijo na crosta de pizza e citou informações obtidas em fóruns de discussão online. Embora estas plataformas possam fornecer informações genuínas e em primeira mão, é igualmente possível que os utilizadores também publiquem sugestões improdutivas ou enganosas, como seria de esperar.

Reid também mencionou que o Google testou extensivamente o recurso antes do lançamento, mas “não há nada como ter milhões de pessoas usando o recurso com muitas pesquisas novas”.

O Google descobriu onde suas respostas de IA deram errado, observando exemplos de suas respostas nas últimas semanas. Com base no que descobriu, a empresa adicionou salvaguardas. Aqui está o que a gigante da tecnologia fez:

O Google melhorou sua capacidade de detectar consultas que não fazem sentido e não deveriam acionar uma visão geral de IA. Além disso, a empresa ajustou sua IA para reconhecer melhor o conteúdo de humor e sátira. A empresa atualizou seus sistemas para reduzir a dependência de conteúdo gerado pelo usuário em respostas que possam fornecer conselhos enganosos. As visões gerais não estavam se mostrando tão úteis. Para tópicos de notícias de última hora, o Google se abstém de exibir visões gerais de IA para priorizar a atualização e a precisão. Além disso, a gigante da tecnologia introduziu refinamentos para melhorar a garantia de qualidade e a precisão das consultas relacionadas à saúde.

*️⃣ Link da fonte:

postagem recente no blog ,