Google Search está crescendo, e seu futuro é tudo sobre contexto.
Por um tempo, o Google ofereceu muito mais do que os "dez links azuis" com os que eles começaram, incluindo imagens, vídeos, mapas, compras e outros filtros.
Em seu recente evento Search On, a empresa esboçou a próxima fronteira de busca, que eles esperam reunir esses formatos para dar respostas mais detalhadas.
Aprendizado de máquina desempenhará um papel crucial
O Modelo Unificado Multitarefa (MUM) do Google ajudará a adicionar contexto para oferecer resultados mais abrangentes. Alguns exemplos incluem:
Oferecendo caixas "Coisas para saber" sobre uma determinada pesquisa, apontando para diferentes subtópicos para explorar;
Retornando subseções de vídeos que se relacionam com uma determinada pesquisa;
Mostrando o inventário disponível nas lojas locais para pesquisas relacionadas a compras;
Embora esse novo nível de granularidade possa tornar o Google Search ainda melhor, há uma pegadinha.
Para obter melhores pesquisas, os usuários precisam dar ao Google mais informações
Uma maneira que o Google espera que isso aconteça é através do aumento do uso do Google Lens, seu software de reconhecimento de imagem que permite que os usuários procurem itens através de sua câmera. Para isso, o Google está tornando o Lens mais fácil de encontrar e usar por:
Construindo funcionalidades do Lens no aplicativo do Google no iOS;
Adicionando lens ao navegador Chrome em desktops.
Ao coletar mais pesquisas em textos, imagens e vídeos, o Google acredita que será capaz de ajudar os usuários a encontrar exatamente o que precisam.
Mas há desvantagens
Com expectativas mais altas, o Google estará sob mais pressão para entregar os resultados perfeitos de pesquisa.
Essa dinâmica - anteriormente referida como o problema de "uma resposta verdadeira" - abre as portas para críticas sobre preconceitos, o que é especialmente complicado no contexto de controvérsias recentes em torno dos vieses de IA da empresa.
Comments