Google Lança o DeepRank | Algumas semanas atrás, o Google lançou um excelente filme (como mencionamos em nosso boletim informativo) sobre como funciona a pesquisa.
Recomendamos que você veja o vídeo que está logo abaixo.
Dessa forma, uma parte desse vídeo mostra o lançamento do BERT pelo Google, que foi internamente referenciado como o projeto do Google Lança o DeepRank.
Assim, de forma mais precisa, o Google Lança o DeepRank e obteve “aprovação de lançamento” do Google, estando ativo na Pesquisa Google desde outubro de 2019.
Então, quando o BERT foi lançado em outubro de 2019, o DeepRank foi lançado.
Portanto, podemos confirmar que o DeepRank e BERT são a mesma coisa.
Na verdade, o DeepRank é referenciado a um artigo do Google publicado em 2017.
Logo, o DeepRank está totalmente ativo.
Enquanto isso, o DeepRank / BERT foi lançado inicialmente para 10% das consultas, no ano seguinte o BERT é usado em praticamente todas as consultas.
Por fim, o DeepRank não está apenas ativo, ele está ativo para quase todas as consultas conduzidas por um pesquisador.
- O filme | Google Lança o DeepRank
Aqui está o filme, que remete a discussão em torno do DeepRank, ou seja, o BERT começa por volta de 42:00.
Mas, o porta-voz do Google deixou claro que o vídeo mostrado foi gravado antes da pandemia do Corona Vírus.
Além disso, você pode ver mencionado no vídeo que o DeepRank recebeu a aprovação de lançamento e indo ao ar em outubro de 2019.
Conheça tudo sobre o algoritmo BERT na pesquisa do Google e Google Lança o DeepRank
O Google disse que sua maior atualização de pesquisa mais recente, a inclusão do algoritmo BERT, ajudará a entender melhor a intenção por trás das consultas de pesquisa dos usuários, o que deve significar resultados mais relevantes.
Assim, o BERT terá impacto em 10% das pesquisas, disse a empresa, o que significa que é capaz de afetar a visibilidade orgânica e o tráfego da marca.
Está é a visão sobre o que sabemos até agora sobre o que o Google está promovendo como “um dos maiores avanços na história da Pesquisa”.
Google Lança o DeepRank | Quando o BERT foi lançado na Pesquisa Google?
Primeiramente, o BERT começou a ser implementado na busca do Google em outubro de 2019 para consultas em inglês, incluindo snippets em destaque.
No entanto, o algoritmo se expandirá para todos os idiomas em que o Google oferece busca, mas ainda não há um cronograma definido, disse Danny Sullivan do Google.
Além disso, um modelo BERT também está sendo usado para melhorar os trechos apresentados em duas dezenas de países.
O que é BERT?
Você sabe ao certo o que é BERT?
Dessa forma, BERT significa: Bidirectional Encoder Representations from Transformers, sendo uma técnica baseada em rede neural para pré-treinamento de processamento de linguagem natural.
Assim, no inglês convencional, você pode usar ele para ajudar o Google a discernir melhor o contexto das palavras nas pesquisas.
Por exemplo: nas frases “nove às cinco” e “um quarto às cinco”, a palavra “às” tem dois significados diferentes, podendo ser confuso para os mecanismos.
Ou seja, o BERT é projetado para distinguir essas diferenças e facilitar resultados mais relevantes.
Além disso, qualquer pessoa pode usar o BERT para treinar seu próprio sistema de processamento de linguagem para responder a perguntas ou outras tarefas.
O que é uma rede neural?
As redes neurais de algoritmos são projetadas para o reconhecimento de padrões, para simplificar.
Assim, por categorias no conteúdo da imagem, reconhecer a escrita à mão ou até mesmo prever tendências nos mercados financeiros são coisas mundo real para redes neurais.
Além disso, sem mencionar os aplicativos de pesquisa, como modelos de clique.
Ou seja, eles treinam em conjuntos de dados para reconhecer padrões.
Portanto, o BERT foi treinado usando o corpo de textos simples da Wikipedia, explicou o Google quando o abriu.
O que é processamento de linguagem natural?
O tão conhecido PNL (processamento de linguagem natural) lida com a linguística, tendo como objetivo, permitir que os computadores entendam a forma de comunicação humana.
Por exemplo: vemos o PNL em ferramentas de escuta social, chatbots ou até mesmo nas sugestões de palavras que aparecem para você, no smartphone.
No entanto, por si só, a PNL não é um recurso novo para os mecanismos de pesquisa.
Mas, o BERT, entretanto, representa um avanço em PNL por meio do treinamento bidirecional.
Como funciona o BERT?
O avanço do BERT está na capacidade de treinar modelos de linguagem com base em todo o conjunto de palavras ou frase.
Ou seja, mudando a forma tradicional de treinamento na sequência ordenada de palavras (esquerda para direita, esquerda combinada ou direita para a esquerda e etc).
Dessa forma, o BERT permite que o modelo de linguagem aprenda o contexto da palavra com base nas palavras semelhantes, em vez de apenas na palavra a frente.
Assim, o Google chama o BERT de “profundamente bidirecional” porque as representações contextuais das palavras começam “do fundo de uma rede neural profunda”.
Por exemplo: a palavra “banco” teria a mesma representação de contexto em “conta bancária” e “margem do rio”.
Mas, os modelos contextuais, em vez disso, geram uma representação de cada palavra que é baseada nas outras palavras da frase.
Por exemplo: na frase “Eu acessei a conta bancária”, um modelo contextual unidirecional representaria “banco” com base em “eu acessei”.
No entanto, BERT representa “banco” usando seu contexto anterior e seguinte, “Acessei a conta”.
O Google mostrou vários exemplos de como a aplicação do BERT acaba impactando os resultados.
Por exemplo: consultar “livros de prática de matemática para adultos” anteriormente trazia uma lista de livros da 6ª à 8ª série como resultados orgânicos.
Todavia, com o BERT aplicado, o Google exibe agora uma lista de um livro intitulado “Matemática para adultos” no topo dos resultados.
Veja que no resultado atual desta consulta que o livro para as séries 6 a 8 ainda está classificado, mas agora há livros para adultos de fato.
Por conseguinte, uma alteração no resultado da pesquisa como a acima reflete o novo entendimento da consulta usando o BERT.
Por fim, as listagens específicas para adultos são consideradas mais alinhadas com a intenção do pesquisador.
O Google usa o BERT para dar sentido a todas as pesquisas?
Talvez uma das suas grandes dúvidas, é se dá pra usar o BERT em todas as pesquisas.
Mas, não exatamente.
Nesse sentido, o BERT melhorará a compreensão do Google de cerca de uma em cada 10 pesquisas em inglês nos EUA.
“Particularmente para consultas mais longas e mais conversacionais, ou pesquisas em que preposições como ‘para’ e ‘para’ importam muito para o significado, a Pesquisa será capaz de entender o contexto das palavras em sua consulta”, escreveu o Google em sua postagem no blog.
No entanto, nem todas as consultas são coloquiais ou incluem preposições.
Ou seja, pesquisas de marca e frases mais curtas são apenas dois exemplos de consultas que podem não exigir o PNL do BERT.
Como o BERT impactará meus snippets apresentados?
Como vimos no exemplo acima, o BERT pode afetar os resultados que aparecem nos snippets apresentados quando é aplicado.
Por conseguinte, já em outro exemplo, o Google compara os trechos apresentados para a consulta
“Estacionamento em uma colina sem meio-fio”, explicando: “No passado, uma consulta como esta confundia nossos sistemas.
Ou seja, colocando importância na palavra “meio-fio” e ignorando a palavra “não”, sem entender o quão crítica essa palavra era para responder adequadamente à pergunta.
Portanto, retornaríamos resultados de estacionamento em uma colina com meio-fio.”
Qual é as principais diferenças entre BERT e RankBrain?
Google Lança o DeepRank | Funcionamento do RankBrain
Algumas das capacidades do BERT podem parecer semelhantes ao primeiro método de inteligência artificial do Google para entender consultas, o RankBrain.
Mas, eles são dois algoritmos separados que podem ser usados para informar os resultados da pesquisa.
Assim, disse Eric Enge, Gerente da Perficient Digital: “A primeira coisa a entender sobre o RankBrain é que ele é executado em paralelo com os algoritmos de classificação de pesquisa orgânica normal sendo usado para realizar ajustes nos resultados calculados por esses algoritmos”,
Nesse sentido, o RankBrain ajusta os resultados observando a consulta atual e encontrando consultas anteriores semelhantes.
Logo após, ele analisa o desempenho dos resultados da pesquisa para essas consultas históricas.
“Com base no que vê, o RankBrain ajusta a saída dos resultados dos algoritmos de classificação de busca orgânica”, completou Eric.
Por conseguinte, o RankBrain também ajuda o Google a interpretar as consultas de pesquisa para exibir resultados que podem não conter palavras exatas da consulta.
Por exemplo: o Google conseguiu descobrir que o usuário estava buscando sobre a Torre Eiffel, apesar do nome da torre não aparecer na consulta “altura do ponto de referência em paris”.
Google Lança o DeepRank | Funcionamento do BERT
Seguindo a diante, “O BERT opera de uma forma completamente diferente”, disse Enge.
Além disso, complementa: “Os algoritmos tradicionais tentam examinar o conteúdo de uma página para entender do que se trata e se é relevante”.
No entanto, os algoritmos de PNL tradicionais normalmente só conseguem ver o conteúdo antes de uma palavra.
Ou, apenas o conteúdo depois de uma palavra para um contexto adicional para ajudá-lo a entender melhor o significado dessa palavra.
Assim, o componente bidirecional do BERT é o que o torna diferente.
Dessa forma, como já citado, o BERT analisa o conteúdo antes e depois da palavra para informar sua compreensão do significado e relevância dessa palavra.
Tanto o BERT quanto o RankBrain são usados pelo Google para processar consultas e conteúdo da página para entender o real significado das palavras.
No entanto, o BERT não está aqui para substituir o RankBrain.
O Google pode usar vários métodos para entender uma consulta, o que significa que o BERT pode ser aplicado sozinho, e em conjunto com o RankBrain, qualquer combinação dos mesmos ou não, dependendo do termo de pesquisa.
Portanto, você tire da cabeça a ideia de que o RankBrain quer substituir o BERT, ou vice-versa.
Por fim, que outros produtos do Google podem afetar o BERT?
O anúncio do Google para o BERT refere-se apenas à Pesquisa, no entanto, haverá algum impacto no Assistente também.
Assim, consultas conduzidas no Google Assistant o acionam para fornecer trechos em destaque ou resultados da web da Pesquisa, esses resultados são influenciados pelo BERT.
O Google demostra que o BERT não está sendo usado atualmente para anúncios, mas se for integrado no futuro, pode ajudar a aliviar algumas das variações ruins que atormentam os anunciantes.
Por conseguinte: “Como posso otimizar para o BERT?” Essa não é realmente a maneira de pensar sobre isso
“Não há nada para otimizar com o BERT, nem nada para repensar”, disse Sullivan.
Ou seja, “Nossos fundamentos para recompensar um ótimo conteúdo permanecem inalterados.”, completou ele.
Sendo assim, o conselho do Google sobre uma boa classificação tem sido manter o usuário em mente e criar conteúdo que satisfaça sua pesquisa.
Nesse sentido, como o BERT foi projetado para interpretar essa intenção, faz sentido dar ao usuário o que ele deseja continuar a ser o conselho do Google.
Portanto, nesse momento, “Otimizar” significa que você pode se concentrar mais em uma redação clara, em vez de se comprometer na criação de conteúdo para seu público e a construção de frases lineares para os sistemas.