Vazamento massivo de algoritmo de pesquisa do Google: o que os editores devem saber

Publicados: 2024-06-10

Você deve ter ouvido falar do vazamento da documentação do algoritmo de pesquisa do Google no início de 2024, revelando 14.014 atributos de classificação. Esses atributos mostram que o Google pode não ser totalmente honesto sobre alguns fatores de classificação de pesquisa.

Esse sigilo não é novo, mas esse vazamento é significativo para editores que dependem do tráfego de pesquisa.

Resumo de vazamento

Em 13 de março de 2024, um bot automatizado chamado yoshi-code-bot lançou o Content API Warehouse interno do Google no GitHub.

Rand Fishkin, cofundador da SparkToro, e Michael King, CEO da iPullRank, analisaram extensivamente esses documentos, detalhando seu processo de descoberta e análise.

Você pode ler as postagens de Fishkin e King para mais detalhes.

O que o vazamento revela

Mais de 14 mil atributos de classificação

Em março de 2024, o algoritmo de classificação do Google consistia em 2.596 módulos e 14.014 atributos. Embora o peso exato desses recursos não seja especificado, sua existência fornece informações sobre as considerações de classificação do Google.

Não sabemos quais atributos são priorizados, mas sabemos que eles influenciam os resultados da pesquisa.

Autoridade do site e questão da marca

O Google afirmou anteriormente que a autoridade do site não afeta as classificações das páginas, o que implica que novos sites e blogueiros podem competir igualmente com marcas maiores.

No entanto, o vazamento revela um atributo chamado “siteAuthority”, indicando que o Google considera a autoridade geral do domínio. Isso sugere que sites com maior autoridade de domínio ou marcas maiores têm melhores chances de classificação do que sites menores e mais novos.

Reclassificação de funções e atributos

Twiddlers são algoritmos de reclassificação executados entre atualizações importantes, afetando as classificações SERP. Seu conteúdo pode ser promovido ou rebaixado com base em:

  1. Registros de cliques – Mais cliques “bons” significam uma posição mais alta.
  2. Atualização – o conteúdo mais recente tem classificação mais elevada.
  3. Incompatibilidade de âncora – Links que não correspondem ao site de destino são rebaixados.
  4. Rebaixamento SERP – Sinais do SERP sugerindo que a insatisfação do usuário leva ao rebaixamento.
  5. Rebaixamentos de localização – páginas “globais” e “superglobais” podem ser rebaixadas, indicando a tentativa do Google de classificar as páginas com base na localização.
  6. Rebaixamentos pornográficos – Rebaixamentos óbvios para conteúdo adulto.

Links são cruciais

A diversidade e a relevância dos links são fundamentais e o PageRank continua sendo um fator significativo. O PageRank da página inicial de um site é considerado para todos os documentos.

Isso significa que os links são importantes. Mas simplesmente não sabemos exatamente como esses recursos são ponderados.

O título da página pode fazer ou quebrar

O título da página deve corresponder aos termos de pesquisa para obter uma classificação mais elevada. O Google usa um recurso chamado titlematchScore para medir até que ponto o título de uma página corresponde a uma consulta.

A pontuação EEAT pode não ser real

Embora o Google rastreie autores na web e em um site, não há nenhum atributo ou módulo que destaque especificamente como o Google mede experiência, conhecimento, autoridade e confiabilidade (EEAT). Parece que apenas o autor e a biografia do autor são importantes."

“Estou um pouco preocupado que o EEAT seja 80% propaganda e 20% substância”, disse Fishkin.

Outras descobertas interessantes

  1. Dados do Chrome para classificação: um módulo chamado ChromeInTotal indica que o Google usa dados de seu navegador Chrome para classificação.
  2. Domínios de navegação e correspondência exata: navegação deficiente e domínios de correspondência exata podem diminuir sua classificação.
  3. Versões da página: o Google armazena as últimas 20 versões de suas páginas da web. Para ter uma “lousa em branco”, pode ser necessário atualizar sua página mais de 20 vezes, embora a extensão das alterações necessárias não seja clara.
  4. Tamanho da fonte e espessura do texto: o Google rastreia o tamanho da fonte dos links e a espessura do texto. Links maiores são positivos e o texto em negrito é lido de forma diferente, o que também melhora a acessibilidade.
  5. Pontuação de preenchimento de palavras-chave: o Google rastreia o preenchimento de palavras-chave em sites. O excesso de palavras-chave ainda é ruim.
  6. Classificação do site de vídeo: se os vídeos estiverem em mais de 50% das páginas de um site, ele é classificado como site de vídeo. Não está claro se esses vídeos precisam ser indexados, em uma área específica da postagem, ou carregados nativamente.
  7. Conteúdo YMYL: O conteúdo Your Money, Your Life (YMYL), incluindo tópicos médicos, financeiros e de saúde/segurança, tem um sistema de pontuação separado.
  8. Visão geral da IA: o conteúdo da IA ​​e o uso da ferramenta de IA não são mencionados no documento.
  9. Links internos: Não há menção clara de links internos como atributo.
  10. Listas de permissões para tópicos específicos: Três tópicos têm "listas de permissões" que exigem aprovação para serem compartilhados: viagens, Covid e política. Não está claro se são para SERPs gerais, seção de viagens do Google ou widgets relacionados.
  11. Identificação do autor: o Google pode identificar autores e tratá-los como entidades, o que significa que construir uma influência online como autor pode beneficiar as classificações.



Lista de verificação de SEO para editores pós-vazamento

1. Diversifique backlinks

Os editores já valorizam o backlinking e viram seu impacto positivo nas classificações SERP. Este vazamento confirma a importância de uma estratégia sólida de backlinking.

  • Crie backlinks de alta qualidade para suas páginas.
  • Certifique-se de que os backlinks venham de uma variedade de domínios relevantes.
  • Faça disso uma prática contínua.
  • Não se preocupe com trocas de links com sites aos quais você criou links; nenhum módulo sugere que o Google rastreie essa prática.
  • Concentre-se em evitar links de baixa qualidade de novos sites com baixa autoridade de domínio e pouco conteúdo.

2. Combine títulos de páginas com palavras-chave

Melhorar os títulos das páginas para SEO é outra prática bem conhecida entre os editores para aumentar as classificações.

  • Palavras-chave continuam cruciais.
  • Evite o excesso de palavras-chave, mas use títulos claros que incluam palavras-chave relevantes.

3. Aumente a autoridade do domínio

Aumentar a autoridade do domínio pode ser um desafio, especialmente para editores de pequeno e médio porte.

  • A alta autoridade de domínio é essencial para a classificação de determinadas palavras-chave.
  • Impulsione publicando mais conteúdo, obtendo backlinks de alta qualidade e promovendo suas páginas em plataformas sociais.

4. Atualize seu conteúdo AGORA

O vazamento confirmou pelo menos três atributos baseados em data para medir o frescor:   bylineDate , syntacticDate e semanticDate .

  • A atualização afeta significativamente as classificações da página.
  • Atualize o conteúdo antigo atualizando títulos de páginas, imagens, pontos de dados e outros aspectos para dar-lhe uma aparência renovada.

5. Continue usando ferramentas de IA para melhorar seu conteúdo

Os editores não precisam hesitar em usar ferramentas de IA.

  • Em março de 2024, não havia menção ao fator IA.
  • Sinta-se à vontade para usar suas ferramentas de IA preferidas para refinar seu conteúdo para seu público.

Como a Admiral capacita os editores a melhorar o desempenho de pesquisa

A velocidade da página, a experiência do visitante e a classificação são aspectos críticos do negócio de publicação online. A Admiral busca um alto padrão de desempenho e ajuda os editores das seguintes maneiras:

  1. Uma tag é melhor que cinco: a solução horizontal de envolvimento do visitante com uma tag da Admiral pode eliminar a necessidade de múltiplas tags e fornecedores para aprimorar todos os pontos de contato do visitante. Em vez de soluções separadas para assinaturas, recuperação de adblock, inscrições em boletins informativos, doações, registros, consentimento, mídia social, etc., os editores podem manter o código breve e rápido com a abordagem de tag única da Admiral.

  2. Compromisso de velocidade da página: o Admiral monitora vigilantemente o desempenho e o impacto da tag. A Admiral contratou vários especialistas em testes terceirizados para medir o impacto nas medidas Core Web Vitals para clientes que usam a tag Admiral e escreveu white papers mostrando os resultados detalhados.

  3. Crescente relacionamento e retenção de visitantes: a solução Visitor Relationship Management (VRM) da Admiral ajuda os editores a aumentar a retenção e o envolvimento com seus visitantes. O Almirante VRM impulsiona mais seguidores sociais, inscrições em boletins informativos, doações, assinaturas ou compartilhamento de dados próprios. Isso resulta em visitantes mais leais e engajados ao longo do tempo, mais visualizações de página e sinais adicionais do valor do site para o algoritmo do Google.

  4. Compartilhando melhores práticas: a Admiral mantém foco em fatores de classificação de pesquisa e notícias, compartilhando insights e dicas úteis com nossos clientes, como:

    • SEO na era da IA: o que os editores digitais precisam saber

    • Atualização de conteúdo útil do Google
    • Google lança guia para sistemas de classificação de pesquisa

Quer dicas gratuitas para ajudar a expandir seu negócio?

Assine o Diário do Almirante; um resumo de ideias para aumentar as receitas dos editores e aumentar o envolvimento dos visitantes.