Aguarde...

22 de dezembro de 2023

6 coisas que acontecem quando o Googlebot não consegue rastrear seu site

6 coisas que acontecem quando o Googlebot não consegue rastrear seu site

Um experimento da especialista técnica em SEO Kristina Azarenko revela o que acontece quando você impede o Googlebot de rastrear um site usando robots.txt.

Já se perguntou o que aconteceria se você impedisse o Google de rastrear seu site por algumas semanas? A especialista técnica em SEO Kristina Azarenko publicou os resultados de tal experimento.

Seis coisas surpreendentes que aconteceram. O que aconteceu quando o Googlebot não conseguiu rastrear o site de Azarenko de 5 de outubro a 7 de novembro:

  • O favicon foi removido dos resultados da Pesquisa Google.
  • Os resultados da pesquisa de vídeo foram um grande sucesso e ainda não se recuperaram após o experimento.
  • As posições permaneceram relativamente estáveis, exceto que foram ligeiramente mais voláteis no Canadá.
  • O tráfego teve apenas uma ligeira diminuição.
  • Um aumento nas páginas indexadas relatadas no Google Search Console. Por que? As páginas com meta tags de robôs noindex acabaram sendo indexadas porque o Google não conseguiu rastrear o site para ver essas tags.
  • Vários alertas no GSC (por exemplo, “Indexado, embora bloqueado por robots.txt”, “Bloqueado por robots.txt”).

Por que nos importamos. O teste é um elemento crucial do SEO. Todas as mudanças (intencionais ou não intencionais) podem impactar suas classificações, tráfego e resultados financeiros, por isso é bom entender como o Google poderia reagir. Além disso, a maioria das empresas não é capaz de tentar esse tipo de experimento, então é uma boa informação saber.

Outra experiência semelhante. Patrick Stox, do Ahrefs, também compartilhou os resultados do bloqueio de duas páginas de alta classificação com robots.txt por cinco meses. O impacto na classificação foi mínimo, mas as páginas perderam todos os trechos em destaque.

Postado em BlogTags:
Escreva um comentário