
Um experimento da especialista técnica em SEO Kristina Azarenko revela o que acontece quando você impede o Googlebot de rastrear um site usando robots.txt.
Já se perguntou o que aconteceria se você impedisse o Google de rastrear seu site por algumas semanas? A especialista técnica em SEO Kristina Azarenko publicou os resultados de tal experimento.
Seis coisas surpreendentes que aconteceram. O que aconteceu quando o Googlebot não conseguiu rastrear o site de Azarenko de 5 de outubro a 7 de novembro:
- O favicon foi removido dos resultados da Pesquisa Google.
- Os resultados da pesquisa de vídeo foram um grande sucesso e ainda não se recuperaram após o experimento.
- As posições permaneceram relativamente estáveis, exceto que foram ligeiramente mais voláteis no Canadá.
- O tráfego teve apenas uma ligeira diminuição.
- Um aumento nas páginas indexadas relatadas no Google Search Console. Por que? As páginas com meta tags de robôs noindex acabaram sendo indexadas porque o Google não conseguiu rastrear o site para ver essas tags.
- Vários alertas no GSC (por exemplo, “Indexado, embora bloqueado por robots.txt”, “Bloqueado por robots.txt”).
Por que nos importamos. O teste é um elemento crucial do SEO. Todas as mudanças (intencionais ou não intencionais) podem impactar suas classificações, tráfego e resultados financeiros, por isso é bom entender como o Google poderia reagir. Além disso, a maioria das empresas não é capaz de tentar esse tipo de experimento, então é uma boa informação saber.
Outra experiência semelhante. Patrick Stox, do Ahrefs, também compartilhou os resultados do bloqueio de duas páginas de alta classificação com robots.txt por cinco meses. O impacto na classificação foi mínimo, mas as páginas perderam todos os trechos em destaque.