Case: Como problemas de servidor impactam em SEO?
Prestar atenção nas taxas de rastreamento garante mais saúde para o seu site, gerando melhores resultados.
A maioria dos profissionais de SEO possuem um grande cuidado com a produção e qualidade dos conteúdos, linkagem interna entre as páginas e total atenção para os elementos padrões on-page. O grande pecado, entretanto, é esquecer de prestar atenção nas estatísticas de rastreamento, responsáveis por indicar a atividade dos buscadores dentro das páginas.
Nesse case, vamos nos aprofundar um pouco mais em um projeto que sofria de um erro crítico de rastreamento, onde em média 35% das tentativas de rastreamento realizadas pelo Google falhavam, como mostra o gráfico abaixo:
Ao identificar essa falha, ocorreu uma análise completa nas tentativas de rastreamento feitas pelo Google. Uma das ferramentas utilizadas foi o Bot Simulator, que simula a atividade do Googlebot e exibe um status de sucesso ou falha.
Quais foram as hipóteses levantadas para a causa dos problemas?
- Infraestrutura vulnerável, que apresentava falhas de segurança ao servidor;
- Possíveis bloqueios do Googlebot por parte de serviços utilizados como o Cloudflare;
- Baixa memória alocada, gerando sobrecarga em razão dos acessos e ocasionando indisponibilidades de servidor.
Tendo as hipóteses mapeadas, cada um dos itens foi corrigido com as respectivas iniciativas:
- Construção de uma nova infraestrutura com mais protocolos de segurança e livre de vulnerabilidades;
- Revisão das regras de serviços para garantir que não houvesse bloqueios de mecanismos de busca;
- Utilização de servidor escalável com memória alocada automaticamente conforme os acessos aumentam.
Quais foram os times envolvidos nessas atividades?
- Desenvolvimento
- Infraestrutura
- Segurança
- SEO
Após a normalização desses pedidos de rastreamento onde a taxa de falhas foi zerada, os resultados positivos começaram a aparecer:
O maior reflexo dessas correções está no gráfico abaixo. Após o retorno da evolução de posicionamento, o tráfego voltou a subir. Em pouco mais de dois meses após as correções, o crescimento de tráfego orgânico superou os 30%.
Além de todo cuidado com os pedidos de rastreamento, é indicado também também acompanhar as demais estatísticas de rastreamento dentro do Search Console, dessa forma, é possível manter um maior controle sobre o crawl budget, principalmente se você estiver atuando em um site de grande porte. Isso é importante para que o Googlebot não invista esforços de forma desnecessária.
Garantindo um website sem falhas de rastreamento, você melhora a qualidade do seu site e faz com que seja mais fácil para os buscadores encontrarem os seus conteúdos, com isso, seus resultados em SEO tendem a crescer de forma constante.
Gostou do case? Compartilhe e enriqueça a comunidade de SEO :)