Página Indexada, porém bloqueada pelo robots.txt

Olá amigos,

Recebemos um e-mail do Google relatando um problema de Coverage em uma de nossas páginas. O e-mail dizia:

Problemas relacionados a Coverage detectados em lojacore.com.br

Para o proprietário do site lojacore.com.br:

O Search Console descobriu que seu site é afetado por 1 problemas relacionados a Coverage:

Principais erros

Os erros podem impedir que sua página ou seu recurso sejam exibidos nos resultados da Pesquisa. Os seguintes erros foram encontrados no seu site:

Submitted URL blocked by robots.txt

Recomendamos que você corrija esses problemas quando possível para permitir a melhor experiência e cobertura na Pesquisa Google.

Pesquisando mais a fundo, percebi que o erro está no robots.txt onde essa página em específico está bloqueada.

Link da Loja Integrada: http://www.lojacore.com.br/
Página Bloqueada: http://www.lojacore.com.br/vestidos
Falha: Bloqueada pelo robots.txt

Peço ajuda para corrigir esse probleminha, o restante das páginas estão indexadas corretamente. Somente essa que é indexada, porém é bloqueada no processo.

Obrigado,
William

1 curtida

Olá @willdnz, tudo bem?

Estou verificando essa questão com a equipe técnica, e te retorno aqui.

@willdnz

Verifiquei que você é lojista PRO, então vou te pedir para um chamado através do seu painel, ok?

Esse erro que está sendo apresentado uma equipe mais técnica precisa verificar, e por lá o responsável consegue verificar e ter controle do problema. A equipe já está ciente e verificará aguardando o seu contato.

:wink:

Boa tarde
Também recebi um email relatando esse problema:

Indexada, mas bloqueada pelo robots.txt

Primeira detecção: 11/08/2020

Como posso resolver isso?

Obrigado pelo retorno Clara! :wink:
Eu não sei onde acesso para ver o chamado através do painel, até tentei olhar aqui mas também não localizei. Se puder me mostrar o passo a passo já encerro aqui o post e acompanho por lá…

Olá!

A Loja Integrada libera automaticamente o acesso ao robô do Google, então não se preocupe, não há nenhuma configuração específica que precise ser feita nessa parte da plataforma para corrigir essa questão.

Geralmente, esse erro aparece quando esse robô envia uma quantidade muito grande de requests, o que leva a plataforma a identificar um comportamento incomum, retornando esse erro.
Para que funcione corretamente, recomendamos que você faça uma configuração diretamente no Google Search Console, que vai restringir essa taxa de rastreamento do Google. Dê uma olhada neste artigo de ajuda do próprio Google, que vai explicar como fazer essa configuração: Change Googlebot crawl rate - Search Console Help

Depois de aplicar essa mudança, o erro não deve ocorrer mais, mas caso aconteça, por favor nos retorne e vamos verificar outras alternativas!

Olá! O link não funciona… Ainda estou com o problema.

Oi! Me desculpe.