Gerador de Robots.txt

Gratuito DevTools

Gerador de Robots.txt

Crie um arquivo robots.txt profissional em minutos. Configure crawlers, permissoes e sitemap com preview em tempo real. Ideal para SEO e controle de rastreamento.

6.8k usuarios Atualizado em Mar 2026 4.7/5
Avalie esta ferramenta:
4.7 (891 votos) Obrigado!

Preview

Conteudo do robots.txt:
# Generated by Chipak Tools User-agent: * Allow: / Disallow: /admin/ Crawl-delay: 1 Sitemap: https://example.com/sitemap.xml

Configuracao

Selecione os Crawlers

segundos

Como Usar

Configure seu robots.txt e baixe o arquivo pronto.

1
Adicione o Sitemap
Insira a URL do seu arquivo sitemap.xml.
2
Selecione crawlers
Escolha quais bots de busca incluir nas regras.
3
Configure as regras
Adicione caminhos de Allow e Disallow.
4
Baixe o arquivo
Clique em Baixar e coloque na raiz do seu servidor.

Sobre o Arquivo robots.txt

O arquivo robots.txt instrui os crawlers de search engines (como Google, Bing, etc.) como rastrear seu site. E um arquivo de texto simples que deve ser colocado na raiz do seu dominio (https://seusite.com/robots.txt).

  • User-agent: Especifica qual crawler a regra se aplica (use * para todos)
  • Allow: Permite que o crawler acesse caminhos especificos
  • Disallow: Proibe que o crawler acesse caminhos especificos
  • Crawl-delay: Tempo de espera (em segundos) entre requisicoes
  • Sitemap: URL do seu arquivo sitemap.xml

Robots.txt: Guia Completo para Controlar Crawlers de Busca

Neste artigo
  1. O que e o robots.txt
  2. Sintaxe e diretivas
  3. Principais crawlers
  4. Erros comuns
  5. Boas praticas
  6. Perguntas frequentes

1. O que e o Robots.txt

O arquivo robots.txt e um arquivo de texto simples colocado na raiz de um dominio web que instrui os crawlers (robos de indexacao) de motores de busca sobre quais paginas ou secoes do site podem ou nao podem ser rastreadas.

Ele e parte do Robots Exclusion Protocol (REP), um protocolo informal mas amplamente adotado por todos os grandes motores de busca incluindo Google, Bing, Yahoo e DuckDuckGo.

2. Sintaxe e Diretivas

O robots.txt usa uma sintaxe simples baseada em pares de diretiva:valor:

  • User-agent: Define para qual bot as regras seguintes se aplicam. Use * para todos.
  • Disallow: Proibe acesso ao caminho especificado. Disallow: /admin/ bloqueia toda a pasta /admin/.
  • Allow: Permite acesso a um caminho especifico, mesmo dentro de uma pasta bloqueada.
  • Crawl-delay: Tempo minimo em segundos entre requisicoes do crawler.
  • Sitemap: URL completa do sitemap XML do site.
"O robots.txt nao garante privacidade — ele e uma instrucao, nao uma barreira tecnica. Bots maliciosos podem ignorar o arquivo. Para conteudo sensivel, use autenticacao."

3. Principais Crawlers

Cada motor de busca tem seu proprio crawler com um nome especifico de User-agent:

  • Googlebot: Crawler principal do Google para paginas web
  • Bingbot: Crawler do Bing (Microsoft)
  • Slurp: Crawler do Yahoo
  • DuckDuckBot: Crawler do DuckDuckGo
  • Baiduspider: Crawler do Baidu (China)

4. Erros Comuns

  • Bloquear recursos CSS e JS que o Google precisa para renderizar paginas corretamente
  • Usar robots.txt para esconder paginas que nao deveriam ser indexadas (use meta noindex)
  • Esquecer de atualizar o robots.txt ao fazer mudancas na estrutura do site
  • Confundir Disallow: / (bloqueia tudo) com Allow: / (permite tudo)

5. Boas Praticas

  • Sempre inclua a diretiva Sitemap apontando para seu sitemap.xml
  • Bloqueie apenas conteudo que nao deve ser indexado (admin, logs, backups)
  • Teste seu robots.txt com a ferramenta de teste do Google Search Console
  • Evite um Crawl-delay muito alto — pode prejudicar a indexacao
  • Use comentarios (#) para documentar suas regras

6. Perguntas Frequentes

O robots.txt afeta o ranking no Google?

Sim, indiretamente. Se voce bloquear paginas importantes, elas nao serao indexadas e portanto nao ranqueadas. Tambem pode afetar como o Google distribui o orcamento de rastreamento (crawl budget) do seu site.

Posso ter multiplos grupos User-agent no mesmo arquivo?

Sim. Voce pode criar blocos separados para diferentes bots, cada um com suas proprias regras de Allow/Disallow.

O que acontece se eu nao tiver um robots.txt?

Os crawlers tratam a ausencia do arquivo como permissao para rastrear tudo. O Google nao penaliza sites sem robots.txt.