Free2Box
Gerador de Robots.txtTI e DesenvolvimentoInstant browser workflowFocused single-task utilityNo setup required

Gerador de Robots.txt

Gere arquivos robots.txt

Add Rule: 1Disallow: 2robots.txtAllow1robots.txt4
Gerador de Robots.txt
Gere arquivos robots.txt

User-agent #1

Group allow and disallow paths for one crawler.

robots.txt
1 rule groups, 1 allow paths, 2 disallow paths.

Continue com

Mantenha o fluxo em movimento com a pr?xima a??o relacionada.

Add Rule1Allow1Disallow2Sitemap URLAinda sem resultado
Privacy & Trust

Disallow

Keep restricted directories and crawl-budget heavy paths visible in one editor.

Sitemap URL

Declare your sitemap location directly in robots.txt.

Crawl Delay

Set crawl delay only when you explicitly need it for a crawler.

robots.txt

Gere arquivos robots.txt

4 lines generated with 1 crawler groups.

Como Usar

1

Cole ou Digite

Insira seu texto, código ou dados na área de entrada.

2

Escolha as Opções

Selecione a transformação ou formato que deseja aplicar.

3

Copie o Resultado

Copie a saída para sua área de transferência com um clique.

Por Que Usar Esta Ferramenta

100% Gratuito

Sem custos ocultos, sem planos premium — todos os recursos são gratuitos.

Sem Instalação

Funciona inteiramente no seu navegador. Nenhum software para baixar ou instalar.

Privado e Seguro

Seus dados nunca saem do seu dispositivo. Nada é enviado a nenhum servidor.

Funciona no Celular

Totalmente responsivo — use no seu celular, tablet ou desktop.

Robots.txt: Direcionando Rastreadores Web para Melhor Controle de SEO

Pontos-chave

  • O robots.txt é um arquivo de texto simples na raiz do seu site que informa rastreadores web quais páginas acessar ou ignorar.
  • É uma recomendação, não uma obrigação — rastreadores bem-comportados (Googlebot) seguem, mas bots maliciosos podem ignorar.
  • Bloquear uma página via robots.txt não a remove dos resultados de pesquisa — use meta tags noindex para isso.

O arquivo robots.txt é uma parte fundamental dos padrões web (Protocolo de Exclusão de Robôs) que permite que proprietários de sites se comuniquem com rastreadores web sobre quais partes do site devem ou não ser acessadas. A configuração adequada do robots.txt ajuda a gerenciar orçamentos de rastreamento, proteger áreas privadas e guiar a indexação dos mecanismos de busca.

/robots.txt

Localização padrão do arquivo

Casos de uso

1

Gerenciamento de orçamento de rastreamento

Evite que mecanismos de busca gastem recursos de rastreamento em páginas sem importância como painéis de administração.

2

Proteção de ambiente de staging

Bloqueie rastreadores de indexar sites de desenvolvimento ou staging que são publicamente acessíveis.

3

Prevenção de conteúdo duplicado

Impeça o rastreamento de padrões de URL que geram conteúdo duplicado (filtros, parâmetros de ordenação).

4

Declaração de sitemap

Especifique a localização do seu XML sitemap para ajudar rastreadores a descobrir todas as páginas importantes.

Dicas práticas

Sempre inclua uma diretiva Sitemap no robots.txt apontando para seu XML sitemap.

Teste seu robots.txt usando o Testador de robots.txt do Google Search Console antes de publicar.

Use regras de user-agent específicas para diferentes rastreadores em vez de apenas regras de curinga (*).

Lembre-se: robots.txt bloqueia o rastreamento, não a indexação. Páginas ainda podem aparecer nos resultados de pesquisa por meio de links externos.

Esta ferramenta é apenas para referência e fins educacionais. Verifique os resultados por conta própria antes de usá-los em situações importantes.

Perguntas Frequentes