Gerador de Robots.txt
Gere arquivos robots.txt
User-agent #1
Group allow and disallow paths for one crawler.
Continue com
Mantenha o fluxo em movimento com a pr?xima a??o relacionada.
Privacy & Trust
Disallow
Keep restricted directories and crawl-budget heavy paths visible in one editor.
Sitemap URL
Declare your sitemap location directly in robots.txt.
Crawl Delay
Set crawl delay only when you explicitly need it for a crawler.
robots.txt
Gere arquivos robots.txt
Ferramentas Relacionadas
Gerador de Meta Tags
Gere meta tags HTML para SEO
Previsualizador Open Graph
Pré-visualize sua página nas redes sociais
Gerador de Schema
Gere dados estruturados JSON-LD
Gerador de Sitemap
Gere sitemaps XML
Gerador de meta SEO com IA
Gere meta tags otimizadas para melhor posicionamento em buscadores
Gerador de Slug
Converta texto em slugs para URLs
Como Usar
Cole ou Digite
Insira seu texto, código ou dados na área de entrada.
Escolha as Opções
Selecione a transformação ou formato que deseja aplicar.
Copie o Resultado
Copie a saída para sua área de transferência com um clique.
Por Que Usar Esta Ferramenta
100% Gratuito
Sem custos ocultos, sem planos premium — todos os recursos são gratuitos.
Sem Instalação
Funciona inteiramente no seu navegador. Nenhum software para baixar ou instalar.
Privado e Seguro
Seus dados nunca saem do seu dispositivo. Nada é enviado a nenhum servidor.
Funciona no Celular
Totalmente responsivo — use no seu celular, tablet ou desktop.
Robots.txt: Direcionando Rastreadores Web para Melhor Controle de SEO
Pontos-chave
- O robots.txt é um arquivo de texto simples na raiz do seu site que informa rastreadores web quais páginas acessar ou ignorar.
- É uma recomendação, não uma obrigação — rastreadores bem-comportados (Googlebot) seguem, mas bots maliciosos podem ignorar.
- Bloquear uma página via robots.txt não a remove dos resultados de pesquisa — use meta tags noindex para isso.
O arquivo robots.txt é uma parte fundamental dos padrões web (Protocolo de Exclusão de Robôs) que permite que proprietários de sites se comuniquem com rastreadores web sobre quais partes do site devem ou não ser acessadas. A configuração adequada do robots.txt ajuda a gerenciar orçamentos de rastreamento, proteger áreas privadas e guiar a indexação dos mecanismos de busca.
/robots.txt
Localização padrão do arquivo
Casos de uso
Gerenciamento de orçamento de rastreamento
Evite que mecanismos de busca gastem recursos de rastreamento em páginas sem importância como painéis de administração.
Proteção de ambiente de staging
Bloqueie rastreadores de indexar sites de desenvolvimento ou staging que são publicamente acessíveis.
Prevenção de conteúdo duplicado
Impeça o rastreamento de padrões de URL que geram conteúdo duplicado (filtros, parâmetros de ordenação).
Declaração de sitemap
Especifique a localização do seu XML sitemap para ajudar rastreadores a descobrir todas as páginas importantes.
Dicas práticas
Sempre inclua uma diretiva Sitemap no robots.txt apontando para seu XML sitemap.
Teste seu robots.txt usando o Testador de robots.txt do Google Search Console antes de publicar.
Use regras de user-agent específicas para diferentes rastreadores em vez de apenas regras de curinga (*).
Lembre-se: robots.txt bloqueia o rastreamento, não a indexação. Páginas ainda podem aparecer nos resultados de pesquisa por meio de links externos.
Esta ferramenta é apenas para referência e fins educacionais. Verifique os resultados por conta própria antes de usá-los em situações importantes.