Free2Box
Robots.txtジェネレーターIT & 開発者ツールInstant browser workflowFocused single-task utilityNo setup required

Robots.txtジェネレーター

robots.txtファイルを生成

Add Rule: 1Disallow: 2robots.txtAllow1robots.txt4
Robots.txtジェネレーター
robots.txtファイルを生成

User-agent #1

Group allow and disallow paths for one crawler.

robots.txt
1 rule groups, 1 allow paths, 2 disallow paths.

次に進む

関連する次のアクションでワークフローを続けます。

Add Rule1Allow1Disallow2Sitemap URLまだ結果はありません
Privacy & Trust

Disallow

Keep restricted directories and crawl-budget heavy paths visible in one editor.

Sitemap URL

Declare your sitemap location directly in robots.txt.

Crawl Delay

Set crawl delay only when you explicitly need it for a crawler.

robots.txt

robots.txtファイルを生成

4 lines generated with 1 crawler groups.

使い方

1

テキストを貼り付けまたは入力

テキスト、コード、またはデータを入力エリアに入力します。

2

オプションを選択

適用する変換やフォーマットを選択します。

3

結果をコピー

ワンクリックで出力をクリップボードにコピーします。

このツールを使う理由

完全無料

隠れたコストもプレミアムプランもありません — すべての機能が無料です。

インストール不要

すべてブラウザで実行されます。ソフトウェアのダウンロードやインストールは不要です。

プライベート&安全

データはデバイスの外に出ることはありません。サーバーにアップロードされることはありません。

モバイル対応

完全レスポンシブ対応 — スマートフォン、タブレット、デスクトップで利用できます。

robots.txt入門:Webクローラーのアクセスを適切に制御する方法

要点まとめ

  • robots.txtはサイトのルートに配置するテキストファイルで、クローラーにアクセス許可・拒否の指示を与える。
  • robots.txtは紳士協定であり、Googlebotなど主要クローラーは従うが、悪意のあるボットは無視する可能性がある。
  • robots.txtでのブロックはクロールを防ぐだけで、検索結果からの除外にはnoindexメタタグが必要。

robots.txtファイルは、Robots Exclusion Protocolに基づくWeb標準の一部で、サイト管理者がクローラーに対してアクセスの可否を伝えるための仕組みです。適切なrobots.txtの設定により、クロールバジェットの効率化、ステージング環境の保護、重複コンテンツの回避が可能になります。

/robots.txt

標準ファイルパス

活用シーン

1

クロールバジェット管理

管理画面やフィルターページなど不要なページへのクロールを制限し、リソースを節約する。

2

ステージング環境の保護

公開前のテスト環境が検索エンジンにインデックスされないようにブロックする。

3

重複コンテンツの防止

ソートやフィルターで生成される重複URLパターンのクロールを制限する。

4

サイトマップの宣言

robots.txt内でXMLサイトマップのURLを指定し、クローラーの発見を支援する。

実用テクニック

robots.txtには必ずSitemapディレクティブを含め、XMLサイトマップの場所を明示する。

公開前にGoogle Search Consoleのrobots.txtテスターで動作を検証する。

ワイルドカード(*)だけでなく、特定のUser-agent向けのルールも個別に設定する。

robots.txtはクロールを制御するだけであり、外部リンク経由でページが検索結果に表示される可能性がある。

本ツールは参考・教育目的のみです。重要な場面で使用する前に、結果をご自身で検証してください。

よくある質問