robots.txtジェネレーター

テンプレートから選択するか、GUIでルールを編集してrobots.txtを生成。指定URLのクロール許可テストも可能です。

ルール編集

ルール #1

Googlebot は Crawl-delay を無視します。Bingbot などで有効。

生成結果

User-agent: *
Disallow: /admin/
Disallow: /api/
Disallow: /private/
Allow: /

Sitemap: https://example.com/sitemap.xml

クロール許可テスト

URLパスを入力して、現在のルールでクロールが許可されるか確認します。

• robots.txt はサイトのルートディレクトリに配置します

• 例: https://example.com/robots.txt

• 変更後は Google Search Console の「robots.txt テスター」で検証することを推奨します

robots.txtとは

robots.txtは、検索エンジンのクローラー(Googlebot、Bingbotなど)に対して、 サイト内のどのページをクロールしてよいか・してはいけないかを指示するテキストファイルです。 サイトのルートディレクトリ(https://example.com/robots.txt)に配置します。

適切なrobots.txtの設定により、管理画面やAPIエンドポイントなど 公開する必要のないページのインデックスを防止し、クロールバジェットを重要なページに集中させることができます。

最近ではGPTBot(OpenAI)やCCBot(Common Crawl)など、AIクローラーのブロック設定も重要になっています。 このツールではこれらのUser-agentも簡単に設定できます。

robots.txtの書き方

robots.txtは以下のディレクティブで構成されます:

  • User-agent: 対象のクローラーを指定(*は全クローラー)
  • Disallow: クロールを拒否するパスを指定
  • Allow: Disallowの例外として許可するパスを指定
  • Sitemap: サイトマップのURLを指定
  • Crawl-delay: クロール間隔を秒で指定(Googlebotは無視)

このツールの使い方

  • テンプレート(WordPress / Next.js / 静的サイトなど)を選んで開始します
  • ルールを追加・編集して、Allow/Disallowパスを設定します
  • Sitemap URLを入力して、クローラーにサイトマップの場所を伝えます
  • 「クロール許可テスト」でURLパスを入力し、ルールが意図通りか確認します
  • 「コピー」ボタンで生成結果をコピーし、robots.txtファイルとして保存します

このツールが役に立ったらシェアしてください

Share:

ご意見・ご要望をお聞かせください

Powered by IdeaSpool

関連記事

よくある質問

Q. robots.txtでGPTBotをブロックできますか?
はい、User-agentに「GPTBot」を指定してDisallow: /を設定することで、OpenAIのクローラーによるサイトのクロールをブロックできます。同様にCCBot(Common Crawl)など他のAIクローラーも個別にブロック可能です。
Q. robots.txtとnoindexの違いは何ですか?
robots.txtはクローラーのアクセス自体を制御し、noindexメタタグはクロールは許可するがインデックスに登録しないことを指示します。robots.txtでブロックしたページにnoindexがあっても、クローラーがアクセスできないためnoindexは認識されません。
Q. Googlebotはrobots.txtのCrawl-delayを尊重しますか?
いいえ、GooglebotはCrawl-delayディレクティブを無視します。Googleのクロール速度を制御したい場合は、Google Search Consoleの「クロール頻度の設定」を使用してください。Bingbot等はCrawl-delayを尊重します。

関連ツール

開発者

Zeronova avatar

Zeronovaゼロノバ

Product Manager / AI-Native Builder

19年以上のWeb/IT業界経験を持つPdMが、現場で本当に使えるツールを開発。登録不要・ブラウザだけで動作する無料ツールを93種類以上公開中。