Robots.txt ジェネレーター |
一般指令
オーバーライドを階層化する前に、すべてのクローラーのデフォルトの動作を構成します。
User-agent: * のグローバル許可またはブロック ルールを設定します。
サーバーに余裕が必要な場合は、クローラーを抑制します。
ミラーリングされたドメインのオプションのホスト ディレクティブ。
1 行につき 1 つのパス。ワイルドカードと末尾のスラッシュをサポートします。
より広いパスがブロックされている場合でも、特定のフォルダーがクロール可能であることを確認します。
1行につき1つのサイトマップURLを入力してください。追加のサイトマップインデックスがある場合は追加してください。
一般的なクローラー
完全にブロックしたいクローラーのスイッチを切り替えます。上記のデフォルトルールを適用したままにしておきます。
カスタムルール
カスタマイズされた許可またはブロック ディレクティブ、クロール遅延、サイトマップのヒントを使用してユーザー エージェントを追加します。
カスタムルールはまだありません。上のボタンを使用して作成してください。
正確な、またはワイルドカードのユーザーエージェント文字列。
上記の生成されたファイルをコピーし、robots.txt としてドメインのルートにアップロードします。
目次
Robots.txt クロールとインデックス作成のためのジェネレーター
Robots.txtは、サイトの検索ボットを案内する小さなテキストファイルです。クローラーにどのエリアにアクセスできるか、どの道を避けるべきかを教えてくれます。これにより、重要なページにクローリングが集中し、低価値のURLへの無駄訪問を減らします。
管理者ページ、ステージングフォルダ、テストURL、フィルターページ、重複パスなどのエリアをブロックするためにrobots.txtを使います。ルールが明確であれば、検索エンジンは重要なページにより多くの時間を費やします。これにより新しいコンテンツがより早く発見され、クリーンで予測可能になれます。
SEOにおける「Robots.txt」とは何か
Robots.txtロボット除外基準の一部です。あなたは以下に置きます:
yourdomain.com/robots.txt
検索エンジンはこのファイルを早期にチェックすることが多いです。なぜなら、明確なクロールの指示が得られるからです。サイトが小さい場合、robots.txtファイルがなくてもインデックスされることがあります。しかし、大規模なサイトでは、ガイダンスが欠けているため、クロール作業が無駄になり、重要なページの発見が遅くなることがあります。
重要なポイントがあります:
- Robots.txtコントロールクロール
- インデックス化を保証するものではありません
検索結果にページが表示されるかどうかを確認したい場合は、インデックス可能性チェックを使います。これにより、noindexやブロックされたリソース、robots.txtがカバーしていない問題などのシグナルを見逃すことができます。
なぜRobots.txtがクロール予算に役立つのか
検索エンジンは毎日すべてのページをクロールするわけではありません。彼らはサイトの速度、サーバーの健全性、コンテンツの変更頻度などの制限やシグナルに基づいてクロールします。
サイトが遅いかエラーを返すと、クローラーは1回の閲覧ページ数を減らす可能性があります。これにより、新しい投稿や更新されたページのインデックス作成が遅れる可能性があります。Robots.txt無駄なクロールを減らし、ボットが本当に注目してほしいページに時間を割くのに役立ちます。
最良の結果を得るには、サイトマップ付きのrobots.txtを使いましょう:
- Robots.txtボットにクロールするかスキップすべきかを案内します
- Sitemapはクロールしてインデックス付けしたいページを一覧にします
知っておくべきRobots.txtルール
robots.txtファイルはいくつかの簡単な指示を使用します。読みやすいですが、慎重に書く必要があります。
- ユーザーエージェント
- ルールが適用されるボットを設定します
- 禁止
- フォルダやパスをクロールするブロック
- 許可して
- ブロックされたフォルダ内で特定のパスを開く
- クロール遅延
- 一部のボットで遅いクロールリクエスト(すべてのボットが従うわけではありません)
小さなミスが重要なページ、例えば重要なカテゴリやコアランディングページをブロックすることがあります。だからこそ、すべてを手動で書くよりもジェネレーターを使う方が安全です。
なぜWordPressサイトがRobots.txtを必要とするのか
WordPressは内部検索ページ、一部のアーカイブページ、パラメータベースのURLなど、SEOに役立たない多くのURLを作成できます。価値の低いエリアをブロックすることで、クローラーがメインページ、ブログ記事、商品やサービスページにより多くの時間を費やすことができます。
小規模なサイトでも、クリーンなrobots.txtファイルは賢いセットアップです。サイトの成長に合わせてクロールルールを整理できます。
Robots.txtとサイトマップの違い
サイトマップは検索エンジンがクロールしたいページを見つけるのに役立ちます。Robots.txtボットの移動先を制御します。
- サイトマップは発見を向上させる
- Robots.txt クロールアクセスを制御
ほとんどのウェブサイトは両方を活用することで恩恵を受けています。
このジェネレーターを使ってRobots.txtを作成する方法
Robots.txtシンプルですが、決して許すものではありません。一つの間違ったルールで重要なページがブロックされることもあります。このジェネレーターは安全にファイルを作成するのに役立ちます。
デフォルトアクセスを設定する
すべてのボットがデフォルトでサイトをクロールできるかどうかを選びましょう。
サイトマップのURLを追加してください
サイトマップを含めて、クローラーが重要なページをより早く見つけられるようにしましょう。
許可されていない経路は慎重に追加してください
本当にクロールされたくないものだけをブロックしてください。必ず前線のスラッシュから始めてください。例えば:
/admin/ または /search/
公開前のレビュー
ホームページ、ブログ、カテゴリページ、メインサービスページをブロックしていないか再度確認してください。
Robots.txtとよく機能する関連SEOツール
Robots.txt技術的なSEOの一部です。これらのツールは同じ目標をサポートし、すべてが正しく動作していることを確認するのに役立ちます:
- Sitemap Checker:あなたのサイトマップが有効でボットが読みやすいかを確認します。
- Googleインデックスチェッカー:ページがインデックス化可能かどうかを検証し、noindexのような一般的なブロッカーをフラグ付けします。
- HTTPステータスコードを確認する:200、301、404、そしてクロールを遅くする可能性のあるサーバーエラーを見つけてください。
- フリーリダイレクトチェッカー:リダイレクトがクリーンで、連鎖やループに陥っていないことを確認します。
- メタタグ分析:SEOミスに関するタイトル、説明、ロボットメタタグをレビューします。
APIドキュメントは近日公開予定
Documentation for this tool is being prepared. Please check back later or visit our full API documentation.