- ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:google クロールの仕組み)
Googleクロールの仕組みについて
このQ&Aのポイント
- Googleウェブマスターツールを使用している方への質問です。Googleのクロールの仕組みについて教えてください。
- Googleウェブマスターツールの「Fetch as Google」は、ページをクロールしてもらうための機能ですか?
- robots.txtはクロール制御に、sitemap.xmlはインデックスファイルの一覧を作成するために使用するのでしょうか?みなさんはどのようなファイルを設定していますか?
- みんなの回答 (1)
- 専門家の回答
質問者が選んだベストアンサー
> 1.google webmasterでの「Fetch as Google」は、設定したページを使うしてもらうためのものですか。 設定したページを使ってもらうというよりは、googlebotにそのURLのページを強制的にクロールしてもらための機能です。 新しく作成したり、更新したページをいち早くインデックスさせたいときに利用してください。 > 2.robots.txtはクロールしてもらいたいファイルの制御のために作成し、 > sitemap.xmlはクロールした中でインデックスしてもらいたいファイルの一覧を作っておくファイルということでよいでしょうか。 robots.txtはクローラーを制御するという考えで間違いは無いです。 ただsitemap.xmlはインデックスしてもらいたいファイルと言うよりは、サイトの構造を正しくクローラーに知らせるというのが主な機能です。インデックスするかどうかは、クローラーが回った後に検索エンジン側が決定します。 > 3.sitemap.xmlでhtmlファイルだけ設定しているのですが、みなさんはどんなファイルを設定しておりますか。 基本的にはhtmlファイルが正しく記述されていれば問題ありません。 動画ファイルや画像ファイルがサイトのメインコンテンツなら、それを記述するのもいいとは思います。