• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:httpsへ以降後のrobots.txt 変更は?)

HTTPSへの移行後のrobots.txt変更は?

このQ&Aのポイント
  • HTTPSへの移行後、robots.txtの変更は必要かどうかについて相談します。
  • 現在、HTTPとHTTPSの両方が存在している状況で、robots.txtの内容をどのように変更すべきかについてアドバイスを求めています。
  • また、検索エンジンにHTTPSが反映された場合、HTTPのサイトマップやHTTP自体をWebマスターツールから削除する必要があるのかも知りたいです。

質問者が選んだベストアンサー

  • ベストアンサー
回答No.2

301リダイレクトしてhttpsに統一したということなら User-agent: * Disallow: Sitemap: https://◎◎◎◎.com/Sitemap.xml のみで問題ないです。 なお、 Sitemap: https://https://~ のように”http://”が二重になっているのが、おかしいですけど、 コピペ上の問題でしょうか? >robots.txt を下記のように設置してggoogleウエブマスターツールにて認識させていましたが、 ??? robots.txtはgoogleウェブマスタツールのためのものではなく 世界にあまたあるロボット(検索エンジンのクローラー)に知らせるためのものです。 サイトの所有権を証明するためにgoogleからダウンロードした、google***************.htmlをサイト内に設置したり googleウェブマスターツール上にサイトマップのURLを登録する件と、 勘違いしていないですか?

kita3658
質問者

お礼

ありがとうございました。 ご指摘のように、一部二重に書きこんでいました。 教えて頂いたように設置出来ました。

その他の回答 (1)

noname#232800
noname#232800
回答No.1

これ、設定したこと無いつーか、紳士協定だったはず。 ここに、norobot って書いても、ハッカー級には無意味。 一番は「標識を選択してください」と人間であることを確認するか、ワンタイムパスワードだと思う。 で、通信を暗号化するのが、https だけど、その必要あるんだろうか? 確かに、https が可能になるためには、サーバー側で認証局から証明書を貰わねばならない・・・という意味では、「この世に存在する確かなサイト」ということを証明しては居るが。 逆にhttpsではないサイトを削除して、表示出来なくするのが、信憑性を高めると思う。

関連するQ&A