• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:検索エンジンロボットを制御する)

検索エンジンロボットの制御方法とは?

このQ&Aのポイント
  • マンションの住人以外の閲覧を避けるために、ロボット検索を回避しようと思っています。
  • ロボットの閲覧を制限するためには、robots.txtファイルをルートに配置することが推奨されています。
  • しかし、ルートに複数のhtmlファイルが存在する場合や.htmlファイルと.htmファイルが混在している場合には注意が必要です。

質問者が選んだベストアンサー

  • ベストアンサー
  • t_ohta
  • ベストアンサー率38% (5317/13878)
回答No.1

全てのページを見て欲しくない場合は Disallow: / でOKです。 これでルートディレクトリ以下全てを拒否していることになります。 特定のページだけを見て欲しくない場合はディレクトリ単位や個別ファイル名を指定します。 この場合は一つ一つ Disallow で指定します。 Disallow: /index.html Disallow: /index.htm Disallow: /home.html といった具合です。 但し、robots.txtは万能ではありません。 Googleのような大手のロボットは指定された通りに動作してくれますが、無視するロボットもいます。 それどころか、悪意をもって情報収集しているロボットなら拒否しているファイルに狙いを定めてアクセスしてくることもあります。 特定の人にしか見られたくない情報ならば、何らかの認証を用いてアクセス制限を行うのが良いと思います。

ubonoti01
質問者

お礼

ご教示有り難うございます。早速試行してみます。 万能でないことにつきましては、マンション住人を対象とする内容であり、あまり厳密さは必要としておりません。

ubonoti01
質問者

補足

今日現在、まだロボットの巡回に会っていないようで、効果は得られていませんが、2週間が経ちました(OKWaveスタッフから忠告あり)ので、閉め切りさせていただきます。

すると、全ての回答が全文表示されます。

関連するQ&A