• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:拡張子がcgiのページについて)

拡張子がcgiのページについて

このQ&Aのポイント
  • Googleは拡張子がcgiのページを検索できる
  • ロボット除けのmetaタグを使用することで拾われないようにできる
  • ロボットはURLの?以降が異なっても別のページと解釈する

質問者が選んだベストアンサー

  • ベストアンサー
  • 2NN
  • ベストアンサー率40% (143/353)
回答No.1

> 1.実際は拡張子がcgiのページでも(略 http://www.google.co.jp/intl/ja/webmasters/2.html ↑の「動的に生成されたページを使用している。」を参考にしてください。 パラメータはURLの?以降のxx=yyです。(&で区切ってその数が多いかどうか) > 2.もし拾われたくない場合は(略 ページ単位ではmetaタグで。 サイト全体、またはディレクトリ単位の場合、 metaに加えてrobots.txtもあった方がよいです。 http://www.google.co.jp/remove.html#exclude_website いずれにしても確実に拒否できると安心はできないので、 完璧に遮断するには.htaccessなどでロボットのIPを遮断します。 > 3.ロボットはURLの?以降が違っても(略 別ページと解釈します。 > 4.普通の人にcgiのページを見られたくない場合(略 そのページの重要度にもよりますが、「他人が見ても意味がないから」 のような理由であれば、metaで充分でしょう。 機密性の高いページであれば、.htaccessを使ったBASIC認証や CGIでのパスワード方式をとるべきです。

cyokokichi
質問者

お礼

ご親切なご回答ありがとうございます。 googleにこのようなページがあるのを知りませんでした。

関連するQ&A