- ベストアンサー
PDFファイルを自動検索させない方法
ホームページ内にPDFファイルがあるのですが、 それが、自動検索されないようにする方法はありませんでしょうか?
- みんなの回答 (5)
- 専門家の回答
質問者が選んだベストアンサー
ホームページ自体ではなくて、特定のフォルダを サーチ対象外にできるはずですけど。そのフォルダに PDFを入れるようにしたらいいのではないでしょうか。
その他の回答 (4)
- Tasuke22
- ベストアンサー率33% (1799/5383)
> User-Agent: Googlebot これですと、googleのロボットのみが検索しない、 という指定です。 #4の方が仰っているように User-agent: * このように * で指定すると、全てのロボットが 対象となります。 > なお、サーチされたくないPDFは、すでに見つかっており、 取り合えず場所を移動するから、その瞬間にlinkが切れるか ら問題ないでしょう。検索結果に若干内容が表示されるのは かなりの時間そのままでしょう。
お礼
ご丁寧にありがとうございました。
- pi314
- ベストアンサー率0% (0/1)
他の方が回答された中にある、 http://tech.bayashi.net/pdmemo/robots.html のサイト中で、 >Googlebotは正規表現的な表現もきちんと読んでくれますので >Disallow: /*.gif$ >としてGIF画像ファイルへのアクセスを制御することも可能です >(Googleには画像収集ロボットもある)。 とあるので、これを応用して、 -----(robots.txtの中身:ここから)----- User-agent: * Disallow: /*.pdf$ Disallow: /*.PDF$ -----(ここまで)------------- とすればよいのかもしれません。 #試したことがないのですが。
お礼
別の方が、新たにフォルダを設けて、その中に PDFファイルをご提案いただいております。 その提案とpi314さんのご提案をあわせて、 以下のrobots.txtを作れば、ダブルで防御出来るかもしれませんね。 User-Agent: 対象ロボット Disallow: /サブフォルダ/ Disallow: /*.pdf$ アドバイスありがとうございました。
- Tasuke22
- ベストアンサー率33% (1799/5383)
> そのサブフォルダ内に、PDFファイルと一緒に > robots.txt というテキストファイルを入れたらいいのですね?? robots.txt は最上位に入れてください。TOPページがあるところが いいでしょう。 検索されたくないフォルダに入れていると、robots.txt が見つかっ た時点で、検索されたくないフォルダが既に検索されてしまってい ますよ。最低限の理論の組み立てがが無いと自分で答えを見つけ難 いです。 ファイル単位の指定も出来ますが Disallow: /example.html のように。しかし、 既に見つかっていると困るので、まだ見つかっていないフォルダを 新たに作り、それをrobots.txtで指定することにより、見つからな い、かなってお願いです。 つまり、robots.txtに記述されたからといって、全ての検索エンジ ンの巡回ロボットがこれに従う、という保障はありません。
お礼
ご連絡ありがとうございます。 PDFファイルを入れておくサブフォルダ名を仮にsubとすると、 Googleで検索されたくなければ、 次のように記述したrobots.txt を最上位に入れると 良いということですね?? User-Agent: Googlebot Disallow: /sub/ なお、サーチされたくないPDFは、すでに見つかっており、 検索されております。 それで、今回教えていただいた方法をすれば、 ある程度の時期がくれば、検索されないようになるのではないかと 期待します。
- Tasuke22
- ベストアンサー率33% (1799/5383)
参考にしてください。
お礼
ありがとうございます。 しかし、 ホームページ自体をサーチされたくないのではなく、 その中にあるPDFファイルのみ検索されないようにしたいのです。 何か良い方法は、ないでしょうか?
お礼
そのサブフォルダ内に、PDFファイルと一緒に robots.txt というテキストファイルを入れたらいいのですね?? ありがとうございます。やってみます。