- ベストアンサー
HPを、特定者以外にみて欲しくない
完全に独立し(どこへもリンクしていない/どこからもリンクしていない)、かつ、いかなる検索エンジンへも登録していないホームページは、URLを知らない者からは見られる恐れはないと考えてよろしいですか? 目的・・・特定の仲間との情報交換にHPを利用したい。
- みんなの回答 (7)
- 専門家の回答
質問者が選んだベストアンサー
んと、僕のHPはどこの検索エンジンにも登録しないで 自力でがんばってきたと思ったのですが・・・ どうやらいつのまにか登録されていたみたいです (恐らくロボット検索にひっかかった) ただ、そのときは<meta name>タグ(ロボットに引っかかる)とかも入れてなかったので、なんでだろう?? と思っていましたが… どこかの掲示板で発言したときにそこから ロボット検索にひっかっかってしまったみたいです。 (IPまでひっかけるということはないとい思います…) んーたとえば、そのページに掲示板をつくるとします。 レンタル掲示板だったら、あなたのURLを書かなければ いけません。 そこから、あなたのページがばれる可能性もあります。 また、完全自作のCGIでない限り、相手側のアドレスが 必ずどこかに載っていますからそこからまた、ひっかかり 芋ずる式(?)にバレるかと思います。 Kanata様、もおっしゃっている通り インターネットに公開している以上どんな、 手段を執っても、特定の人のみに見てもらうという 事は難しいと思います。 自分で、無限とは言えこのネットワークと言う 地図に旗を揚げてしまったのですから・・・ やはり、パスワード等の方法を使うのがベストだとは 思いますが・・・
その他の回答 (6)
>ロボット型検索エンジンでも~誤りなのでしょうか? おそらく検索の対象にはなりません。・・・と、私も認識しております。 またはMSNのコミュニティーには、登録したメンバーしかログインできないSITEが作れますので、それを利用するのも一つの手段かと思います。
- kokotaro
- ベストアンサー率22% (9/40)
ロボット型の検索エンジンの回避さえできれば、基本的に見られることは無いと思います。 クラックなどの特殊例は除きます。 トップページもしくはそこに入り口を設けて、パスワード制限を掛ければ入れなくなります。 BIGLOBEでこういった事をパックでやってくれるサービスがあります。月300円かかります。 他にも似たようなサービスをやっているプロバイダがあるかもしれません。 お役に立てたら嬉しいです。
Internetというネットワーク上にある限り、どんな 手段を執っても、特定の人のみに見てもらうという ことは実現することは不可能でしょう。 下の方々のおっしゃるとおり、ROBOT巡回を受けない ようにすることは可能です。しかし、FTPサーチなど ファイルを直接見つけてくるものに対してはあまり 効果がありません。 また、パスワードをつけても、方法によっては、 ソースを見るだけで、どこに飛ぶか分かってしまう ものもあります(JavaScript)。プロバイダで、指定 されたパスワード方式(.htaccess)もそのサイト内の 内容が分かれば、ある程度ファイル名が推測ができ、 直接そこに飛ばれてしまっては意味がありません。 それでもそれなりにいいのは、CGIを使って(もちろん CGIの中身は見られないようにしてください)、表示 する内容のファイルを暗号化しておき、表示する際に パスワード(hrs様のおっしゃる方法)で、ログイン させるようにして、ログインされたら、デコードする といいかもしれません。これならば、直接アクセス されたとしても、ファイルが読めませんし、それなりに 効果もあるはずです。実際に、そのような掲示板は 存在するので、暗号かアルゴリズムを考えて、作成 してみてはどうでしょうか。 ではでは☆
- 参考URL:
- やはりCGIのようなもので、暗号化が一番安心かな?
補足
ロボット型検索エンジンでも「他から或いは自ら全くリンクの張られていないHPは、自動的に検索対象にはなることはない」と認識していましたが、誤りなのでしょうか?
- hrs
- ベストアンサー率16% (4/24)
このような手はいかがでしょうか? フリーのCGIで、パスワード制限の物をDLしてきて トップに置いて置く これなら、知っている仲間内にパスワードを教えて ログインしてもらって次のページに行ったりと・・・ あとは、自分でサーバーを立ち上げて・・・とか。 お役に立てれば光栄です。
補足
ロボット型検索エンジンでも「他から或いは自ら全くリンクの張られていないHPは、自動的に検索対象にはなることはない」と認識していましたが、誤りなのでしょうか?
- makorin
- ベストアンサー率44% (31/70)
まずは、パスワード設定を入れることだと思います。 プロバイダ側で微妙に違うと思うので 詳しくは書きませんが、ディレクトリ単位でパスワードの設定が可能です。 (NTがサーバーの場合はわかりませんが) パスワードを利用するのは、ブラウザにURL情報が残っていれば 誰でもアクセス可能だからです。 あと、その内部から他所へのリンクは貼らない方が良いです。 ブラウザには直前のページの情報が登録されていますので。 とりあえず、私の経験です。 実際にそれで、関係ない人に見られたことがありますので。 実害は無かったので良かったのですが...
補足
ロボット型検索エンジンでも「他から或いは自ら全くリンクの張られていないHPは、自動的に検索対象にはなることはない」と認識していましたが、誤りなのでしょうか?
- shigatsu
- ベストアンサー率26% (511/1924)
あとは、たまにURL自体を変更するとかが有効だと思い ます。変更案内はメールで。 念のため、ロボット検索にもサーチされないような手段を とっておいたほうが良いですね。 やり方は各ロボットサーチのサイトにヘルプやFAQとし て載っています。 ヘッダにキーワードを入れたり、robots.txtとかのファイ ルを作ってその中に「見るな」って(意味のコマンド)書い ておいたり。
補足
ロボット型検索エンジンでも「他から或いは自ら全くリンクの張られていないHPは、自動的に検索対象にはなることはない」と認識していましたが、誤りなのでしょうか?
補足
ロボット型検索エンジンでも「他から或いは自ら全くリンクの張られていないHPは、自動的に検索対象にはなることはない」と認識していましたが、誤りなのでしょうか?