- ベストアンサー
ロボットを.htaccessで排除する方法
- ロボットを.htaccessでアクセス制限する方法について調べています。ロボットが回遊してきてcgiを実行されることで被害が出るため、.htaccessファイルを使用してアクセス制限をかけたいと考えています。
- プロバイダーが指定しているディレクトリに.htaccessファイルを配置することで、アクセス制限を掛けることができます。具体的には、/use/local/www/htdocs/user-id/public_html/目的のディレクトリに配置します。
- フリーウェアのffftpを使用している場合、サーバー側のルートディレクトリに.htaccessファイルを置くことができます。また、他に行うべきことは特にありませんが、必要に応じてcgiファイルなどでの設定を行うことも可能です。
- みんなの回答 (2)
- 専門家の回答
質問者が選んだベストアンサー
> プロバイダーの指定では、 > /use/local/www/htdocs/user-id/public_html/目的のディレクトリ > と在ります。 > .htaccessの説明を読んだ限りでは、 > 制限を掛けたいフォルダ(ディレクトリ)に置け、となっていました。 > であれば、このルート部分に置きたいのですが。 .htaccessの設定はサブディレクトリまで有効になるのでどちらでも構いません。 ただ、制限する場所を限定したいのであれば後者ということになります。 余談ですが、ロボット撃退にはもっとすっきりした方法としてrobots.txtがありますが、 既に検討されましたか? http://www.tohoho-web.com/wwwxx079.htm
その他の回答 (1)
- ORUKA1951
- ベストアンサー率45% (5062/11036)
ftpでのルートと、HTTPでのルートを混同してませんか? HTTPが提供するのは、あくまで /use/local/www/htdocs/[user-id]/public_html/以下ですから、HTTODのルートはここですよ。 Windowsでも、コンピューター上の場所はC:\DOCUMENT AND SETTIGS\[USER-NAME]\My Documentであっても、エクスプローラのルートに\マイドキュメントが見えるでしょ!! UNIX系では、マウントやエイリアスは多く使われます。 /use/local/www/htdocs/user-id/public_html/ が、ドキュメントルート(http://hoge.com/)だったり、/use/local/cgi/user-id/がcgiだったり(http://hoge.com/cgi-binだったり・・ きちんと理解しておきましょう。 ・・ローカルにApacheをサーバーを作っておくとよくわかるかも・・ 検索エンジンは、基本的にrobot.txtを最初に参照しますからそこに指示を書いておけばよい。膨大なクローラーについていちいち指定はできません。 また、なによりも、ロボットが読みに来たから動作が混乱するようなCGIは書いてはなりません。これが一番肝心なところですよ。
お礼
いろいろと有り難うございます。 >ftpでのルートと、HTTPでのルートを混同してませんか? 混同ではなく、分かっていないのです。 勉強します。 ヒントを貰えると結構それについては理解できていくのですが、 基本的なことが分かって居ないのだと思います。 >ロボットが読みに来たから動作が混乱するようなCGIは書いてはなりません。 余計なお世話です。
お礼
早速ありがとうございました。 置き場所は私が借りているルートで構わないということデスね、 了解です。 なお、robots.rxrは見ていないということです。 それで今回質問しました。 解決したのですが、 折角なので教えて下さい。 プロバイダ指定の場所に置くというのは、 私のルートに置くより上になるのでしょうか。 位置が良く見えません。 宜しくお願いします。