• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:ロボットを.htaccessで排除したい。)

ロボットを.htaccessで排除する方法

このQ&Aのポイント
  • ロボットを.htaccessでアクセス制限する方法について調べています。ロボットが回遊してきてcgiを実行されることで被害が出るため、.htaccessファイルを使用してアクセス制限をかけたいと考えています。
  • プロバイダーが指定しているディレクトリに.htaccessファイルを配置することで、アクセス制限を掛けることができます。具体的には、/use/local/www/htdocs/user-id/public_html/目的のディレクトリに配置します。
  • フリーウェアのffftpを使用している場合、サーバー側のルートディレクトリに.htaccessファイルを置くことができます。また、他に行うべきことは特にありませんが、必要に応じてcgiファイルなどでの設定を行うことも可能です。

質問者が選んだベストアンサー

  • ベストアンサー
  • entree
  • ベストアンサー率55% (405/735)
回答No.1

> プロバイダーの指定では、 > /use/local/www/htdocs/user-id/public_html/目的のディレクトリ > と在ります。 > .htaccessの説明を読んだ限りでは、 > 制限を掛けたいフォルダ(ディレクトリ)に置け、となっていました。 > であれば、このルート部分に置きたいのですが。 .htaccessの設定はサブディレクトリまで有効になるのでどちらでも構いません。 ただ、制限する場所を限定したいのであれば後者ということになります。 余談ですが、ロボット撃退にはもっとすっきりした方法としてrobots.txtがありますが、 既に検討されましたか? http://www.tohoho-web.com/wwwxx079.htm

nagahaha
質問者

お礼

早速ありがとうございました。 置き場所は私が借りているルートで構わないということデスね、 了解です。 なお、robots.rxrは見ていないということです。 それで今回質問しました。 解決したのですが、 折角なので教えて下さい。 プロバイダ指定の場所に置くというのは、 私のルートに置くより上になるのでしょうか。 位置が良く見えません。 宜しくお願いします。

その他の回答 (1)

  • ORUKA1951
  • ベストアンサー率45% (5062/11036)
回答No.2

ftpでのルートと、HTTPでのルートを混同してませんか? HTTPが提供するのは、あくまで /use/local/www/htdocs/[user-id]/public_html/以下ですから、HTTODのルートはここですよ。  Windowsでも、コンピューター上の場所はC:\DOCUMENT AND SETTIGS\[USER-NAME]\My Documentであっても、エクスプローラのルートに\マイドキュメントが見えるでしょ!!  UNIX系では、マウントやエイリアスは多く使われます。 /use/local/www/htdocs/user-id/public_html/ が、ドキュメントルート(http://hoge.com/)だったり、/use/local/cgi/user-id/がcgiだったり(http://hoge.com/cgi-binだったり・・ きちんと理解しておきましょう。 ・・ローカルにApacheをサーバーを作っておくとよくわかるかも・・  検索エンジンは、基本的にrobot.txtを最初に参照しますからそこに指示を書いておけばよい。膨大なクローラーについていちいち指定はできません。  また、なによりも、ロボットが読みに来たから動作が混乱するようなCGIは書いてはなりません。これが一番肝心なところですよ。

nagahaha
質問者

お礼

いろいろと有り難うございます。 >ftpでのルートと、HTTPでのルートを混同してませんか?  混同ではなく、分かっていないのです。  勉強します。  ヒントを貰えると結構それについては理解できていくのですが、  基本的なことが分かって居ないのだと思います。 >ロボットが読みに来たから動作が混乱するようなCGIは書いてはなりません。  余計なお世話です。

関連するQ&A