• 締切済み

.htaccessでロボット避けとBasic認証を同時にできますか

はじめまして。 .htaccessを使ったユーザ認証をしています。 検索ロボットのアクセス制限(UA制限) IPによるアクセス制限も同時に行いたいのですが、可能でしょうか。 一度下記のように記述してみたのですが駄目でした。 元からできないものなのでしょうか。 それとも記述がいけないのでしょうか。 ご助言よろしくお願いします。 #.htaccess閲覧防止 AddHandler cgi-script htaccess #認証 AuthType Basic AuthName "Secret Page" AuthUserFile /www/data/●●/public_html/●●/.htpasswd require valid-user # ユーザーエージェントで指定 SetEnvIfNoCase User-Agent "msnbot" shutout SetEnvIfNoCase User-Agent "Googlebot" shutout SetEnvIfNoCase User-Agent "Slurp" shutout SetEnvIfNoCase User-Agent "Yahoo" shutout SetEnvIfNoCase User-Agent "Y!J" shutout 以下略

みんなの回答

  • m-daisuke
  • ベストアンサー率85% (17/20)
回答No.2

追加です。 そもそもhtaccessは使える状態なのでしょうか? 簡単な.htaccessを書いてテストしてどうでしょう。 Reidrect permanent / http://www.google.com/ おそらく利用されているのはApacheですよね。 Apacheのconfigファイルの以下の記述はどうでしょうか? Options +ExecCGI←ExecCGI記述はありますか。 AllowOverride All←Noneではないですよね。

すると、全ての回答が全文表示されます。
  • m-daisuke
  • ベストアンサー率85% (17/20)
回答No.1

ぱっと見ですが、認証に以下の記述がありませんが 無くても動くんでしょうか。 AuthGroupFile /dev/null あと以下略に、下の記述はありますか? order Allow,Deny Allow from all Deny from env=shutout あとそもそもですがrobot.txtをサイトルートに置けば、 インデックスは避けれますよ? User-Agent: * Disallow: /

momobile
質問者

お礼

どうもありがとうございます。 既にユーザ認証はできている状態です。 アクセス制限の機能を追加したかったのです。 robot.txtを置いてあり、念の為にメタタグを入れています。 >AuthGroupFile /dev/null 記述していなかったので追加しました。 >Apacheのconfigファイル こちらがわからないので勉強してきます。 不勉強で申し訳ありません。

すると、全ての回答が全文表示されます。

関連するQ&A