• 締切済み

ロボット検索に引っ掛けるテクニック

自社のウェブサイトをASPで構築したところ、以前と比べてロボット検索にかからなくなってしましました。 いろいろと調べた結果、種類にもよりますが、定期的にクローラーと呼ばれるエンジンが登録されたurlをルートにリンクをたどってページを収集する仕組みになっている事を知りました。 自社のサイトはトップページがカテゴリ検索になっており 各カテゴリごとに新着情報をASPで動的に一覧し、見出しをクリックすると詳細コンテンツ(HTML)にたどり着く形式のため(このサイトに似ています)クローラーがコンテンツを収集できないのではないかと思いました。 そこでASPで作成された動的なページの代わりに詳細コンテンツのURLリストを白文字でHTMLで自動的に作成し、トップページにリンクさせて見ましたが効果はありませんでした。 なにか良い方法がありましたら教えてください。

みんなの回答

  • stingray
  • ベストアンサー率24% (243/984)
回答No.2

フレームを使わない(使うとフレームのURLだけ確認されるため内容が読まれない), スプラッシュページを置かない(スパイダーがスプラッシュだけしか読まなくなる), METAタグを使わない(METAタグに引っかかるとスパイダーはそのURLを読まなくなる), 内容を絞る(文書量が多くなるため必然的にスコアがあがる) ・・・など色々なテクニックがありますよ。

  • master-3rd
  • ベストアンサー率35% (582/1641)
回答No.1

それ以外にも、このごろの検索エンジンではリンクをされている度というのも重要らしいです。 リンク先に指定されている数が多いほど重要ページとみなされ上位に表示するらしいです。 もしかしてホームページのアドレスが変わったということはないでしょうか? もしかしたらそれも原因かもしれません。

関連するQ&A