• 締切済み

データベースのSEO対策?

多くの物件データを扱う企業ページを作成しています。 今のところ、SEO対策にと言われ、全てのページを手作業でHTMLで作っているのですが、データが増えてきて(数千件)なんとか更新の手間を減らせないか検討しています。 データベースとCGIを使ったページだと、検索に引っかからないと聞いているのですが、このようにたくさんのデータを扱うページを作るのによい方法はありませんでしょうか。 PHPだと検索にひっかかるとかXMLを使うといいとか、断片的な情報を聞くのですが、私自身あまり詳しくないのでよくわかりません。 どんなことでもいいので、教えていただけますか?

みんなの回答

  • Ethersky
  • ベストアンサー率71% (168/235)
回答No.3

index.cgi?mode=hoge&name=hoge&value=hoge を index/hoge/hoge/hoge/... というようにすることで、見かけ上CGIを使っていないようにみせることができます。(2ちゃんねるもこの方法です) この場合、QUERY_STRINGでは、パラメーター部分は取れないので、REQUEST_URIから取得します。(区切り文字は / なのでこれでsplitする)

  • uyo_uyo
  • ベストアンサー率0% (0/2)
回答No.2

私も仕事で大量のデータから各HTMLファイルを作成する作業をしたことがあるので、ちょっとアドバイスを。 検索エンジンがクロールしないのは、index.cgi?mode=hoge&name=hoge&value=hoge...といった感じにパラメータが3個以上あるものです。取得してくれないわけではないですが、嫌がるロボットもいます。 かといって、数千ものHTMLファイルを手作業で作るのは非効率的なので、データベースからデータを持ってきて、HTMLテンプレートに流し込むソフトを作って、自動的に生成するやり方にしてみました。 これだと、実際サーバにあるのは静的なHTMLファイルだし、修正する際もデータベースを修正して、またソフトを使って吐き出せばいいだけなので、HTMLを分からない人でも作業が出来るメリットもあります。 一つ問題があるとすれば、各ページが全て同じテンプレートを使わざるをえないので、例外的にデザインを変えたいときなど、ルール作りをしっかりしなければならないことでしょうか。

noname#25358
noname#25358
回答No.1

 俺んちはトップページ以外のページを根こそぎCGIで動かしてますが、ヤフーの検索エンジンにはちゃんと引っかかってますよ。  どうしても気になるなら、CGIを使ってHTMLファイルを直接書き換えるようなシステムにしてはどうでしょう?  つまり、HTMLベースという状況はそのままで、現在手作業でやってる作業だけをプログラムに任せてしまう方法です。

関連するQ&A