• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:Kinectを用いて人の空間での位置測定)

Kinectを用いて人の空間での位置測定

このQ&Aのポイント
  • Kinectを使用した人の空間での位置測定について、深度測定の正確性、複数のKinectを用いた方法、他の位置測定の方法について教えてください。
  • Kinectを地面に向けて天井から吊るし、人の位置をx軸とy軸で測定する方法が考えられますが、設置の困難さと長いUSBケーブルの必要性が課題です。
  • 深度測定の正確さを向上させるために、2台のKinectを使用する方法が考えられます。それぞれのKinectを異なる角度から撮影し、2つのコンピューターを組み合わせることで正確な位置測定が可能になるかもしれません。他にも、スケルトンではなく空間全体の位置測定を行う方法も探索したいと思っています。

質問者が選んだベストアンサー

  • ベストアンサー
noname#208507
noname#208507
回答No.3

No.2です。 失礼。間違えました。 > x,yは座標でなく、光学中心からのベクトルに~ x,y,zへのベクトルです。 補足します。 これは計測された点(x,y,z)へ向かう視線ベクトルです。別の点は別の視線ベクトルが指し示します。カメラの視線は光学中心から放射線状に広がので、z座標が変わればx,y座標も変化してしまいます。 しかし奥行き方向の計測精度が低くても、計測された一点は視線ベクトル上のどこかに存在するので、別のKinectの視線ベクトルによって点が存在しうる範囲を絞り込むことが可能なはずです。 ところでKinectの場合、光学中心は深度座標系の原点そのままと見なしてよいでしょう。

leime_0420
質問者

お礼

なるほど。ありがとうございます!

その他の回答 (2)

noname#208507
noname#208507
回答No.2

1.測れても、cm単位の誤差はあると思います。Kinectは原理的にカメラとプロジェクタの校正が必要ですが、工場で一台ごとに校正しているとは思えませんし、遠くほど計測誤差は増大します。 2.そのアイデアは一部間違いがあります。Kinectといえど通常のカメラと同様に透視投影です。一点に投影される三次元空間中の座標のx,yはz座標と独立していないのです。しかし着眼点は良いです。x,yは座標でなく、光学中心からのベクトルに変えれば良いのです。シェイプ・フロム・シルエットの応用ですね。 二台のKinnect間の座標系を合わせるための変換行列をどう求めるかという問題もありますが...

  • kmee
  • ベストアンサー率55% (1857/3366)
回答No.1

そもそも、Kinectって、そんなに遠い場所にいる人物の動きを検出できるものなのでしょうか? 「kinectを使う」ことが目的でないのなら、他のセンサーも調べるのがいいと思います。 あと、USBも、そのまま30mというのは難しいと思います。

leime_0420
質問者

お礼

ありがとうございます。他のセンサーも探してみます。

leime_0420
質問者

補足

ちなみに調べてみたところ、Kinectでは深度を測る範囲は0.7mから6mだそうです。 長いUSB2.0ケーブルに関してはこんなのを見つけました: http://hikaku.cman.jp/usb_cable_length/ http://getnews.jp/archives/63647 機器によるらしいですが20m位は大丈夫かもしれません。

関連するQ&A