- ベストアンサー
タグチメソッドのデータの2乗和の分解について教えて下さい
- タグチメソッドのデータの2乗和の分解について、比例項の変動S(β)について詳しく説明します。
- 入出力は比例関係にあり、データの全2乗和S(T)は入力信号M(1)~M(k)と各信号因子の水準での合計値y(1)~y(k)によって求められます。
- 比例項の変動S(β)は入力信号M(1)~M(k)と各信号因子の水準での合計値y(1)~y(k)の関係によって計算されます。
- みんなの回答 (2)
- 専門家の回答
質問者が選んだベストアンサー
やっていることは実はすごく単純なことなんですが、不親切きわまりない説明ですね。 入出力は比例関係にある y=β・M と仮定したわけですが、比例係数βは不明です。 というわけで、まず最初に、実験データからβを最小2乗法で推定します。実験で得られた値と、理想値と2乗誤差の和 Σ_[m=1~k] Σ_[n=1~r(0)] (y(n,m) - β・M(m))^2 を最小にするようにβを決めると(上式をβで微分して傾きが0になるところを探す) βの推定値 = {Σ_[m=1~k] Σ_[n=1~r(0)] M(m)・y(n,m)} / { Σ_[m=1~k] r(0)・M(m)^2 } = {Σ_[m=1~k] M(m)・y(m)} / r(0)・{Σ_[m=1~k] M(m)^2} … y(m) = Σ_[n=1~r(0)] y(n,m) より = {M(1)・y(1) + ・・・+ M(k)・y(k)}^2 / [r(0)・{M(1)^2 + M(2)^2 +・・・+M(k)^2}] になります。 で、比例項の変動S(β)は、y=β・M が理想的に成り立つとした場合の全2乗和のことですが、このβを上で推定したものとすれば S(β) = Σ_[m=1~k] Σ_[n=1~r(0)] { (βの推定値)・M(m) }^2 = (βの推定値)^2・r(0)・{Σ_[m=1~k] ・M(m)^2} = {M(1)・y(1) + ・・・+ M(k)・y(k)}^2/ [r(0)・{M(1)^2 + M(2)^2 +・・・+M(k)^2}] と、質問文にある式がでてきます。 正直、タグチメソッド関連の本は、数学的な話はものすごくアバウトな本が多いので、タグチメソッドの背景の理論を真面目に勉強するには向いてません。というか、学問の教科書としてみるとまとまな教科書の形をなしてないものがほとんどです。 とくに数学的な道具(直交表やSN比など)について、途中式が省略されているだけならまだしも、もっとも重要な情報である「どういう系を仮定しているのか」(線形性がなりたつ、ノイズが正規分布をしているなど)を明らかにしないまま議論がすすんでいて、どういう場合に理論を適用できるのか(あるいは、逆に、この理論をそのまま適用できないのはどういう場合なのか)が全くわからない場合が多いです。 前提を明らかにしない議論てのは、エセ科学の典型的な論法だと思います。 すいません。愚痴が長くなりました。というわけで理論を知りたいなら、きちんとした統計の本を読むことをお勧めします。 ちなみに、タグチメソッドの効用自体を否定しているわけではないので念のため。きちんと使えば非常に有用な方法論だと思います。
その他の回答 (1)
- rabbit_cat
- ベストアンサー率40% (829/2062)
わかると思うけど βの推定値 = {Σ_[m=1~k] Σ_[n=1~r(0)] M(m)・y(n,m)} / { Σ_[m=1~k] r(0)・M(m)^2 } = {Σ_[m=1~k] M(m)・y(m)} / r(0)・{Σ_[m=1~k] M(m)^2} … y(m) = Σ_[n=1~r(0)] y(n,m) より = {M(1)・y(1) + ・・・+ M(k)・y(k)}^2 / [r(0)・{M(1)^2 + M(2)^2 +・・・+M(k)^2}] は、 βの推定値 = {Σ_[m=1~k] Σ_[n=1~r(0)] M(m)・y(n,m)} / { Σ_[m=1~k] r(0)・M(m)^2 } = {Σ_[m=1~k] M(m)・y(m)} / r(0)・{Σ_[m=1~k] M(m)^2} … y(m) = Σ_[n=1~r(0)] y(n,m) より = {M(1)・y(1) + ・・・+ M(k)・y(k)} / [r(0)・{M(1)^2 + M(2)^2 +・・・+M(k)^2}] の間違いです。(最後の行の分子が違う) 念のため修正。