• ベストアンサー

眼と耳とフーリエ変換

音は、高い音と低い音をいっしょに聞くと、 中間の音になるということはない。 しかし、光の場合には、赤と青を混ぜると・・・色が変わる。 つまり、耳はフーリエ変換しているのに、眼はしていないということだ。 なぜか? たぶん、波長の差だと思うけど、すると、 どのぐらいの波長ならフーリエ変換する意義があるのだろうか? また、進化の過程でフーリエ変換できる眼を持った生物や、変換ができない耳を持った生物はいなかったのだろうか?

質問者が選んだベストアンサー

  • ベストアンサー
  • sssohei
  • ベストアンサー率33% (33/98)
回答No.4

人間の聴覚については、ニューラルネットワークの事が書かれた本で、述べられていることがあるので、少し分かります。 耳の構造で、周波数空間に分解されています。 鼓膜が振動 -> 蝸牛内 -> 基底膜 と伝わるのですが、この「基底膜」が結構長くて、3.5cm程有るらしいのですが、この膜の幅が先端に近い程、広くなるらしいです。(始端部は約0.5mm, 先端部は約0.04mm) オーム社から1990年に発行された「音声・聴覚と神経回路網モデル」より抜粋して引用^^; そのため、始端は高周波に強く反応し、先端は低周波に反応すると。。フーリエ変換と言うよりは、ハイパスフィルタとローパスフィルタの組み合わせで作られた、アナログのイコライザの様なイメージですね^^; 本題へ、、、あくまで個人的な想像の域を出ないのですが 視覚で得られた情報がどのように脳で処理されているかは分かってないと思うのですが、目と耳の処理方法の差は恐らく、情報量の差と情報の利用方法の差だと思います。 人間の耳で入力される音声は周波数に対応した1次元のデータ(周波数→大きさ(ゲイン?))ですが、 目から入力される画像は位置をもった2次元のデータ(x,y→色)です。 このとき、人によって、目の見え方は異なるはずですが、学習によって「赤」や「青」という抽象化が行われ、見え方が違っても「同じ意味」となり、意思の伝達が行えるので、「色」がどのように表現されているかは、コンピュータのように1つの値として表現されていると仮定します(周波数領域に分解されていないのであながちはずれた仮定とは思わないのですが もし、この、2次元の画像それぞれの点に周波数毎のデータが含まれていれば膨大なデータになります。 また、情報の利用方法ですが 人間の「聴覚」は主に、現代ではコミュニケーションとして、重要ですが、言葉の無かった頃には、危険感知など、の視覚のサブとして利用されてきました。そのため、ある程度の区分けが可能で重要なのは「音」の強さだったと思います。そのため、人間の耳は、音の大きさのlogに比例して音の強さを感じるのだと思います。 逆に。「視覚」は「物の存在確認」、「位置関係」の確認に用いられて来ました。例えば、「食べ物を探す」のに駆使されたと思います。 我々が森にいて、目が見えないと食糧の確保が難しいです。たとえ木の実があっても安全性を判断する条件を持てませんし、そもそも、どこに何があるか見当がつかなくなります。 このとき、視覚で重要視されたのは「特徴抽出」だと思います。色という形で、「物」と「物」を区別出来れば十分だったため、この様な形になったのではないでしょうか? 先天的、後天的のいずれに関わらず、「視覚」に障害を持った方は、聴覚が優れ、仕草だけで誰か分かったり、物音で大体の位置関係が把握出来るそうです。 コウモリや、イルカは人間の「聴覚」と同じ目的で「視覚」を使用しているようです。逆に彼等の「視覚」はほとんど無く、「聴覚」がずば抜けているそうです 恐らく、進化の過程で、目と耳の機能の分離がなされた結果、今のようになったのでしょう。 >また、進化の過程でフーリエ変換できる眼を持った生物や、変換ができない耳を持った生物はいなかったのだろうか 残念ながら、詳しくないので分かりません^^;

その他の回答 (6)

  • sssohei
  • ベストアンサー率33% (33/98)
回答No.7

何度もすみません… >人間が同様の色素を持っているため,目の見え方は基本的には同じだと思います。 >何故信号機の「赤」が止まれなのか,それは誰が見ても目立つ色だからです。 が正しそうですね^^; というわけで、私の書いた「このとき、人によって、目の見え方は異なるはずですが、学習によって「赤」や「青」という抽象化が行われ、見え方が違っても「同じ意味」となり」 の「見え方」を「感じ方」に訂正させてください。 ご指摘ありがとうございます ところで、その部分なのですが、もう少し踏み込むと、、 脳が信号を受け取り、(抽象的な意味での)脳内言語に変換することを認識するとします # 荒っぽいでしょうか?^^; もし、仮に、違う(学習をした)人の目から同じ入力「赤」の信号と、その信号が赤であるという情報が脳に行ったとします。 このとき、脳に記憶されるのは(信号値~は赤だ)という情報で考えるよりは、 その信号に反応した、細胞活動のパターンで記憶しているとした方が、連想記憶や、ど忘れを説明しやすいようです。 このとき、同じ信号でも、それまでの学習次第で神経のネットワークの形状は異なると思われるので、 人によって、脳での感じ方は異なると思われる。ところが、その、状態と「赤」という情報(状態)が関連づけられているので 人々は「赤」という抽象的概念を共有できる、と言うことでよろしいでしょうか^^; 今のところ、聞いたことのある説明の中で自分がもっとも納得している物なのですが

  • sssohei
  • ベストアンサー率33% (33/98)
回答No.6

質問とはそれて申し訳ないのですが 38endoh の書かれた補足に対する私見を書かせてください。 > という話は巷でもよくされますが,果たして本当でしょうか? すべての人間が同様の色素を持っているため,目の見え方は基本的には同じだと思います。脳での感じ方は人によって異なるかもしれませんが…。 目の色が違うように色素の量、バランス、反応の良さには差が生まれるので、ある程度の差が生まれると思っていたのですが、違うのでしょうか^^; 視力が落ちてくると、色の見分けが弱くなるとかも聞いたことがあるのですが^^;

  • 38endoh
  • ベストアンサー率53% (264/494)
回答No.5

 色を認識する原理について,人の目には概ね赤緑青を吸収する三種類の色素があり,これらの色素が励起するとその情報が脳に送られます。目が波長に対して分解能が悪いのは,これら三つ色素の吸収量だけで波長を判断するからです。通常,色素の紫外可視吸収スペクトルってブロードな吸収ピークを持っておりますよね,目にある色素も同様です。 > 進化の過程でフーリエ変換できる眼を持った生物  高い波長分解能を得るには,非常に多くの種類の色素を用い,尚かつ各々の色素の吸収ピークがシャープでなければなりません。吸収ピークがシャープな色素は人工的にも非常に希で,遺伝による突然変異でできるとは考えにくいです。さらに,そういった特殊な色素が必要とされるような進化は起こらないのではないかと思います。 あと sssohei さんのコメントに補足ですが, > このとき、人によって、目の見え方は異なるはずですが、学習によって「赤」や「青」という抽象化が行われ、見え方が違っても「同じ意味」となり、 という話は巷でもよくされますが,果たして本当でしょうか? すべての人間が同様の色素を持っているため,目の見え方は基本的には同じだと思います。脳での感じ方は人によって異なるかもしれませんが…。  何故信号機の「赤」が止まれなのか,それは誰が見ても目立つ色だからです。

回答No.3

私は、波を波として捕らえる(振幅だけでなく、位相も含めて測定する、言い換えれば振幅をきちんと時系列で測定する)ために必要なシステムが音響周波数では簡単だが、光の周波数では難しいために目と耳では全く異なるスキームが採用されているのだと思います。 例えば、音響周波数のサンプリングは普通のマイクと簡単なADコンバータで出来ますが、光で同じことはとても出来ません。しかし、位相情報は落として、光の強度だけ測りたいのであれば、フォトダイオードやCCDで簡単にできます。 蛇が赤外線を感じる話は知らないのですが、この場合も赤外線の強度だけ感じているのだと思いますよ。我々がコタツに入ってあったかいと感じるように。

回答No.2

大変面白い問題ですね。思わず考えてしまいました。正しい答えはわからないのですが、多分あっていると思うことを書かせていただきます。間違っていたら識者の方ご指摘下さい。 まず、指摘したいのは、どんな波を「混ぜ」ても(要するに足したり掛けたりする)、その「中間」の周波数が現れることはありません。 周波数f1の波と周波数f2の波が何らかの媒質を通った場合、その媒質が線形ならば、媒質が振動する周波数は、あくまでf1とf2です。耳(鼓膜)はほぼ線形素子であることと、周波数が低いので、音声信号の波が電気信号の波としてそのまま脳に伝わるので、単純に周波数成分に分かれて聞こえるのだと思います。 媒質が非線形ならばf1+f2、|f1-f2|、2f1等々で振動する成分が現れますが、その中間の周波数(f1+f2)/2という成分は現れません。(カオス的な振る舞いの近傍にサブハーモニクスが現れるという話は聞いたことがありますが、かなり特殊なケースだと思います。)これはどんな周波数でも、音波でも電磁波(光)でも波なら一般に当てはまる性質です。ですから、No.1の方がお答えになったように、光の場合に「中間の周波数が現れる」ということは考えにくいと思います。そもそも目の場合、赤の光(波長約700nm)と青の光(波長約450nm)を混ぜて見たとき、中間の波長になるのならば緑の光と感じるはずですが、実際は青よりさらに波長の短い紫(と同じ)であると我々は感じるわけです。単純な周波数の足し算、引き算でも、もちろんうまくいきません。 私はどうも、目と脳という色の認識システムそのものに原因があるような気がします。視細胞には3種類あって、それぞれ、赤、青、緑の光の「強度」を認識します。振幅と位相を持った波として認識しているわけではありません。それぞれの視細胞が感じた信号強度を脳で処理するとき、それぞれの強度をベクトル的に合成し、そのベクトルの向いている向きを「色」と認識するような仕組みが脳にあるのではないでしょうか。つまり、赤、青、緑が120度づつずれた方向を向いているというわけです。ですから、赤と青が同時に入ってくると、その中間の方向を向いた紫と感じるというわけです。全く反対方向の向きの光が入ってくると、それは「白」と感じます。 なんで脳みそはそんなベクトル演算をしているのか、といわれると「?」なのですが、こう考えると、色環とか、捕色とかの概念とうまく整合すると思います。 以上のように考えると、「フーリエ変換できない耳を持った生物」は、空想上はいても良いような気がします。可聴周波数内の異なる周波数で共振する何種かの鼓膜を持ち、それぞれの鼓膜で感じた強度を脳でベクトル的に足し合わせればよいわけですから。 では「フーリエ変換できる眼を持った生物」というのはというと、こちらは考えにくいような気がします。フーリエ変換できる、つまり分光できるためには、光を波として感じなければならないわけですが、そのためには、回折格子のような光の波長くらい大きさの構造が必要で、それを生物で実現するのは困難だと思います。 と、いろいろ考えたのですが、確証があって言っている訳ではないので・・・。

noname#108554
質問者

補足

では、私見を述べさせていただきます。 視覚と聴覚の決定的な違いは何かといいますと、その情報量にあります。 人間の場合、視覚から得る情報量は、五感の9割を占めるといいます。 では、その違いはどこから生じるのでしょうか? 私は波長にあると考えます。 一般に、波から得られる情報は、 1.波長 2.強度 3.方向 の3つが考えられ、 視覚の場合、波長が短いため、3.の情報が増えます。 耳がフーリエ変換を行うのは、3.の情報量不足を補うため、とは考えられないでしょうか? そこで、考えました。 波長が短い音波を日常的に用いている生物、コウモリなどは波長の違いを聞き分けているのでしょうか? もしかしたら、われわれの目と同程度の機能しかもっていないのでは? もしも、電波を感じ取れる生物がいたとしたら、 そこまで言わなくても、ある種の蛇のように赤外線を感じ取れるような生物は、実は、電磁波に対してフーリエ変換を行っているのでは?(それは眼でないのでは?というつっこみはおいといて)

noname#25358
noname#25358
回答No.1

 混ぜる方法が違うからです。  高音と低音を混ぜるとき、純粋に混ぜただけだと、ヘルツの差から低音の音階の中に高音が取り込まれる形で混ざります。  これが高音と低音が一緒に聴こえる原理です。  ところが光は、混ぜると純粋に中間のヘルツをとってしまいます。ですから、中間色に見えるのです。  しかし巧いことやれば、音のように高音と低音を別々にしたまま混ぜることができます。  ADSLや光ファイバーが良い例で、あれらは高ヘルツと低ヘルツの領域を音と同じ混ぜ方で混ぜて送信し、相手先で分解する方法をとっています。

関連するQ&A