• ベストアンサー

情報量

情報量 = log() または、エントロピーで計算することは知っているのですが、「雑談」の情報量はどのようにして計算したらいいのでしょうか?? いまいちピンとこないんですけど、計算なんてできるんでしょうか。。。

質問者が選んだベストアンサー

  • ベストアンサー
  • overtone
  • ベストアンサー率22% (191/833)
回答No.2

No.1さんの言われるとおりです。 「信頼度」は 「価値観」が入ってきており 「人間の主観」となり 純粋な数学や物理の範囲を逸脱します。 あえて言うなら 哲学?? 「雑談」に限らず 人間の「会話」を文字として書き出したとして その「文字数」に限らず 『その裏にある情報(行間)』まで 「情報」として捉えるとなると、表現されていないもの(表現されていると考えてもよいが その表現が その情報を受け取る人により代わってしまう)なので 客観的な意味での数値化はしづらいです。 「情報量は文字数による」など 情報量を定義するパラメータを任意に決めることにより 数値化は可能とも思われますが、そのパラーメータに客観性があるか(ほかの人も納得するか)ないかで そのパラメータ自体の信頼度が決まってくると思われます。

その他の回答 (1)

  • sunasearch
  • ベストアンサー率35% (632/1788)
回答No.1

エントロピーは、単純には、 YESかNOかで答えられる質問の場合、 どちらかわからないときに、最も情報量が少なく、 YES、もしくはNOの確信度が高いほど情報量が大きくなります。 ですから、雑談においても、曖昧なこと、真偽が不明なものは情報量が低く、根拠があるもの、事実などはっきりしているものであれば情報量が高いといえるでしょう。 つまり、雑談における話題の信頼度を0から1の値に置き換えて、エントロピーの計算式に当てはめればよいと思います。 信頼度をどう決めるかは、難しいところではあると思いますが。

関連するQ&A