• ベストアンサー

データサイズと画質について

画像に関して教えて下さい。 10ビットのカメラ入力信号があります。これPCで取り込んで動画として録画したいのですが、AVIやMPEGの動画データは8ビットしかないと聞きます。8ビットサイズに加工すると見た目にも画質が劣化してしまうのでしょうか。とするとNTSC信号を使用していた時と同じ様に、10ビットのカメラを使用する意味がないのですか?この辺とにかく初心者なので宜しくお願いします。

質問者が選んだベストアンサー

  • ベストアンサー
  • Werner
  • ベストアンサー率53% (395/735)
回答No.3

そもそも一部の高級品を除いてディスプレイはせいぜいRGB各色8bitの色再現性しか持たないから、 普通のディスプレイでは違いを確認しようが無い。 ANo.2でいわれているように、編集・映像処理時の画質劣化を抑えるためにあると思って良いと思う。 STAGE-07 デジタルデータの色深度 [基礎編] | ビギナーズゲート | dof http://www.depth-of-field.jp/main/beginner/beginner_007.php > もしgifなら これは256色しか使えない画像。どう?劣化して見える? > もしjpgなら これはブロックノイズが発生してる。どう?判る? 元画像や圧縮パラメータ次第では明確に違いが分かってしまうから 違いが分からないことを示す例としては不適当だと思う。 というか、劣化してるかどうかを見るには劣化前の画像と比べられないとだめなんじゃ…。 gif画像は256色前提で作ることが多いから、減色前の画像がそもそも存在しないこともあるし。

Toriton555
質問者

お礼

Werner様 回答ありがとうございました。 教えて頂いたサイトも大変参考になりました。

その他の回答 (3)

  • SAYKA
  • ベストアンサー率34% (944/2776)
回答No.4

No3→ >元画像や圧縮パラメータ次第では明確に違いが分かってしまう それは確かにそうだね。 でも例に出してるのは今見てる質問サイトの上部に表示されるロゴ画像の話をしているよ。 この画像で荒れが認識できるようなら元画像は実はもっと綺麗なものが存在したりするというお話。 元画像と比べないと判らないような程度の認識なら24bit(RGB各色8bit)と30bit(各色10bit)も区別する意味が見いだせないよって話。(8bitと24bitが区別しにくいのに24bitと30bitなんて無いのと一緒) 実際は指摘しているように画面もソフトもOSもグラボも対応してなくてって状態だろうから調整用なんだろうね。。。 使う人は使うけど、判らなかったら現状の情報量でもそんな問題になることじゃないよって言いたいだけ

Toriton555
質問者

お礼

SAYKA様 回答ありがとうございました。8ビットも10ビットもデータ上は存在していても人間の見た目ではそれほど違いが判らないということですね。 とても参考になりました。

  • mtaka2
  • ベストアンサー率73% (867/1179)
回答No.2

人間の視覚能力上は、階調認識能力はだいたい8bit(256階調)ぐらいと言われてますので、8bit出力で十分です。 ではなぜカメラが10bitの情報を出力しているかというと、それは画像補整のためです。 たとえば、「画像の明るさが暗いので2倍に明るくする」なんて処理をすると、入力が8bit(256階調)だと、2倍にした時点でデータは全て偶数になり、7bit(128階調)分の階調情報しかなくなってしまいます。 そこで、「10bitでデータ入力」して「必要な補正処理を行い」「8bitで保存」するようにすれば、8bit分256階調をフルに利用できるのです。

Toriton555
質問者

お礼

mtaka2様 回答ありがとうございました。とても解り易く参考になりました。

  • SAYKA
  • ベストアンサー率34% (944/2776)
回答No.1

それじゃ逆になるけど質問 今見てるこの質問サイト、上の方とかにサイトのバナーが出てると思う。 この画像のプロパティを見てみて。 もしgifなら これは256色しか使えない画像。どう?劣化して見える? もしjpgなら これはブロックノイズが発生してる。どう?判る? 極端な話だけどそれが識別できないようなら10bit映像が8bit映像になったところで気が付かない。 その程度のお話。 ぶっちゃけ10bitはプロの素材用だとでも思えば問題ないよ

関連するQ&A