- ベストアンサー
なぜPCのメモリーは24GB程度に抑えられているのか?
- 最近のPCの進化について疑問があります。OSが64BITになったり、HDDの容量が増えたりしていますが、なぜメモリーの上限は24GB程度に抑えられているのでしょうか?
- 現在、PC用のメモリーの容量は最大で24GB程度までしか増やすことができません。しかし、メモリーは64BIT化で最大約172億GB(1680万TB)まで増やせる可能性があります。なぜメモリーの容量をもっと大きくすることができないのでしょうか?
- 私たちが普段使っているUSBメモリーやSDカードは32GBや64GBといった大容量のものがありますが、なぜPC用のメモリーの容量は制限されているのでしょうか?また、メモリーの大きさそのものを小さくしないのはなぜなのでしょうか?
- みんなの回答 (12)
- 専門家の回答
質問者が選んだベストアンサー
>大量生産したらいいのです。 >もう4GBなんて作るのやめて、手始めに16GBのモジュールにシフトすりゃいいんじゃないですか? 根本的な所で勘違いされているようですが 現在の4GBモジュールは256MBのチップ16枚で構成されています これは今年の夏までは最大容量といって良いチップでした また、16枚というのはモジュールに綺麗に実装できる枚数です 逆に2GBや1GBのモジュールは片面8枚や4枚、切り替わり初期には古い世代のチップの在庫処理 そういう形で同世代ならチップはモジュールに実装される容量に関係なく同一の物となります (同世代の間での速度差はありますが) モジュールの形状は変わりませんので 16枚積めるモジュールに8枚しか積まないのも効率面では悪化要因です つまり4GBモジュールにおいてコストの大半を占めるメモリチップは最大限大量生産されています この状況で8GBや16GBモジュールを作る場合 単にチップの数を倍倍していくしかありません 1モジュール内に搭載するチップの数を増やす場合 まずそれらの信号の整合性を取るため速度が落ちますし チップを搭載する場所を確保するためスタックするか背が伸びるかします (実装方法が特殊になる・モジュール基板を特注することになるのでコストアップ) またチップが増えれば速度だけでなく動作条件も厳しくなります (動作検証に掛かる手間が増えてコストアップ) ですので、8GBや16GBといったその世代の基準を超える大容量化は一気に値段が跳ね上がります お考えの様にはいきません そもそもDRAM業界は潰れるか1強かのコストダウンチキンレースをやってます 大量生産がとか言ってる程度の低い話は既に通り過ぎ去ってるんです ちょっと気を抜けば大量生産どころか過剰生産で死ねる状態ですから これだけメモリが値下がりしたのも需要の予測を読み間違えて作りすぎたところから始まってます つまり大前提の大量生産をやりすぎた結果が今なのです で、先ごろ512MBのチップが量産化されましたが これはプロセスの立ち上がり初期ですので歩留まり等の関係からまだ割高です 一気に生産設備を入れ替え出来ませんので、これが完全に切り替わるまで1~2年は掛かるでしょう このチップを持ってしても16GBには32枚のチップが必要ですので 数も取れないチップを最低16GBモジュールから販売となると プロセスが立ち上がってから生産設備が完全に切り替わって安定供給になるまで 一般ユーザー向けの値段では流通しないということになります >昔Macで16スロットの機種が普通に売られていたが。 >それも16年位前に。 懐かしい、SIMMの頃ですね WinもMacも関係ないハードウェアの話ですよ というか当時のDos/Vも8本16本付いてましたが、あの頃のメモリは今からすれば非常に遅いのと SIMMですので、今のDIMM換算だと半分になってしまいます(SIMM2本がDIMMの構造ですし) そういう理由から16枚(今の8枚相当)でもタイミングの制御ができただけです それでも16本はECCでパリティとか取ったりはする位には当時のレベルでは厳しかったですけど あの頃のEDO-SIMMの速度って250MB/sとかそんなですので(最近のSSD以下) 今のDDR3メモリの10000MB/s(Dual channelで20000MB/s)と比べるのは流石に的外れすぎます >マックで16年前に出来て、ウインドウズで出来ないのは、ウインドウズ陣営が能無しだからですかね? んなコト言ったら今のマックはPowerPCを捨てて、ハードウェア的な差はなくなっちゃってますね ある意味Wintelの軍門に下ったようなもんですよ >じゃぁメモリは4GBでいいからメモリスロットを16個に増やそう! >マックに出来て、ウインドウズに出来ないわけないよね! 昔からWindowsが走るサーバ向けマザーなら8~32とかライザーで64本とかの奴ありますよ? 今のMacでスロットが4本以上あるのとなるとMacProだけですが あれはDualXeonのサーバ用マザーですし、8本だけなので今のMacも腑抜けて落第ですね!とか スロットの本数はハードウェアの話ですのでOSは全く関係ありません んな事言い出すと先のWindowsServerが走るスロット64本のマザーと比べてMacは駄目だよね とかいう話になりますよ 32本のマザーも一式そろえるだけならMacProと同じような値段で組めますし メモリをフル実装する段階で死にますが メモリチップ単位の容量は プロセスの細かさ×チップ面積÷(1bit保持に必要なキャパシタ数(もしくはトランジスタ)+周辺回路) で、概ね大容量化はMLC(1セルに複数bitの値を記憶できる手法、遅い) 高速化はキャパシタではなくトランジスタ4個で組むSRAM(速いが回路規模が大きく消費電力大) 間に色々他の手法がありますが、それが理解できれば容量を捨てて速度に振るか 容量の為に速度を捨てるか、コスト増前提でチップを大量に積んで大容量化するか 同じ世代で同じサイズのチップではこういうトレードオフしかできません ですので先にも述べましたが、今の技術でSSD並みの容量のメインメモリモジュールを作れば SSD並みの速度のメインメモリしか作れません
その他の回答 (11)
メモリの集積率が段々と頭打ちになってきているからです。 また、メモリの最大搭載容量が現在24GBまでなのは、現在のチップセットで扱える限界なのではないでしょうか? 昔、ビルゲイツがメインメモリは640kBであれば十分といったのは、当時のMS-DOSは現在のWindowsのようなGUIではなく、文字だらけのCUIだったため、そこまでメモリを搭載する必要がないOSの話だったからです。 ただ、その後にプロテクトメモリやUMBなどメインメモリ以外のメモリをメインメモリととっかえひっかえしながら使った経緯はありますが。 メインメモリの形状が昔からあまり変わらないのは、あの形状が扱いやすいのと、PC/AT互換機の企画の流れからきているからです。 また、SDメモリとメインメモリに使われるメモリではアクセススピードが桁違いで、SDメモリのように簡単に小型化はできません。
お礼
じゃぁSDメモリと同じプロセスでPCのRAM作ったらいいんじゃないの? 要はデータがどんだけ入るかについては、小型でも64GBとかあるんだから。 その技術を他の回答者の方の言う揮発性メモリの開発にまわせばいい。 小型化と大容量化では、小型化の方がはるかに難しいのはご存知ですよね? HDDが3.5インチならどんどん増えているのに対して、2.5インチのもの、SSDはちっとも増えていないし、価格も高い。 と、個人的に考えていますが。 USBメモリなんて16GBもあれば十分なんだから、みなさんの言う揮発性(つまりデータは一時的に保存されるだけで、電気が通らないと消えるってもんでしょ?)PC用メモリの開発を進めてほしい所です。
- 1
- 2
お礼
>コスト増前提でチップを大量に積んで大容量化 それをして大量生産すりゃいいんです。 そしたら安くなる。 市場原理です。 値段安くなるのが嫌なら、大量生産で生産コストを大幅にカットした上で、メモリの容量に応じて利益の出る値段にすればいいだけ。 むしろ、すげぇ儲かりますよ。 簡単じゃないですか。
補足
私のような情弱に、一番詳しく説明してくれたので、これで〆ます。 メモリーが10年後に1TBになることをみんなで願いましょうよ。 メモリーはあって困るものじゃないですし。 ベストアンサーにさせていただきます。 ありがとうございました。