- ベストアンサー
なぜPCのメモリーは24GB程度に抑えられているのか?
- 最近のPCの進化について疑問があります。OSが64BITになったり、HDDの容量が増えたりしていますが、なぜメモリーの上限は24GB程度に抑えられているのでしょうか?
- 現在、PC用のメモリーの容量は最大で24GB程度までしか増やすことができません。しかし、メモリーは64BIT化で最大約172億GB(1680万TB)まで増やせる可能性があります。なぜメモリーの容量をもっと大きくすることができないのでしょうか?
- 私たちが普段使っているUSBメモリーやSDカードは32GBや64GBといった大容量のものがありますが、なぜPC用のメモリーの容量は制限されているのでしょうか?また、メモリーの大きさそのものを小さくしないのはなぜなのでしょうか?
- みんなの回答 (12)
- 専門家の回答
質問者が選んだベストアンサー
>大量生産したらいいのです。 >もう4GBなんて作るのやめて、手始めに16GBのモジュールにシフトすりゃいいんじゃないですか? 根本的な所で勘違いされているようですが 現在の4GBモジュールは256MBのチップ16枚で構成されています これは今年の夏までは最大容量といって良いチップでした また、16枚というのはモジュールに綺麗に実装できる枚数です 逆に2GBや1GBのモジュールは片面8枚や4枚、切り替わり初期には古い世代のチップの在庫処理 そういう形で同世代ならチップはモジュールに実装される容量に関係なく同一の物となります (同世代の間での速度差はありますが) モジュールの形状は変わりませんので 16枚積めるモジュールに8枚しか積まないのも効率面では悪化要因です つまり4GBモジュールにおいてコストの大半を占めるメモリチップは最大限大量生産されています この状況で8GBや16GBモジュールを作る場合 単にチップの数を倍倍していくしかありません 1モジュール内に搭載するチップの数を増やす場合 まずそれらの信号の整合性を取るため速度が落ちますし チップを搭載する場所を確保するためスタックするか背が伸びるかします (実装方法が特殊になる・モジュール基板を特注することになるのでコストアップ) またチップが増えれば速度だけでなく動作条件も厳しくなります (動作検証に掛かる手間が増えてコストアップ) ですので、8GBや16GBといったその世代の基準を超える大容量化は一気に値段が跳ね上がります お考えの様にはいきません そもそもDRAM業界は潰れるか1強かのコストダウンチキンレースをやってます 大量生産がとか言ってる程度の低い話は既に通り過ぎ去ってるんです ちょっと気を抜けば大量生産どころか過剰生産で死ねる状態ですから これだけメモリが値下がりしたのも需要の予測を読み間違えて作りすぎたところから始まってます つまり大前提の大量生産をやりすぎた結果が今なのです で、先ごろ512MBのチップが量産化されましたが これはプロセスの立ち上がり初期ですので歩留まり等の関係からまだ割高です 一気に生産設備を入れ替え出来ませんので、これが完全に切り替わるまで1~2年は掛かるでしょう このチップを持ってしても16GBには32枚のチップが必要ですので 数も取れないチップを最低16GBモジュールから販売となると プロセスが立ち上がってから生産設備が完全に切り替わって安定供給になるまで 一般ユーザー向けの値段では流通しないということになります >昔Macで16スロットの機種が普通に売られていたが。 >それも16年位前に。 懐かしい、SIMMの頃ですね WinもMacも関係ないハードウェアの話ですよ というか当時のDos/Vも8本16本付いてましたが、あの頃のメモリは今からすれば非常に遅いのと SIMMですので、今のDIMM換算だと半分になってしまいます(SIMM2本がDIMMの構造ですし) そういう理由から16枚(今の8枚相当)でもタイミングの制御ができただけです それでも16本はECCでパリティとか取ったりはする位には当時のレベルでは厳しかったですけど あの頃のEDO-SIMMの速度って250MB/sとかそんなですので(最近のSSD以下) 今のDDR3メモリの10000MB/s(Dual channelで20000MB/s)と比べるのは流石に的外れすぎます >マックで16年前に出来て、ウインドウズで出来ないのは、ウインドウズ陣営が能無しだからですかね? んなコト言ったら今のマックはPowerPCを捨てて、ハードウェア的な差はなくなっちゃってますね ある意味Wintelの軍門に下ったようなもんですよ >じゃぁメモリは4GBでいいからメモリスロットを16個に増やそう! >マックに出来て、ウインドウズに出来ないわけないよね! 昔からWindowsが走るサーバ向けマザーなら8~32とかライザーで64本とかの奴ありますよ? 今のMacでスロットが4本以上あるのとなるとMacProだけですが あれはDualXeonのサーバ用マザーですし、8本だけなので今のMacも腑抜けて落第ですね!とか スロットの本数はハードウェアの話ですのでOSは全く関係ありません んな事言い出すと先のWindowsServerが走るスロット64本のマザーと比べてMacは駄目だよね とかいう話になりますよ 32本のマザーも一式そろえるだけならMacProと同じような値段で組めますし メモリをフル実装する段階で死にますが メモリチップ単位の容量は プロセスの細かさ×チップ面積÷(1bit保持に必要なキャパシタ数(もしくはトランジスタ)+周辺回路) で、概ね大容量化はMLC(1セルに複数bitの値を記憶できる手法、遅い) 高速化はキャパシタではなくトランジスタ4個で組むSRAM(速いが回路規模が大きく消費電力大) 間に色々他の手法がありますが、それが理解できれば容量を捨てて速度に振るか 容量の為に速度を捨てるか、コスト増前提でチップを大量に積んで大容量化するか 同じ世代で同じサイズのチップではこういうトレードオフしかできません ですので先にも述べましたが、今の技術でSSD並みの容量のメインメモリモジュールを作れば SSD並みの速度のメインメモリしか作れません
その他の回答 (11)
- wormhole
- ベストアンサー率28% (1626/5665)
>昔Macで16スロットの機種が普通に売られていたが。 >それも16年位前に。 >マックで16年前に出来て、ウインドウズで出来ないのは、ウインドウズ陣営が能無しだからですかね? 違います。 ウインドウズ陣営がどうとかも関係ありません。 16年前だとSDRAM以前の話になるのでメモリスロット数の制限など 現在とは異なるので単純比較できません。 詳細をお知りになりたいのでしたら技術的背景の知識も 必要になってきますので多少勉強されてはいかがでしょうか
お礼
消費者が技術的な事をなんぞ知る必要はありません。 あなたはハイブリッド車の技術的知識をお持ちですか? ハイブリッド車のユーザーのほとんどは、「燃費がいい」程度の知識でしか使っていませんよ。 コンビニ弁当の製造ラインについて、コンビニ弁当を食べたことあるでしょうが、その技術知識を知ろうと思いますか? そんな人間いません。 うまければそれでいいのです。 技術の知識なんてどうでもいいんです。 増えればいいんです。 どんな方法でやろうと勝手です。 100円ショップが、大量生産大量販売でコストを徹底的に抑えています。 昔なら数百円以上はした雑貨や小物、あらゆるものが100円で買えます。 前SDカードをUSBに変換するアダプターを100円で買ってきましたが、普通に使えましたよ? そしたら家電量販店で2000円出して買うのってバカでしょ。 今はそのバカにされている状態なんです。 どっかで革命を起こさないと、いつまでも食われるだけになるんです。 ユニクロで980円でシャツ買えるのに5000円出して同じもの買うのもバカでしょ。 シャツなんて使い捨てなんだから、安くて十分。 昔は靴下3足1500円とかしましたが、この前家電量販店でなぜか靴下売っていて5足300円でした。 なんら問題ないです。 OSだってそうでしょ。 2万もするからぼろ儲け。 一度作ったらコストなんてCDRに焼くだけの簡単な仕事。 原価10円です。 開発に費用かかる?何をおっしゃいます。バグだらけセキュリティーホールだらけで毎日つぎはぎアップデートパッチ配るよな欠陥品でしょ。 鼻くそほじりながら作っているんじゃないですか? だから今無料OSやLINUXがどんどん広まっています。 話はそれましたが、昔できたのになんで今できんのかってのは、わかりましたが、たぶんそれは「できない」じゃなくて「しない」だけだと思うのです。 消費者のことなんて考えてないんですよ。
- ariseru
- ベストアンサー率56% (928/1657)
>USBの不揮発メモリで大容量化できて、揮発性のRAMで大容量化出来ないのはなぜですか? >何か小難しいことでもあるんでしょうか? 不揮発性メモリと揮発性メモリにはそれぞれ特徴があって、それゆえにお互いの代替品にはなりません。 揮発性メモリ ・データアクセスが高速 ・大容量化が難しい ・データの書き換え回数の寿命がほぼ無制限 不揮発性メモリ ・データアクセスが低速(特に書き込みが遅い) ・大容量化が比較的簡単 ・データの書き換え回数に寿命があり、安価なメモリは寿命が短い 分かりやすい違いだと上記のような感じですね。 そもそも、メインメモリというのはCPU内のキャッシュの代替品だから最も重要なのはデータの読み書きが高速であることです。 不揮発性メモリだとどうしてもこの部分が満たせないですし、書き換え寿命の問題があるので頻繁にデータを書き換えるメインメモリとして使うのは難しいです。 ちなみに、USBメモリとかSSDなんかに使われているフラッシュメモリだと1枚あたり32GBとか64GBなんてチップも開発されています。 ですが、メインメモリに使われるような不揮発性のメモリチップだと1枚あたり512MBくらいまでですね。 それを1枚のメインメモリに8~16枚搭載することで1枚のメインメモリが出来上がっています。 ただ、1枚で512MBのメモリチップというのは最近開発されたばかりなので、主流は1枚256MBのものですね。
お礼
言わんとしていることはわかりますが ・大容量化が難しい ってのはだからなんでですか? CPUなんてトランジスタが何十億もあのチップに詰め込まれているんですから、その技術つかってメモリも詰め込めばいいんじゃないですか? 不揮発性が詰め込めるのだから、揮発だって原理は同じでしょ。 速いか遅いかって違いだけですよね? 詰め込めば速くなると思うのですが。 CPUはプロセスを細密化して詰め込んで進化していますよね? と思いますけど。
- ura03
- ベストアンサー率39% (150/382)
とても高価で普通に買えませんが、8GBモジュールのメモリも出てますよ。 Total容量にしても、自分の使っている5年前のDell機でも64GBまでは搭載できます。 当時4GBのECC FBDIMが高価で購入できなかったので1GB*16で16GBにしてます。 何か勘違いしているようですが、USBメモリのチップとメインメモリに使用しているDRAMはまったく別物で 比較になっていませんよ。
お礼
USBの不揮発メモリで大容量化できて、揮発性のRAMで大容量化出来ないのはなぜですか? 何か小難しいことでもあるんでしょうか?
- hirasaka_tamaki
- ベストアンサー率41% (143/345)
コンシューマ向けのnon ecc unbufferedでも8GBメモリが出てますよ。 8GBx2で3万円程度からです。 現行のZ68なんかは8GBメモリを想定して、4スロットで最大32GBまで積めますよね。 X58であれば、48GB積めると書いてあるマザーもあります。 http://www.intel.com/content/www/us/en/motherboards/desktop-motherboards/desktop-board-dx58so2.html 今、大容量メモリがほしいなら、1枚30万円位しますが32GBのものもあります。 それに組み合わせる本体は、デュアルCPU以上のPCになります。 この機種なんかは2TBまで対応しています。 http://www-06.ibm.com/systems/jp/x/scalable/3850x5/ 個人で買えないこともないですが、全部お任せなら軽く1億行くでしょう。 ベースモデルだけ買って、自分で拡張していけば5千万ちょっとくらいで行けるかもしれません。 まあ、それでも地方なら一軒家が3つくらい買える値段なので、余程の物好きしか買わないと思いますが。 メモリチップ自体の高容量化は莫大なコストがかかります。 チップ自体は同じ大きさのままで、容量を倍にするには技術革新が必要なほどです。 昔はチップの製造技術はそのままで、単純にメモリの上にメモリを載せて、亀の子のようにした製品もありました。 または、メモリ基板を高くして、チップを2倍載せた製品もありました。 新しく開発するよりは断然安いですが、当然発熱も大きくなり、きちんと冷却しなければ壊れます。部品点数が増えるので、故障率はぐっと上がります。 新技術で大容量のものが完成しても、投資費用を回収するため、発売後しばらくはメモリ価格が高止まりで、そのため一般消費者は手を出しにくいです。 大容量メモリのターゲットは企業です。業務効率化が収益アップにつながるなら、多少高くても喜んで投資するでしょう。 今後も64GB、128GB、256GBと技術革新は留まることなく大容量のメモリは登場し続けます。
お礼
>メモリチップ自体の高容量化は莫大なコストがかかります USBメモリはコストかからんのですね。 きっと子供が乗るおもちゃの自動車とフェラーリ位の違いが、USBメモリとPC用RAMにあるんでしょうかね?
- wormhole
- ベストアンサー率28% (1626/5665)
単純に現在の技術ではできないからなんですが・・・ メモリチップは今こんなところ http://sankei.jp.msn.com/economy/news/110922/biz11092218230029-n1.htm メモリモジュールも上記のような4GビットDRAMを使用した16GBのものが 最近出始めたばかりです。 ではマザーボードのメモリスロットを多量に増やせばいいじゃないかと お思いになるかもしれませんがメモリスロット数を増やせば増やすほど ノイズの影響も大きくなりますし信号の同期も難しくなるため そんなに増やせるわけではありませんし。
お礼
>モリスロット数を増やせば増やすほど ノイズの影響も大きくなりますし信号の同期も難しくなるため 昔Macで16スロットの機種が普通に売られていたが。 それも16年位前に。 マックで16年前に出来て、ウインドウズで出来ないのは、ウインドウズ陣営が能無しだからですかね? じゃぁメモリは4GBでいいからメモリスロットを16個に増やそう! マックに出来て、ウインドウズに出来ないわけないよね!
- FCS_RIK
- ベストアンサー率48% (109/223)
単純に メモリといっていますがUSBメモリとメインメモリに使われるチップは別物です 概ね速度を求めると1ビットのデータを保存するのに使われる回路規模は増大します 先の回答にも出ていますが USBメモリは不揮発性メモリですし、速度も非常に低速です(USB3.0のでも90MB/s位 その代わり単位面積当たりで記憶できる容量は多いのです PCI-E接続で1GB/s出せる240GBのSSDが夏ごろ発売されましたが これはそういう不揮発性メモリを16枚、メインメモリと同じ枚数積んでいます で、最近のメモリはモジュール1枚あたり10GB/s位の速度が出せます チップ辺りの速度が10倍違うわけです つまり現在の技術力でおっしゃるような大容量メモリを作ったとしても 仮想メモリとしてUSBメモリやSSDを指定したのと同じ結果となります、遅くなりますので >せめて16GB程度のメモリーの規格とか、出ないのでしょうか? 一枚8GBのメモリはRegistered/ECCタイプなら2年前に発売されています 一枚16万でしたが まずメインメモリの容量はモジュールに搭載されるチップ辺りの容量と枚数によります 先のは通常の倍の数のチップを搭載することで1モジュール辺り8GBを実現しました 今年チップ容量が増えたため、一般的な枚数のチップで8GBのメモリが発売されましたが 立ち上がったばかりのプロセスのため、8GBのモジュール一枚辺り2万位はします と言うわけでチップ枚数を通常の倍積んで16GBのモジュールというのも売ってはいます DATARAM PC3-10600 Registered ECC 16GB 2RANK 1.35V DRL1333RL/16GB 一枚16万ですし、XeonやOpteronといったサーバCPU向けなので、一般PCでは使えませんが 無論ボッタくってるわけではありません 今の技術力でメインメモリとして使える速度を保ったまま16GB化するとこうなるだけです >16スロット位メモリソケット付けて、256GBメモリー搭載とか、しないのでしょうか? サーバ用マザーならそういうのは何年も前からありますよ http://www.supermicro.com/Aplus/motherboard/Opteron6100/SR56x0/H8QG6_-F.cfm 32スロット最大512GB可能です メモリをフル実装するとメモリだけで130w位食いますし 先の16GBモジュール32本なのでメモリだけで500万位掛かります >なんで24GBに収めるのでしょうか? 一般ユーザーが500万払ってメモリ積みますか? 発売当時の一般向けの最大容量でテストした結果を記載しているだけです (24GBということはLGA1366マザーでしょうし、当時の最大容量4GBモジュール6本の結果 (当時の8GB6本は80万近くしますし、Ecc/Regの特殊タイプです また、マザーにスロットを多数配置することは、配線の複雑化と基板の多層化を招きます (メモリからメモリコントローラーまでの配線は全スロットから同じ長さになるように設計します (それだけの配線を収めると基板の積層数を増やす必要があり、単にスロットの端子もコストとして増えます 先の512GB積めるマザーは12万します、一般ユーザーが12万払ってマザーだけ買いますか?
お礼
>一般ユーザーが500万払ってメモリ積みますか? まぁ500万腹ってメモリ乗せるなら、PC複数台で分散処理したほうがいいよね。 でもそれは「今買えるような値段で売っていない」からですよね? 大量生産すれば、どんどん安くなります。 需要が増えれば供給も増えて、値段は下がる。市場原理です。 大量生産したらいいのです。 もう4GBなんて作るのやめて、手始めに16GBのモジュールにシフトすりゃいいんじゃないですか? と、思います。
- bardfish
- ベストアンサー率28% (5029/17766)
>すごい昔にビルゲイツは「PCのメモリーは640kbもあれば十分」と言っていましたし、そんな予想外れています。 それはWindowsが開発される前のMS-DOSの時代の話。 MS-DOS当時のCPUは8086互換CPUが主流で、このCPUが扱えるメモリに制限がありました。それが640KB(だと思ってください)。OSも当然それに合わせて作られています。 当時のメモリは今と比べるとものすごく高価で16KBとか32KBで数万円もしたんです。その後EMSメモリ(80286以上のCPUが対象だったはず)といって1/2/4MBの拡張増設メモリが利用できるようになりましたがこれも数万円しました。確か「1MBあたり1万円」がお買い得の目安だったかな? >質問の論点は「PC用内部メモリーの単体の容量が4GBより大きくならないのはなぜか」でお願いします。 マザーボードによっては、4GB以上のメモリを搭載できるものもありますよ。1枚のメモリで4GBとかもありますからね。それが4枚搭載できれば16GBでしょ? サーバー製品にはメモリスロットが8個とか16個あるマザーボードもあります。 使用するCPUやBIOSによって扱えるメモリ容量が変わります。 それに、OSのメモリ管理が粗悪だとメモリを増設しすぎると逆に遅くなるということもあります。 一例として、起動時のメモリチェックに時間がかかりすぎる。休止状態への移行と復帰に時間がかかりすぎる。等々…
- lv4u
- ベストアンサー率27% (1862/6715)
>>PC用内部メモリーの単体の容量が4GBより大きくならないのはなぜか Windows の32bitOSでは、4GB以上載せても、それを超えたメモリーは通常の状態では利用できないからでは? また、現状では、普通の方がPCでアプリを使うには、4GBあれば十分だという判断もあると思います。 4GB以上にすることも可能でしょうけど、使われないメモリを載せたら、PCの価格もアップしますし、電気代もちょっと増えるでしょうね。 PCのOSで、4GB越えのメモリが使えるのが当然という時代になってくれば、単体で4GB越えのメモリも発売されるようになると思えます。 >>すごい昔にビルゲイツは「PCのメモリーは640kbもあれば十分」と言っていましたし、そんな予想外れています。 ? 私が最初に使っていたPC(当時はマイコンと言っていた)のメインメモリは、32KBでした。640KBなんて、ほんとうにとても大きなものと思いました。ハードディスクなんて夢の夢。1枚で320KBの5インチフロッピードライブを2台揃えたのは、本体購入して半年か、1年後だったかな? そのころ、IBMの汎用コンピュータ用の1GBのハードディスクの発売がニュースになっていました。たしか1千万円だったような・・・。 だから、自分が所持するPCのハードディスクが1GBを越えることは予想もできなかったし、ましてやメインメモリが1GBを越えるPCなんて考えられなかった。このころのプログラミングでは、「メモリの1バイトは血の一滴」なんて雰囲気で、アセンブラのテクニックで「こうすれば、プログラムが1バイト小さくなります」なんてのを記事で見かけたりしました。 あのころは、「PCユーザ=プログラマ」といってもいいくらいでしたからね。そして黎明期・発展期の熱気がユーザにもPCショップにもあったし、秋葉を歩くとワクワクしたものですね。 先日、ひさしぶりに秋葉を歩いたら、道に並んだ呼び込みのメイドさんたちの山に驚いてしまいました。もうワクワク感も無く、彼女らを無視して目的のショップを回って、さっさと帰宅しました。
お礼
64BIT登場してもう2年なんだから、別に32BITに縛られる必要はないかなと思うのですが。 HDDでも昔あったじゃないですか、137GBの壁。 w2kで。 BigDriveって問題です。 それだって、XPが登場したら解消され、飛躍的にHDDは増えていて、今は3TBです。 次はメモリですよ。
- ariseru
- ベストアンサー率56% (928/1657)
>PC用内部メモリーの単体の容量が4GBより大きくならないのはなぜか 質問者さんが知らないだけで1枚で8GBの一般向けDDR3メモリというのは登場しています。 マザー側が正式対応していないのは、いま販売しているマザーは1枚で8GBのメモリが登場する以前に作られたチップセットを使っているからですね。 1枚あたり8GBのメモリが無いのに8GB×6枚で48GBまで対応なんてマザーは作れませんから。 今年の11月半ばに登場予定のIntel X79マザーは対応しているか怪しいですが、来年の4月くらいに登場予定もIntel Z7xシリーズのマザーでは8GBメモリにも対応してくるでしょうね。 >DTPの現場とか、映像分野でPCを使っている人間ならメモリーなんてあるだけあればいいはずです。 >フォトショップの作業を全部メモリーに展開できたら、処理速くなるんですけどねぇ。 たしかに、そういった用途だとメモリが多ければ恩恵は大きいでしょうね。 ですが、逆に言えばそういった用途以外では効果もなければ需要も無いってことです。 メーカーとしては採算が見込めない製品は作りませんし、もしも作ったとしても超高額になると思いますよ。 というか、メモリが欲しくて高額な機種でもかまわないってことならサーバー機種を買えば良いんですよね。 最近のサーバー用のマザーならCPUが1個あたりメモリが8枚までですし、CPUを2個搭載ならメモリは16枚まで積めます。 そして、サーバー用メモリは1枚で8GBもあるから128GBまでは搭載出来るでしょうね。 >たとえばUSBメモリーやSDカードは32GBとか、64GBって容量の普通に売っていますよね。 >あんな小さなチップにそれだけ詰め込めるんだから、PC用のメモリーの大きさの規格なら1024GBのメモリーとかあってもいいと思うのですが。 USBメモリで使っているのは不揮発性メモリ、メインメモリで使っているのは揮発性メモリ。 両者は同じ"メモリ"という名称が付いていますが、使用しているメモリチップの種類が全然違うので同じように考えることは出来ません。 USBメモリ用のメモリチップでメインメモリを作ったらメインメモリ型のSSDが出来上がるだけですし、逆にメインメモリ用のメモリチップでUSBメモリを作ったらUSBメモリ型のメインメモリが出来あがるだけです。
お礼
現状がどうなのかはわかりました。 ありがとうございます。
- pasocom
- ベストアンサー率41% (3584/8637)
PC(パソコン)は毎年性能が約2倍になると言われて進化しつづけてきました。質問者様がおっしゃるようにここ10年でアップした性能は「何千倍」にもなるかもしれません。 これは「当然の進化」のような気がしますし、これからも今までと同じように進化していくと思われがちですが、本当にそうでしょうか?。 PCが性能アップを図ってきた理由は ・PCを使って行う作業(ソフト)が年々膨大になり、それをこなすために速いCPUや大きなメモリが必要だった。また逆にPCの性能アップを頼りにソフトがますます肥大化して、いわゆる「重い」ものになっていった。 (Microsoft(ソフト会社)とIntel(ハード会社)が結託して勧めていた路線ですからね。) ・PC内に蓄積(記録)されるソフト類の容量サイズが上記のように膨大化し、また作成されたり収集されるデータ類のサイズも大きくなったため、記憶領域(ハードディスク)が大容量化していった。 というような理由ですね。 しかし、ここまで進化したところでまわりを見回してみましょう。いまやどんな国でもネット回線が充実し、どこでもいつでもネットに接続できる環境が整いつつあります。その中で「クラウド」という考えが出てきました。 これは一つのPC内にいろんなソフトやデータを抱え込んでPCの負担を大きくするのではなく、いろんなソフトやデータの蓄積をネット上のサーバコンピュータでサービスしようとする考えです。 すでにご存じでしょうが、一昔前には「メールソフト」を使ってメールの送受信をするのは当たり前でしたが、今ではWebメールを使っている方の方が多いのではないでしょうか。この方がどこでも自分のメールサーバにアクセスできますし、新しいPCを買うたびにメールデータを移行する手間もなく、PCのクラッシュなどでメールデータを失ったりせずにすみます。 いまや「ワード」や「エクセル」、簡単な画像加工などのソフトはGoogleなどが提供しているネット上のソフトで充分ですので大金をはたいて「オフィス」を購入する必要もありません。 つまり、「クラウド化」が進んでいくこれからのPCはネットに接続できるという最低限の性能さえあれば、ほとんどのことはできるようになることでしょう。簡単にいえばPCの将来はおそらくスマートフォンみたいなものになるのではないでしょうか。 したがって、コンピュータメーカーも今までのようにひたすらPCの性能をアップさせていく路線はもう必要ない、と判断しているのです。これからは「可搬性(モビリティ)」とか「操作性」などの性能がパソコン(そのころになるとそんな呼び名さえなくなるかも・・・)に必要な性能になるのです。
お礼
クラウドサービスは、興味ありますね。 自分でデータ持つ必要ないのですから。 でも、現状回線が細すぎます。 自分の回線が100Mbpsだと、遅すぎて話しにならんですよ。 1GbpsでようやくUSB2.0の2倍ちょっとですか。 5Gbpsでようやく実用的だと思います。 でも現状、回線の速度がそこまで上がるとは思えんです。 10年間ずっと100Mbpsですよね。 auが1Gのを最近出した位ですが、実行速度は300Mbps程度と聞いています。 あと、回線の収容局やISPも回線が太くなければなりません。 5Gbpsを普及させるには、今の50倍の回線の太さと、それに耐えうるサーバー機器が必要です。 NTTが敷設した光ファイバーを今の50倍にしなきゃならんのですよ、たぶん(というのはインフラの光回線ってのは、まだまだその性能をおそらく1%も使っていないと言う点です。光なのですから、たぶん単に終端機器やサーバーの処理能力の問題であって、その機器が進化したら、数千倍数万倍いや100万倍以上の太さに出来ると思います) と、思っています。
- 1
- 2
お礼
>コスト増前提でチップを大量に積んで大容量化 それをして大量生産すりゃいいんです。 そしたら安くなる。 市場原理です。 値段安くなるのが嫌なら、大量生産で生産コストを大幅にカットした上で、メモリの容量に応じて利益の出る値段にすればいいだけ。 むしろ、すげぇ儲かりますよ。 簡単じゃないですか。
補足
私のような情弱に、一番詳しく説明してくれたので、これで〆ます。 メモリーが10年後に1TBになることをみんなで願いましょうよ。 メモリーはあって困るものじゃないですし。 ベストアンサーにさせていただきます。 ありがとうございました。