- 締切済み
クラウドに求められるサーバープロセッサの変化
大学でのコンピュータの授業で、クラウドに関するレポートを書こうとしています。 方向性としては、サーバーに求められるプロセッサの性能が変化してきている、という内容でいこう、と考えています。 現在、コンピュータに求められる性能は、「数GByte程度の大容量データを1度に処理」することに対し、「数十MB程度の比較的小さい容量のデータを何度も処理」 する方向に変化してきているのではないかと思います。 これは、最近、スマホやタブレットが普及し、クラウドが利用されるようになることに代表されると思います。 これは僕の考えですが、この理解はまず正しいでしょうか? もし、この考え方が正しいなら、サーバープロセッサの設計も変化してきているんじゃないかな、と考えています。 データセンターでは、発熱も大きな問題になってきてると聞きます。 つまり、Intel社のXeonのような極端なスペックのCPUではなく、AMD社のAPUのような程々の性能で消費電力も低く、それなりの性能が出る、という感じになってきているのではないかと。 クラウドでは、もちろんデータの暗号化も必要になると思いますが、APU内蔵のGPUで並列処理したりすることもできますよね。 取り止めのない質問で恐縮ですが、ご意見等、頂けるとありがたいです。 その際、ネットの記事や文献があれば、情報を頂けると助かります。 よろしくお願いします。
- みんなの回答 (3)
- 専門家の回答
みんなの回答
- rinkun
- ベストアンサー率44% (706/1571)
> 現在、コンピュータに求められる性能は、「数GByte程度の大容量データを1度に処理」することに対し、「数十MB程度の比較的小さい容量のデータを何度も処理」する方向に変化してきているのではないかと思います。 今のタイミングだと、これは変化の方向が逆じゃないかと思いますけど。 「ビッグデータ」のキーワードが示すように、GB(ギガバイト)どころかTB(テラバイト)やPB(ペタバイト)のデータを一度に処理することで隠れた構造を見付けて新しい応用を探そうという試みが色々と行なわれています。 > つまり、Intel社のXeonのような極端なスペックのCPUではなく、AMD社のAPUのような程々の性能で消費電力も低く、それなりの性能が出る、という感じになってきているのではないかと。 ちょっと前のトレンドですけど、一つの傾向としてはありますよ。消費電力あたりの演算パワーを如何に高くするかという観点ですね。IntelもAtomベースのサーバ向けCPUを出したりしています。 ただ一方でHPC(ハイパフォーマンスコンピューティング)にクラウドを利用しようという動きもあって、そういうところではXeonのような高性能プロセッサと数百GBの大容量メモリを積んだ仮想マシンを必要としています。 > クラウドでは、もちろんデータの暗号化も必要になると思いますが、APU内蔵のGPUで並列処理したりすることもできますよね。 HPC関係でGPGPUを提供するクラウドサービスもありますが、暗号化程度でGPU並列化なんていう無駄なことはしませんよ。今どきAES暗号化なんかはCPU命令ベースでサポート機能があります。 > その際、ネットの記事や文献があれば、情報を頂けると助かります。 Amazon AWSの広告を読んでみるとか、セミナーに参加してみるとか。(学生が出られるかは知らんが) あとクラウドって何? という部分を突き詰めてみるべきかと。単にデータセンターでサーバを貸すのと何が違うのかとかね。
- superside0
- ベストアンサー率64% (461/711)
もしかして、ご自身が想定されているクラウドの用途って、 スマホで写真をネット上にバックアップしたり、書類ファイルを復数で同期かけたりっていうような データストレージとしてのクラウド利用に限定されてイメージしていませんでしょうか? クラウドって こっち側にリソース(計算能力やストレージ)を置かずに、インターネットの向こう側のを 使うことで、こっち側の設備コストを削減したいってことなんで、 ローカルでこれまでやってたこととほぼ同じだろうから、要求される計算能力が クラウド以前よりも低くなることはないと思いますよ。 というか、逆に、復数のユーザーに対して同時にクラウドサービスを提供するのだから ローカルに分散していたときよりも、負荷は増える方向になるのではと。 というのは、クラウドサービスを提供する側にとっては、 仮想化技術を使って、実際のコンピュータの数以上のサービスを提供することで スケールメリットを生んでいるので。 なので、そういったマルチタスク・マルチスレッドでの高負荷な運用でも速度低下しない程度には プロセッサ性能(速度・コア数)やプロセッサ数を搭載するものと思われます。 ただし、googleのように クラウドの裏側で、分散コンピューティング(グリッドとかクラスタとか)している場合もありますね。 つまり、1台の大規模なコンピュータで計算させるのではなく、 復数の中小規模のコンピュータに処理を分散させている場合もあります。 (CPU性能が小さくてもいいのではという発想としては、こちらをイメージされてなのかもしれませんね。) そういう意味でなら、googleの技術はどうして、 コンピュータの大型化を選ばないで、分散コンピューティングを選んだのかの背景と、 そこで使わるCPUの要求性能を 調べてみれば、 なにか、見えてくるかもしれませんね。 #1台のコンピュータに集中することがスケールメリットだったはずが #大きくなりすぎると、今度は分散コンピューティングすることがスケールメリットになっていて #不思議な感じですが、 #コンピュータの性能向上と価格が比例しなくなるカーブあたりに関係がありそうな気がします。
> 現在、コンピュータに求められる性能は、「数GByte程度の > 大容量データを1度に処理」することに対し、「数十MB程度 > の比較的小さい容量のデータを何度も処理」する方向に変化 > してきているのではないかと思います。 「数GByte程度の大容量データを1度に処理」とは具体的にどんな 処理だと思いますか? 銀行の締め処理(バッチ)でしょうか? バッチ処理から、Webシステム・サービスなどの処理の性能が求め られるようになったのは、スマホやクラウドが登場する『はるか前』 からではないでしょうか。 同様にサーバプロセッサの熱問題や暗号化の問題も、クラウド登場の はるか前から言われてきている問題です。「クラウド登場!」に因を 求めるのには無理があるかと思います。