▲ 先頭に戻る

Facebook にも 販売製品の紹介やホームページ更新案内の投稿をしています。

コンピュータプラットフォームでの並列処理の新たな展開と挑戦
ITインフラに対する厳しい要求に対して、コンピュータ自身も大きく変わろうとしています。その中心となっているのが、マイクロプロセッサの64ビット化と“マルチコア化” です。これらの64ビット化されたマルチコアプロセッサを採用したサーバ、ノート/デスクトップが市場に投入されることにより、計算機を含むITインフラは大きな変革の時を迎えています。このようなITインフラの変化に対応するこ とが現在求められています。 続きを読む
  1. はじめに:なぜ、並列処理が必要なのか?
  2. コンピュータにおける並列処理
  3. 並列処理による性能向上の実現
  4. プログラミングワークフローについて
  5. おわりに:スケーラブルシステムズの取り組み


トップページ > 並列処理・並列プログラミング > コンピュータプラットフォームでの並列処理の新たな展開と挑戦
▼はじめに ~ なぜ、並列処理が必要なのか?

ITインフラに対する厳しい要求に対して、コンピュータ自身も大きく変わろうとしています。その中心となっているのが、マイクロプロセッサの64ビット化と“マルチコア化” です。これらの64ビット化されたマルチコアプロセッサを 採用したサーバ、ノート/デスクトップが市場に投入されることにより、計算機を含むITインフラは大きな変革の時を迎えています。このようなITインフラの変化に対応するこ とが現在求められています。

コンピュータプラットフォームの頭脳となるプロセッサは、求められる性能向上に対してトランジスタ数が“ムーアの法則”の予測に対して指数関数的に増加することでその性能向上を図り、同時により高いクロックスピードを目指したプロセッサの開発が行われてきました。マイクロプロセッサは、より高いクロックスピードを目指した開発と並行してそのアーキテクチャも進化しています。これまでのプロセッサの開発では、その性能を引き上げるために主に次の2点を重点とした開発が行われています。一つは、動作周波数(クロック・スピード)の向上であり、もう一つは、1サイクルで実行できる命令数(IPC)の向上です。

動作周波数の向上にはパイプラインを細分化することでの対応が主になされています。実際には、過去に得られたプロセッサ性能向上の80%はそのクロックスピードの向上によって実現されたというレポートもあります。IPCの向上には命令レベルの並列性(ILP:Instruction Level Parallelism )を高めるための様々な高速化技術(Out-of-Order実行や命令の投機的実行)などが開発され、利用されています。しかし、これらの多くの高速化技術での投入によってプロセッサは非常に複数化し、同時に、その動周波数の向上は消費電力と発熱という問題をより深刻化させています。このプロセッサのロジックの複雑さと消費電力と発熱の問題は、プロセッサの動作周波数の向上を従来と同じペースで図ることをより困難にしています。

ムーアの法則:インテルの共同設立者の1人である Gordon Moore 博士が、1965年4月19日号の「Electronics」誌に投稿した、 「一定面積に集積されるトランジスタの数は12か月で倍増し、それに伴いトランジスタの動作速度が向上する」という予測 (その後、1975年に Moore 博士はチップの複雑化を考慮してトランジスタ数の倍増ペースを24か月に修正)
このようなクロック・スピードでの性能向上が困難になっても、マルチメディアやトランザクション処理、製造業での設計計算、先端の科学技術シュミレーションといった多くの分野で、プロセッサの性能は より高いものが求められています。また、システムのセキュリティ機能の強化や省電力のための電力管理といった機能を、プロセッサの性能を損なうことなく実装することが求められています。このような要求に対応するために、現在ではより多くのスレッドで、並列処理を行うことが必要になっています。言い換えれば、今、プロセッサの性能追及のベクトルはクロック・スピードの向上から、プロセッサ・リソースの活用によるマルチスレッドの技術革新と効率向上に向かっ ています。 マルチスレッド性能の向上のためのマイクロプロセッサの実装技術として最も効果的なのがマルチコア化であり、マルチプロセッサ上でのスレッドレベル並列性(TLP:Thread-Level Parallelism)の向上が消費電力とダイサイズ当たりの性能向上を図る上で求められています。



ウェブサイトについて | 免責事項 | サイトマップ | 個人情報保護 | 会社代表からのご挨拶
Copyright© 2005-2024 Scalable Systems Co., Ltd. All rights reserved.