InfiniBandソリューション
サーバやストレージを対象にエンドトゥエンド接続ソリューションを提供するメラノックステクノロジー
わずかなコストでHPCに迫るパフォーマンスを享受できるInfiniBandソリューションの特性やメリットについてご紹介します。
- 導入いただいた製品
- InfiniBandソリューション
- ご導入前の課題
- InfiniBandソリューション
- ニューテックを選んだ理由
- InfiniBandソリューション
本ページに記載された技術情報は記事が出稿された時期に応じて推奨システムに対する考え方や実現方法が書かれています。 |
Mellanox Technologies社(メラノックス テクノロジーズ社)
メラノックステクノロジーズ社は、サーバやストレージを対象にInfiniBandのエンドトゥエンド接続ソリューションを提供するリーディングカンパニーです。
複雑で膨大な計算を要するハイパフォーマンス コンピューティング(HPC)は、学術分野や研究分野さらには一般企業においてもビジネス上の大きなメリットをもたらすため、近年多くの業種に導入されています。HPCが普及している大きな理由の1つは、高速ネットワークを使用して複数の業界標準サーバをクラスタ化し、従来のスーパーコンピュータよりもはるかに少ないコストで、スーパーコンピュータのパフォーマンスを享受できることにあります。このHPCアプリケーションで重要な役割を果たしているのがInfiniBandソリューションであり、多くのお客様がメラノックス テクノロジーズ社製品を採用しております。
HPC環境で培ったテクノロジーを近年のクラウドコンピューティングを支えるデータセンター環境、ビックデータ時代のオフィスコンピューティング環境においても、I/Oボトルネックを解消するだけではなく、スケーラビリティ、仮想化技術、消費電力などTCOの改善に最適なソリューションを提供致します。
インフィニバンドはInfiniBand Trade Asociationで定義された標準規格で、イーサーネットやファイバーチャネルと同じIEEE802.3をベースとしております。 複数のレーン(接続)の集束が可能で、Node to Nodeの場合、4本のレーンを束ねて通信することで、QDRでは40Gbps(10Gbps×4)、FDRでは56Gbps(14Gbps×4)と、現在主流の1Gbpsのイーサーネットに比べ、早く安定した帯域でイーサーネットをはるかに上回るコストパフォーマンスを提供いたします。 また、単に56倍と規格上の数値もさることながら、リンクレベルフローコントロールや輻輳制御などパケットロスを可能な限り抑えたワイヤースピードに近い高品質で柔軟なネットワークを提供いたします。
RDMA(Remote Direct Memory Access)
独立したシステムのメインメモリ間、システムとストレージ間のデータ転送を効率化するテクノロジ。メモリ間のデータ転送時にはホストCPUの割り込みがほとんど発生しないため、ホストCPUのオーバーヘッド低下に加え、データ転送時のレイテンシ短縮にもつながります。 Ethernet上でRDMA機能を実現する RDMA over EthernetもMellanox 社 HCAではサポートしており、non-HPC市場での導入が進んでいます。
CPU Offload
TransportレイヤとNetworkレイヤを HCAのチップがハードウェアで処理することにより、CPUの負荷を軽減できます。
活用例(SupremacyⅡ iXの場合)
2000年初頭に登場し、HPC環境やデータセンターでの利用イメージの強いInfiniBandですが、一般のオフィス環境にこそ導入効果のあるプロダクトです。 現在では、1ポートあたり10万円を切るコンフィギュレーションも可能で、豊富なラインナップをご用意しております。是非一度お試しください。
サーバ仮想化の普及に伴うI/Oボトルネックの解消
データ量増加に伴うレプリケーション時間の増加を解消
(2011年11月掲載)