[go: up one dir, main page]

JP6286542B2 - 計算機システム - Google Patents

計算機システム Download PDF

Info

Publication number
JP6286542B2
JP6286542B2 JP2016528751A JP2016528751A JP6286542B2 JP 6286542 B2 JP6286542 B2 JP 6286542B2 JP 2016528751 A JP2016528751 A JP 2016528751A JP 2016528751 A JP2016528751 A JP 2016528751A JP 6286542 B2 JP6286542 B2 JP 6286542B2
Authority
JP
Japan
Prior art keywords
server computer
storage area
express
command
storage controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016528751A
Other languages
English (en)
Other versions
JPWO2015194033A1 (ja
Inventor
勝美 大内
勝美 大内
里山 愛
愛 里山
江口 賢哲
賢哲 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2015194033A1 publication Critical patent/JPWO2015194033A1/ja
Application granted granted Critical
Publication of JP6286542B2 publication Critical patent/JP6286542B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/42Bus transfer protocol, e.g. handshake; Synchronisation
    • G06F13/4282Bus transfer protocol, e.g. handshake; Synchronisation on a serial bus, e.g. I2C bus, SPI bus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0679Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0685Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2213/00Indexing scheme relating to interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F2213/0026PCI express

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、不揮発メモリデバイスを含む計算機システムに関する。
フラッシュメモリデバイス(以下フラッシュと呼ぶ)はHDD(Hard Disk Drive)と比較して高いI/O(Input/Output)性能を有する。しかし、その性能を発揮させようとした場合、従来のSCSI(Small Computer System Interface)は、サーバで実行されるOS(Operating System)、デバイスドライバ等のプログラム処理の効率が悪いことから、フラッシュメモリデバイスのI/O性能を発揮させることは容易ではない。非特許文献1記載のNVM-Express(Non-Volatile Memory Express:以後NVMeと省略)はそのような問題を解決するための以下を規定した規格である。
This specification defines a streamlined set of registers whose functionality includes:
・ Indication of controller capabilities
・ Status for controller failures (command status is processed via CQ directly)
・ Admin Queue configuration (I/O Queue configuration processed via Admin commands)
・ Doorbell registers for scalable number of Submission and Completion Queues
NVMeは以下をキーポイントに持つ。
・ Does not require uncacheable / MMIO register reads in the command submission or completion path.
・ A maximum of one MMIO register write is necessary in the command submission path.
・ Support for up to 65,535 I/O queues, with each I/O queue supporting up to 64K outstanding commands.
・ Priority associated with each I/O queue with well-defined arbitration mechanism.
・ All information to complete a 4KB read request is included in the 64B command itself, ensuring efficient small I/O operation.
・ Efficient and streamlined command set.
・ Support for MSI/MSI-X and interrupt aggregation.
・ Support for multiple namespaces.
・ Efficient support for I/O virtualization architectures like SR-IOV.
・ Robust error reporting and management capabilities.
・ Support for multi-path I/O and namespace sharing.
また、非特許文献1には複数のホストからnamespace(以後、NSと省略)を共有する概念が開示されている。
非特許文献2にはこのようなNVMeに準拠したコマンド(以後、NVMeコマンドと省略)を解釈するPCI-ExpressフラッシュメモリSSD(Solid State Drive)を用いることにより、サーバのI/O性能が向上することが開示されている(以後、PCI-ExpressをPCIeと省略)。
ストレージの利用効率を向上させる技術として容量仮想化(シンプロビジョニング)が知られている。容量仮想化は、サーバに対し仮想記憶領域の容量を実記憶領域の容量より大きく見せかけ、格納データ量に応じて仮想記憶領域に実記憶領域を割り当てる。
また、ストレージの性能/コスト比を向上させる技術として階層制御仮想化が知られている。階層制御仮想化により、アクセス頻度の高いデータが高速なストレージ階層に自動的に格納され、アクセス頻度の低いデータが低ビットコストのストレージ階層に自動的に格納されることで、ストレージの管理者による階層管理の負担を軽減する。
NVMeはサーバからフラッシュメモリへのアクセスを低遅延化するインターフェースである。NVMeにおいて、主なアクセス対象は、サーバにおけるPCIeアドオンカード上のフラッシュメモリである。
非特許文献1には、記憶領域であるnamespaceに対するシンプロビジョニングが開示されている。サーバはNVMeで規定されたIdentifyコマンドをストレージへ発行することによりシンプロビジョニングの状況を取得することができる。
"NVM Express 1.1a Specification," http://www.nvmexpress.org/wp-content/uploads/NVM-Express-1_1a.pdf "NVM Express: Unlock Your Solid State Drives Potential," http://www.nvmexpress.org/wp-content/uploads/2013-FMS-NVMe-Track.pdf
非特許文献1に開示のNVMe規格ではNSの共有概念は開示されているものの、以下に開示の通りその実現形態は開示されておらず、高性能I/Oを実現する計算機システムを提供することは容易ではない。
"1.3 Outside of Scope
The register interface and command set are specified apart from any usage model for the NVM, but rather only specifies the communication interface to the NVM subsystem. Thus, this specification does not specify whether the non-volatile memory system is used as a solid state drive, a main memory, a cache memory, a backup memory, a redundant memory, etc. Specific usage models are outside the scope, optional, and not licensed."
また、NVMeの仕様書では、namespaceの仮想化の実装方法が開示されていないため、仮想化されたnamespaceを共有することは容易ではない。
以上の課題を解決するため、計算機システムは、第1サーバ計算機と、第2サーバ計算機と、不揮発メモリデバイスと、第1サーバ計算機及び第2サーバ計算機にPCI-Expressを介して接続され、不揮発メモリデバイスに接続されるストレージコントローラと、を含む。ストレージコントローラは、第1サーバ計算機及び第2サーバ計算機により共有される仮想記憶領域を提供し、第1サーバ計算機及び第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、プログラムは、仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して仮想記憶領域にアクセスすることを、サーバ計算機に実行させ、ストレージコントローラは、アクセスに基づいて、不揮発メモリデバイス内の記憶領域を仮想記憶領域に割り当てる。
実施例のサマリを示す。 CPFの物理構成及び論理構成を示す。 別なCPFの物理構成及び論理構成を示す。 NVMe解釈部位が候補(3)である場合のCPFの詳細を示す。 サーバ側PCIe I/FデバイスにおけるPCIe空間を示す。 NVMeのNSとストレージコントローラの記憶領域との関係を示す。 NVMeコマンドに関連した処理を示すフローチャートである。 CPFの起動方法を示すフローチャートである。 NVMe解釈部位が候補(2)である場合のCPFの詳細を示す。 CPFの適用形態の例を示す。 ストレージコントローラ3におけるデータの構成を示す。 LU管理テーブル351を示す。 仮想ボリューム管理テーブル352を示す。 プール管理テーブル353を示す。 論理ボリューム管理テーブル354を示す。 仮想ボリューム作成処理を示す。 仮想ボリューム作成画面を示す。 論理ボリューム登録処理を示す。 仮想ボリュームに対するWrite処理を示す。 NVMeコマンド応答処理を示す。 Identifyコマンドの応答と記憶容量の関係を示す。 Inquiry処理を示す。 シンプロビジョニングを適用しティアリングを適用しない場合の仮想ボリューム管理テーブル352bを示す。 シンプロビジョニングを適用しティアリングを適用しない場合のプール管理テーブル353bを示す。 シンプロビジョニングを適用しティアリングを適用しない場合の論理ボリューム管理テーブル354bを示す。 シンプロビジョニングを適用しティアリングを適用しない場合の仮想ボリューム作成画面を示す。 シンプロビジョニングを適用しない場合のIdentifyコマンドの応答と記憶容量の関係を示す。 シンプロビジョニングを適用せずティアリングを適用する場合のLU管理テーブル351cを示す。
以下、図面を参照しながら実施例を説明する。ただし、本実施例は、発明を実現するための一例に過ぎず、発明の技術的範囲を限定するものではない。また、各図において共通の構成については、同一の参照番号が付されている。
なお、以後の説明では「テーブル」という表現にて本実施例の情報を説明するが、これら情報は必ずしもテーブルによるデータ構造で表現されていなくてもよい。例えば、「リスト」、「DB(データベース)」、「キュー」等のデータ構造やそれ以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために、「テーブル」、「リスト」、「DB」、「キュー」等については、単に「情報」と呼ぶこともできる。また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いることが可能であり、これらについてはお互いに置換が可能である。
以後の説明では、「プログラム」を主語として説明を行うが、プログラムはCPU(Central Processing Unit)によって実行されることで定められた処理をメモリ及び通信ポート(通信制御装置)を用いながら行うため、CPUを主語とした説明としてもよい。また、プログラムを主語として開示された処理は、サーバ計算機やストレージコントローラや管理計算機等の計算機、情報処理装置が行う処理としてもよい。プログラムの一部又は全ては、専用ハードウェアで実現してもよく、また、モジュール化されていてもよい。各種プログラムは、プログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
<実施例のサマリ>
図1に実施例のサマリを示す。なお、以後の説明は、今後登場するであろうNVMeの後継規格に対しても適用可能であり、同様にPCI-Express(Peripheral Component Interconnect Express:以後、PCIeと省略)の後継規格に対しても適用可能である。NVMeやPCIeに関連する用語が用いられた場合、その後継規格の同等の用語も指し示すと考えるべきである。同様に実施例は現在のBlockアクセスをターゲットとしたNVMeを対象として説明しているが、仮にバイトやワード単位のアクセスがNVMe規格で規定された場合はそれらアクセスについても本実施例が適用できることは言うまでもない。同様に、実施例は、フラッシュメモリを用いる不揮発メモリデバイスを対象として説明しているが、フラッシュメモリ以外の不揮発メモリ、例えばFeRAM(Ferroelectric Random Access Memory)、MRAM(Magnetoresistive Random Access Memory)、相変化メモリ(Ovonic Unified Memory)、RRAM(登録商標、Resistance RAM)を用いる不揮発メモリデバイスに適用してもよい。
≪NVMeについて≫
非特許文献1及び2の通り、NVMeはフラッシュメモリSSDに対して高速アクセスを実現するためのI/F(Interface)規格である。NVMe規格に沿ってプログラム(例えばデバイスドライバ、及びその他、アプリケーション、OSも含む)を開発することで、フラッシュメモリSSDに対し、高IOPS(Input/Output per Second)や低レイテンシといった高速アクセスが可能となる。例えば非特許文献2の18ページによれば、SCSI/SAS(Serial Attached SCSI)を採用したSSDで6.0μsであったアクセスレイテンシが、NVMeを採用することで2.8μsまで削減できると開示されている。そのキーポイントは既に説明した通りだが、マルチI/Oキュー化し、複数のコアで1つのI/Oキューを共有しなくてもよくしたことで、CPUコア間のメモリアクセス効率を改善できる。
NVMeは規格化されて、幅広いフラッシュメモリデバイスがNVMe規格に対応することが期待される。そのため、デバイスドライバ以外のプログラム(典型的にはアプリケーションプログラム)のベンダにとって、当該プログラムが直接NVMeコマンドを発行し、フラッシュメモリデバイスに高速にアクセスすることも期待される。
なお、本実施例における「フラッシュメモリデバイス」は少なくとも以下の特徴を持つデバイスであり、フラッシュメモリSSDはその1例である:
*フラッシュメモリチップを含む。
*以下の処理を行うフラッシュメモリコントローラを含む:
#外部からのリードリクエストに応じて、フラッシュメモリチップに保存されたデータを外部に転送する。そして、外部から受信したライトリクエストと共に受信したデータをフラッシュメモリチップに保存する。
#フラッシュメモリチップのイレース処理を行う。
≪計算機システム≫
計算機システムは、1以上のサーバ計算機と、1以上のストレージコントローラと、フラッシュメモリデバイス(図では「Flash」と省略する場合がある)、通信機構(Communication Mechanism)とを少なくとも含む。なお、計算機システム内のこれらの含有物の夫々を計算機システムコンポーネントと呼ぶことがある。
なお、本計算機システムはConverged Platformであることが好ましい。なお、Converged PlatformはConverged Infrastructure、Converged Systemとも呼ばれ、日本語では「Converged」が「垂直統合」という用語に置き換わる場合がある。なお、本実施例では以後、これらをConverged Platform(CPFと省略することもある)に統一して呼ぶ。CPFは以下の特徴を持つ:
*サーバ計算機、ストレージシステム(ストレージコントローラと記憶デバイスを含む)、及びこれらを接続する通信機構を含む製品。企業の管理者が個別にサーバ計算機とストレージシステムを導入する場合、こうしたサーバ計算機とストレージシステムの接続確認に代表される動作検証は管理者側で行われていた。しかし、CPFを導入する場合、製品を販売するベンダが事前に動作検証を行うため、製品を設置して使用する顧客の管理者による動作検証が不要又は削減できる。
*なお、一部のCPFは、サーバ計算機、ストレージシステム、及び通信機構の設定を一括して行う管理プログラムを実行する管理サブシステムを含む場合がある。この管理サブシステムは、管理者が希望する実行環境(仮想マシン、DBMS:Database Management System、Webサーバ等)を迅速に提供することができる。例えば、管理プログラムは、必要なリソース量の仮想マシンを提供するために、サーバ計算機及びストレージシステムに必要なリソースの割り当てをリクエストし、割り当てられたリソースを用いて仮想マシンを作成するようにハイパーバイザにリクエストする。
≪サーバ計算機≫
サーバ計算機(1)及び(2)は夫々、ストレージコントローラにアクセスするプログラム(1)及び(2)を格納し実行するユニットである。プログラム(1)及び(2)は、NVMeコマンドを発行することで、ストレージコントローラにより提供される共有データ領域に対してアクセスする。なお、共有データ領域をNVMeのNSとして提供する部位は後ほど説明する。
サーバ計算機は、少なくともCPU、メインメモリ(以後メモリと省略する)、RCを含む。サーバ計算機は例えば以下であってもよい:
*ファイルサーバ
*ブレードサーバシステム
*PC(Personal Computer)サーバ
*ブレードサーバシステムに差し込まれるブレード
≪サーバ計算機のプログラム≫
なお、プログラム(1)及び(2)は例えば、業務アプリケーションプログラム(例えばWebサーバ、DBMS、分析プログラム、ミドルウェア)や、LPAR(Logical Partitioning)や仮想マシンを作成可能なプログラムや、OS、デバイスドライバ、であることが考えられるが、他のプログラムであってもよい。
≪通信機構≫
通信機構は、サーバ計算機とストレージコントローラとをPCIeで接続する。なお、サーバ計算機とストレージコントローラとの間のPCIe接続は、従来のサーバ計算機とストレージシステムとの接続で採用されているFC(Fibre Channel)、Ethernet(登録商標)を用いるSAN(Storage Area Network)のようなネットワークを介さない。理由は以下の通りである(いずれか1つ、又は両方):
*これら広域SANも構築可能なプロトコルでは変換処理のオーバーヘッドが高く、共有データ領域への高性能I/O提供の妨げとなるため。
*EthernetやSANのデバイス(特にスイッチ)が高価であるため。
なお、NVMeはPCIeに基づいた通信機構を前提とする。そのため、サーバ計算機からのNVMeコマンドを解釈する部位はPCIeにおけるEndpoint(以後、EPと省略)である必要がある。また、PCIeのチップセットが、複数のRoot Complex(以後、RCと省略)からEPを共有すること(以後、「複数RCの同居」と呼ぶ)を許容しない場合(例えばMR-IOV:Multi-Root I/O Virtualizationをサポートしない場合)はこの制限も考慮する必要がある。
本実施例では、以上を踏まえ、NVMeコマンドを解釈する部位の候補として3つの候補を開示する。計算機システムは、3つの候補の中の一種類を含む。3つの候補(1)、(2)、(3)(図ではNVMe I/F候補(1)、(2)、(3)と記載)は以下の通りである:
*候補(1):フラッシュメモリデバイス。この場合はストレージコントローラとフラッシュメモリデバイスとはPCIeで接続され、フラッシュメモリデバイスはNVMeに準拠したFunctionを持つEPとなる。ストレージコントローラはサーバ計算機からのNVMeコマンドを当該フラッシュメモリデバイスにスルーする。
*候補(2):ストレージコントローラ。この場合はサーバ計算機からストレージコントローラまでがPCIeで接続される。なお、前述の複数RCの同居に関する制限がある場合、サーバ計算機(1)のRCとストレージコントローラのRCとのPCIe接続と、サーバ計算機(2)のRCとストレージコントローラのRCとのPCIe接続とは、分離される。そして、ストレージコントローラのRCはそれぞれのサーバ計算機のRCに対して個別なEPを提供する。
*候補(3):サーバ計算機からのPCIe接続とストレージコントローラからのPCIe接続を仲介する仲介デバイス。インテル(R)やAMD(R)等が提供するCPU及びPCIeチップセットはコモディティ化されているため、低価格で高性能である。こうしたものをストレージコントローラに採用する場合に課題となるのが、ストレージコントローラにもRCが存在してしまい、前述の複数RCの同居の制限がある場合は、そのままサーバ計算機と接続できないことである。当該仲介デバイスは、夫々のサーバ計算機のRCに対してはEPを提供するロジックと、ストレージコントローラのRCに対しては別なEPを提供するロジックと、サーバ計算機とストレージコントローラとの間のライトデータやリードデータの転送を仲介するロジックとを含むことにより、この課題を解決する。
なお、PCIeは元々サーバ計算機やストレージシステム内の通信路として用いられてきたため、FCやEthernetと比較するとPCIeの通信可能距離は短く、RCはFCやEthernetで通信できる通信ノード数よりも少ない数のEPとしか通信ができない。また、FCやEthernet上で動作する通信プロトコルと比較して、PCIeの障害処理は弱い。そのため、通信機構としてPCIeを採用する本計算機システムはCPFであることが好ましい。なぜならば、計算機システムをCPFにすることで顧客によるサーバ計算機とストレージユニット間の通信機構のケーブリングを不要とできることから、前述のPCIeの弱点によるトラブルが発生しにくく、結果として信頼性の高いNVMeアクセスを提供できる。
≪NVMeコマンド解釈部位毎のメリット≫
なお、前述のNVMeコマンドを解釈する部位の候補(1)から(3)には例えば以下のメリットがある。
*候補(1):ストレージコントローラによる処理のオーバーヘッドが無い、又は小さい。候補(1)は、フラッシュメモリデバイスの内部状態を考慮した、効率的なNVMeのキュー制御を実現しやすい。なぜなら、NVMeコマンドを解釈する部位と、フラッシュメモリデバイスのウェアレベリングやリクラメーション等を行うコントローラが同じ又は近いためである。例えば、NVMeではI/Oキューが複数存在するが、候補(1)は、複数のI/OキューからのNVMeコマンドの取り出し方を当該内部状態に基づいて変更する。
*候補(2):ストレージコントローラが提供する前述のエンタープライズ向け機能をNVMeのNSに対して適用できる。また、候補(2)は、ストレージコントローラの内部状態を考慮した効率的なNVMeのキュー制御を行うことができる。なぜなら、NVMeコマンドを解釈する部位と、ストレージコントローラとが同じ又は近いためである。例えば、候補(2)は、複数のI/OキューからのNVMeコマンドの取り出し方を当該内部状態に基づいて変更することができる他、I/OキューにあるNVMeコマンドの蓄積状態に応じて、ストレージコントローラの他の処理の制御を変更できる。
*候補(3):ストレージコントローラが提供するエンタープライズ向け機能をNVMeのNSに対して適用できる。また、候補(3)の仲介デバイスがNVMeコマンドをSCSIリクエスト(SCSIコマンド)に変換するのであれば、ストレージコントローラで実行されるストレージプログラムは、実行コード、中間コード、又はソースコードレベルで、従来のSANストレージサブシステムのストレージプログラムと互換性を保ちやすい。その結果として、計算機システムのストレージプログラムの品質向上、機能向上できる他、前述のリモートコピーのような計算機システムのストレージコントローラとSANストレージサブシステムとの間の連携処理の実装も容易になる。なぜなら、通常のSANストレージサブシステム同士の連携と同じ部分が殆どのためである。
≪ストレージコントローラ≫
ストレージコントローラはフラッシュメモリデバイスの記憶領域を用い、高性能I/O処理を提供する。また、ストレージコントローラは、これまでエンタープライズ向けのSANストレージサブシステムが提供してきたような信頼性、冗長性、高機能性、保守・管理容易性に関係する機能を有してもよい。以下がその例である:
*ストレージコントローラは、フラッシュメモリデバイスを冗長化し、冗長化した記憶領域から共有データ領域を提供する。また、ストレージコントローラは、共有データ領域に格納したデータへのアクセスを禁止又は失敗させずに(いわゆる無停止に)、フラッシュメモリデバイスの交換、増設、抜き去りといったデバイス保守を可能とする。HDDとは異なり、フラッシュメモリデバイスには書き込み過多によるデバイス寿命の短期化という特性がある。そのため、こうした冗長化や無停止保守をストレージコントローラが提供することで本計算機システムとしての信頼性を向上させることができる。また、サーバ計算機にPCIeのフラッシュメモリデバイスが差し込まれる場合、フラッシュメモリデバイスの保守は個々のサーバ計算機に対して個別に行われなければならない。しかし、本計算機システムのようにストレージコントローラにフラッシュメモリデバイスが接続されることにより、フラッシュメモリデバイスの保守をストレージ側にまとめると、保守作業者はまとめてフラッシュメモリデバイスの保守作業を行うことができ、保守が容易になる。
*ストレージコントローラは、NVMeによって格納したデータに対して、リモートコピーやスナップショットといったコピー機能を提供する。
*ストレージコントローラは、フラッシュメモリデバイス以外に記憶デバイスとしてHDDに接続されることにより、これらの記憶デバイスを用いたティアリングを可能とする。なお、ストレージコントローラは、HDDが提供する記憶領域をNVMeのNSに対応させてもよい。
*ストレージコントローラは、サーバ計算機(1)や(2)を介さずに、本計算機システムの外部の計算機システム(サーバ計算機やストレージシステムを含む)又はネットワーク装置(SANスイッチやEthernetスイッチを含む)からのネットワークを介したアクセスを提供する。これにより前述のリモートコピーが行えたり、本計算機システム外部の計算機システム又はネットワーク装置も含めたストレージコンソリデーションも提供できたりする等、柔軟性が向上する。
≪サーバ計算機とストレージコントローラの配置≫
前述の通り、PCIeは通信可能距離が短いことから、サーバ計算機とストレージコントローラとは物理的に近い位置に配置されていればよい。しかし、以下がより好ましい:
*ストレージコントローラが、ブレードサーバシステムのシャーシに差し込まれる構成を有する。なお、サーバ計算機であるブレードとストレージコントローラとの間のPCIe接続にバックプレーン等の基板を用いることで、PCIe接続に伴うトラブルを削減できる。
*ブレードサーバシステムのシャーシとは別なシャーシにストレージコントローラを入れ、両シャーシをPCIe接続用のケーブルで接続する。なお、ブレードサーバシステムのシャーシとストレージコントローラのシャーシとを1つのラックに入れたものを、CPFとして販売してもよい。このようにラックに両シャーシとPCIe接続用ケーブルとを入れることで、PCIe接続用ケーブルに伴うトラブルを削減でき、また単体販売しているブレードサーバシステムやストレージシステムのシャーシそのもの又は部品をCPFへ流用することが容易である。
≪管理サブシステム≫
管理サブシステムは以下の少なくとも1つの処理を行うサブシステムである:
*管理者又は統合管理サブシステムからのリクエストを受信し、計算機システムコンポーネントに対してリクエストに応じた設定を行うこと。
*計算機システムコンポーネントから情報を取得し、管理者に表示したり、又は統合管理サブシステムに送信したりすること。なお、取得する情報は例えば性能情報、障害情報、設定情報、構成情報等がある。例えば、構成情報は、コンポーネントの抜き差しをしない限り本計算機システムに固定な項目と、変更可能な項目とを含み、設定情報は特に構成情報のうち、設定により変更可能な項目である。なお、これら種類の情報をまとめてコンポーネント情報と呼ぶことがある。また、管理者に表示したり、別な計算機に送信したりする情報は、取得したコンポーネント情報そのままでもよく、又は何らかの基準で変換・加工した後に、当該情報の表示や送信を行ってもよい。
*上記コンポーネント情報に基づいて、計算機システムコンポーネントへの設定を自動的・自律的に行う、いわゆる自動・自律管理。
管理サブシステムは例えば以下の形態(それらの形態の混在を含む)であることが考えられるが、上記処理を行う形態であればそれらの形態にこだわらない。関係する機能、計算機の集合が管理サブシステムである。
*計算機システムコンポーネントとは別な計算機(1以上)。管理サブシステムが、ネットワークを介して計算機システムに接続されている複数の計算機である場合、例えば、サーバ計算機専用の計算機、ストレージコントローラ専用の計算機、表示処理専用の計算機、といった計算機が管理サブシステムに存在してもよい。
*計算機システムコンポーネントの一部。例えばBMC(Baseboard Management Controller)やエージェントプログラムが管理サブシステムである。
≪統合管理サブシステム≫
統合管理サブシステムは、サーバ、ストレージシステム、ネットワーク装置(SANスイッチやEthernetスイッチを含む)、そして本計算機システム、等に代表される管理対象装置を統合管理するサブシステムである。統合管理サブシステムは、ネットワークを介して管理サブシステム及び他の管理対象装置に接続される。統合管理サブシステムは複数の管理対象装置を管理するために、ベンダプロプライエタリなプロトコルで管理対象装置と通信することもあるが、SNMP(Simple Network Management Protocol)やSMI-S(Storage Management Initiative-Specification)といった標準化されたプロトコルで管理対象装置と通信することもある。
統合管理サブシステムは、ネットワークを介して計算機システムに接続されている1又は複数の計算機を含む。
なお、統合管理サブシステムの提供ベンダは、本計算機システムのベンダとは異なる場合があり、その場合、本計算機システムの通信機構がPCIeであることで、統合管理サブシステムは本計算機システムの管理ができなかったり、できたとしても通常より劣った管理しかできなかったりすることがある。その理由の一例としては、統合管理サブシステムがサーバ計算機とストレージコントローラとの接続経路としてFC又はEthernet接続のみ認識し、PCIe接続を前述の接続経路として認識しない場合である。この場合、統合管理サブシステムは、サーバ計算機とストレージコントローラが接続されていないとみなすため、このような接続情報があることを前提とする管理項目は本計算機システムに適用できないことになる。
そのような場合の対策のため、本計算機システムの管理サブシステムは、本計算機システムのPCIe接続にSAN接続をエミュレートさせることにより、PCIe接続の情報を仮想のSAN接続の情報に変換し、そのSAN接続の情報を統合管理サブシステムに送信することにより、そのSAN接続を統合管理サブシステムの管理対象としてもよい。なお、SAN接続のエミュレートとは例えば、接続情報を提供すること、又はSAN接続に関する設定を受け付けること(ストレージポートへのLogical Unit割り当て)、等がある。なお、エミュレート先のSANはFC-SANであってもよく、IP(Internet Protocol)-SAN、Ethernet-SANであってもよい。
≪本計算機システムの用途とLocalフラッシュメモリデバイスの併用≫
以上説明の通り、複数のサーバ計算機間でNVMeによるデータ共有を実現するために、本計算機システムが導入されることが考えられる他、データ共有をしなくても前述のストレージコントローラが提供するエンタープライズ向け機能を、NVMeで格納したデータに適用するために、本計算機システムが導入されることも考えられる。また、既に本計算機システムではない環境にて、NVMeコマンドを発行するプログラムを用いて業務システムが構築されていた場合は、当該プログラムに対して、ベンダプロプライエタリなフラッシュメモリデバイス向けのインターフェースを実装しなくても、本計算機システムにて業務システムが構築されることができる場合もある。
なお、NVMeによるデータ共有は例えば以下の用途がある:
#複数のサーバ計算機間の高速フェイルオーバ。サーバ計算機(1)の障害等に応じて、サーバ計算機(2)はサーバ計算機(1)による処理を引き継ぐフェイルオーバを行うと判定する。複数のサーバ計算機の夫々にPCIe接続を介してLocalフラッシュメモリデバイス(図では「Local Flash」と省略)が接続されており、そしてサーバ計算機のプログラムのNVMeコマンド発行先がLocalフラッシュメモリデバイスだけである場合、複数のサーバ計算機は、フェイルオーバ元と先のLocalフラッシュメモリデバイス間でデータコピーする必要があり、高速なフェイルオーバが難しい。本計算機システムの場合はそのようなデータコピーは不要である。
#複数のサーバ計算機がNVMeで共有データ領域に並列アクセスすることで、並列処理を行う場合。あるサーバ計算機がデータをライトし、すぐに他のサーバ計算機が当該データをリードすることができる。
しかし、サーバ計算機の数が増加した場合は、ストレージコントローラのI/O処理能力がボトルネックとなってしまう場合もある。
こうした場合に対処するために、各サーバ計算機に対して、NVMeコマンドを解釈できるフラッシュメモリデバイス(Localフラッシュメモリデバイスと呼ぶ)がPCIeで接続され、接続されたサーバ計算機により占有されてもよい。こうした構成の場合、サーバ計算機で実行されるプログラムは、データ共有及びエンタープライズ向け機能の適用が不要なデータをLocalフラッシュメモリデバイスに格納し、データ共有又はエンタープライズ向け機能の適用を望むデータをストレージコントローラにより提供される記憶領域であるNVMeのNSに格納すればよい。例えば、サーバ計算機(1)の障害や負荷等により、サーバ計算機(1)のプログラムの処理がサーバ計算機(2)に引き継がれる構成において、サーバ計算機(1)は、引き継ぎに必要なデータを共有データ領域であるNSへ書き込み、NSから読み出すことにより、処理を実行し、引き継ぎに不要なデータをLocalフラッシュメモリデバイスへ書き込む。
なお、こうした設定は手動で行われてもよいが、前述の管理サブシステムや統合管理サブシステムにより自動で行われてもよい。例えば、これらのサブシステムは、各NSが複数のサーバ計算機による共有(又はエンタープライズ向け機能の適用)可か否かを判断し、サーバ計算機で実行されるプログラムの特性に基づいて共有(又はエンタープライズ向け機能の適用)が必須であるデータを把握し、サーバ計算機で実行されるプログラムに対し、データを格納する記憶領域を使い分けるように設定してもよい。当該プログラムの管理者は本計算機システムの構成・特徴を熟知しているとは限らないため、管理者による当該プログラムの設定作業負荷が軽減される。なお、NSが共有か否かの判断方法としては以下が考えられるが、他の方法であってもよい:
*管理サブシステムがNSIDとストレージコントローラの記憶領域との関係を計算機システムに問い合わせる。
*サーバ計算機のプログラムがNSIDを指定して情報収集を行うことにより得られる情報から共通のNSであることを判断する。
<基本構成図>
以下に計算機システムがCPFである場合を例により詳細な実施例を説明する。
≪NVMe制御でのCPF≫
図2はCPFの物理構成及び論理構成を示した図である。
本図でのCPF1は、サーバ計算機2、ストレージコントローラ3、記憶デバイスとしてフラッシュメモリデバイス5、管理サブシステムの一例として管理計算機7を含む。
サーバ計算機2は、管理計算機7と接続するための管理I/F272を含む。サーバ計算機2は、プログラムの一例としてアプリケーションプログラム228(単にアプリケーションと省略することがある)、OS227、NVMe制御プログラム222、サーバ管理I/F制御プログラム229を実行する。なお、管理計算機7とサーバ計算機2及びストレージコントローラ3との接続はEthernetであることが考えられえるが、他の物理的・仮想的な接続形態であってもよい。サーバ管理I/F制御プログラム229は、管理I/F272を制御することにより、管理計算機7との通信を行う。
NVMe制御プログラム222は、NVMeコマンドをPCIe I/F262に発行するプログラムである。なお、プログラム222はサーバ計算機2に格納されている他のプログラムの一部であってもよく、サーバ計算機2に格納されている他のプログラムと別なプログラムであってもよい。例えば、アプリケーションプログラム228がNVMeコマンドを発行する構成や、OS227内のデバイスドライバがNVMeコマンドを発行する構成がある。
PCIe I/F262は、NVMe制御プログラム222の動作に従ってNVMeコマンドをPCIe I/F362へ送信した後、PCIe I/F362から当該NVMeコマンドに対するレスポンスを受信し、そのレスポンスをNVMe制御プログラム222へ返す。
ストレージコントローラ3は、管理計算機7と接続するための管理I/F382と、フラッシュメモリデバイス5と接続するためのフラッシュI/F372と、を含む。なお、フラッシュI/F372とフラッシュメモリデバイス5との接続は、フラッシュメモリデバイス5がNVMeコマンドを解釈する場合はPCIe接続であることが好ましいが、そうでない場合はSASやSATA(Serial Advanced Technology Attachment)やFCやEthernetであってもよく、他の通信機構を用いてもよい。
ストレージコントローラ3は、ストレージプログラム320を実行する。なお、ストレージプログラム320は例えば、各インターフェースとの通信を制御する、PCIe I/F制御プログラム322と、フラッシュI/F制御プログラム323と、管理I/F制御プログラム324と、を含む。PCIe I/F制御プログラム322は、PCIe I/F362を制御することにより、サーバ計算機2との通信を行う。フラッシュI/F制御プログラム323は、フラッシュI/F372を制御することにより、フラッシュメモリデバイス5との通信を行う。管理I/F制御プログラム324は、管理I/F382を制御することにより、管理計算機7との通信を行う。
なお、PCIe I/F262とPCIe I/F362の実体は、例えば、図4に示すサーバ側PCIe I/Fデバイス4や、図9に示すストレージ側PCIe I/Fデバイス8である。
≪NVMe制御+SCSI制御でのCPF≫
図3は別なCPFの物理構成及び論理構成を示した図である。
図2との差異は、サーバ計算機2からストレージコントローラ3へのI/Oリクエストとして、NVMeとSCSIを併用することである。
SCSI制御プログラム224は、他のプログラムからのリクエストに応じて、ストレージコントローラ3により提供されるLUNに対してSCSIリクエストをPCIe I/F262のSCSIファンクション(図中のSCSI Func.)宛に発行する。SCSI制御プログラム224は例えばSCSIデバイスドライバである。なお、本プログラムはサーバ計算機2に格納されている他のプログラムの一部であってもよく、サーバ計算機2に格納されている他のプログラムとは別なプログラムであってもよい。例えば、OS227内のデバイスドライバがSCSIリクエストを発行する場合がある。
PCIe I/F262がNVMeコマンドとSCSIリクエストの両方を受け付ける場合、NVMeファンクション(図中のNVMe Func.)とSCSIファンクションの2つを持つ必要がある。この内NVMeファンクションについては図2のPCIe I/F262の説明として説明済みである。SCSIファンクションはSCSI制御プログラム224の動作に従ってSCSIコマンドをPCIe I/F362へ送信した後、PCIe I/F362から当該SCSIコマンドに対するレスポンスを受信し、そのレスポンスをSCSI制御プログラム224へ返す。なお、PCIe I/F362をマルチファンクションにするか否かは、仲介デバイスでNVMeコマンドを解釈するか否かによって定まる。
このように、あるサーバ計算機2がNVMeコマンドとSCSIリクエストの両方を発行できるようにすることで、以下の少なくとも1つのメリットがある。
*サーバ計算機2においてNVMe非対応のプログラムが、NVMeのNSに対応した記憶領域にアクセスできるようにするため。
*サーバ計算機2においてNVMe非対応のプログラムが、NVMeのNSに対応した記憶領域とは別な記憶領域にアクセスできるようにするため。例えばストレージコントローラ3にHDDが接続している場合、サーバ計算機2が当該HDDの記憶領域に対してはSCSIでアクセスできるようにする。
*本願出願時点ではNVMeのI/FがNSをサーバ計算機2のブートデバイスとして使用できるように規格化されていないため。そのため、ストレージコントローラ3が提供する記憶領域をサーバ計算機2のブートデバイスとする場合、サーバ計算機2がその記憶領域にSCSIリクエストでアクセスできる必要がある。なお、サーバ計算機2がブートするということは、サーバ計算機2のBIOS(Basic Input/Output System)プログラムが、ブートデバイスを持つEPをハンドリング可能なように実装されている必要があるということである。ここでのEPは、例えばSCSI HBA(Host Bus Adapter)やPCIe I/Fデバイス(NVMeファンクション又はSCSIファンクション)である。その具体的な実装方法は以下の通りである:
#BIOSプログラムが、発見したEPからBIOSプログラム用のデバイスドライバプログラムを取得し、それを実行する。
#BIOSプログラム自体がNVMe用のドライバプログラムを含む。
なお、サーバ計算機2には以下の3つのタイプがある。
(A)NVMeコマンドを発行し、SCSIリクエストを発行しない。
(B)NVMeコマンドとSCSIリクエストを発行する。
(C)NVMeコマンドを発行せず、SCSIリクエストを発行する。
ここで、CPF1に含まれるサーバ計算機2は1つの場合もあれば複数の場合もある。複数の場合、CPF1に含まれるサーバ計算機2は、上記(A)乃至(C)のいずれか1タイプだけの場合もあれば、(A)乃至(C)のいずれか2タイプのコンビネーション、又は(A)乃至(C)の3タイプのコンビネーションの場合もあってもよい。
<候補(3)を用いるCPFのハードウェア全体構成>
図4は、前述のNVMe解釈部位が候補(3)である場合のCPF1を詳細化した図である。なお、サーバ計算機2とストレージコントローラ3の間のPCIe接続はスイッチを介して行われるが、図では省略している。
サーバ計算機2は、CPU21と、メインメモリ22(図ではMemと省略し、以後の説明ではメモリ22と呼ぶことがある)と、RC24と、サーバ側PCIe I/Fデバイス4とを含む。RC24とサーバ側PCIe I/Fデバイス4とはPCIeにて接続される。RC24とCPU21とはPCIeより高速なネットワークで接続される。メモリ22は、図示しないメモリコントローラを介して、CPU21及びRC24と高速なネットワークで接続される。これまで説明したサーバ計算機2にて実行される各プログラムは、メモリ22にロードされ、CPU21によって実行される。CPU21はCPUコアであってもよい。RC24とCPU21とメモリコントローラとは1つのLSIパッケージでまとめられてもよい。
サーバ側PCIe I/Fデバイス4は、前述の仲介デバイスの一例である。サーバ側PCIe I/Fデバイス4は、サーバ計算機2の外部に配置されてもよい。サーバ側PCIe I/Fデバイス4は、以下の特徴を持つデバイスである:
*CPU21により実行されるプログラムによって発行されたNVMeコマンドを解釈する。
*RC24に対してEP41を提供する。
*ストレージコントローラ3に含まれるRC33に対して別なEP42を提供する。なお、ストレージコントローラ3に複数のRCが含まれ、本デバイス4がそれぞれと通信する必要がある場合は、本デバイス4は各RCに対して別なEP42を提供する。ここでのサーバ側PCIe I/Fデバイス4は、ストレージコントローラ3内の二つのRC33に対して二つのEP42を夫々提供する。
サーバ側PCIe I/Fデバイス4は、これらの特徴を実現するために、複数のサーバ計算機2に夫々対応する複数のEP42を提供するロジックと、EP41を提供するロジックと、NVMeコマンドに基づくSCSIコマンドをストレージコントローラ3に発行するロジックとを含んでもよい。なお、EP41は図2のPCIe I/F262に対応し、EP42はPCIe I/F362に対応しているとも言える。更にサーバ側PCIe I/Fデバイス4が図3のSCSIファンクションに相当するロジックとして、CPU21により発行されたSCSIリクエストに基づくSCSIリクエストをストレージコントローラ3に発行するロジックを含んでもよい。これらのロジックの夫々は、専用回路などのハードウェアにより実現されてもよいし、ソフトウェアを実行するプロセッサにより実現されてもよい。
なお、サーバ側PCIe I/Fデバイス4がNVMeファンクションとSCSIファンクションの両方を持つことで、別々なボードにこれらファンクションを実装する場合と比較して例えば以下の1つ以上のメリットがある:
*低コスト化。
*サーバ計算機2においてPCIe接続のデバイスを差し込むためのスペースの削減。
*サーバ計算機2内の使用PCIeスロット数の削減。
特に本候補(3)で上記マルチファンクションを実現した場合は、サーバ側PCIe I/Fデバイス4がSCSIリクエストをストレージコントローラ3へ送信するロジックをファンクション間で共通化できるため、デバイスの小型化又はコスト削減が可能である。
なお、サーバ計算機2は前述の通りLocalフラッシュメモリデバイス23(図ではFlashと省略)を含んでもよい。Localフラッシュメモリデバイス23はRC24とPCIeで接続される。
なお、サーバ計算機2に含まれる各構成物は複数であってもよい。なお、図ではLocalフラッシュメモリデバイス23とサーバ側PCIe I/Fデバイス4とはRC24を介して通信をするように記載されているが、RC24を介さずに通信してもよく、また通信できなくてもよい。
ストレージコントローラ3は1つ以上の(図では2つの)コントロールユニット36(図ではCTLユニットと省略)を含む。各コントロールユニット36は、CPU31と、メインメモリ32(図ではMemと省略し、以後の説明ではメモリ32と呼ぶことがある)と、RC33と、フラッシュI/F372とを含む。RC33と、サーバ側PCIe I/Fデバイス4と、フラッシュI/F372とはPCIeにて接続される。RC33とCPU31とはPCIeより高速なネットワークで接続される。メインメモリ32は、図示しないメモリコントローラを介して、CPU31及びRC33と高速なネットワークで接続される。これまで説明してきたストレージプログラム320等のストレージコントローラ3で実行される各プログラムは、メモリ32にロードされ、CPU31によって実行される。CPU31はCPUコアであってもよい。RC33とCPU31とメモリコントローラとは1つのLSIパッケージでまとめられてもよい。
各コントロールユニット36はHDD6に接続するためのディスクI/F34を含んでもよい。なお、フラッシュI/F372とディスクI/F34が同じインターフェースタイプである場合は、これら2つのI/Fを共通化してもよい。なお、ディスクI/F34はSAS、SATA、FC、Ethernetであることが考えられるが、他の通信機構を用いてもよい。
なお、図ではフラッシュI/F372(又はディスクI/F34)とサーバ側PCIe I/Fデバイス4とはRC33を介して通信をするように記載されているが、RC33を介さずに通信してもよく、また通信できなくてもよい。この点はフラッシュI/F372とディスクI/F34についても同様である。
なお、コントロールユニット36に含まれる各構成物は複数であってもよい。
なお、コントロールユニット36間は通信可能であることが望ましく、図ではその一例としてRC33間をPCIeで接続するように記載している。なお、RC33間をPCIeで接続する場合は、図示しないNTB(Non-transparent Bridge)を介して通信する。なお、コントロールユニット36間の通信は他の機構を用いてもよい。
<候補(3)を用いるCPFのPCIe空間の範囲>
図5は、図4のサーバ側PCIe I/Fデバイス4を中心に拡大し、PCIeアドレスの空間であるPCIe空間を記載した図である。PCIe空間241は、サーバ計算機2内のRC24がコントロールする空間であり、PCIe空間331は、ストレージコントローラ3内のRC33がコントロールする空間である。なお、前述の「複数RCの同居」問題で示した通り、複数のRCが1つのPCIe空間に同居することができない。そのため、サーバ側PCIe I/Fデバイス4はそれぞれのPCIe空間を分離させるために、RC24向けのPCIeリンクと、RC33向けのPCIeリンクを接続でき、それぞれのリンクにおいてEPとして動作する。
なお、ディスクI/F34とフラッシュI/F372とはPCIe空間331とは別なPCIe空間に存在してもよい。
<NVMeのNSとストレージコントローラの記憶領域の関係>
図6は、NVMeのNSとストレージコントローラ3の記憶領域との関係を示した図である。ストレージコントローラ3は以下の記憶領域を管理している。
*パリティグループ。それは複数の記憶デバイス(フラッシュメモリデバイス5やHDD6)を用いて定義される。これにより、RAID(Redundant Arrays of Inexpensive Disks)による高信頼化、高速化、大容量化が達成される。
*論理ボリューム。それはパリティグループの記憶領域を分割した領域である。パリティグループの記憶領域はそのままサーバ計算機に提供されるには大容量過ぎる場合があるため、論理ボリュームが存在する。
*プール。それはシンプロビジョニングやティアリングに用いる記憶領域が含まれるグループである。図では論理ボリュームがプールに割り当てられているが、パリティグループや記憶デバイス自体が直接プールに割り当てられてもよい。
*仮想ボリューム。それはプールを用いて定義された、シンプロビジョニング又は/及びティアリングを適用した仮想記憶領域である。なお、以後の説明では論理ボリュームと仮想ボリュームを指し示す用語として「ボリューム」と呼ぶことがある。
*Logical Unit(論理ユニット、以後、LUと呼ぶことがある)。それは仮想ボリューム又は論理ボリュームのうち、サーバ計算機2からのアクセスを許す記憶領域である。Logical UnitはSCSIのLUN(Logical Unit Number)を割り当てられる。
なお、ストレージコントローラ3は上記全種類の記憶領域を提供しなくてもよい。
NSはこれら記憶領域のいずれの種類に対して対応付けられてもよい。しかし、NSはLogical Unitに対応付けられることがより好ましい。なぜならばストレージプログラム320はSANストレージシステムのストレージプログラム320と互換性を保ちやすくなり、また記憶領域の定義についてもSANストレージシステムとの互換性が高くなるからである。以後、NSに対応付けられたLogical UnitのLUNと区別するために、NSに対応付けられていないLogical UnitのLUNを、SCSI LUNと呼ぶことがある。
<ストレージプログラム>
以上説明した項目も含め、ストレージプログラム320は以下の処理を行う(全部である必要はない):
*SCSIリクエストを受信し、解釈し、処理すること。例えば当該SCSIリクエストがリードリクエストであれば、ストレージプログラム320は、フラッシュメモリデバイス5やHDD6等の記憶デバイスからデータをリードし、サーバ計算機2に転送する。なお、その際、ストレージコントローラ3のメインメモリ32をキャッシュメモリとして用いてもよい。例えば当該SCSIリクエストがライトリクエストであればキャッシュメモリにライトデータを格納し、その後記憶デバイスにライトデータをライトする。
*パリティグループに対してRAID処理をすること。
*ストレージコントローラ3により提供される上記記憶領域の定義を行うこと。なお、定義した結果はストレージコントローラ3のメインメモリ32に記憶領域定義情報として格納し、前述のリクエスト処理の際に参照する。
*その他シンプロビジョニング等のエンタープライズ向け機能の処理を行うこと。
<候補(3)におけるリクエスト変換処理>
前述の通り候補(3)では、サーバ側PCIe I/Fデバイス4は、サーバ計算機2より受信したNVMeコマンドに基づいてSCSIコマンドを生成し、ストレージコントローラ3に送信する。
図7はサーバ計算機2と、サーバ側PCIe I/Fデバイス4とコントロールユニット36との間で行われるNVMeコマンドに関連したNVMeコマンド処理を示すフローチャートである。なお、下記処理は、NVMeコマンドがリード又は/及びライトの場合に適用されるが、他のNVMeコマンドに適用されてもよい。
処理手順は以下の通りである。なお、下記ステップはストレージコントローラ3に複数のコントロールユニット36が含まれ、各コントロールユニット36に複数のCPU31が含まれ、また、Logical UnitをNSに対応させる場合を想定している:
(S8110)サーバ計算機2は、前述のプログラムの処理によりNVMeコマンドを送信する。なお、NVMeコマンドはNSIDを含むことで、対象となるNSを指定できる。NVMeコマンドはまた、NSID内のアクセス範囲と、サーバ計算機2のメモリ範囲とを含む。
(S8112)サーバ側PCIe I/Fデバイス4は、NVMeコマンドを受信する。
(S8114)サーバ側PCIe I/Fデバイス4は、受信したNVMeコマンドを解釈し、コマンドに含まれるNSIDを、対応するLUNに変換する。
(S8116)サーバ側PCIe I/Fデバイス4は、変換したLUNを含むSCSIコマンドを生成する。
(S8118)サーバ側PCIe I/Fデバイス4は、生成したSCSIコマンドの送信先となるコントロールユニット36及びCPU31を決定する。
(S8120)サーバ側PCIe I/Fデバイス4は、生成したSCSIコマンドを決定した送信先に送信する。
(S8122、S8124)送信先のコントロールユニット36のCPU31は、SCSIコマンドを受信し、受信したSCSIコマンドを処理する。
なお、S8110とS8112のNVMeコマンドの送信及び受信とは以下の処理である:
(A)サーバ計算機2で実行中のプログラムは、サーバ計算機2のメモリ22に準備したI/OキューにNVMeコマンドを登録し、
(B)サーバ計算機2で実行中のプログラムは、サーバ側PCIe I/Fデバイス4のEP41のNVMeレジスタ空間のI/Oキューのhead pointerをインクリメントし、
(C)サーバ側PCIe I/Fデバイス4は、I/Oキューのhead pointerのインクリメントを検知し、サーバ計算機2のメモリ22のI/OキューからNVMeコマンドをフェッチする。
ところで(C)で複数のNVMeコマンドがフェッチされる場合があり、この場合、サーバ側PCIe I/Fデバイス4は個々のNVMeコマンドに対してS8114以降のステップを行うが、その実行順序としては、NVMeコマンド毎にS8114からS8124をシリアルに繰り返し実行してもよく、パラレルに実行してもよい。
なお、図示はしていないが、S8124の処理の結果、NVMeコマンドがライトであれば、サーバ側PCIe I/Fデバイス4は、サーバ計算機2のメモリ22に格納されたライトデータを、ストレージコントローラ3のメモリ32に転送する。NVMeコマンドがリードであれば、サーバ側PCIe I/Fデバイス4は、ストレージコントローラ3のメモリ32に格納されたリードデータを、サーバ計算機2のメモリ22に転送する。
また、S8114でのNSIDからLUNへの変換は、例えば以下のいずれか又は併用で行うことが考えられる:
*サーバ側PCIe I/Fデバイス4は、所定の変換式(ビット演算を含んでもよい)でNSIDからLUNに変換する。なお、サーバ側PCIe I/Fデバイス4は、所定の変換式とペアを成す逆変換式により、LUNからNSIDへも変換できる。所定の変換式のシンプルな例がNSID=LUNである。
*サーバ側PCIe I/Fデバイス4は、NSIDからLUNを得るための変換テーブルをサーバ側PCIe I/Fデバイス4のメモリに格納し、変換の際に参照する。
なお、図3で説明の通り、S8112にてサーバ側PCIe I/Fデバイス4はサーバ計算機2から発行されたSCSIコマンドを受信してもよい。この場合、続くS8114、S8116は省略するが、そのために、サーバ側PCIe I/Fデバイス4は、受信したコマンドがNVMeコマンドか、SCSIコマンドか判断する。
なお、S8118での送信先の決定方法は以下の基準で決定することが考えられるが、他の基準で決定してもよい:
*コントロールユニット36、又はCPU31の障害の有無。例えば、サーバ側PCIe I/Fデバイス4は送信の結果として得られるコントロールユニット36の状態を記憶し、記憶した状態に基づいて障害が発生していないコントロールユニット36に送信する。
*コントロールユニット36、又はCPU31の障害の負荷。実現形態としては、(A)ストレージコントローラ3又は管理計算機7が、コントロールユニット36又はCPU31の負荷を取得し、各NS宛てのリクエストで生成されたSCSIコマンドの送信先となるコントロールユニット36又はCPU31を決定して各サーバ側PCIe I/Fデバイス4に送信し、(B)決定結果を受信したサーバ側PCIe I/Fデバイス4は決定結果に基づいてSCSIコマンドを送信する。
≪SCSIコマンドを含むFCPコマンドを送信する場合≫
なお、サーバ側PCIe I/Fデバイス4は、S8116でSCSIコマンドの生成に加えて生成したSCSIコマンドを含むFCP(Fibre Channel Protocol)コマンドを生成し、S8118でFCPコマンドとして送信してもよい。これには以下のメリットがある:
*ストレージプログラム320にてWWN(World Wide Name)又はWWNから生成されたPort IDや、IPアドレスといったSAN上の通信識別子を用いた制御(アクセス制御や優先度制御等)を行うことができる。
*SANストレージサブシステムとの互換性が維持できる。これはストレージプログラム視点と操作視点の両方の意味がある。
*統合管理サブシステムがサーバ計算機2とストレージコントローラ3間の接続を取得できる。
FCPコマンドを送信する場合、サーバ側PCIe I/Fデバイス4は以下を持つ:
*EP41に対応する仮想サーバポート(仮想WWNが割り当てられる)。
*EP42に対応する仮想ストレージポート(仮想WWNが割り当てられる)。仮想ストレージポートは、ストレージプログラム320により通常のSANポートと同様に認識され、取り扱われる。
管理サブシステムは上記仮想ストレージポートに対してLogical Unitの定義を行うことで、どのボリュームをNVMeのNSとするか指定することができる。以下が管理サブシステムの処理フローである:
(S01)管理サブシステムは、ストレージポートとボリュームを指定するLogical Unit定義リクエストを受信する。
(S02)指定されたストレージポートが仮想ストレージポートでない場合、管理サブシステムは、SANストレージサブシステムと同様の処理で指定されたストレージポートに対して、指定されたボリュームに対応するLogical Unitを定義する指示を、ストレージコントローラ3に送信する。
(S03)指定されたストレージポートが仮想ストレージポートである場合、管理サブシステムは、指定された仮想ストレージポートに対して、指定されたボリュームに対応するLogical Unitを定義する指示を、ストレージコントローラ3に送信する。
なお、S03の指示を受けたストレージコントローラ3は以下の処理を行う:
(S03−1)ストレージコントローラ3は、指定された仮想ストレージポートに対応するサーバ側PCIe I/Fデバイス4を選択する。
(S03−2)ストレージコントローラ3は、指定されたボリュームに対応するLogical Unitを定義する(つまりLUNを、指定されたボリュームに割り当てる)。
(S03−3)ストレージコントローラ3は、選択されたサーバ側PCIe I/Fデバイス4に対して、割り当てられたLUNを通知する。なお、サーバ側PCIe I/Fデバイス4は通知されたLUNに対してNSIDを割り当てることでNS化する。なお、この割り当ての処理においてサーバ側PCIe I/Fデバイス4は、NSIDを生成し、NSIDとLUNの変換情報を用いている場合は当該情報の生成・登録を行う。
以上が管理サブシステムの処理フローの説明である。これにより、管理者は仮想ストレージポートを指定することでどのサーバ計算機2に対してボリュームをNVMeとして提供するか指定することができる。これは、サーバ側PCIe I/Fデバイス4毎に仮想ストレージポートを持ち、当該デバイス4は複数のサーバ計算機2でシェアされない形態であるためである。また、ストレージコントローラ3がLogical Unitを対象とした性能モニタリング機能を持つ場合、当該Logical Unitに負荷を与えるサーバ計算機2が1つに定まることから迅速に負荷の原因となるサーバ計算機2を特定することができる。なお、複数のサーバ計算機2が、あるボリュームを共有NSとしてアクセスする場合は、共有するサーバ計算機2の仮想ストレージポート各々に対して上記Logical Unit定義を行う。
なお、以上の説明ではFCPに特化して説明したが、FCPの代わりにiSCSI(Internet Small Computer System Interface)のPDU(Protocol Data Unit)やEthernetフレームを対象とする場合は上記説明のWWNをIPアドレスやMAC(Media Access Control)アドレスと読み替えればよく、一般化するとしたら上記説明のWWNを通信識別子(WWNやIPアドレスやMACアドレスを含む意味)と読み替えればよい。
なお、管理サブシステムは、NVMeのNSとしたボリュームに対してSANポートに対するLogical Unit定義をガードする設定モードを設けてもよい。NSに対して一時的なデータのみを格納する運用形態の場合、SANポートに対するLogical Unitは意図しないデータ更新の元となるからである。また、ボリュームをNSとSANのLUNとの両方の経路でOSに認識させた場合、OSはそれぞれを別な記憶領域として認識してしまい、データ不整合を招く更新処理を実行する可能性がある。本ガードモードはそうしたデータ不整合を回避することもできる。
<CPFの起動方法>
図8はCPF1の起動方法を示すフローチャートである。
(S1531、S1532、S1533、S1534)ストレージコントローラ3は、電源ONを検知したらストレージプログラム320を起動し、後述する仮想ボリューム作成処理を行い、Logical Unitへのアクセス受付開始状態となる。
(S1535)ストレージコントローラ3は、サーバ側PCIe I/Fデバイス4へLogical Unit情報(LUN等)を送信する。なお、ここでストレージコントローラ3は、サーバ側PCIe I/Fデバイス4からのリクエストに応じて送信してもよく、主体的に送信してもよい。
(S1521)サーバ計算機2及びサーバ側PCIe I/Fデバイス4は、電源ONを検知する。
(S1542、S1543)サーバ側PCIe I/Fデバイス4は、起動し、ストレージコントローラ3から受信したLogical Unit情報を受信することでLogical Unitを認識する。
(S1544)サーバ側PCIe I/Fデバイス4は、認識したLogical Unitに対応するNS情報(NSID等)を生成し、サーバ計算機2で実行されるプログラムに送信する。なお、ここでサーバ側PCIe I/Fデバイス4はサーバ計算機2のプログラムからのリクエストに応じて送信することが考えられるが、サーバ側PCIe I/Fデバイス4が主体的に送信してもよい。なお、本ステップはデバイス4の起動の一環として行われてもよく、起動後に行われてもよい。
(S1522)サーバ計算機2は、OS227、アプリケーション228等のプログラムを起動し、NSの認識が必要なプログラムはNS情報(NSID等)の受信を待つ。
(S1523)サーバ計算機2においてNSの認識が必要なプログラムは、サーバ側PCIe I/Fデバイス4から、NS情報を受信する。なお、本図が示す通り、S1523の受信を行った時点で、ストレージコントローラ3及びサーバ側PCIe I/Fデバイス4の起動は完了している。なお、本ステップはS1522の起動の一環として行われてもよく、起動後に行われてもよい。
以上の処理の後、図7にて説明したNVMeコマンドの処理が行われる。なお、本図ではストレージコントローラ3と、サーバ計算機2(及びサーバ側PCIe I/Fデバイス4)との電源ONは独立して行われることとした。しかし、S1531乃至S1533のステップの一環として、ストレージコントローラ3が、サーバ計算機2(及びサーバ側PCIe I/Fデバイス4)の電源ONを指示してもよい。
<NVMe解釈部位が候補(2)である場合>
図9は、前述のNVMe解釈部位が候補(2)である場合のCPF1を詳細化した図である。図4との相違点は以下である:
*サーバ側PCIe I/Fデバイス4は、PCIeスイッチ(SW)9に代替された。
*ストレージコントローラ3にストレージ側PCIe I/Fデバイス8が新設された。なお、本デバイス8はサーバ側PCIe I/Fデバイス4と同様であるが、サーバ計算機2の各々に対してEP51を提供することで前述の「複数RCの同居」問題を解決するため、本デバイス8においてサーバ計算機2に接続されるEP51の数は、サーバ計算機2の数以上になる。更に本デバイス8は、ストレージコントローラ3内のRC33に対してEP52を提供する。
なお、ストレージ側PCIe I/Fデバイス8のNVMeコマンド処理は図7で説明したフローで処理してもよいが、図1で説明したようにストレージプログラム320と連携することで、ストレージコントローラ3の内部状態を考慮した効率的なNVMeのキュー制御を行ってもよい。例えばNVMeコマンド処理は、負荷集中や障害があるHDDが割り当てられているNSが関係しているNVMeのキューからのフェッチの優先度を下げる。また、ストレージ側PCIe I/Fデバイス8は、NVMeコマンドをSCSI以外のコマンド形式に変換してもよく、またNVMeコマンドのままストレージプログラム320に送信してもよい。
<CPF1の適用形態>
これまで説明してきた、CPFの適用形態の例を図10に示す。
旧システムにより実行されているアプリケーションをCPFへ移行させるケースについて説明する。旧システムは、サーバ計算機(1)と、サーバ計算機(2)と、二つのローカルフラッシュメモリデバイス(図ではNVMe Local Flashと省略)と、ストレージコントローラと、記憶デバイスとを含む。二つのローカルフラッシュメモリデバイスは、サーバ計算機(1)及び(2)にPCIeで夫々接続されている。ストレージコントローラは、サーバ計算機(1)及び(2)にFCで接続されている。サーバ計算機(1)はアプリケーションを実行する。ストレージコントローラは、記憶デバイスを用いて、SCSIをサポートするLogical Unit(図ではSCSI Logical Unitと記載)を提供する。
旧システムにてアプリケーションが以下の設定で利用されていたとする:
*アプリケーションは、一時的に生成するデータを、NVMeをサポートするローカルフラッシュメモリデバイスのNSに格納し、非一時的なデータを、ストレージコントローラにより提供されるLogical Unitに格納する。これによってアプリケーションの高速処理を実現する。
*仮にサーバ計算機(1)が停止した場合、サーバ計算機(2)がアプリケーションの処理を再開する。ただし、サーバ計算機(2)はサーバ計算機(1)によりローカルフラッシュメモリデバイスに格納されたデータを引き継げないため、サーバ計算機(2)はFC経由でLogical Unitからデータを読み込み、処理を再開する。
このようなアプリケーションを旧システムからCPFに移行させることができる。CPFは、サーバ計算機(1)と、サーバ計算機(2)と、ストレージコントローラと、フラッシュメモリデバイス(図ではFlashと省略)とを含む。CPFは、各サーバ計算機に接続されたローカルフラッシュメモリデバイスに代えて、ストレージコントローラに接続されたフラッシュメモリデバイスを用いる。ストレージコントローラは、フラッシュメモリデバイスを用いて、SCSIをサポートするLogical Unitと、NVMeをサポートするnamespace(図ではNVMe Namespaceと記載)とを提供する。サーバ計算機(1)のアプリケーションは、共有データ領域であるNSに一時データを書き込み、NSから一時データを読み出すことにより、処理を実行する。サーバ計算機(1)の障害等により、サーバ計算機(2)が、サーバ計算機(1)のアプリケーションの処理をサーバ計算機(2)へ引き継ぐことを判定した場合、サーバ計算機(2)は、NSから一時データを読み出し処理を引き継いで実行する。
このような構成によれば、以下のメリットが得られる:
*フラッシュメモリデバイスの保守を集約できる。
*フラッシュメモリデバイスに対してストレージコントローラのエンタープライズ向け機能を用いることにより、信頼性、冗長性、高機能性、保守・管理容易性が向上できる。
更に、アプリケーション設定を変更し、NSに格納された一時データを、サーバ計算機間で引き継ぐようにすれば、障害等によるサーバ計算機(1)からサーバ計算機(2)への切り替え時間が短縮でき、アプリケーションのMTBF(Mean Time Between Failure)が向上する他、サーバ計算機間の切り替えが容易となることから、保守・管理容易性が向上する。また、従来はSCSIのLogical Unitに格納していた非一時的なデータをNVMeのNSに格納できるため、アプリケーション処理性能が更に向上する。
<LUにシンプロビジョニング及びティアリングを適用する場合>
以下、ストレージコントローラ3がシンプロビジョニング及びティアリングを適用するLUを提供し、サーバ側PCIe I/Fデバイス4がそのLUをNSに関連付ける場合について説明する。シンプロビジョニングは、仮想ボリュームをサーバ計算機2へ提供し、サーバ計算機2から仮想ボリュームへのアクセスに基づいて、プール内の記憶領域を仮想ボリュームに割り当てる。シンプロビジョニングは、容量仮想化とも呼ばれる。ティアリングは、サーバ計算機2から書き込まれるデータを複数の種類の記憶媒体の何れかに配置する。ティアリングは、階層制御仮想化や自動階層化とも呼ばれる。
≪ストレージコントローラ3におけるデータの構成≫
図11は、ストレージコントローラ3におけるデータの構成を示す。
ストレージコントローラ3はメモリ32に、LU管理テーブル351と、仮想ボリューム管理テーブル352と、プール管理テーブル353と、論理ボリューム管理テーブル354と、マッピング管理テーブル355とを格納する。
図12は、LU管理テーブル351を示す。
LU管理テーブル351は、LU毎のエントリを含む。一つのLUに対応するエントリは、LUNと、ボリューム種別及びボリューム番号と、LU容量とを含む。LUNは、当該LUを示す識別子である。ボリューム種別は、当該LUに割り当てられたボリュームの種別であり、当該ボリュームが仮想ボリュームであるか論理ボリュームであるかを示す。ボリューム番号は、ボリューム種別に応じて当該ボリュームを示す仮想ボリューム番号又は論理ボリューム番号である。LU容量は、当該ボリュームの容量である。当該LUがサーバ計算機2によりNVMeでアクセスされる場合、NSの容量はLU容量である。シンプロビジョニングを用いるLUにおいて、ボリューム種別は仮想ボリュームを示し、ボリューム番号は仮想ボリューム番号を示す。シンプロビジョニングを用いないLUにおいて、ボリューム種別は論理ボリュームを示し、ボリューム番号は論理ボリューム番号を示す。なお、LUNは少なくともストレージポート(仮想ストレージポートを含む)毎に独立した番号空間を持つため、本テーブルは複数存在してもよく、より具体的にはストレージポート毎に存在してもよい。
図13は、仮想ボリューム管理テーブル352を示す。
仮想ボリューム管理テーブル352は、仮想ボリューム毎のエントリを含む。一つの仮想ボリュームに対応するエントリは、仮想ボリューム番号と、仮想ボリューム属性と、仮想ボリューム容量と、使用プール番号(#)と、使用Tier番号(#)とを含む。仮想ボリューム番号は、当該仮想ボリュームのボリューム番号である。仮想ボリューム属性は、当該仮想ボリュームに対してアクセスするサーバ計算機2側のプロトコルであり、NVMeであるかSCSIであるかを示す。仮想ボリューム容量は、当該仮想ボリュームのボリューム容量であり、当該仮想ボリュームの作成時にストレージコントローラ3の管理者により設定される。使用プール番号は、当該仮想ボリュームに関連付けられるプールを示すプール番号である。使用Tier番号は、当該仮想ボリュームに関連付けられるTierを示すTier番号である。Tier番号が小さいほど記憶デバイスの性能が高い。例えば、Tier1の記憶デバイスとしてSSDが割り当てられ、Tier2の記憶デバイスとして、SSDよりアクセス性能が低くコストが低いSAS HDDが割り当てられ、Tier3の記憶デバイスとして、SAS HDDよりアクセス性能が低くコストが低いSCSI HDDが割り当てられる。この例において、SCSIコマンドにより仮想ボリューム#1を指定して書き込まれるデータは、Tier1〜3の何れかに格納される。SCSIコマンドにより仮想ボリューム#2を指定して書き込まれるデータは、Tier1及び2の何れかに格納される。NVMeコマンドにより仮想ボリューム#3を指定して書き込まれるデータは、Tier1及び2の何れかに格納される。仮想ボリューム#3を用いて、アクセスが少ないデータをTier2に配置することで、記憶デバイスのコストを削減することができる。NVMeコマンドにより仮想ボリューム#4を指定して書き込まれるデータは、必ずTier1に格納される。仮想ボリューム#4を用いることにより、高性能な共有データ領域を提供することができる。SCSIによりアクセスされる二つの仮想ボリューム#1、#2は、一つのプール#1を共有している。NVMeによりアクセスされる二つの仮想ボリューム#3、#4は、二つのプール#2、#3に夫々関連付けられている。
このように、サーバ計算機2により用いられるプロトコルとTierの構成を関連付けることにより、サーバ計算機2は、アクセスに用いるプロトコルによってアクセス性能や記憶媒体のコストを使い分けることができる。また、NVMeコマンドによりアクセスするボリュームを、フラッシュメモリ等の最上位の階層に固定することで、フラッシュメモリによる高速アクセスを維持しつつ、プールやティア導入による管理容易化を達成できる。
図14は、プール管理テーブル353を示す。
プール管理テーブル353は、プール毎のエントリを含む。一つのプールに対応するエントリは、プール番号(#)と、プール属性と、プール容量と、割当済容量と、枯渇閾値と、登録論理ボリューム番号(#)とを含む。プール番号は、当該プールを示す識別子である。プール属性は、当該プールに関連付けられたプロトコルであり、サーバ計算機2がアクセスにNVMe及びSCSIの何れを用いるかを示し、当該プールの作成時に管理者により設定される。プール容量は、当該プールの容量であり、当該プールに登録された論理ボリュームの容量の合計である。割当済容量は、当該プールから仮想ボリュームに割り当てられたページの容量の合計を示す。枯渇閾値は、プール容量に対する割当済容量の割合の閾値である。ストレージコントローラ3は、当該プールのプール容量に対する割当済容量の割合が枯渇閾値を超えると、当該プールに論理ボリュームを追加することを要求するアラートを管理計算機7に通知する。登録論理ボリューム番号は、当該プールに登録された論理ボリュームを示す論理ボリューム番号であり、Tier毎に設定される。論理ボリューム番号に予め「禁止」と設定されているTierには、論理ボリュームを追加することができないことを示す。
このプール管理テーブル353によれば、ストレージコントローラ3は、プールにTier毎の論理ボリュームを割り当てることができる。また、ストレージコントローラ3は、プール容量と割当済容量を管理することにより、プール容量の不足を検出でき、管理者への通知を行うことができる。
図15は、論理ボリューム管理テーブル354を示す。
論理ボリューム管理テーブル354は、論理ボリューム毎のエントリを含む。一つの論理ボリュームに対応するエントリは、論理ボリューム番号(#)と、記憶媒体と、論理ボリューム容量と、登録先プール番号(#)と、登録先LUNとを含む。論理ボリューム番号は、当該論理ボリュームの識別子である。記憶媒体は、当該論理ボリュームを構成する記憶媒体の種別を表す識別子であり、例えばSSD、SAS(HDD)、SATA(HDD)の何れかを示す。論理ボリューム容量は、当該論理ボリュームの容量である。登録先プール番号は、当該論理ボリュームの登録先のプールのプール番号である。登録先LUNは、当該論理ボリュームの登録先のLUのLUNである。シンプロビジョニングを用いる場合、論理ボリュームは、プールに関連付けられる。シンプロビジョニングを用いない場合、論理ボリュームは、LUに関連付けられる。プール及びLUの何れにも関連付けられていない論理ボリュームは、予備の論理ボリュームである。ストレージコントローラ3は、管理者により追加された論理ボリュームを、予備の論理ボリュームとして論理ボリューム管理テーブル354に登録する。予備の論理ボリュームは例えば、プール容量が枯渇した場合に当該プールへ追加される。複数のTierを持つプールには、互いに異なる複数の記憶媒体が割り当てられる。
なお、SSDは、PCIeやSAS等のインターフェースを有していても良い。互いに異なるインターフェースを有する複数の種類のSSDがストレージコントローラ3に接続されている場合、それら複数の種類が複数のTierに夫々割り当てられても良い。
この論理ボリューム管理テーブル354によれば、ストレージコントローラ3は、論理ボリュームに割り当てられる記憶媒体の種類を管理することができる。これにより、ストレージコントローラ3は、Tierに適した記憶媒体を論理ボリュームに割り当てることができる。
マッピング管理テーブル355は、仮想ボリュームにおける仮想ページとプールに割り当てられた論理ボリューム内の論理ページとの第1の関係と、論理ボリュームのアドレス(論理ボリューム論理アドレスと呼ぶ)と記憶デバイスのアドレス(記憶デバイス論理アドレスと呼ぶ)との第2の関係を含む。なお、仮想ページとは、仮想ボリュームのアドレス空間を所定の長さ毎に分割した個々の空間を指す。論理ページとは、論理ボリュームのアドレス空間を所定の長さ(典型的には仮想ページの場合と同じ長さ)毎に分割した個々の空間を指す。
第1の関係を表すエントリには、仮想ページを表す情報(例えば仮想ボリューム#と仮想ボリューム論理アドレスの組み)と、当該仮想ページに割り当てられた論理ページを表す情報(例えば論理ボリューム#と論理ボリューム論理アドレスの組み)との組みが登録される。これによって仮想ボリュームのアドレスを指定したアクセスをプールに割り当てられた論理ボリュームのアドレスに変換することができる。なお、シンプロビジョニングの場合は、仮想ページに論理ページが割り当てられていない場合もある。このような場合は前述の論理ページを表す情報には「割り当てられていない」ことを表す値が入る。なお、第1の関係を表す内容は、シンプロビジョニングを実現できるのであれば他の形態であってもよく、他の情報を含むことを排除するものでもない。例えば、仮想ページと論理ページそれぞれにページ番号を付与し、当該ページ番号で割り当て関係を表現してもよい。
第2の関係を表す方法は、図6に示した論理ボリュームとパリティグループ、記憶デバイスの関係に依存するが、要は論理ボリューム論理アドレスから記憶デバイス論理アドレスに変換できればよい。仮に1つの論理ボリュームは1つのパリティグループにしか対応しない場合、第2の関係は、その論理ボリュームが対応するパリティグループの識別子と対応させたパリティグループ内のアドレス空間をエントリとする。また、仮に1つの記憶デバイスを複数のパリティグループに跨って割り当てない場合、パリティグループに含まれる記憶デバイスの識別子リストもエントリの一部となる。なお、第2の関係は他の形態で表現されてもよい。
このマッピング管理テーブル355によれば、ストレージコントローラ3は、仮想ボリューム内のアドレスに対応する論理ボリューム内のアドレスを取得することができる。また、ストレージコントローラ3は、論理ボリューム内のアドレスに対応する記憶デバイス内のアドレスを取得することができる。
≪仮想ボリューム作成処理≫
図16は、仮想ボリューム作成処理を示す。
仮想ボリューム作成処理は、以下の処理を含む:
(S2110)管理者が管理計算機7に仮想ボリューム作成画面を表示させ、その画面上で仮想ボリュームの作成の指示を入力すると、管理計算機7は、その指示をストレージコントローラ3へ発行する。
(S2120)その後、ストレージコントローラ3は、指示に基づいて、当該仮想ボリュームの仮想ボリューム属性がNVMeであるか否かを判定する。仮想ボリューム属性がNVMeでない、即ち仮想ボリューム属性がSCSIであると判定された場合(SCSI)、ストレージコントローラ3は、処理をS2150へ移行させる。一方、仮想ボリューム属性がNVMeであると判定された場合(NVMe)、ストレージコントローラ3は、処理をS2130へ移行させる。
(S2130)ストレージコントローラ3は、プール管理テーブル353にNVMe用プールのエントリを追加し、指示に基づいてTier毎の論理ボリュームの登録の許可又は禁止を設定する。
(S2140)その後、ストレージコントローラ3は、当該プールを指定して論理ボリュームを登録する論理ボリューム登録処理を行う。
(S2150)その後、ストレージコントローラ3は、仮想ボリューム管理テーブル352に当該プールに関連付けられた仮想ボリュームのエントリを追加し、このフローを終了する。
この仮想ボリューム作成処理によれば、ストレージコントローラ3は、サーバ計算機2がNVMeコマンドを用いてアクセスする仮想ボリュームを作成すると共に、その仮想ボリュームに割り当てるプールを作成することができる。これにより、ストレージコントローラ3は、作成されたプールを、一つの仮想ボリュームだけに割り当て、仮想ボリュームの容量を管理すると共に、仮想ボリュームに対応するプールの容量を管理することができる。なお、複数のNVMe向け仮想ボリュームがプールを共有する場合は、S2130及びS2140においてストレージコントローラ3は、SCSIの場合と同様に好適なプールを選択し(選択は管理者からプールの識別子を受信する方法や管理計算機が所定の基準で選択する方法がある)、S2150に進むことが考えられる。
図17は、仮想ボリューム作成画面を示す。
仮想ボリューム作成画面は、仮想ボリューム番号と、アクセスプロトコルと、仮想ボリューム容量と、利用記憶階層と、次ボリュームボタンと、完了ボタンとを含む。仮想ボリューム番号には、作成される仮想ボリュームの仮想ボリューム番号が入力される。アクセスプロトコルには、当該仮想ボリュームの仮想ボリューム属性となるアクセスプロトコルとしてSCSI及びNVMeの何れかが入力される。仮想ボリューム容量には、当該仮想ボリュームの仮想ボリューム容量が入力される。利用記憶階層は、Tier毎のエントリを含む。一つのTierに対応するエントリには、当該Tierに対応する記憶媒体が表示され、当該Tierの利用の許可又は禁止(不許可)が入力される。次ボリュームボタンが押されると、管理計算機7は、次の仮想ボリュームの設定のための仮想ボリューム作成画面を表示する。完了ボタンが押されると、管理計算機7は、仮想ボリューム作成画面において入力された値を含む指示をストレージコントローラ3へ発行する。
この例において、Tier1に割り当てられる記憶デバイスの記憶媒体の種類は、SSDである。SSDはFlash I/F372に接続されている。Flash I/F372はPCIeやSAS等である。Tier2に割り当てられる記憶デバイスの記憶媒体の種類は、SAS HDDである。SAS HDDは、Disk I/F34に接続されている。このDisk I/F34はSASである。Tier3に割り当てられる記憶デバイスの記憶媒体の種類は、SATA HDDである。SATA HDDは、Disk I/F34に接続されている。このDisk I/F34はSATAである。
図18は、論理ボリューム登録処理を示す。
ストレージコントローラ3は、指定されたプールの利用記憶階層の情報に基づいて、当該プールへの登録が許可されているTier毎に論理ボリューム登録処理を行う。指定されたプール及びTierに対する論理ボリューム登録処理は、以下の処理を含む:
(S2210)ストレージコントローラ3は、論理ボリューム管理テーブル354を検索し、指定されたプールに適合する論理ボリュームがあるか否かを判定する。ここで適合する論理ボリュームは、予備の論理ボリュームで、且つ指定されたTierに対応する記憶媒体の論理ボリュームである。当該プールに適合する論理ボリュームがあると判定された場合(Yes)、ストレージコントローラ3は処理をS2240へ移行させる。一方、当該プールに適合する論理ボリュームがないと判定された場合(No)、ストレージコントローラ3は処理をS2220へ移行させる。
(S2220)ストレージコントローラ3は、アラートを管理計算機7へ報告することにより、管理者に対し新たな論理ボリュームの追加を促す。
(S2230)その後、ストレージコントローラ3は、当該プールに適合する論理ボリュームが追加されたか否かを判定する。当該プールに適合する論理ボリュームが追加されていないと判定された場合(No)、ストレージコントローラ3は、S2230を繰り返す。一方、当該プールに適合する論理ボリュームが追加されたと判定された場合(Yes)、ストレージコントローラ3は、処理をS2240へ移行させる。
(S2240)ストレージコントローラ3は、当該プールに適合すると判定された論理ボリュームの情報を、論理ボリューム管理テーブルとプール管理テーブルへ追加し、このフローを終了する。ここで、複数の論理ボリュームが当該プールに適合すると判定された場合、ストレージコントローラ3は、これらの複数の論理ボリュームの中から予め定められた番号順に論理ボリュームを選択してもよい。
論理ボリューム登録処理によれば、ストレージコントローラ3は、指定されたプール及びTierに適した論理ボリュームを当該プールへ登録することができる。
≪仮想ボリュームに対するWrite処理≫
サーバ計算機2がサーバ側PCIe I/Fデバイス4へNVMeのWriteコマンドを送信した場合、前述のNVMeコマンド処理によりサーバ側PCIe I/Fデバイス4は、前述のNVMeコマンド処理によりサーバ側PCIe I/Fデバイス4はNVMeのWriteコマンドをSCSIのWriteコマンドに変換してストレージコントローラ3へ送信する。ここで、NVMeのWriteコマンドは、NSを指定する。変換されたSCSIのWriteコマンドは、NSに関連付けられたLUを指定する。その後、ストレージコントローラ3は、仮想ボリュームへ書き込むWrite処理を行う。
図19は、仮想ボリュームに対するWrite処理を示す。
Write処理は、以下の処理を含む:
(S8310)ストレージコントローラ3は、SCSIのWriteコマンドを受信すると、ライトデータの転送要求をサーバ側PCIe I/Fデバイス4へ送信する。その後、サーバ側PCIe I/Fデバイス4は、サーバ計算機2のメモリ22に格納されたライトデータを、ストレージコントローラ3のメモリ32(キャッシュメモリ)へ転送する。
(S8320)その後、ストレージコントローラ3は、LU管理テーブル351を参照し、サーバ側PCIe I/Fデバイス4からのWriteコマンドにより指定されたLUに対応する仮想ボリュームを選択する。その後、ストレージコントローラ3は、マッピング管理テーブル355を参照し、当該仮想ボリューム内でWriteコマンドにより指定されたライト対象の仮想ボリューム論理アドレスにページが割り当てられているか否かを判定する。ライト対象の仮想ボリューム論理アドレスにページが割り当てられていると判定された場合、ストレージコントローラ3は、処理をS8360へ移行させる。一方、ライト対象の仮想ボリューム論理アドレスにページが割り当てられていないと判定された場合、ストレージコントローラ3は、処理をS8330へ移行させる。
(S8330、S8340、S8350)ストレージコントローラ3は、ライト対象の仮想ボリューム論理アドレスへ、当該仮想ボリュームに対応するプールから未使用(新規)ページを割り当てる。その後、ストレージコントローラ3は、割り当てられたページの情報をマッピング管理テーブル355に追加する。その後、ストレージコントローラ3は、プール管理テーブル353における当該プールの割当済容量を当該ページのサイズだけ増加させる。
(S8360)その後、ストレージコントローラ3は、非同期でメモリ32内のライトデータを記憶デバイスへ書き込む非同期デステージを行う。ここで、ストレージコントローラ3は、マッピング管理テーブル355に基づいて、ライト対象に対応するページに対応する記憶デバイス論理アドレスを取得し、その記憶デバイス論理アドレスへ書き込む。
(S8370)その後、ストレージコントローラ3は、プール管理テーブル353に基づいて、当該プールのプール容量に対する割当済容量の割合が枯渇閾値を超えたか否かを判定する。当該割合が枯渇閾値を超えていないと判定された場合、ストレージコントローラ3は、このフローを終了する。一方、当該割合が枯渇閾値を超えたと判定された場合、ストレージコントローラ3は、処理をS8380へ移行させる。
(S8380)ストレージコントローラ3は、当該プールを指定して前述の論理ボリューム登録処理を行い、このフローを終了する。
このWrite処理によれば、サーバ計算機2がNVMeのWriteコマンドを発行した場合でも、SCSIのWriteコマンドと同様にして、シンプロビジョニングの仮想ボリュームへデータを書き込むことができる。
≪NVMeコマンド応答処理≫
前述のNVMeコマンド処理において、サーバ計算機2がサーバ側PCIe I/Fデバイス4へNVMeコマンドを送信した場合、サーバ側PCIe I/Fデバイス4はNVMeコマンドをSCSIコマンドに変換してストレージコントローラ3へ送信する。その後、ストレージコントローラ3は、サーバ側PCIe I/Fデバイス4を介してサーバ計算機2へ応答を送信するNVMeコマンド応答処理を行う。
図20は、NVMeコマンド応答処理を示す。
NVMeコマンド応答処理は、サーバ計算機2と、サーバ側PCIe I/Fデバイス4と、ストレージコントローラ3とにより行われる。NVMeコマンド応答処理は、以下の処理を含む:
(S8210、S8220)ストレージコントローラ3は、サーバ側PCIe I/Fデバイス4からのSCSIコマンドに応じた処理を実行し、そのSCSIコマンドに対するSCSI形式の応答をサーバ側PCIe I/Fデバイス4へ送信する。
(S8230、S8240、S8250)その後、サーバ側PCIe I/Fデバイス4は、ストレージコントローラ3からのSCSI形式の応答を受信し、受信された応答をNVMe形式の応答に変換し、変換された応答をサーバ計算機2へ送信する。
(S8260)その後、サーバ計算機2は、サーバ側PCIe I/Fデバイス4からのNVMe形式の応答を受信し、このフローを終了する。
以上のNVMeコマンド応答処理によれば、ストレージコントローラ3は、SCSIに準拠したプログラムに従って、SCSIコマンドに対する応答をサーバ側PCIe I/Fデバイス4へ送信することができ、サーバ計算機2は、NVMeに準拠したプログラムに従って、サーバ側PCIe I/Fデバイス4からの応答を処理することができる。また、このNVMeコマンド応答処理によれば、サーバ計算機2は、Identifyコマンドをサーバ側PCIe I/Fデバイス4へ発行することにより、応答パラメータを取得することができる。
≪Identifyコマンドの応答≫
図21は、Identifyコマンドの応答と記憶容量の関係を示す。
NVMeコマンドの一つであるIdentifyコマンドは、NSを指定し、当該NSのシンプロビジョニングの状況を取得する。非特許文献1に記載されているように、Identifyコマンドの応答は、複数のパラメータのフィールドを含む。複数のパラメータは、Namespace Size(以後、NS Sizeと省略)と、Namespace Capacity(以後、NS Capacityと省略)と、Namespace Utilization(以後、NS Utilizationと省略)と、Namespace Features(以後、NS Featuresと省略)とを含む。NS Sizeは、当該NSの合計サイズを論理ブロック数で表す。一つの論理ブロックは、一つのLBAに対応する。論理ブロックのサイズであるLBAサイズは例えば512Bである。本実施例におけるNS Sizeは、当該NSに関連付けられたLUのLU容量、又は当該LUに割り当てられた仮想ボリュームの仮想ボリューム容量に対応する。NS Capacityは、当該NSに割り当てることができるプールのプール容量を論理ブロック数で表す。本実施例におけるNS Capacityは、当該LUに関連付けられたプールのプール容量に対応する。NS Utilizationは、当該NSに割り当てられた記憶領域の合計サイズを論理ブロック数で表す。本実施例におけるNS Utilizationは、当該プールから当該仮想ボリュームに割り当てられたページの合計の容量である割当済容量に対応する。NS Featuresは、当該NSがシンプロビジョニングをサポートしているか否かを示す。
ストレージコントローラ3は例えば、プールから仮想ボリュームへ割り当てられる記憶領域をページ単位で管理する。ページのサイズは例えば42MBである。
サーバ計算機2のユーザから見ると、NS CapacityからNS Utilizationを減じた値が当該NSの空き領域の容量に相当する。もし複数のNSが一つのプールを共有すると、サーバ計算機2のユーザが使用するNSの空き領域が、別のサーバ計算機2のユーザが使用する別のNSにより消費される場合がある。したがって、一つのNSが一つのプールに対応することが望ましい。
≪Inquiry処理≫
サーバ計算機2がNSを指定するIdentifyコマンドを発行すると、前述のNVMeコマンド処理により、サーバ側PCIe I/Fデバイス4は、NVMeのIdentifyコマンドをSCSIのInquiryコマンドに変換してストレージコントローラ3へ送信する。これにより、IdentifyコマンドにおけるNSは、InquiryコマンドにおいてLUに変換される。その後、ストレージコントローラ3は、前述のNVMeコマンド応答処理のS8120として、Inquiryコマンドに応じたInquiry処理を行う。
図22は、Inquiry処理を示す。
Inquiry処理は以下の処理を含む:
(S8410)ストレージコントローラ3は、LU管理テーブル351に基づいて、Inquiryコマンドにより指定されたLUに対応する仮想ボリュームを特定し、仮想ボリューム管理テーブル352に基づいて、当該Inquiryコマンドにより指定されたLUに対応する仮想ボリューム属性がNVMeであるか否かを判定する。仮想ボリューム属性がNVMeでない、即ち仮想ボリューム属性がSCSIであると判定された場合、ストレージコントローラ3は、処理をS8430へ移行させる。一方、仮想ボリューム属性がNVMeであると判定された場合、ストレージコントローラ3は、処理をS8430へ移行させる。
(S8420)ストレージコントローラ3は、仮想ボリューム管理テーブル352から当該仮想ボリュームの仮想ボリューム容量を取得し、プール管理テーブル353から当該仮想ボリュームに対応するプールのプール容量及び割当済容量を取得し、取得された情報に基づいて、NVMe規格に示された次の応答パラメータを算出する。
NS Size = 仮想ボリューム容量÷LBAサイズ
NS Capacity = プール容量÷LBAサイズ
NS Utilization = 割当済容量÷LBAサイズ
割当済容量が割当済ページ数で表されている場合、ストレージコントローラ3は、割当済ページ数にページサイズを乗じた値を割当済容量として算出する。更にストレージコントローラ3は、当該LUに仮想ボリュームが関連付けられている場合、即ち当該LUにシンプロビジョニングを用いる場合、NS Featuresを1に設定し、当該LUに論理ボリュームが関連付けられている場合、即ち当該LUにシンプロビジョニングを用いない場合、NS Featuresを0に設定する。NVMe規格では、NS Size ≧ NS Capacity ≧ NS Utilizationの関係が定められている。ストレージコントローラ3は、プール容量が仮想ボリューム容量より大きい場合、応答パラメータにおけるNS CapacityをNS Sizeに一致させる。これにより、ストレージコントローラ3は、NVMe規格に準拠した応答パラメータを算出することができる。
(S8430)その後、ストレージコントローラ3は、応答パラメータを用いてSCSIのInquiryコマンドの応答パケットを作成してサーバ側PCIe I/Fデバイス4へ送信し、このフローを終了する。例えば、ストレージコントローラ3は、Inquiryコマンドの応答パケットのフォーマットの空き領域に、NS Size、NS Capacity、NS Utilization、NS Featuresを含める。サーバ側PCIe I/Fデバイス4は、Inquiryの応答パケットをIdentifyの応答パケットに変換してサーバ計算機2へ送信する。これにより、ストレージコントローラ3がNVMeを解釈しない場合であっても、サーバ計算機2はNVMe規格に準拠した応答パケットを受信することができる。
以上に説明したように、LUにシンプロビジョニングを適用することにより、複数のサーバ計算機2は、容量仮想化されたNSを共有することができる。また、記憶容量の設計や初期の記憶デバイスのコストを低減することができる。更に、NUにティアリングを適用することにより、複数のサーバ計算機2は、自動階層化されたNSを共有することができる。また、例えば、アクセス頻度が高いデータを、高性能な階層に配置することでアクセス性能を向上させ、アクセス頻度が低いデータを低価格な階層に配置することで記憶容量に対するコストを低減することができる。
<LUにシンプロビジョニングを適用しティアリングを適用しない場合>
前述のようにLUにシンプロビジョニング及びティアリングを適用した場合と比較して、シンプロビジョニングを適用しティアリングを適用しない場合の差異について説明する。
シンプロビジョニングを適用しティアリングを適用しない場合、ストレージコントローラは、仮想ボリューム管理テーブル352の代わりに仮想ボリューム管理テーブル352bを用い、プール管理テーブル353の代わりにプール管理テーブル353bを用い、論理ボリューム管理テーブル354の代わりに論理ボリューム管理テーブル354bを用いる。
図23は、シンプロビジョニングを適用しティアリングを適用しない場合の仮想ボリューム管理テーブル352bを示す。仮想ボリューム管理テーブル352と比較すると、仮想ボリューム管理テーブル352bは、使用Tier番号を含まない。
図24は、シンプロビジョニングを適用しティアリングを適用しない場合のプール管理テーブル353bを示す。プール管理テーブル353の登録論理ボリューム番号が、Tier毎の論理ボリューム番号を示すのに対し、プール管理テーブル353bの登録論理ボリューム番号は、当該プールに登録された論理ボリュームの論理ボリューム番号を示す。
図25は、シンプロビジョニングを適用しティアリングを適用しない場合の論理ボリューム管理テーブル354bを示す。論理ボリューム管理テーブル354と比較すると、論理ボリューム管理テーブル354bでは、一つのプールに対して、同一の記憶媒体に基づく論理ボリュームが割り当てられている。
図26は、シンプロビジョニングを適用しティアリングを適用しない場合の仮想ボリューム作成画面を示す。ティアリングを適用する場合と比較すると、この仮想ボリューム作成画面は、利用記憶階層の項目を必要としない。
これにより、複数のサーバ計算機2は、容量仮想化されたNSを共有することができる。また、記憶容量の設計や初期の記憶デバイスのコストを低減することができる。
<LUにシンプロビジョニングを適用せずティアリングを適用する場合>
前述のようにLUにシンプロビジョニング及びティアリングを適用した場合と比較して、シンプロビジョニングを適用せずティアリングを適用する場合の差異について説明する。
図27は、シンプロビジョニングを適用しない場合のIdentifyコマンドの応答と記憶容量の関係を示す。
シンプロビジョニングを適用しないLUに対するIdentifyコマンドに応じたInquiry処理において、ストレージコントローラ3は、NS SizeをNS Capacityに等しくする。
シンプロビジョニングを適用しティアリングを適用しない場合、ストレージコントローラは、LU管理テーブル351の代わりにLU管理テーブル351cを用い、仮想ボリューム管理テーブル352及びプール管理テーブル353を用いない。
図28は、シンプロビジョニングを適用せずティアリングを適用する場合のLU管理テーブル351cを示す。
シンプロビジョニングを適用せずティアリングを適用する場合、ストレージコントローラ3は、複数のTierに夫々対応する複数の論理ボリュームを一つのLUに割り当て、それら複数の論理ボリュームの容量の合計をLU容量として、LU管理テーブル351cに登録する。
これにより、複数のサーバ計算機2は、自動階層化されたNSを共有することができる。また、例えば、アクセス頻度が高いデータを、高性能な階層に配置することでアクセス性能を向上させ、アクセス頻度が低いデータを低価格な階層に配置することで記憶容量に対するコストを低減することができる。
計算機システムは、インターフェースデバイスとして、サーバ側PCIe I/Fデバイス4やストレージ側PCIe I/Fデバイス8等の仲介デバイスを含んでもよい。計算機システムは、通信機構としてバックプレーン等の基板を含んでもよいし、通信機構としてブレードサーバシステムのシャーシとストレージコントローラのシャーシとPCIe接続用ケーブル等を含んでもよい。計算機システムは、複数のサーバ計算機、ストレージコントローラ、及び通信機構を収容する筐体として、シャーシ、ラック等を含んでもよい。サーバ計算機は、サーバ側RCとしてRC24等を含んでもよい。サーバ計算機は、ストレージ側RCとしてRC33等を含んでもよい。インターフェースデバイスは、第1EPとしてEP41等を提供し、第2EPとして第1EPと異なるEP41等を提供してもよい。インターフェースデバイスは、第3EPとしてEP42等を提供してもよい。サーバ計算機は、第1データとして一時データ又は引き継ぎに必要なデータ等を用いてもよく、第2データとして引き継ぎに不要なデータ等を用いてもよい。計算機システムは、ローカル不揮発メモリデバイスとして、Localフラッシュメモリデバイス等を含んでもよい。計算機システムは、仮想記憶領域として、仮想ボリューム等を用いてもよい。計算機システムは、共有記憶領域として、論理ボリューム等を用いてもよい。計算機システムは、特定規格として、SCSI等を用いてもよい。計算機システムは、複数の記憶デバイスとして、SSD、SAS HDD、及びSATA HDD等を夫々含んでもよい。サーバ計算機は、第1プログラムとして、NVM制御プログラム222等を用いても良い。サーバ計算機は、第2プログラムとして、SCSI制御プログラム224等を用いても良い。第1フィールドとして、NS Sizeのフィールド等が用いられても良い。第2フィールドとして、NS Capacityのフィールド等が用いられても良い。第3フィールドとして、NS Utilizationのフィールド等が用いられても良い。
なお、以上の説明では、サーバ計算機2からのNVMeコマンドにより指定されるNSと、サーバ計算機2からのSCSIリクエストにより指定されるSCSI LUNとに、別々のプールが対応づけられている場合について説明した。これは例えばNSに対して高負荷なアクセスがなされた場合にSCSI LUNに対して影響が及ばないようにリソースを分離する意味を持つ。しかし、容量利用効率を優先させてNSとSCSI LUNとに、共通のプールが対応づけられてもよい。
以上で説明を終える。なお、以上で説明したポイントのいくつかはNVMeコマンド以外のSCSIコマンドに対しても適用できる場合がある。
1…CPF 2…サーバ計算機 3…ストレージコントローラ 4…サーバ側PCIe I/Fデバイス 5…フラッシュメモリデバイス 6…HDD 7…管理計算機 8…ストレージ側PCIe I/Fデバイス 9…PCIeスイッチ 36…コントロールユニット

Claims (14)

  1. 第1サーバ計算機と、
    第2サーバ計算機と、
    不揮発メモリデバイスと、
    前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、
    を含み、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される仮想記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
    前記プログラムは、前記仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記仮想記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記アクセスに基づいて、前記不揮発メモリデバイス内の記憶領域を前記仮想記憶領域に割り当て、
    前記ストレージコントローラは、前記仮想記憶領域を作成し、前記不揮発メモリデバイスに基づくプールを仮想記憶領域に関連付け、前記仮想記憶領域へ書き込まれるデータの増加に応じて、前記プールの一部を前記仮想記憶領域に割り当て、
    前記サーバ計算機が前記namespaceを指定するIdentifyコマンドを発行した場合、前記ストレージコントローラは、前記仮想記憶領域の容量をLBAサイズで除した値を示す第1フィールドと、前記プールの容量をLBAサイズで除した値を示す第2フィールドと、前記プールから前記仮想記憶領域に割り当てられている記憶領域のサイズをLBAサイズで除した値を示す第3フィールドとを含む応答を発行する
    算機システム。
  2. 前記ストレージコントローラは、前記仮想記憶領域の作成の指示を受信した場合、前記仮想記憶領域及び前記プールを作成し、前記プールを前記仮想記憶領域に関連付ける、
    請求項に記載の計算機システム。
  3. 前記ストレージコントローラは、前記プールの容量が前記仮想記憶領域の容量より大きい場合、前記応答内の前記第2フィールドに、前記第1フィールドの値を設定する、
    請求項に記載の計算機システム。
  4. 第1サーバ計算機と、
    第2サーバ計算機と、
    不揮発メモリデバイスと、
    前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、
    を含み、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される仮想記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
    前記プログラムは、前記仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記仮想記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記アクセスに基づいて、前記不揮発メモリデバイス内の記憶領域を前記仮想記憶領域に割り当て、
    前記サーバ計算機にPCI-Expressを介して接続されると共に、前記ストレージコントローラにPCI-Expressを介して接続されることにより、前記サーバ計算機と前記ストレージコントローラの間に介在するインターフェースデバイスを更に含み、
    前記ストレージコントローラは、SCSIリクエストを解釈し前記SCSIリクエストに基づいて前記不揮発メモリデバイスにアクセスすることにより、前記仮想記憶領域を提供し、
    前記インターフェースデバイスは、
    前記第1サーバ計算機に含まれるRoot Complex(RC)である第1サーバ側RCに対して第1Endpoint(EP)を提供するロジックと、
    前記第2サーバ計算機に含まれるRCである第2サーバ側RCに対して第2EPを提供するロジックと、
    前記ストレージコントローラに含まれるRCであるストレージ側RCに対して第3EPを提供するロジックと、
    前記サーバ計算機により発行されたNVM-Expressコマンドを解釈し、前記解釈されたNVM-Expressコマンドに基づくSCSIリクエストを前記ストレージコントローラへ発行するロジックと、
    前記発行されたSCSIリクエストに応じて前記ストレージコントローラにより発行されたSCSI応答を解釈し、前記SCSI応答に基づくNVMe応答を前記サーバ計算機へ発行するロジックと、
    を含む
    算機システム。
  5. 前記ストレージコントローラは、前記仮想記憶領域である仮想ボリューム及び仮想ストレージポートを論理ユニットに関連付け、前記論理ユニットを前記namespaceに割り当てる、
    請求項に記載の計算機システム。
  6. 前記プログラムは、SCSIリクエストを発行することを、前記サーバ計算機に実行させ、
    前記インターフェースデバイスは更に、前記サーバ計算機により発行されたSCSIリクエストを解釈し前記サーバ計算機により発行されたSCSIリクエストに基づくSCSIリクエストを前記ストレージコントローラへ発行するロジックを含む、
    請求項に記載の計算機システム。
  7. 第1サーバ計算機と、
    第2サーバ計算機と、
    不揮発メモリデバイスと、
    前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、
    を含み、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される仮想記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
    前記プログラムは、前記仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記仮想記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記アクセスに基づいて、前記不揮発メモリデバイス内の記憶領域を前記仮想記憶領域に割り当て、
    前記不揮発メモリデバイスを含み、互いに特性が異なる複数の記憶デバイスを備え、
    前記ストレージコントローラは、前記複数の記憶デバイスに接続され、前記アクセスに基づいて、前記仮想記憶領域へ書き込まれるデータを前記複数の記憶デバイスの何れかに配置する
    算機システム。
  8. 第1サーバ計算機と、
    第2サーバ計算機と、
    互いに特性が異なる複数の記憶デバイスと、
    前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記複数の記憶デバイスに接続されるストレージコントローラと、
    を含み、
    前記複数の記憶デバイスの一つは不揮発メモリデバイスであり、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される第1共有記憶領域及び第2共有記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行する第1プログラムと、前記NVM-Express規格と異なる特定規格に準拠するコマンドである特定規格コマンドを発行する第2プログラムとを格納し、
    前記第1プログラムは、前記第1共有記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記第1共有記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記第2プログラムは、前記第2共有記憶領域を指定する特定規格コマンドを発行することによりPCI-Expressを介して前記第2共有記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記NVM-Expressコマンドによるアクセスに基づいて、前記第1共有記憶領域へ書き込まれるデータを前記不揮発メモリデバイスへ配置し、
    前記ストレージコントローラは、前記特定規格コマンドによるアクセスに基づいて、前記第2共有記憶領域へ書き込まれるデータを前記複数の記憶デバイスの何れかへ配置する、
    計算機システム。
  9. 第1サーバ計算機と、
    第2サーバ計算機と、
    不揮発メモリデバイスと、
    前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、
    を含み、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される仮想記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
    前記プログラムは、前記仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記仮想記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記アクセスに基づいて、前記不揮発メモリデバイスの記憶領域に基づくプールを前記仮想記憶領域に割り当て、
    前記サーバ計算機は、前記NVM-Expressコマンドによるアクセスを含む複数の種類のアクセスが可能であり、前記プールは、前記アクセスの種類が規定されて作成されている、
    計算機システム。
  10. 第1サーバ計算機と、第2サーバ計算機と、不揮発メモリデバイスと、前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、を含む計算機システムによる処理方法であって、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される仮想記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
    前記プログラムは、前記仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記仮想記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記アクセスに基づいて、前記不揮発メモリデバイス内の記憶領域を前記仮想記憶領域に割り当て、
    前記ストレージコントローラは、前記仮想記憶領域を作成し、前記不揮発メモリデバイスに基づくプールを仮想記憶領域に関連付け、前記仮想記憶領域へ書き込まれるデータの増加に応じて、前記プールの一部を前記仮想記憶領域に割り当て、
    前記サーバ計算機が前記namespaceを指定するIdentifyコマンドを発行した場合、前記ストレージコントローラは、前記仮想記憶領域の容量をLBAサイズで除した値を示す第1フィールドと、前記プールの容量をLBAサイズで除した値を示す第2フィールドと、前記プールから前記仮想記憶領域に割り当てられている記憶領域のサイズをLBAサイズで除した値を示す第3フィールドとを含む応答を発行する、
    処理方法。
  11. 第1サーバ計算機と、第2サーバ計算機と、不揮発メモリデバイスと、前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、を含む、計算機システムによる処理方法であって、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される仮想記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
    前記プログラムは、前記仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記仮想記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記アクセスに基づいて、前記不揮発メモリデバイス内の記憶領域を前記仮想記憶領域に割り当て、
    前記計算機システムは、前記サーバ計算機にPCI-Expressを介して接続されると共に、前記ストレージコントローラにPCI-Expressを介して接続されることにより、前記サーバ計算機と前記ストレージコントローラの間に介在するインターフェースデバイスを更に含み、
    前記ストレージコントローラは、SCSIリクエストを解釈し前記SCSIリクエストに基づいて前記不揮発メモリデバイスにアクセスすることにより、前記仮想記憶領域を提供し、
    前記インターフェースデバイスは、
    前記第1サーバ計算機に含まれるRoot Complex(RC)である第1サーバ側RCに対して第1Endpoint(EP)を提供し、
    前記第2サーバ計算機に含まれるRCである第2サーバ側RCに対して第2EPを提供し、
    前記ストレージコントローラに含まれるRCであるストレージ側RCに対して第3EPを提供し、
    前記サーバ計算機により発行されたNVM-Expressコマンドを解釈し、前記解釈されたNVM-Expressコマンドに基づくSCSIリクエストを前記ストレージコントローラへ発行し、
    前記発行されたSCSIリクエストに応じて前記ストレージコントローラにより発行されたSCSI応答を解釈し、前記SCSI応答に基づくNVMe応答を前記サーバ計算機へ発行する、
    処理方法。
  12. 第1サーバ計算機と、第2サーバ計算機と、不揮発メモリデバイスと、前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、を含む計算機システムによる処理方法であって、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される仮想記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
    前記プログラムは、前記仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記仮想記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記アクセスに基づいて、前記不揮発メモリデバイス内の記憶領域を前記仮想記憶領域に割り当て、
    前記計算機システムは、前記不揮発メモリデバイスを含み、互いに特性が異なる複数の記憶デバイスを備え、
    前記ストレージコントローラは、前記複数の記憶デバイスに接続され、前記アクセスに基づいて、前記仮想記憶領域へ書き込まれるデータを前記複数の記憶デバイスの何れかに配置する、
    処理方法。
  13. 第1サーバ計算機と、第2サーバ計算機と、互いに特性が異なる複数の記憶デバイスと、前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記複数の記憶デバイスに接続されるストレージコントローラと、を含む計算機システムによる処理方法であって、
    前記複数の記憶デバイスの一つは不揮発メモリデバイスであり、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される第1共有記憶領域及び第2共有記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行する第1プログラムと、前記NVM-Express規格と異なる特定規格に準拠するコマンドである特定規格コマンドを発行する第2プログラムとを格納し、
    前記第1プログラムは、前記第1共有記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記第1共有記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記第2プログラムは、前記第2共有記憶領域を指定する特定規格コマンドを発行することによりPCI-Expressを介して前記第2共有記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記NVM-Expressコマンドによるアクセスに基づいて、前記第1共有記憶領域へ書き込まれるデータを前記不揮発メモリデバイスへ配置し、
    前記ストレージコントローラは、前記特定規格コマンドによるアクセスに基づいて、前記第2共有記憶領域へ書き込まれるデータを前記複数の記憶デバイスの何れかへ配置する、
    処理方法。
  14. 第1サーバ計算機と、第2サーバ計算機と、不揮発メモリデバイスと、前記第1サーバ計算機及び前記第2サーバ計算機にPCI-Expressを介して接続され、前記不揮発メモリデバイスに接続されるストレージコントローラと、を含む計算機システムによる処理方法であって、
    前記ストレージコントローラは、前記第1サーバ計算機及び前記第2サーバ計算機により共有される仮想記憶領域を提供し、
    前記第1サーバ計算機及び前記第2サーバ計算機の夫々であるサーバ計算機は、NVM-Express規格に準拠するコマンドであるNVM-Expressコマンドを発行するプログラムを格納し、
    前記プログラムは、前記仮想記憶領域に関連付けられたnamespaceを指定するNVM-Expressコマンドを発行することによりPCI-Expressを介して前記仮想記憶領域にアクセスすることを、前記サーバ計算機に実行させ、
    前記ストレージコントローラは、前記アクセスに基づいて、前記不揮発メモリデバイスの記憶領域に基づくプールを前記仮想記憶領域に割り当て、
    前記サーバ計算機は、前記NVM-Expressコマンドによるアクセスを含む複数の種類のアクセスが可能であり、前記プールは、前記アクセスの種類が規定されて作成されている、
    処理方法。
JP2016528751A 2014-06-20 2014-06-20 計算機システム Expired - Fee Related JP6286542B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/066419 WO2015194033A1 (ja) 2014-06-20 2014-06-20 計算機システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018020807A Division JP2018101440A (ja) 2018-02-08 2018-02-08 計算機システム

Publications (2)

Publication Number Publication Date
JPWO2015194033A1 JPWO2015194033A1 (ja) 2017-04-20
JP6286542B2 true JP6286542B2 (ja) 2018-02-28

Family

ID=54935062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016528751A Expired - Fee Related JP6286542B2 (ja) 2014-06-20 2014-06-20 計算機システム

Country Status (3)

Country Link
US (1) US20170102874A1 (ja)
JP (1) JP6286542B2 (ja)
WO (1) WO2015194033A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823849B2 (en) 2015-06-26 2017-11-21 Intel Corporation Method and apparatus for dynamically allocating storage resources to compute nodes
US10235102B2 (en) * 2015-11-01 2019-03-19 Sandisk Technologies Llc Methods, systems and computer readable media for submission queue pointer management
US10206297B2 (en) * 2015-11-23 2019-02-12 Liqid Inc. Meshed architecture rackmount storage assembly
US10049053B1 (en) * 2015-12-31 2018-08-14 EMC IP Holding Company LLC Classifying performance of an external storage resource pool associated with a performance tier in a federated tiered storage system for overload avoidance and auto-tiering
US10204057B2 (en) * 2016-08-09 2019-02-12 Atmel Corporation Memory emulation mechanism
US10534541B2 (en) * 2016-09-20 2020-01-14 Seagate Technology Llc Asynchronous discovery of initiators and targets in a storage fabric
JP6253752B1 (ja) 2016-11-29 2017-12-27 株式会社東芝 階層化ストレージシステム
JP6763543B2 (ja) * 2016-12-16 2020-09-30 日本電気株式会社 管理装置、管理システム、管理装置の制御方法及びプログラム
JP6783645B2 (ja) 2016-12-21 2020-11-11 キオクシア株式会社 メモリシステムおよび制御方法
US10771340B2 (en) * 2017-03-16 2020-09-08 Samsung Electronics Co., Ltd. Automatic ethernet storage discovery in hyperscale datacenter environment
US10545664B2 (en) 2017-04-11 2020-01-28 Samsung Electronics Co., Ltd. System and method for identifying SSDs with lowest tail latencies
CN109324753B (zh) * 2017-07-31 2023-10-31 北京忆恒创源科技股份有限公司 虚拟lun管理
JP2019057121A (ja) 2017-09-21 2019-04-11 東芝メモリ株式会社 メモリシステム、メモリシステムの制御方法、及びコントローラ回路
US10768820B2 (en) * 2017-11-16 2020-09-08 Samsung Electronics Co., Ltd. On-demand storage provisioning using distributed and virtual namespace management
US11934322B1 (en) * 2018-04-05 2024-03-19 Pure Storage, Inc. Multiple encryption keys on storage drives
US10558376B2 (en) * 2018-06-28 2020-02-11 Western Digital Technologies, Inc. Storage system and method for namespace reservation in a multi-queue single-controller environment
US11509606B2 (en) * 2018-06-29 2022-11-22 Intel Corporation Offload of storage node scale-out management to a smart network interface controller
CN109062184B (zh) * 2018-08-10 2021-05-14 中国船舶重工集团公司第七一九研究所 双机应急救援设备、故障切换方法和救援系统
CN111190844A (zh) * 2019-12-31 2020-05-22 杭州华澜微电子股份有限公司 一种协议转化方法及电子设备
US11650937B2 (en) 2019-12-31 2023-05-16 Western Digital Technologies, Inc. Storage system and method for secure host controller memory buffer access
JP7429214B2 (ja) * 2021-10-07 2024-02-07 株式会社日立製作所 ストレージシステム及びストレージシステムにおけるデータ複製方法
US20230305875A1 (en) * 2022-03-25 2023-09-28 Red Hat, Inc. Virtual networking for special types of nested virtual machines

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027291A (ja) * 2006-07-24 2008-02-07 Hitachi Ltd ストレージ装置及びデータ保護方法
JP4975396B2 (ja) * 2006-08-24 2012-07-11 株式会社日立製作所 記憶制御装置及び記憶制御方法
US20120110259A1 (en) * 2010-10-27 2012-05-03 Enmotus Inc. Tiered data storage system with data management and method of operation thereof
US8683162B2 (en) * 2011-06-08 2014-03-25 Hitachi, Ltd. Computer system and method of managing storage system monitoring access performance for risky pool detection
US8966172B2 (en) * 2011-11-15 2015-02-24 Pavilion Data Systems, Inc. Processor agnostic data storage in a PCIE based shared storage enviroment
US20140195634A1 (en) * 2013-01-10 2014-07-10 Broadcom Corporation System and Method for Multiservice Input/Output
US9003071B2 (en) * 2013-03-13 2015-04-07 Futurewei Technologies, Inc. Namespace access control in NVM express PCIe NVM with SR-IOV
US9009397B1 (en) * 2013-09-27 2015-04-14 Avalanche Technology, Inc. Storage processor managing solid state disk array
US20150095555A1 (en) * 2013-09-27 2015-04-02 Avalanche Technology, Inc. Method of thin provisioning in a solid state disk array
US9298648B2 (en) * 2013-05-08 2016-03-29 Avago Technologies General Ip (Singapore) Pte Ltd Method and system for I/O flow management using RAID controller with DMA capabilitiy to directly send data to PCI-E devices connected to PCI-E switch
US9430412B2 (en) * 2013-06-26 2016-08-30 Cnex Labs, Inc. NVM express controller for remote access of memory and I/O over Ethernet-type networks

Also Published As

Publication number Publication date
WO2015194033A1 (ja) 2015-12-23
US20170102874A1 (en) 2017-04-13
JPWO2015194033A1 (ja) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6286542B2 (ja) 計算機システム
JP6273353B2 (ja) 計算機システム
US11314543B2 (en) Architecture for implementing a virtualization environment and appliance
US9606745B2 (en) Storage system and method for allocating resource
US9990313B2 (en) Storage apparatus and interface apparatus
EP1837751B1 (en) Storage system, storage extent release method and storage apparatus
US8578178B2 (en) Storage system and its management method
KR20200017363A (ko) 호스트 스토리지 서비스들을 제공하기 위한 NVMe 프로토콜에 근거하는 하나 이상의 호스트들과 솔리드 스테이트 드라이브(SSD)들 간의 관리되는 스위칭
US20130290541A1 (en) Resource management system and resource managing method
US7555600B2 (en) Storage apparatus and configuration setting method
JP6068676B2 (ja) 計算機システム及び計算機システムの制御方法
US8286163B2 (en) Coupling between server and storage apparatus using detected I/O adaptor and allowing application execution based on access group and port connection group in virtualized environment
US10346065B2 (en) Method for performing hot-swap of a storage device in a virtualization environment
JP5996098B2 (ja) ストレージデバイスの高速アクセス及びデータ保護を実現する計算機、計算機システム、及びi/o要求処理方法
US8799573B2 (en) Storage system and its logical unit management method
EP2696275A2 (en) I/o device and storage management system
US9239681B2 (en) Storage subsystem and method for controlling the storage subsystem
JP2006227856A (ja) アクセス制御装置及びそれに搭載されるインターフェース
US20190213147A1 (en) Storage system and mapping method
JP2018101440A (ja) 計算機システム
WO2016139749A1 (ja) 計算機システム、及び、記憶制御方法
US11201788B2 (en) Distributed computing system and resource allocation method
JP6516875B2 (ja) 統合プラットフォーム、サーバ、及び、フェイルオーバ方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180205

R150 Certificate of patent or registration of utility model

Ref document number: 6286542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees