[go: up one dir, main page]

JP6235156B2 - 計算機システムおよび負荷平準化プログラム - Google Patents

計算機システムおよび負荷平準化プログラム Download PDF

Info

Publication number
JP6235156B2
JP6235156B2 JP2016545184A JP2016545184A JP6235156B2 JP 6235156 B2 JP6235156 B2 JP 6235156B2 JP 2016545184 A JP2016545184 A JP 2016545184A JP 2016545184 A JP2016545184 A JP 2016545184A JP 6235156 B2 JP6235156 B2 JP 6235156B2
Authority
JP
Japan
Prior art keywords
resource
logical volume
load
allocation change
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016545184A
Other languages
English (en)
Other versions
JPWO2016031041A1 (ja
Inventor
信明 小崎
信明 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016031041A1 publication Critical patent/JPWO2016031041A1/ja
Application granted granted Critical
Publication of JP6235156B2 publication Critical patent/JP6235156B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、負荷を平準化する計算機システムおよび負荷平準化プログラムに関する。
従来、論理記憶装置を担当するプロセッサを容易に変更するストレージシステムがある(たとえば、下記特許文献1を参照)。特許文献1のストレージシステムにおいて、ホストI/F(Interface)部は、論理記憶装置の記憶領域に対する入出力処理の制御を担当する制御部を管理する管理テーブルを有する。ホストI/F部は、ホスト計算機から論理記憶装置に対する入出力要求があった場合に、管理テーブルに基づいて、論理記憶装置の入出力処理を担当する制御部に入出力要求を受け渡す。制御部のマイクロプロセッサは、入出力要求に基づいて入出力処理を行う。また、制御部のマイクロプロセッサは、論理記憶装置に対する入出力処理を担当する制御部を変更するか否かを判定する。制御部のマイクロプロセッサは、担当する制御部を変更すると判定した場合に、担当している制御部と異なる制御部が論理記憶装置に対する入出力処理を担当するように管理テーブルを設定する。
特開2008−269424号公報
しかしながら、上述した特許文献1では、論理記憶装置に対する入出力処理を担当する制御部の変更という負荷分散案を、管理者に提示せずに管理テーブルに設定するため、管理者は、論理記憶装置に対する入出力処理を担当する制御部の変更の妥当性を確認することができないという問題がある。
本発明は、論理記憶装置に対する入出力処理の担当変更前に、負荷分散案の妥当性を判断する機会を提供することを目的とする。
本願において開示される発明の一側面となる計算機システムは、1以上の記憶デバイスにより構成される論理ボリュームを一意に特定する識別情報を含む入出力処理要求を送信するサーバと、前記入出力処理要求を処理可能な複数の入出力処理ユニットと、複数の前記論理ボリュームと、を有するストレージ装置と、前記ストレージ装置を管理する管理計算機と、を含む計算機システムであって、前記計算機システム内に存在し、前記入出力処理要求が通過する前記サーバと前記論理ボリュームとの間の経路上に存在する特定のリソース群を管理する特定のプロセッサが、前記特定のリソース群の中の第1のリソースの負荷が閾値を超過した量である閾値超過量を算出し、前記第1のリソースからの前記入出力処理要求が到達する複数の論理ボリュームの各々についての前記第1のリソースの負荷の量を取得し、前記各論理ボリュームの負荷の量のうち、前記閾値超過量以上であり、かつ、前記閾値超過量との差が最小となる論理ボリュームを選択し、前記選択した論理ボリュームにアクセスするリソースを前記第1のリソースから前記特定のリソース群の中の第2のリソースに変更する負荷分散案を算出し、前記負荷分散案を表示可能に出力し、前記負荷分散案を出力した結果、前記負荷分散案の実行指示を受け付けた場合、前記負荷分散案にしたがって、前記第1のリソースの負荷を前記第2のリソースに分散する。
本発明の代表的な実施の形態によれば、論理記憶装置に対する入出力処理の担当変更前に、負荷分散案の妥当性を判断する機会を提供することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
本実施例にかかる計算機システムにおける負荷分散案の提示例を示す説明図である。 管理計算機のハードウェア構成例を示すブロック図である。 ストレージシステムのシステム構成例を示すブロック図である。 システム構成情報において規定されるテナントとI/O処理ユニットと論理ボリューム群との関係の一例を示す模式図である。 システム構成情報に含まれるテナント−ボリューム対応テーブルの一例を示す説明図である。 システム構成情報に含まれるI/O処理ユニット−ボリューム対応テーブルの一例を示す説明図である。 負荷平準化許可ユニット管理テーブルの一例を示す説明図である。 割当変更許可ボリューム管理テーブルの一例を示す説明図である。 運用品質−閾値対応テーブルの一例を示す説明図である。 閾値情報の一例を示す説明図である。 第1のリソース使用率情報の一例を示す説明図である。 第2のリソース使用率情報の一例を示す説明図である。 テナント重要度管理テーブルの一例を示す説明図である。 ジョブ管理テーブルの一例を示す説明図である。 管理計算機の負荷平準化処理手順例を示すフローチャートである。 図15に示した閾値超過判定処理(ステップS1501)の詳細な処理手順例を示すフローチャートである。 図15に示した割当変更プラン生成処理(ステップS1502)の詳細な処理手順例を示すフローチャートである。 図17に示した割当変更対象選択処理(ステップS1703)の詳細な処理手順例を示すフローチャートである。 ステップS1702のソート処理の一例を示す説明図である。 割当変更プランの最適化処理(ステップS1708)の一例を示す説明図である。 割当変更プランの最適化処理(ステップS1708)の詳細な処理手順例を示すフローチャートである。 管理計算機の負荷平準化処理によって得られる割当変更プランの出力画面例を示す説明図である。 各I/O処理ユニットのリソース使用率の内訳の変化を示す出力画面例を示す説明図である。
以後の説明では「aaaテーブル」、「aaaリスト」、「aaaDB(Database)」、「aaaキュー」(aaaは任意の文字列)等の表現にて本実施例の情報を説明するが、これら情報は必ずしもテーブル、リスト、DB、キュー、等のデータ構造以外で表現されていてもよい。そのため、データ構造に依存しないことを示すために「aaaテーブル」、「aaaリスト」、「aaaDB」、「aaaキュー」等について「aaa情報」と呼ぶことがある。
また、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID(IDentification)」という表現を用いるが、これらについてはお互いに置換が可能である。
また、以後の説明では「プログラム」を主語として説明を行う場合があるが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポート(通信制御デバイス)を用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は管理サーバ等の計算機、情報処理装置が行う処理としてもよい。また、プログラムの一部または全ては専用ハードウェアによって実現されてもよい。
また、各種プログラムは、プログラム配布サーバや、計算機が読み取り可能な記憶メディアによって各計算機にインストールされてもよい。この場合、プログラム配布サーバは、プロセッサと記憶資源を含み、記憶資源はさらに配布プログラムと配布対象であるプログラムを記憶する。そして、配布プログラムをプロセッサが実行することで、プログラム配布サーバのプロセッサは、配布対象のプログラムを他の計算機に配布する。
また、計算機は入出力デバイスを有する。入出力デバイスの例としてはディスプレイとキーボードとポインタデバイスが考えられるが、これ以外のデバイスであってもよい。また、入出力デバイスの代替としてシリアルインタフェースやイーサーネットインタフェースを入出力デバイスとし、当該インタフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力デバイスでの入力及び表示を代替してもよい。
以後、情報処理システムを管理し、本実施例の表示用情報を表示する一つ以上の計算機の集合を管理システムと呼ぶことがある。管理用の計算機(以下、管理計算機)が表示用情報を表示する場合は管理計算機が管理システムである、また、管理計算機と表示用計算機の組み合わせも管理システムである。また、管理処理の高速化や高信頼化のために複数の計算機で管理計算機と同等の処理を実現してもよく、この場合は当該複数の計算機(表示を表示用計算機が行う場合は表示用計算機も含む)が管理システムである。
<負荷分散案の提示例>
図1は、本実施例にかかる計算機システムにおける負荷分散案の提示例を示す説明図である。計算機システム100は、管理計算機101と、サーバ102と、ストレージ装置103と、表示用計算機104と、がネットワーク105を介して通信可能に接続されたシステムである。
管理計算機101は、負荷平準化プログラム111と、システム構成情報112と、リソース性能情報113と、テナント契約情報114と、を記憶する。負荷平準化プログラム111は、システム構成情報112と、リソース性能情報113と、テナント契約情報114と、を用いて、負荷分散対象であるリソースの負荷を平準化するプログラムである。
システム構成情報112は、どのストレージ装置103がどの論理記憶装置(以下、論理ボリューム)に接続されているかなど、計算機システム100のシステム構成を規定する情報である。システム構成情報112の詳細については図3〜図8で後述する。リソース性能情報113は、リソースの経時的な使用率など、リソースの性能を示す情報である。リソース性能情報113の詳細については図9〜図12で後述する。テナント契約情報114は、テナント400の契約内容を規定する情報である。テナント400は、顧客やサービスごとに用意されたサーバ102やソフトウェア、仮想マシンの集合である。テナント契約情報114の詳細については図13および図14で後述する。
サーバ102は、テナント400を構成するコンピュータである。サーバ102は、テナント400を構成するソフトウェアや仮想マシンを実行する。サーバ102は、ストレージ装置103にアクセスして、ストレージ装置103からデータを読み出したり、ストレージ装置103へデータを書き込んだりする。具体的には、サーバ102は、論理ボリューム134を一意に特定する識別情報であるLUN(Logical Unit Number)により論理ボリュームを指定して、I/O処理要求をストレージ装置103に送信し、論理ボリュームにアクセスする。
ストレージ装置103は、データを格納する。ストレージ装置103は、ポート131と、I/O(入出力:Input−Output)処理ユニット132と、論理ボリューム群133と、を有する。ポート131は、ネットワーク105に接続され、サーバ102からのI/O処理要求を入力したり、当該I/O処理要求に対する応答をサーバ102に出力する。
I/O処理ユニット132は、内部に不図示のプロセッサおよびメモリを有する。メモリには、そのI/O処理ユニット132が担当する論理ボリュームの識別情報が格納される。負荷分散案により担当する論理ボリュームが変更される場合は、I/O処理ユニット132が担当する論理ボリュームの識別情報は、管理計算機101からの更新要求により更新される。I/O処理ユニット132は、担当する論理ボリュームに接続される。I/O処理ユニット132は、ポート131から入力されたI/O処理要求を受け付けて、担当する論理ボリュームにアクセスして、当該論理ボリュームからデータを読み出したり、当該論理ボリュームにデータを書き込んだりする。
論理ボリューム群133は、論理ボリューム134の集合である。論理ボリューム134は、たとえば、1以上の記憶デバイスにより構成される。記憶デバイスは、データを記憶するデバイスであり、その種類の例は、SAS(Serial Attached SCSI(Small Computer System Interface))HDD、SATA(Serial Advanced Technology Attachment)HDD、FC(Fibre Channel)HDDといったHDDデバイスである。なお記憶デバイスは、フラッシュメモリやバックアップ機能を持つRAM(Random Access Memory)、FeRAM等の不揮発メモリを用いた記憶デバイスでもよい。以後はこうした不揮発メモリを用いた記憶デバイスの代表としてフラッシュSSD(以後は単にSSDと呼ぶ)を例として説明するが、各説明は他の不揮発メモリを用いた記憶デバイスであっても実現できることは言うまでも無い。なお、記憶デバイスは、どのI/O処理ユニット132にも接続可能である。
表示用計算機104は、ネットワーク105を介して、管理計算機101からの計算結果の一例である負荷分散案106を表示する。図1では、表示用計算機104は、ネットワーク105を介して管理用計算機と接続されるが、管理計算機101に直接接続されてもよい。また、表示用計算機104のかわりに、管理計算機101に接続された表示装置が用いられてもよい。
つぎに、計算機システム100における負荷分散案106の提示例について説明する。負荷分散案106は、ある論理ボリューム134を担当するリソースを他のリソースに変更する割当変更プランである。ここでは、負荷分散対象となるリソースをI/O処理ユニット132内のプロセッサとする。管理計算機101は、計算機システム100を監視し、リソース使用率が閾値超過したI/O処理ユニット132を検出する。
リソース使用率が閾値超過したI/O処理ユニット132が検出された場合、管理計算機101の負荷平準化プログラム111は、閾値超過した時間帯において最大使用率となるピーク時刻における各リソース使用率を特定する。そして、負荷平準化プログラム111は、割当変更対象の論理ボリューム134を論理ボリューム群133から特定する。割当変更対象の論理ボリューム134は、閾値との差分が許容範囲内の論理ボリューム134である。許容範囲外の論理ボリューム134は、閾値との差分が割当変更による悪影響が大きい、または、割当変更による負荷分散の効果が低いため採用されない。
このようにして、負荷平準化プログラム111は、負荷分散案106を生成する。負荷標準化プログラムは、生成された負荷分散案106を表示用計算機104に出力する。これにより、管理計算機101は、割当変更前に、管理者に対し負荷分散案106を提示することができる。したがって、管理者は、事前に負荷分散案106の妥当性を確認することができる。またこれにより、管理者が負荷分散案106を妥当でないと判断した場合に、業務の優先度等の要件に応じて負荷分散案106を調整し、重要なシステムへの悪影響を回避することができる。
<管理計算機101のハードウェア構成例>
図2は、管理計算機101のハードウェア構成例を示すブロック図である。図2では、図1に示した一部の構成が省略されている。管理計算機101は、プロセッサ201と、主記憶デバイス202と、補助記憶デバイス203と、入力デバイス204と、出力デバイス205と、ネットワークI/F206と、を有する。プロセッサ201、主記憶デバイス202、補助記憶デバイス203、入力デバイス204、出力デバイス205、およびネットワークI/F206は、バス207に接続される。
プロセッサ201が、負荷平準化プログラム111を実行する。なお、負荷平準化プログラム111による処理は、プロセッサ201で実行される代わりに、例えば、集積回路等のハードウェアで実現してもよい。主記憶デバイス202は、負荷平準化プログラム111を記憶する。
補助記憶デバイス203は、システム構成情報112と、リソース性能情報113と、テナント契約情報114と、を記憶する。システム構成情報112、リソース性能情報113、およびテナント契約情報114は、それぞれ異なる記憶デバイスに保存されていてもよい。
補助記憶デバイス203は、管理計算機101の外部装置へのI/F(不図示)や、ネットワークI/F206を介して接続される記憶装置であってもよい。また、主記憶デバイス202と補助記憶デバイス203は、同一デバイスであってもよい。
入力デバイス204は、管理者の操作によりデータを入力するデバイスである。出力デバイス205は、プロセッサ201の実行結果を表示するデバイスである。入力デバイス204と出力デバイス205は、一体型のデバイスでもよい。
また、計算機システム100には、操作端末211が接続されていてもよい。操作端末211は、管理計算機101を操作するコンピュータである。操作端末211は、入力デバイス212と出力デバイス213とを有する。入力デバイス212は、管理者の操作によりデータを入力するデバイスである。入力データは、ネットワーク105を介して管理計算機101に送信される。出力デバイス213は、管理計算機101からのデータを表示するデバイスである。入力デバイス212と出力デバイス213は、一体型のデバイスでもよい。
また、計算機システム100には、ネットワーク装置220が含まれる。ネットワーク装置220は、サーバ102とストレージ装置103との間のデータを中継する。
図3は、ストレージシステムのシステム構成例を示すブロック図である。ストレージシステムは、サーバ102と、ストレージ装置103と、ネットワーク装置220と、がネットワーク105やSAN(Storage Area Network)を介して相互に通信可能に接続されるシステムである。
サーバ102は、プロセッサ301と、メモリ302と、ネットワークI/F303と、主記憶デバイス304と、HBA(Host Bus Adapter)305と、を含むコンピュータである。サーバ102は、管理計算機101の管理対象装置である。サーバ102は、テナント400を構成するソフトウェアや仮想マシンを実行する。ネットワークI/F303は、他のネットワークI/F311,316、ネットワーク装置220の一例であるIP(Internet Protocol)スイッチ220A、ネットワーク105に接続される。HBA305は、ネットワーク装置220の一例であるFC(Fibre Channel)スイッチ220Bのポート317に接続される。
ストレージ装置103は、管理計算機101の管理対象装置であり、サーバ102上で動作するソフトウェアが使用する記憶容量を提供する。ストレージ装置103は、I/O処理ユニット132と、ネットワークI/F311と、I/Oポート312およびI/Oポート313と、論理ボリューム群133と、を有する。ネットワークI/F311は、例えばイーサネットによるLAN(Local Area Network)などのネットワーク105に接続するためのインタフェースであり、ポート131を含む。
I/Oポート312およびI/Oポート313は、例えば、ファイバチャネルなどのようなSANに接続するインタフェースである。RAIDグループ315は、複数の記憶デバイスを1以上の論理ボリューム134としてサーバ102に提供する。また、ストレージ装置103はI/Oポート313を介して接続される外部のストレージ装置103A上に存在する論理ボリューム134を管理していてもよい。
ネットワーク装置220には、IPスイッチ220AとFCスイッチ220Bがある。IPスイッチ220Aは、管理計算機101のネットワークI/F206、サーバ102のネットワークI/F303、ストレージ装置103のネットワークI/F311、FCスイッチ220BのネットワークI/F316に接続される。
FCスイッチ220Bは、サーバ102とストレージ装置103との間でデータを転送する。FCスイッチ220Bは複数のポート317を有する。FCスイッチ220Bのポート317は、サーバ102のHBA305やストレージ装置103のI/Oポート312に接続される。ネットワーク装置220は、管理計算機101による管理対象装置であってもよい。
<システム構成情報112>
つぎに、上述したシステム構成情報112の一例について図4〜図8を用いて説明する。
図4は、システム構成情報112において規定されるテナント400とI/O処理ユニット132と論理ボリューム群との関係の一例を示す模式図である。テナント400は、それぞれサーバ102およびサーバ102上で動作するソフトウェアまたは仮想マシンの組み合わせにより構成される。テナント400は、顧客ごとに分けられてもよく、同一顧客内の業務やサービスごとに分けられてもよい。本例では、たとえば、テナントTaは本番環境であり、テナントTbは開発環境であり、テナントTcは最重要環境である。
ストレージ装置103は、複数(例として3台)のI/O処理ユニット132を有する。論理ボリューム群133は、例として、論理ボリュームVol A〜Vol Gを含む。
I/O処理ユニットP0は、論理ボリュームVol A〜Vol Cを担当する。I/O処理ユニットP1は、論理ボリュームVol D〜Vol Fを担当する。I/O処理ユニットP2は、論理ボリュームVol Gを担当する。
図5は、システム構成情報112に含まれるテナント−ボリューム対応テーブル500の一例を示す説明図である。テナント−ボリューム対応テーブル500は、テナント400と論理ボリューム134とを対応付ける情報である。テナント−ボリューム対応テーブル500は、あらかじめ用意された情報である。テナント−ボリューム対応テーブル500は、テナントIDフィールド501とストレージ装置IDフィールド502とボリュームIDフィールド503を有する。
テナントIDフィールド501は、テナントIDを格納する領域である。テナントIDは、テナント400を一意に特定する識別情報である。ストレージ装置IDフィールド502は、ストレージ装置IDを格納する領域である。ストレージ装置IDは、ストレージ装置103を一意に特定する識別情報である。
ボリュームIDフィールド503は、ボリュームIDを格納する領域である。ボリュームIDは、論理ボリューム134を一意に特定する識別情報である。ボリュームIDは、たとえば、LUNである。
なお、図5の一行目のエントリは、テナントID:Taのテナント400は、ストレージ装置ID:ST1のストレージ装置103内のボリュームID:Vol Aの論理ボリューム134にアクセス可能であることを示す。
図6は、システム構成情報112に含まれるI/O処理ユニット−ボリューム対応テーブル600の一例を示す説明図である。I/O処理ユニット−ボリューム対応テーブル600は、I/O処理ユニット132と論理ボリューム134とを対応付ける情報である。I/O処理ユニット−ボリューム対応テーブル600は、あらかじめ用意された情報であり、I/O処理ユニット132の割当変更により更新される。I/O処理ユニット−ボリューム対応テーブル600は、I/O処理ユニットIDフィールド601とボリュームIDフィールド602を有する。
I/O処理ユニットIDフィールド601は、I/O処理ユニットIDを格納する領域である。I/O処理ユニットIDは、I/O処理ユニット132を一意に特定する識別情報である。ボリュームIDフィールド602は、図5に示したボリュームIDフィールド503と同様、ボリュームIDを格納する領域である。
なお、図6の一行目のエントリは、I/O処理ユニットID:P0のI/O処理ユニット132が、ボリュームID:Vol A、Vol B,Vol Cの論理ボリューム134にアクセス可能であることを示す。
図7は、負荷平準化許可ユニット管理テーブル700の一例を示す説明図である。負荷平準化許可ユニット管理テーブル700は、担当する論理ボリューム134の割当変更をしてもよいI/O処理ユニット132を規定する情報である。負荷平準化許可ユニット管理テーブル700は、あらかじめ用意され、管理計算機101の入力デバイス204または外部の入力デバイス212から任意に変更可能である。
負荷平準化許可ユニット管理テーブル700は、I/O処理ユニットIDフィールド701と割当変更許可フィールド702とを有する。I/O処理ユニットIDフィールド701は、I/O処理ユニットIDを記憶する領域である。割当変更許可フィールド702は、I/O処理ユニット132が担当する論理ボリューム134について割当変更許可を示す情報(「可」または「不可」)を記憶する領域である。例えば、I/O処理ユニットP2では重要ホストとなるサーバ102のI/O処理を行うため、割当変更許可フィールド702の値が「不可」に設定されている。
管理計算機101は、割当変更許可フィールド702の値が「可」であるI/O処理ユニット132の間で負荷平準化されるような割当変更プランの生成処理を行う。I/O処理ユニットP0、P1の割当変更許可フィールド702の値は「可」であるため、負荷平準化プログラム111は、たとえば、I/O処理ユニットP0が担当する論理ボリューム134をI/O処理ユニットP1に変更することができる。
図8は、割当変更許可ボリューム管理テーブル800の一例を示す説明図である。割当変更許可ボリューム管理テーブル800は、割当変更されてもよい論理ボリューム134を規定する情報である。割当変更許可ボリューム管理テーブル800は、あらかじめ用意され、管理計算機101の入力デバイス204または外部の入力デバイス212から任意に変更可能である。割当変更許可ボリューム管理テーブル800は、ストレージ装置103ごとに分けられてもよい。
割当変更許可ボリューム管理テーブル800は、ボリュームIDフィールド801と割当変更許可フィールド802とを有する。ボリュームIDフィールド801は、ボリュームIDを記憶する領域である。割当変更許可フィールド802は、ボリュームIDにより特定される論理ボリューム134について割当変更許可を示す情報(「可」または「不可」)を記憶する領域である。例えば、論理ボリュームVol Bでは、重要ホストとなるサーバ102のI/O処理に用いられるため、割当変更許可フィールド802の値が「不可」に設定されている。
<リソース性能情報113>
つぎに、管理計算機101が記憶するリソース性能情報113の一例について図9〜図12を用いて説明する。
図9は、運用品質−閾値対応テーブル900の一例を示す説明図である。運用品質−閾値対応テーブル900は、運用品質ごとに管理対象であるI/O処理ユニット132のリソース使用率の閾値を規定した情報である。運用品質−閾値対応テーブル900は、あらかじめ用意され、管理計算機101の入力デバイス204または外部の入力デバイス212から任意に変更可能である。運用品質−閾値対応テーブル900は、ストレージ装置103ごとに用意されていてもよく、I/O処理ユニット132ごとに用意されてもよい。
運用品質−閾値対応テーブル900は、運用品質フィールド901と閾値フィールド902とを有する。運用品質フィールド901は、運用品質を格納する領域である。運用品質は、たとえば、ストレージ装置103の耐障害性の高さを示す指標である。運用品質の例として、「金」、「銀」、「銅」がある。「金」、「銀」、「銅」の中では、「金」が最も運用品質が高く、「銅」が最も品質運用が低い。なお、運用品質は、「金」、「銀」、「銅」の3種類に限定されない。閾値フィールド902は、管理対象であるI/O処理ユニット132のリソース使用率の閾値を格納する領域である。運用品質が高いほど閾値は低く設定される。
図10は、閾値情報1000の一例を示す説明図である。閾値情報1000は、管理対象であるI/O処理ユニット132のリソース使用率の閾値を格納する。閾値情報1000は、あらかじめ用意され、管理計算機101の入力デバイス204または外部の入力デバイス212から任意に変更可能である。閾値情報1000は、ストレージ装置103ごとに用意されていてもよく、I/O処理ユニット132ごとに用意されてもよい。また、閾値情報1000には、時間帯ごとに閾値が格納されてもよい。
図11は、I/O処理ユニット132のリソース使用率の時系列情報(以下、「第1のリソース使用率情報1100」)の一例を示す説明図である。第1のリソース使用率情報1100は、I/O処理ユニット132のリソース使用率の時間推移を格納する情報である。第1のリソース使用率情報1100は、ストレージ装置IDフィールド1101と、I/O処理ユニットIDフィールド1102と、リソース使用率フィールド1103と、を有する。
ストレージ装置IDフィールド1101は、ストレージ装置IDを格納する領域である。I/O処理ユニットIDフィールド1102は、I/O処理ユニットIDを格納する領域である。リソース使用率フィールド1103は、所定時間間隔でI/O処理ユニット132のリソース使用率を格納する領域である。管理計算機101は、たとえば、所定時間ごとにI/O処理ユニット132からリソース使用率を受信することにより、受信したリソース使用率を第1のリソース使用率情報1100に格納する。
図12は、論理ボリューム134ごとのI/O処理ユニット132のリソース使用率の時系列情報(以下、「第2のリソース使用率情報1200」)の一例を示す説明図である。第2のリソース使用率情報1200は、第1のリソース使用率情報1100を論理ボリューム134ごとにリソース使用率を分割した情報である。第2のリソース使用率情報1200は、ストレージ装置IDフィールド1201と、I/O処理ユニットIDフィールド1202と、ボリュームIDフィールド1203と、リソース使用率フィールド1204と、を有する。
ストレージ装置IDフィールド1201は、ストレージ装置IDを格納する領域である。I/O処理ユニットIDフィールド1202は、I/O処理ユニットIDを格納する領域である。ボリュームIDフィールド1203は、ボリュームIDを格納する領域である。リソース使用率フィールド1204は、所定時間間隔でI/O処理ユニット132のリソース使用率を格納する領域である。管理計算機101は、たとえば、所定時間ごとにI/O処理ユニット132から論理ボリューム134ごとのリソース使用率を受信することにより、受信したリソース使用率を第2のリソース使用率情報1200に格納する。
<テナント契約情報114>
つぎに、管理計算機101が記憶するテナント契約情報114の一例について図13および図14を用いて説明する。
図13は、テナント重要度管理テーブルの一例を示す説明図である。テナント重要度管理テーブル1300は、テナント400の重要度を管理するテーブルである。テナント重要度管理テーブル1300は、あらかじめ用意され、管理計算機101の入力デバイス204または外部の入力デバイス212から任意に変更可能である。
テナントIDフィールド1301は、テナントIDを格納する領域である。テナントIDは、テナント400を一意に特定する識別情報である。重要度フィールド1302は、テナントIDで特定されるテナント400の重要度を格納する領域である。
図14は、ジョブ管理テーブル1400の一例を示す説明図である。ジョブ管理テーブル1400は、ストレージ装置103で実行される管理処理であるジョブの実行状態を管理するテーブルである。ジョブ管理テーブル1400は、ジョブIDフィールド1401と、ボリュームIDフィールド1402と、実行開始フィールド1403と、実行終了フィールド1404と、を有する。
ジョブIDフィールド1401は、ジョブIDを格納する領域である。ジョブIDは、ジョブを一意に特定する識別情報である。ボリュームIDフィールド1402は、ボリュームIDを格納する領域である。実行開始フィールド1403は、実行開始時刻を格納する領域である。実行開始時刻は、ジョブIDで特定されるジョブの実行が、ボリュームIDで特定される論理ボリューム134を用いて開始される時刻である。実行終了フィールド1404は、実行終了時刻を格納する領域である。実行終了時刻は、ジョブIDで特定されるジョブの実行が終了した時刻である。まだジョブが終了していない場合は、空欄となる。
<管理計算機101の負荷平準化処理>
つぎに、管理計算機101の負荷平準化処理について説明する。負荷平準化処理は、管理計算機101に記憶されている負荷平準化プログラム111をプロセッサ201に実行させることにより実行される処理である。
図15は、管理計算機101の負荷平準化処理手順例を示すフローチャートである。まず、本フローチャートが実行される際のトリガについて説明する。
本フローチャートによる負荷平準化処理は、管理計算機101の入力デバイス204から入力される管理者からの指示によって実行されてもよい。また、管理計算機101が、スケールアップを検知した場合に、実行されてもよい。
例えば、サーバ102のスケールアップが検知された場合に、本フローチャートによる負荷平準化処理の実行が開始されてもよい。当該スケールアップの例としては、管理対象であるテナント400を構成するサーバ102上で動作する仮想マシンにおけるCPUリソースが向上した場合(たとえば、CPU使用率が閾値以下となった場合)がある。
このほか、サーバ102のスケールアップの例としては、サーバ102内のプロセッサやHBA、メモリの増加があった場合、また、複数のサーバ102をクラスタ化しているのであれば、サーバ102をクラスタに追加することがある。いずれのスケールアップの場合も、サーバ102からのI/O処理要求が増加するため、関係するリソース(例えばI/O処理ユニット132)にさらなる負荷を与える契機となり得るためである。
また、管理計算機101が論理ボリューム134のスケールアップを検知した場合に、本フローチャートによる負荷平準化処理の実行が開始されてもよい。当該スケールアップの例としては、論理ボリューム134を構成するRAIDグループ315が変更された場合である。こうした変更は論理ボリューム134の限界性能(性能の例としてはIOPS(Input/Output Per Second)がある)が向上し、その結果として他のリソース(例えばI/O処理ユニット132)にさらなる負荷を与える契機となり得るためである。なお、前述の「論理ボリューム134を構成するRAIDグループ315の変更」は例えば、元々の構成元であった第1のRAIDグループ315に、第2のRAIDグループが新規に追加(又は代替)される第1パターンや、第1のRAIDグループ315自体の構成変更される第2パターンがある。
第1パターンは例えば、階層制御によって所定の論理ボリューム134を構成するRAIDグループ315が、FCやSASやSATA HDDといった比較的中位又は低位の階層の記憶デバイスで構成されたRAIDグループ315から、SSDといった上位階層の記憶デバイスで構成されたRAIDグループ315に代替された場合がある。なお、この時の代替する単位としては論理ボリュームを構成するRAIDグループ315がそのまま代替される、論理ボリュームを単位とした場合のほか、論理ボリュームの記憶領域を複数の領域に分割し、当該分割領域毎にRAIDグループの代替を行う分割領域を単位とした場合がある。追加についても同様である。
特にランダムリードにおいてヘッドシークが存在しないSSDのIOPS性能はHDDデバイスと比較して非常に優れている半面、他のリソースに負荷を与え得るため、こうした代替・追加は負荷平準化を行う重要な契機の一つである。なお、このような代替・追加の検知方法はこのような構成の変更を検知することが考えられる。また、プールを用いて論理ボリュームを作成する場合は、代替・追加の検知方法として、所定の論理ボリューム134を構成する記憶デバイスの種類毎の比率の変化を検知してもよい。
第2パターンは例えば、RAIDグループ315自体の構成変更によりRAIDレベルを変更したり、RAIDグループ315を構成する記憶デバイスを増加させた場合である。
また、サーバ102のスケールアップや論理ボリューム134のスケールアップにより、ストレージのI/O処理量が増加することでI/O処理ユニット132のリソース使用率が上昇することが想定される。このため、管理計算機101は、スケールアップが検知されたサーバ102が利用している論理ボリューム134に対するI/O処理ユニット132のリソース使用率を、例えば、1.2倍するなどして、所定量高く設定する。また、スケールアップが検知された論理ボリューム134に対するI/O処理ユニット132のリソース使用率を、例えば、1.2倍するなどして、所定量高く設定する。これにより、リソース使用率と閾値との間のマージンを持たせることができる。これにより、サーバ102のスケールアップや論理ボリューム134のスケールアップによりI/O処理ユニット132のリソース使用率が上昇してI/O処理ユニット132のリソース使用率が閾値超過することを事前に防ぐことができる。
図15において、管理計算機101は、閾値超過判定処理(ステップS1501)、割当変更プラン生成処理(ステップS1502)、プラン実行時刻特定処理(ステップS1503)、レポート出力処理(ステップS1504)、負荷分散実行処理(ステップS1505)を実行する。なお、閾値超過判定処理(ステップS1501)、プラン実行時刻特定処理(ステップS1503)、レポート出力処理(ステップS1504)は必ずしも実行されなくてもよい。
閾値超過判定処理(ステップS1501)は、I/O処理ユニット132のリソース使用率の閾値超過の有無を判定する処理である。閾値超過判定処理(ステップS1501)で閾値超過であると判定されなかった場合、管理計算機101は、以降の処理(S1502〜S1504)を実行しなくてもよい。閾値超過判定処理(ステップS1501)で閾値超過と判定された場合、管理計算機101は、以降の処理(S1502〜S1504)を実行する。なお、閾値超過判定処理(ステップS1501)では、運用品質−閾値対応テーブル900または閾値情報1000に格納されている閾値が用いられる。閾値超過判定処理(ステップS1501)の詳細は、図16で後述する。
割当変更プラン生成処理(ステップS1502)では、管理計算機101は、割当変更プランを生成し、主記憶デバイス202または補助記憶デバイス203に書き込む。ここで、割当変更プランとは、1回以上の論理ボリューム134の割当変更案(割当変更元のI/O処理ユニット132と割当変更させる論理ボリューム134と割当変更先のI/O処理ユニット132の組み合わせ)である。割当変更プラン生成処理(ステップS1502)は、の詳細は、図17で後述する。
プラン実行時刻特定処理(ステップS1503)では、管理計算機101は、割当変更プラン生成処理(ステップS1502)で生成された割当変更プランを実行する時刻を特定する。
また、例えば、割当変更プランが、第1の割当変更案と第2の割当変更案を含む。第1の割当変更案は、たとえば、I/O処理ユニットP0からI/O処理ユニットP1への論理ボリュームVol Aの割当変更をするプランである。第2の割当変更案は、たとえば、I/O処理ユニットP2からI/O処理ユニットP1への論理ボリュームVol Bの割当変更をするプランである。この場合、第1の割当変更案と第2の割当変更案を同時刻に実行すると、I/O処理ユニットP0〜P2において割当変更処理の負荷が同時に高まり、ストレージ装置103のI/O処理性能に悪影響を与えることになる。
そこで、プラン実行時刻特定処理(ステップS1503)では、管理計算機101は、割当変更が実行されるI/O処理ユニット132について負荷が低減する時間帯の中の時刻(たとえば、負荷が最低となる時刻)を、割当変更の実行時刻として特定する。また、割当変更プランが複数回の割当変更案を含んでいる場合は、管理計算機101は、それぞれの割当変更案が別の時刻に実行するように特定する。
具体的には、たとえば、管理計算機101は、I/O処理ユニット132の過去一定期間のリソース使用率の統計情報からリソース使用率の推移の傾向を特定する。そして、例えば、管理計算機101は、「毎週土曜日と日曜日は負荷が所定値以下になる」、「毎日夜は負荷が所定値以下になる」等の負荷の傾向を特定する。管理計算機101は、直近の数日から数時間以内で、特定した負荷の傾向に該当する時間帯の中で最も負荷の下がる時刻を特定する。
なお、プラン実行時刻特定処理(ステップS1503)を実行せずに、管理者が任意の実行時刻を設定しても良い。また、割当変更プラン生成処理(ステップS1502)にてI/O処理ユニット132の閾値超過状態を回復させる割当変更プランを生成できなかった場合、プラン実行時刻特定処理(ステップS1503)は実行されなくても良い。管理計算機101は、割当変更プランの実行時刻を、主記憶デバイス202または補助記憶デバイス203に書き込む。
レポート出力処理(ステップS1504)では、管理計算機101は、割当変更プラン生成処理(ステップS1502)で生成された割当変更プランと、プラン実行時刻特定処理(ステップS1503)で特定された時刻とを、管理計算機101の出力デバイス205または表示用計算機104に出力する。
また、レポート出力処理(ステップS1504)では、管理計算機101は、第1のリソース使用率情報1100を用いて割当変更前のI/O処理ユニット132のリソース使用率をまとめたグラフを作成して表示してもよい。また、管理計算機101は、割当変更前と同一の条件下において、割当変更後のシステム構成でシミュレーションを実行し、その実行結果である割当変更後のI/O処理ユニット132のリソース使用率をまとめたグラフを作成して表示してもよい。また、管理計算機101は、両グラフを重ねて表示してもよい。これにより、管理者は、割当変更後のリソース使用率の変化を直感的に把握することができる。
また、割当変更プラン生成処理(ステップS1502)にてI/O処理ユニット132の閾値超過状態を回復させる割当変更プランを生成できなかった場合、管理計算機101は、割当変更プラン以外の対処策を出力する。これにより、管理計算機101は、管理者の作業を促すことができる。例えば、I/O処理ユニット132のリソース使用率の閾値が80%よりも低く、閾値を緩和しても性能障害の発生に直結しないと判定できる場合には、管理計算機101は、閾値の緩和に関する提案情報を出力する。また、閾値超過している時刻にデータコピー処理などのI/O処理以外のジョブが実行されている場合、ジョブが実行されていることによりI/O処理ユニット132の使用率が閾値超過する。したがって、管理計算機101は、ジョブの実行時刻の変更に関する提案情報を出力してもよい。
また、テナント400毎にテナント契約情報114の一部として、不図示のI/O処理の上限が保持されてもよい。この場合、I/O処理ユニット132のリソース使用率の閾値超過している時刻にI/O処理の上限を超えたI/O処理要求を出しているテナント400が存在する場合、管理計算機101は、I/O処理の上限を超えたI/O処理要求を制限する提案情報を出力してもよい。また、ストレージ装置103の要素を管理する情報が管理計算機101に保持されてもよい。この場合、例えば、I/O処理ユニット132をストレージ装置103に追加可能である場合、管理計算機101は、I/O処理ユニット132の追加に関する提案情報を出力してもよい。
負荷分散実行処理(ステップS1505)では、管理計算機101は、割当変更プランに従って負荷分散処理を実行する。
<閾値超過判定処理(ステップS1501)>
図16は、図15に示した閾値超過判定処理(ステップS1501)の詳細な処理手順例を示すフローチャートである。
ストレージ装置103は、サーバ102からのI/O処理要求の他に、ストレージ装置103の性能情報の管理計算機101への送信や、データコピーなどのジョブの実行のためにI/O処理ユニット132を使用することがある。サーバ102からのI/O処理要求以外のジョブによるI/O処理ユニット132の負荷が上昇しても、当該負荷は短期間で減少する。このような場合は、管理計算機101は、割当変更を実行させなくてもよい。したがって、閾値超過判定処理(ステップS1501)では、管理計算機101は、I/O処理要求の増加が原因となるI/O処理ユニット132の閾値超過を判定する。また、閾値超過判定処理(ステップS1501)は、I/O処理ユニット132ごとに実行される。
図16において、管理計算機101は、閾値超過判定対象のI/O処理ユニット132のリソース使用率が閾値超過したか否かを判断する(ステップS1601)。閾値超過でない場合(ステップS1601:No)、管理計算機101は、閾値超過判定対象のI/O処理ユニット132についての閾値超過判定処理(ステップS1501)を終了する。
一方、閾値超過である場合(ステップS1601:Yes)、管理計算機101は、I/O処理要求の増加が閾値超過の原因であるか否かを判断する(ステップS1602)。具体的には、たとえば、閾値超過判定対象のI/O処理ユニット132が担当する全論理ボリューム134へのI/O処理要求の数が、所定数以上であるか否かを判断する。所定数以上であれば、I/O処理要求の増加が、閾値超過判定対象のI/O処理ユニット132のリソース使用率の閾値超過の原因となる。
管理計算機101は、I/O処理要求の増加が閾値超過の原因と判断した場合(ステップS1602:Yes)、閾値超過判定対象のI/O処理ユニット132のリソース使用率が閾値超過したと判定し、判定結果を主記憶デバイス202または補助記憶デバイス203に格納する(ステップS1603)。これにより、管理計算機101は、当該I/O処理ユニット132についての閾値超過判定処理(ステップS1501)を終了する。
また、たとえば、閾値超過判定対象のI/O処理ユニット132が担当する全論理ボリューム134へのI/O処理要求の数が、所定数以上でない場合、I/O処理要求の増加が、閾値超過判定対象のI/O処理ユニット132のリソース使用率の閾値超過の原因ではない。この場合、閾値超過判定対象のI/O処理ユニット132でのバックエンド処理や集計処理といったI/O処理以外のジョブにより、閾値超過判定対象のI/O処理ユニット132のリソース使用率が閾値超過したことになる。すなわち、I/O処理によるリソース使用率の閾値超過が直接的な原因ではないため、ジョブの実行が終了すれば、閾値超過判定対象のI/O処理ユニット132のリソース使用率が閾値以下になる。
このため、管理計算機101は、I/O処理要求の増加が閾値超過の原因ではないと判断した場合(ステップS1602:No)、閾値超過判定対象のI/O処理ユニット132のリソース使用率は実質的に閾値以下であると判定し、判定結果を主記憶デバイス202または補助記憶デバイス203に格納する(ステップS1604)。この場合、管理計算機101は、閾値超過判定対象のI/O処理ユニット132のリソース使用率を閾値未満の値に設定しておく。これにより、後述する割当変更プラン生成処理(ステップS1502)のステップS1702において、リソース使用率が閾値超過しているI/O処理ユニット132のみを特定することができる。以上により、管理計算機101は、当該I/O処理ユニット132についての閾値超過判定処理(ステップS1501)を終了する。
<割当変更プラン生成処理(ステップS1502)>
図17は、図15に示した割当変更プラン生成処理(ステップS1502)の詳細な処理手順例を示すフローチャートである。
割当変更プラン生成処理(ステップS1502)では、管理計算機101は、I/O処理ユニット132と論理ボリューム134の全ての組合せをチェックすることなく、I/O処理ユニット132の閾値超過している状態を改善する割当変更プランを生成し、さらに、その割当変更プランの中から、割当変更回数の少ない割当変更プランを生成する。
まず、管理計算機101は、割当変更回数が上限に達したか否かを判断する(ステップS1701)。割当変更回数とは、ステップS1705が実行された回数である。上限は、あらかじめ設定される。何回割当変更を繰り返しても閾値超過を解決できない場合も存在する場合があるため、上限が設定される。
上限に達していない場合(ステップS1701:No)、ステップS1702に移行し、上限に達した場合(ステップS1701:Yes)、ステップS1708に移行する。
上限に達していない場合(ステップS1701:No)、管理計算機101は、負荷平準化対象の未選択I/O処理ユニット132があるか否かを判断する(ステップS1702)。負荷平準化対象とは、閾値超過判定処理(ステップS1501)で閾値超過と判定され、かつ、負荷平準化許可ユニット管理テーブル700の割当変更許可フィールド702の値が「可」であるI/O処理ユニット132である。したがって、閾値超過判定処理(ステップS1501)で閾値超過と判定されたI/O処理ユニット132であっても、負荷平準化許可ユニット管理テーブル700の割当変更許可フィールド702の値が「不可」であるI/O処理ユニット132は、負荷平準化対象に該当しない。
負荷平準化対象の未選択I/O処理ユニット132がない場合(ステップS1702:No)、ステップS1708に移行する。一方、負荷平準化対象の未選択I/O処理ユニット132がある場合(ステップS1702:Yes)、管理計算機101は、未選択I/O処理ユニット132を1つ選択して、割当変更対象選択処理を実行する(ステップS1703)。割当変更対象選択処理(ステップS1703)では、管理計算機101は、割当変更させる論理ボリューム134の候補を選択する。割当変更対象選択処理(ステップS1703)の詳細は、図18で後述する。
割当変更対象選択処理(ステップS1703)のあと、管理計算機101は、割当変更させる論理ボリューム134の処理を引き受ける割当変更先I/O処理ユニット132の候補を選択する(ステップS1704)。具体的には、たとえば、管理計算機101は、割当変更先I/O処理ユニット132を、過去一定期間のリソース使用率の平均使用率が低い順に選択する。ただし、管理計算機101は、負荷平準化許可ユニット管理テーブル700の割当変更許可フィールド702の値が「不可」であるI/O処理ユニット132を、割当変更先I/O処理ユニット132候補として選択しない。
管理計算機101は、割当変更元のI/O処理ユニット132と同一のストレージ装置103に存在するI/O処理ユニット132の中から割当変更先のI/O処理ユニット132を選択してもよい。また、管理計算機101は、割当変更元のI/O処理ユニット132が存在するストレージ装置103とは異なるストレージ装置103の中から割当変更先のI/O処理ユニット132を選択してもよい。
なお、割当変更先のI/O処理ユニット132と割当変更元のI/O処理ユニット132の限界性能(例えば、CPU動作周波数)が異なる場合は、管理計算機101は、I/O処理ユニット132の限界性能の差分に合わせて、第2のリソース使用率情報1200の値を修正して、ステップS1705以降の処理を実行する。
たとえば、割当変更元のI/O処理ユニット132のCPU動作周波数が4[GHz]で、割当変更先のI/O処理ユニット132のCPU動作周波数が8[GHz]の場合、割当変更先のI/O処理ユニット132のCPU性能が2倍優れており、I/O処理のリソース使用率に与える影響が0.5倍になる。したがって、管理計算機101は、第2のリソース使用率情報1200において、割当変更される論理ボリューム134のリソース使用率を0.5倍した値を用いて、ステップS1705以降の処理を実行する。
つぎに、管理計算機101は、最適な割当変更案を選択する(ステップS1705)。具体的には、たとえば、管理計算機101は、割当変更対象選択処理(ステップS1703)で選択された論理ボリューム134と、ステップS1704で選択された割当変更先I/O処理ユニット132の候補との組み合わせである割当変更案の集合の中から、最も閾値超過の改善に効果的な割当変更案を選択し、割当変更プランの末尾に追加する。
より具体的には、たとえば、管理計算機101は、まず、ステップS1702で選択された割当変更元となるI/O処理ユニット132と、割当変更対象選択処理(ステップS1703)で選択された論理ボリューム134と、ステップS1704で選択された割当変更先のI/O処理ユニット132の候補との組み合わせである割当変更案を作成する。
つぎに、管理計算機101は、作成した割当変更案の全組み合わせについてシミュレーションを実行する。具体的には、たとえば、管理計算機101は、シミュレーション期間中の所定時間間隔で、作成した割当変更案ごとに、割当変更案を適用した場合の割当変更後における割当変更元のI/O処理ユニット132のリソース使用率(以下、リソース使用率Ra)と割当変更案を適用した場合の割当変更後における割当変更先のI/O処理ユニット132のリソース使用率(以下、リソース使用率Rb)とをそれぞれ算出する。
リソース使用率Raは、ステップS1702で選択された割当変更元のI/O処理ユニット132のリソース使用率から、ステップS1703で選択された論理ボリューム134分のリソース使用率を引いた値である。
リソース使用率Rbは、ステップS1704で選択された割当変更先のI/O処理ユニット132のリソース使用率から、ステップS1703で選択された論理ボリューム134分のリソース使用率を足した値である。
これにより、シミュレーション期間中において、作成した割当変更案ごとに、所定時間間隔で計算されたリソース使用率Ra,Rbの時系列データが得られる。
そして、管理計算機101は、リソース使用率Ra,Rbの時系列データの各々の閾値超過期間を算出し、両閾値超過期間の総和を求める。閾値は、運用品質−閾値対応テーブル900または閾値情報1000から選択される。
また、管理計算機101は、リソース使用率Ra,Rbの時系列データの各々の閾値超過期間について、閾値超過量を算出し、両閾値超過量の総和を求める。リソース使用率Raの閾値超過量は、その閾値超過期間におけるリソース使用率Raの時系列データの各々から閾値を引いた値の合計である。同様に、リソース使用率Rbの閾値超過量は、その閾値超過期間におけるリソース使用率Rbの時系列データの各々から閾値を引いた値の合計である。
そして、管理計算機101は、たとえば、閾値超過期間の総和が最短となる割当変更案を、最も効果のある割当変更として選択する。また、閾値超過期間の総和が最短となる割当変更案が複数存在する場合、管理計算機101は、閾値超過量の総和が最小となる割当変更案を選択する。選択された割当変更案は、主記憶デバイス内または補助記憶デバイス内の割当変更プランの末尾に追加される。追加後の割当変更プランが基底状態となる。
なお、上記の例では、リソース使用率Ra,Rbを用いたが、管理計算機101は、リソース使用率Ra,Rbのうちいずれか一方のみ用いてもよい。なお、ステップS1705で割当変更が選択された場合は、管理計算機101は、ステップS1701で用いられる割当変更回数をインクリメントする。
つぎに、管理計算機101は、ステップS1705で選択された割当変更案について、割当変更の振動の有無を検出する(ステップS1706)。ここで、割当変更の振動とは、ある割当変更案の変更元のリソースは、他の割当変更案の変更元のリソースに設定されていないが他の割当変更案のいずれかの変更先のリソースに設定されており、かつ、ある割当変更案の変更先のリソースは、他の割当変更案の変更先のリソースに設定されていないが他の割当変更案のいずれかの変更元のリソースに設定されている状態をいう。
例えば、論理ボリュームVol XがI/O処理ユニットPaとI/O処理ユニットPbの間で割当変更が繰り返されている、論理ボリュームVol XがI/O処理ユニットPaとI/O処理ユニットPbとI/O処理ユニットPcの間で割当変更が繰り返されているというような、特定の論理ボリューム134が同じI/O処理ユニット132間で割当変更を繰り返しているような状態をいう。
割当変更の振動が検出された場合(ステップS1706:Yes)、ステップS1707に移行し、振動が検出されなかった場合(ステップS1706:No)、ステップS1701に戻る。
また、割当変更の振動が検出された場合(ステップS1706:Yes)、管理計算機101は、振動を回避する処理を行い(ステップS1707)、ステップS1701に戻る。具体的には、たとえば、管理計算機101は、割当変更プランの中から振動に該当する割当変更案のエントリを削除する。管理計算機101は、割当変更許可ボリューム管理テーブル800の振動に該当する論理ボリューム134のエントリにおいて、割当変更許可フィールド802の値を「不可」に更新する。なお、ステップS1701に進む場合は、振動に該当する割当変更案のエントリの削除後の割当変更プランが基底状態となる。
また、管理計算機101は、割当変更プランの最適化処理を実行して(ステップS1708)、割当変更プラン生成処理(ステップS1502)を終了し、ステップS1503に移行する。割当変更プランの最適化処理(ステップS1708)の詳細については後述する。
<割当変更対象選択処理(ステップS1703)>
図18は、図17に示した割当変更対象選択処理(ステップS1703)の詳細な処理手順例を示すフローチャートである。割当変更対象選択処理(ステップS1703)では、ある時刻におけるI/O処理ユニット132のリソース使用率の閾値超過量に近いI/O処理ユニット132のリソース使用率である論理ボリューム134を選択する処理である。これにより、論理ボリューム134の処理を引き受けることになるI/O処理ユニット132の負荷の上昇を最小限に抑える論理ボリューム134を選択することができる。
閾値超過量よりも小さいリソース使用率であるI/O処理ユニット132が担当する論理ボリューム134が選択されると、I/O処理ユニット132の閾値超過状態を解決するために割当変更回数が増加し、リスクをうける論理ボリューム134の数を増やすことになる。このため、割当変更対象選択処理(ステップS1703)では、管理計算機101は、割当変更先の悪影響を抑えつつ、少ない割当変更回数でI/O処理ユニット132の閾値超過状態を解決する割当変更対象を探索する。
図18において、管理計算機101は、ステップS1702で選択されたI/O処理ユニット132を割当変更元のI/O処理ユニット132として、そのリソース使用率の閾値超過量を算出する(ステップS1801)。管理計算機101は、たとえば、割当変更元のI/O処理ユニット132のリソース使用率が閾値超過した期間の中の最大値から閾値を減算することにより、閾値超過量を算出する。閾値は、運用品質−閾値対応テーブル900または閾値情報1000から選択される。
つぎに、管理計算機101は、割当変更元のI/O処理ユニット132の論理ボリューム134ごとのリソース使用率を、第2のリソース使用率情報1200から取得し、閾値超過量を超えている論理ボリューム134を、閾値超過量との差分が小さい順にソートする(ステップS1802)。閾値超過量を超えていない論理ボリューム134は、閾値超過量を超えているボリュームの次に、閾値超過量との差分が小さい順に並び替えられる。
図19は、ステップS102のソート処理の一例を示す説明図である。図19では、説明を単純化するため、第2のリソース使用率情報1200のボリュームIDフィールド1203と、ある時刻のリソース使用率フィールド1204とを抜粋したテーブル1900を用いて説明する。
ソート前のテーブル1900では、論理ボリュームVol Aのリソース使用率が1[%]、論理ボリュームVol Bは2[%]、論理ボリュームVol Cは3[%]、論理ボリュームVol Dは4[%]、論理ボリュームVol Eは5[%]、論理ボリュームVol Fは6[%]である。ここで、I/O処理ユニット132の閾値超過量が4[%]として、ソート処理(ステップS1802)が実行された場合、論理ボリュームVol D(4[%])、論理ボリュームVol E(5[%])、論理ボリュームVol F(6[%])、論理ボリュームVol C(3[%])、論理ボリュームVol B(2[%])、論理ボリュームVol A(1[%])の順にソートされる。
図18に戻り、管理計算機101は、割当変更候補となる論理ボリューム134を複数個選択する(ステップS1803)。具体的には、たとえば、管理計算機101は、ステップS1802でソートした上位の論理ボリューム134の中から、テナント重要度管理テーブル1300の重要度フィールド1302の値である重要度が最も低い論理ボリューム134を優先して選択する。
例えば、ソート結果において上位10個の論理ボリューム134の中から5個の論理ボリューム134を候補として選択する場合を例に挙げる。管理計算機101は、ソート処理(ステップS1802)でソートされた論理ボリューム群133の上位10件の中から重要度が「低」のテナント400がアクセス可能な論理ボリューム134を選択する。
また、管理計算機101は、候補として選択した論理ボリューム134が5個に満たない場合、残余の論理ボリューム134の中から重要度が「低」の次に高い「中」のテナント400がアクセス可能な論理ボリューム134を、ソート結果が上位の論理ボリューム134から選択する。同様に、管理計算機101は、候補として選択した論理ボリューム134が5個に満たない場合、残余の論理ボリューム134の中から重要度が「中」よりも高い「高」の論理ボリューム134を、ソート結果が上位の論理ボリューム134から選択する。
なお、論理ボリューム134が存在する記憶デバイスがI/Oポート313を介して外部のストレージ装置103上に存在する場合がある。この場合、実際のI/O処理は、外部のストレージ装置103のI/O処理ユニット132で行われる。外部のストレージ装置103のI/O処理ユニット132のリソース使用率は、割当変更元のI/O処理ユニット132のリソース使用率よりも高い場合があり、現在時点で大量のI/O処理が行われている可能性がある。このため、外部のストレージ装置103上の記憶デバイス上に存在する論理ボリューム134については、上位であっても、管理計算機101は、割当変更先ボリュームの選択対象外としてもよい。
このように、割当変更対象選択処理(ステップS1703)は、ある時刻におけるI/O処理ユニット132のリソース使用率の閾値超過量に近いI/O処理ユニット132のリソース使用率である論理ボリューム134を選択する。これにより、論理ボリューム134の処理を引き受けることになるI/O処理ユニット132の負荷の上昇を最小限に抑える論理ボリューム134を選択することができる。
一方、割当変更後では、論理ボリューム134が割当変更されたI/O処理ユニット132のリソース使用率と閾値との間のマージンが最小限に抑制される。このため、管理計算機101は、テナント重要度管理テーブル1300の重要度が高い(たとえば、「高」)テナント400が利用している論理ボリューム134を、テナント−ボリューム対応テーブル500から特定する。そして、管理計算機101は、第2のリソース使用率情報1200のうち重要度の高いテナント400が利用している論理ボリューム134のリソース使用率について、例えば、1.2倍した値を用いて、負荷平準化プログラム111を実行することとしてもよい。これにより、管理計算機101は、重要テナント400については、論理ボリューム134が割当変更されたI/O処理ユニット132のリソース使用率と閾値との間のマージンの拡大を図りつつ、当該マージンを最小限に抑制することができる。
また、図15で述べたように、サーバ102のスケールアップや論理ボリューム134のスケールアップを契機にして負荷平準化プログラム111の実行が開始される場合がある。スケールアップしたサーバ102が利用している論理ボリューム134または、スケールアップした論理ボリューム134のI/O処理ユニット132のリソース使用率を、例えば、1.2倍するなどして、所定量高く設定し、負荷平準化プログラム111を実行する。
これにより、管理計算機101は、スケールアップにより所定量リソース使用率が高く設定された論理ボリューム134が割当変更された場合、当該論理ボリューム134に対するI/O処理ユニット132のリソース使用率と閾値との間のマージンの拡大を図りつつ、当該マージンを最小限に抑制することができる。
サーバ102がスケールアップすると、ストレージ装置103へのアクセス量も増加するため、I/O処理ユニット132のリソース使用率が、サーバ102のスケールアップと連動して上昇する。マージンを持たないで負荷平準化プログラム111が実行される場合、スケールアップしたサーバ102が利用している論理ボリューム134の処理を行っているI/O処理ユニット132のリソース使用率が閾値超過し、ストレージ装置103の応答性能に悪影響をあたえる可能性がある。このため、論理ボリューム134に対するI/O処理ユニット132のリソース使用率をあらかじめゆとりをもたせて設定しておくことにより、ストレージ装置103の応答性能の悪化を抑制することができる。
また、論理ボリューム134のスケールアップも同様であり、論理ボリューム134の限界性能が上昇することによりI/O処理量が増加し、スケールアップした論理ボリューム134のI/O処理を行っているI/O処理ユニット132のリソース使用率が閾値を超過して応答性能が悪化する可能性がある。このような場合でも、論理ボリューム134に対するI/O処理ユニット132のリソース使用率をあらかじめゆとりをもたせて設定しておくことにより、ストレージ装置103の応答性能の悪化を抑制することができる。
<割当変更プランの最適化処理(ステップS1708)>
つぎに、図17に示した割当変更プランの最適化処理(ステップS1708)について説明する。図17のステップS1701からS1707までの処理の繰り返しにより作成された割当変更プランでは、I/O処理ユニット132のリソース使用率を最適化する処理の段階で、ある割当変更の組み合わせの割当変更先が他の割当変更の組み合わせの割当変更元になることが許容される。例えば、特定の論理ボリューム134の担当がI/O処理ユニットPaからI/O処理ユニットPbへ、I/O処理ユニットPbからI/O処理ユニットPcへ割当変更されるような場合を許容する。
割当変更処理の実行によるリスクを最小化するために、このように複数回に分けて割当変更するよりは、I/O処理ユニットPaからI/O処理ユニットPcへ一度で割当変更する方が効率的である。そのための最低化が割当変更プランの最適化処理(ステップS1708)で実行される。
図20は、割当変更プランの最適化処理(ステップS1708)の一例を示す説明図である。割当変更プラン2000は、番号フィールド2001と、変更元フィールド2002と、割当変更ボリュームフィールド2003と、変更先フィールド2004と、を有し、エントリごとに割当変更の組み合わせを規定する。図20において、(A)が最適化前の割当変更プラン2000であり、(B)が最適化後の割当変更プラン2000である。
割当変更プラン2000において、番号フィールド2001は、割当変更案に固有な番号を格納する領域である。変更元フィールド2002は、割当変更元のI/O処理ユニット132を一意に特定する識別情報を格納する領域である。割当変更ボリュームフィールド2003は、割当変更対象となる論理ボリューム134を一意に特定する識別情報を格納する領域である。変更先フィールド2004は、割当変更先のI/O処理ユニット132を一意に特定する識別情報を格納する領域である。
(A)の割当変更プラン2000では、番号1のエントリの割当変更案において、論理ボリュームVol Aが、I/O処理ユニットP0からI/O処理ユニットP3に変更される。番号2のエントリの割当変更案において、論理ボリュームVol Aが、I/O処理ユニットP3からI/O処理ユニットP5に変更される。番号4のエントリの割当変更案において、論理ボリュームVol Aが、I/O処理ユニットP5からI/O処理ユニットP6に変更される。
最適化後の(B)の割当変更プラン2000では、番号1のエントリの割当変更案において、論理ボリュームVol Aが、I/O処理ユニットP0からI/O処理ユニットP6に変更される。なお、番号2のエントリの割当変更案は、最適化前の(A)の割当変更プラン2000の番号3のエントリの割当変更案に対応する。このように、最適化前後では、エントリ数が削減され、割当変更回数が短縮化される。
図21は、割当変更プラン2000の最適化処理(ステップS1708)の詳細な処理手順例を示すフローチャートである。管理計算機101は、同一論理ボリューム134の割当変更案をすべて探索する(ステップS2101)。図20の(A)の割当変更プラン2000では、番号1、2、4のエントリの割当変更案が探索される。
つぎに、管理計算機101は、ステップS2101で探索された割当変更案から論理ボリューム134が同一である未選択の割当変更案をすべて選択する(ステップS2102)。図20の(A)の割当変更プラン2000では、番号1、2、4のエントリの割当変更案が選択される。
そして、管理計算機101は、ステップS2102で選択されたエントリのうち、番号が最小のエントリの変更先フィールド2004の値を、番号が最大のエントリの変更先フィールド2004の値で上書きする(ステップS2103)。図20の(A)の割当変更プラン2000では、管理計算機101は、番号1のエントリの変更先フィールド2004の値「P3」を、番号4のエントリの変更先フィールド2004の値「P6」に変更する。
そして、管理計算機101は、ステップS2102で選択されたエントリのうち、番号が最小でないエントリを割当変更プラン2000から削除する(ステップS2104)。図20の(A)では、番号2と番号4のエントリの割当変更案が削除される。削除後は、番号フィールド2001の番号は昇順に上書きされる。したがって、(A)の割当変更プラン2000の番号3のエントリの割当変更案は、(B)では番号2のエントリの割当変更案となる。
このあと、管理計算機101は、ステップS2101で探索された割当変更案の中に論理ボリューム134が同一である未選択の割当変更案があるか否かを判断する(ステップS2105)。ある場合(ステップS2105:Yes)、ステップS2102に戻る。一方、ない場合(ステップS2105:No)、割当変更プラン2000の最適化処理(ステップS1708)が終了する。
<出力画面例>
図22は、管理計算機101の負荷平準化処理によって得られる割当変更プラン2000の出力画面例を示す説明図である。図22の出力画面2200は、レポート出力処理(ステップS1504)により表示される。管理計算機101が、生成した割当変更プラン2000と、割当変更される論理ボリューム134を利用しているテナント名とを合わせた負荷分散案2201を表示することにより、管理者は、悪影響を受けるテナント400を確認することができる。なお、負荷分散案2201は、少なくとも割当変更プラン2000が含まれていればよい。
割当変更される論理ボリューム134をマウントしているストレージ装置名を表示するために、管理計算機101は、テナント−ボリューム対応テーブル500を参照してもよい。また、出力画面は、管理計算機101の出力装置に表示されてもよく、管理計算機101が出力画面に関する情報を表示用計算機104に送信し、表示用計算機104が出力画面2200を表示することとしてもよい。
図22では、管理計算機101は、負荷分散案2201と併せて割当変更の効果を示すグラフ情報2202を表示する。グラフ情報2202のうち、第1のグラフ2210は、割当変更プラン2000の実行前でI/O処理ユニット132のリソース使用率のばらつきがどのように変化するかを示す。管理計算機101は、第1のリソース使用率情報1100を用いて第1のグラフ2210を作成し、表示する。
第2のグラフ2220は、割当変更プラン2000の実行後でI/O処理ユニット132のリソース使用率のばらつきがどのように変化するかを示す。具体的には、たとえば、管理計算機101は、割当変更前と同一の条件下において、割当変更後のシステム構成でシミュレーションを実行し、その実行結果である割当変更後のI/O処理ユニット132のリソース使用率をまとめたグラフを作成して表示する。第1のグラフ2210および第2のグラフ2220はともに、各I/O処理ユニット132のリソース使用率の各時刻の最大値を通る線2211,2221と最小値を通る線2212,2222で囲まれる領域を示す。
グラフの幅が狭いほど、I/O処理ユニット132間のリソース使用率のばらつきが小さく、グラフの幅が広いほど、I/O処理ユニット132間のリソース使用率のばらつきが大きいことを示す。図22の例では、第1のグラフ2210のほうが第2のグラフ2220よりも幅が広いため、I/O処理ユニット132間のリソース使用率のばらつきが大きいことを示す。管理計算機101が割当変更プラン2000の効果をグラフとして表示することにより、管理者は視覚的に割当変更プラン2000の実行によるリソース使用率のばらつきの収まりや閾値超過の改善度合いを確認することができる。
なお、編集ボタン2203の押下により、管理者は、負荷分散案2201を変更することができる。そして、変更があった場合、管理計算機101は、変更後の負荷分散案2201により再度シミュレーションを実行し、変更後の第2のグラフ2220を作成して表示する。
また、OKボタン2204の押下により、管理計算機101は、負荷分散案2201にしたがって、システム構成を変更する。図22の例では、論理ボリュームVol Aの担当がI/O処理ユニットP0からI/O処理ユニットP6に変更され、論理ボリュームVol Bの担当がI/O処理ユニットP2からI/O処理ユニットP4に変更される。すなわち、管理計算機101は、I/O処理ユニットP0、P2に更新指示を送り、I/O処理ユニットP0、P2は、その内部メモリに格納されている論理ボリューム134の管理情報から、それぞれ「Vol A」、「Vol B」を削除する。同様に、管理計算機101は、I/O処理ユニットP6、P4に更新指示を送り、I/O処理ユニットP6、P4は、その内部メモリに格納されている論理ボリューム134の割当情報に、それぞれ「Vol A」、「Vol B」を追加する。また、管理計算機101は、同様に、I/O処理ユニット−ボリューム対応テーブル600を更新する。これにより、更新処理が完了する。
図23は、各I/O処理ユニット132のリソース使用率の内訳の変化を示す出力画面例を示す説明図である。図22の出力画面2200も、レポート出力処理(ステップS1504)により表示される。出力画面2300は、管理計算機101の出力装置に表示されてもよく、管理計算機101が出力画面2300に関する情報を表示用計算機104に送信し、表示用計算機104が出力画面2300を表示することとしてもよい。
出力画面2300は、負荷平準化処理によって生成された割当変更プラン2000の効果の確認するための画面例である。任意のI/O処理ユニット132のリソース使用率の論理ボリューム134毎または論理ボリューム群133ごとの内訳が積み上げられた面グラフが、割当変更プラン2000の効果の確認のために表示される。
例えば、変更元のI/O処理ユニット132から、割当変更される論理ボリューム134のI/O処理に裂いていたリソース使用率が削減される。図23の出力画面2300を管理者が見ることにより、管理計算機101は、削減されるリソース使用率が時系列でどのように影響を与えているかを出力画面2300に表示することができる。
また、例えば、変更先のI/O処理ユニット132のリソース使用率は、割当変更される論理ボリューム134のI/O処理に必要な分だけ増加する。管理計算機101は、この増加分のリソース使用率がI/O処理ユニット132のリソース使用率に対し時系列でどのような影響を与えているかを出力画面2300に表示することができる。たとえば、図23の出力画面2300は、I/O処理ユニットP0のリソース使用率の割当変更プラン2000の実行前後の変化を示す。論理ボリュームVol Aのリソース使用率が減少しているため、管理者は、I/O処理ユニットP0について閾値超過している状態を改善できていることを確認することができる。
以上の通り、本実施例によれば、ストレージ装置103のI/O処理ユニット132に負荷の片寄りが生じた場合に、管理計算機101が負荷を平準化させる割当変更プラン2000を算出し、算出した割当変更プラン2000を管理者に提示する。これにより、管理者は事前に割当変更プラン2000の妥当性を判断することができる。
なお、本実施例ではI/O処理ユニット132負荷平準化処理を管理計算機101上で実行したが、この負荷平準化処理は、ストレージ装置103上で実行されてもよい。また、その際ストレージ装置103が保持していない情報に関しては、ストレージ装置103が管理計算機101に問い合わせればよい。また、管理者からの事前承認が得られている場合、負荷平準化処理は自動実行されてもよい。
また、本実施例では、I/O処理ユニット132について割当変更プラン2000を生成する処理を説明したが、同様の手法を用いて、管理計算機101は、I/O処理ユニット132に替えてI/Oポート131やネットワークI/F303のリソース使用率を平準化する割当変更プラン2000を生成してもよい。この場合のリソース使用率は、たとえば、1秒あたりのI/O処理要求の数を、限界IOPSで割った値が用いられる。なお、リソース使用率は1秒単位に限定されず、あらかじめ設定された所定時間単位でもよい。
また、本実施例では、I/O処理ユニット132について割当変更プラン2000を生成する処理を説明したが、同様の手法を用いて、管理計算機101は、I/O処理ユニット132のリソース使用率に替えて、論理ボリューム134を構成する論理デバイスやRAIDグループ315、論理ボリューム134のリソース使用量を平準化する割当変更プラン2000を生成してもよい。
このように、ストレージ装置103において、I/O処理ユニット132の負荷は、その担当する記憶デバイスの種類や数により決まる。通常は、適切な負荷で運用されていても、突発的なアクセスの増加により、あるI/O処理ユニット132に負荷が集中する場合がある。また、記憶デバイスの種類により限界IOPS(I/O per Second)が異なるため、たとえば、HDDデバイスよりも高速なSSDが記憶デバイスに採用された場合には、SSDの限界性能が向上し、SSDを担当するI/O処理ユニット132の限界性能がボトルネックになる。また、サーバ102の仮想化や記憶デバイス群の階層制御により、ストレージ装置103の中に複数あるI/O処理ユニット132の負荷の片寄りが発生し、ストレージ装置103の応答時間が悪化する性能障害が発生しやすくなる。
しかしながら、本実施例により、管理計算機101は、割当変更回数を最小限に抑制することにより、I/O処理ユニット132の負荷を平準化する割当変更プラン2000を生成し、管理者に提案することができる。これにより、動的にシステム構成に変化が起こりストレージ装置103への負荷の変動が激しい環境においても、管理計算機101は、重要なサーバ102への悪影響を抑えながら、容易にI/O処理ユニット132の負荷を平準化することができる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。

Claims (11)

  1. 1以上の記憶デバイスにより構成される論理ボリュームを一意に特定する識別情報を含む入出力処理要求を送信するサーバと、
    前記入出力処理要求を処理可能な複数の入出力処理ユニットと、複数の前記論理ボリュームと、を有するストレージ装置と、
    前記ストレージ装置を管理する管理計算機と、
    を含む計算機システムであって、
    前記計算機システム内に存在し、前記入出力処理要求が通過する前記サーバと前記論理ボリュームとの間の経路上に存在する特定のリソース群を管理する特定のプロセッサが、
    前記特定のリソース群の中の第1のリソースの負荷が閾値を超過した量である閾値超過量を算出し、
    前記第1のリソースからの前記入出力処理要求が到達する複数の論理ボリュームの各々についての前記第1のリソースの負荷の量を取得し、
    前記各論理ボリュームの負荷の量のうち、前記閾値超過量以上であり、かつ、前記閾値超過量との差が最小となる論理ボリュームを選択し、
    前記選択した論理ボリュームにアクセスするリソースを前記第1のリソースから前記特定のリソース群の中の第2のリソースに変更する負荷分散案を算出し、
    前記負荷分散案を表示可能に出力し、
    前記負荷分散案を出力した結果、前記負荷分散案の実行指示を受け付けた場合、前記負荷分散案にしたがって、前記第1のリソースの負荷を前記第2のリソースに分散する、
    ことを特徴とする計算機システム。
  2. 請求項1に記載の計算機システムであって、
    前記特定のプロセッサは、
    前記負荷分散案の算出において、変更対象の論理ボリュームと、前記変更対象の論理ボリュームに対する変更元のリソースと、前記変更対象の論理ボリュームに対する変更先のリソースと、の組み合わせである複数の割当変更案が前記負荷分散案として得られた場合、前記変更対象の論理ボリュームが同一である複数の割当変更案を特定し、
    特定した前記複数の割当変更案の各々において、前記複数の割当変更案の中のある割当変更案の変更元のリソースは、他の割当変更案の変更元のリソースに設定されていないが前記他の割当変更案のいずれかの変更先のリソースに設定されており、かつ、前記ある割当変更案の変更先のリソースは、前記他の割当変更案の変更先のリソースに設定されていないが前記他の割当変更案のいずれかの変更元のリソースに設定されている状態である振動を検出し、
    前記振動が検出された場合、前記複数の割当変更案のうち最新の割当変更案を削除し、
    前記複数の割当変更案において共通する論理ボリュームを変更不可対象に設定する、
    ことを特徴とする計算機システム。
  3. 請求項1に記載の計算機システムであって、
    前記特定のプロセッサは、
    前記第1のリソースからの前記入出力処理要求が到達する複数の論理ボリュームの各々についての前記第1のリソースの負荷の量を取得する場合、前記複数の論理ボリュームの各々に設定された重要度を特定し、
    前記重要度に応じて、前記複数の論理ボリュームの各々についての前記第1のリソースの負荷の量を調整する、
    ことを特徴とする計算機システム。
  4. 請求項1に記載の計算機システムであって、
    前記特定のプロセッサは、
    前記第1のリソースからの前記入出力処理要求が到達する複数の論理ボリュームの各々についての前記第1のリソースの負荷の量を取得する場合、前記複数の論理ボリュームのうちスケールアップが検出された論理ボリュームについての前記第1のリソースの負荷の量を調整し、
    前記論理ボリュームのスケールアップが検出されたことを契機として、前記負荷分散案を算出し、
    ことを特徴とする計算機システム。
  5. 請求項1に記載の計算機システムであって、
    前記特定のプロセッサは、
    前記第1のリソースからの前記入出力処理要求が到達する複数の論理ボリュームの各々についての前記第1のリソースの負荷の量を取得する場合、前記複数の論理ボリュームのうちスケールアップが検出されたサーバからの前記入出力処理要求が到達する論理ボリュームについての前記第1のリソースの負荷の量を調整し、
    前記サーバのスケールアップが検出されたことを契機として、前記負荷分散案を算出する、
    ことを特徴とする計算機システム。
  6. 請求項1に記載の計算機システムであって、
    前記特定のプロセッサは、
    前記特定のリソース群のうち前記閾値を超過したリソースを特定し、
    前記閾値を超過したリソースに入力された前記入出力処理要求の数に基づいて、前記閾値を超過したリソースの閾値超過原因が前記入出力処理要求の増加であるか否かを判断し、
    前記閾値超過原因が前記入出力処理要求の増加である場合、前記負荷分散案を算出し、前記閾値超過原因が前記入出力処理要求の増加でない場合、前記負荷分散案を算出しない、
    ことを特徴とする計算機システム。
  7. 請求項1に記載の計算機システムであって、
    前記特定のプロセッサは、前記管理計算機または前記ストレージ装置に存在することを特徴とする計算機システム。
  8. 請求項1に記載の計算機システムであって、
    前記特定のリソース群は、前記複数の入出力処理ユニットのプロセッサであることを特徴とする計算機システム。
  9. 請求項1に記載の計算機システムであって、
    前記特定のリソース群は、前記入出力処理要求が入出力される前記ストレージ装置のポート群であることを特徴とする計算機システム。
  10. 請求項1に記載の計算機システムであって、
    前記特定のリソース群は、前記複数の論理ボリュームであることを特徴とする計算機システム。
  11. 1以上の記憶デバイスにより構成される論理ボリュームを一意に特定する識別情報を含む入出力処理要求を送信するサーバと、前記入出力処理要求を処理可能な複数の入出力処理ユニットと複数の前記論理ボリュームとを有するストレージ装置と、前記ストレージ装置を管理する管理計算機と、を含む計算機システム内に存在し、前記入出力処理要求が通過する前記サーバと前記論理ボリュームとの間の経路上に存在する特定のリソース群を管理する特定のプロセッサに、
    前記特定のリソース群の中の第1のリソースの負荷が閾値を超過した量である閾値超過量を算出させ、
    前記第1のリソースからの前記入出力処理要求が到達する複数の論理ボリュームの各々についての前記第1のリソースの負荷の量を取得させ、
    前記各論理ボリュームの負荷の量のうち、前記閾値超過量以上であり、かつ、前記閾値超過量との差が最小となる論理ボリュームを選択させ、
    前記選択した論理ボリュームにアクセスするリソースを前記第1のリソースから前記特定のリソース群の中の第2のリソースに変更する負荷分散案を算出させ、
    前記負荷分散案を表示可能に出力させ、
    前記負荷分散案を出力した結果、前記負荷分散案の実行指示を受け付けた場合、前記負荷分散案にしたがって、前記第1のリソースの負荷を前記第2のリソースに分散させる、
    ことを特徴とする負荷平準化プログラム。
JP2016545184A 2014-08-29 2014-08-29 計算機システムおよび負荷平準化プログラム Active JP6235156B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/072710 WO2016031041A1 (ja) 2014-08-29 2014-08-29 計算機システムおよび負荷平準化プログラム

Publications (2)

Publication Number Publication Date
JPWO2016031041A1 JPWO2016031041A1 (ja) 2017-05-25
JP6235156B2 true JP6235156B2 (ja) 2017-11-22

Family

ID=55398976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016545184A Active JP6235156B2 (ja) 2014-08-29 2014-08-29 計算機システムおよび負荷平準化プログラム

Country Status (3)

Country Link
US (1) US10002025B2 (ja)
JP (1) JP6235156B2 (ja)
WO (1) WO2016031041A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216317B1 (en) 2020-10-09 2022-01-04 Hitachi, Ltd. Computer system and computer system usage management method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10666736B2 (en) * 2017-01-10 2020-05-26 Unify Patente Gmbh & Co. Kg Computer-implemented method and system for managing tenants on a multi-tenant SIP server system
JP6822274B2 (ja) * 2017-03-30 2021-01-27 富士通株式会社 情報処理システム、方法、及びプログラム
JP7124648B2 (ja) * 2018-11-06 2022-08-24 株式会社島津製作所 データ処理装置及びデータ処理プログラム
JP7180485B2 (ja) * 2019-03-22 2022-11-30 株式会社デンソー 中継装置およびキュー容量制御方法
JP7225190B2 (ja) * 2020-12-10 2023-02-20 株式会社日立製作所 計算機システム
US11868816B2 (en) * 2022-04-22 2024-01-09 Panasonic Avionics Corporation System on chip (SOC) for seat boxes on a transportation vehicle and associated methods thereof
JP2024158090A (ja) * 2023-04-27 2024-11-08 日立ヴァンタラ株式会社 ストレージシステム及びストレージシステムの制御方法
CN116827831B (zh) * 2023-08-30 2023-11-17 中航金网(北京)电子商务有限公司 一种负载状态探测系统、方法及计算机可读存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4391265B2 (ja) * 2004-02-26 2009-12-24 株式会社日立製作所 ストレージサブシステムおよび性能チューニング方法
JP4790372B2 (ja) * 2005-10-20 2011-10-12 株式会社日立製作所 ストレージのアクセス負荷を分散する計算機システム及びその制御方法
JP5121161B2 (ja) * 2006-04-20 2013-01-16 株式会社日立製作所 記憶システム、パス管理方法及びパス管理装置
JP4814119B2 (ja) * 2007-02-16 2011-11-16 株式会社日立製作所 計算機システム、ストレージ管理サーバ、及びデータ移行方法
JP2008217216A (ja) * 2007-03-01 2008-09-18 Hitachi Ltd 負荷分散方法及び計算機システム
JP5094193B2 (ja) * 2007-04-16 2012-12-12 株式会社日立製作所 記憶システム及びその制御方法
JP5106913B2 (ja) * 2007-04-23 2012-12-26 株式会社日立製作所 ストレージシステム、ストレージシステム管理方法、及び計算機システム
JP5087309B2 (ja) * 2007-04-24 2012-12-05 株式会社日立製作所 管理装置及び管理方法
JP4958641B2 (ja) * 2007-05-29 2012-06-20 株式会社日立製作所 記憶制御装置及びその制御方法
JP5241671B2 (ja) * 2009-10-05 2013-07-17 株式会社日立製作所 記憶装置のデータ移行制御方法
WO2011158300A1 (ja) * 2010-06-17 2011-12-22 株式会社日立製作所 計算機システムおよびその更改方法
US8356140B2 (en) * 2010-07-19 2013-01-15 Hitachi, Ltd. Methods and apparatus for controlling data between storage systems providing different storage functions
US9003414B2 (en) * 2010-10-08 2015-04-07 Hitachi, Ltd. Storage management computer and method for avoiding conflict by adjusting the task starting time and switching the order of task execution
JP5691062B2 (ja) * 2011-04-04 2015-04-01 株式会社日立製作所 仮想計算機の制御方法及び管理計算機
US20120303912A1 (en) * 2011-05-23 2012-11-29 Microsoft Corporation Storage account migration between storage stamps
US8713577B2 (en) * 2011-06-03 2014-04-29 Hitachi, Ltd. Storage apparatus and storage apparatus management method performing data I/O processing using a plurality of microprocessors
JP2013114624A (ja) * 2011-11-30 2013-06-10 Hitachi Ltd ストレージシステム及びプール容量縮小の制御方法
US20150074222A1 (en) * 2013-09-12 2015-03-12 Guanfeng Liang Method and apparatus for load balancing and dynamic scaling for low delay two-tier distributed cache storage system
US9471350B2 (en) * 2013-09-26 2016-10-18 Intel Corporation Live migration of virtualized systems
US10372685B2 (en) * 2014-03-31 2019-08-06 Amazon Technologies, Inc. Scalable file storage service
US20150296169A1 (en) * 2014-04-14 2015-10-15 Lamie Saif Time-Space Storage Solution (TSSS)
US9513806B2 (en) * 2014-05-01 2016-12-06 Microsoft Technology Licensing, Llc Dimension based load balancing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216317B1 (en) 2020-10-09 2022-01-04 Hitachi, Ltd. Computer system and computer system usage management method
US11928524B2 (en) 2020-10-09 2024-03-12 Hitachi, Ltd. Computer system and computer system usage management method

Also Published As

Publication number Publication date
JPWO2016031041A1 (ja) 2017-05-25
WO2016031041A1 (ja) 2016-03-03
US20160371121A1 (en) 2016-12-22
US10002025B2 (en) 2018-06-19

Similar Documents

Publication Publication Date Title
JP6235156B2 (ja) 計算機システムおよび負荷平準化プログラム
JP5478107B2 (ja) 仮想ストレージ装置を管理する管理サーバ装置及び仮想ストレージ装置の管理方法
US8713577B2 (en) Storage apparatus and storage apparatus management method performing data I/O processing using a plurality of microprocessors
US9342526B2 (en) Providing storage resources upon receipt of a storage service request
JP4733461B2 (ja) 計算機システム、管理計算機及び論理記憶領域の管理方法
US20100125715A1 (en) Storage System and Operation Method Thereof
US8380757B1 (en) Techniques for providing a consolidated system configuration view using database change tracking and configuration files
JP2004070403A (ja) ファイル格納先ボリューム制御方法
US20170359221A1 (en) Method and management system for calculating billing amount in relation to data volume reduction function
JP6269140B2 (ja) アクセス制御プログラム、アクセス制御方法、およびアクセス制御装置
US7689787B2 (en) Device and method for controlling number of logical paths
US10019182B2 (en) Management system and management method of computer system
US9940073B1 (en) Method and apparatus for automated selection of a storage group for storage tiering
US11204942B2 (en) Method and system for workload aware storage replication
US20160036632A1 (en) Computer system
JPWO2016157492A1 (ja) 共有リソース更新装置及び共有リソース更新方法
JP6622808B2 (ja) 管理計算機および計算機システムの管理方法
US9870152B2 (en) Management system and management method for managing data units constituting schemas of a database
WO2017068623A1 (ja) 管理計算機及び閾値設定方法
JP6259547B2 (ja) 管理システム、及び、管理方法
JP6568232B2 (ja) 計算機システム、及び、装置の管理方法
WO2016203580A1 (ja) 管理計算機、リソース移動管理方法、及び計算機システム
JP7190530B2 (ja) ユーザによる情報システムのリソース操作を評価するシステム
CN112965662B (zh) 一种云服务器的配置方法、装置、管理服务器及存储介质
WO2018061158A1 (ja) 計算機システムおよび計算機システム制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171025

R150 Certificate of patent or registration of utility model

Ref document number: 6235156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350