[go: up one dir, main page]

JP2015132987A - 情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラム - Google Patents

情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラム Download PDF

Info

Publication number
JP2015132987A
JP2015132987A JP2014004062A JP2014004062A JP2015132987A JP 2015132987 A JP2015132987 A JP 2015132987A JP 2014004062 A JP2014004062 A JP 2014004062A JP 2014004062 A JP2014004062 A JP 2014004062A JP 2015132987 A JP2015132987 A JP 2015132987A
Authority
JP
Japan
Prior art keywords
information
task
copy
duplication
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014004062A
Other languages
English (en)
Inventor
野中 隆
Takashi Nonaka
隆 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014004062A priority Critical patent/JP2015132987A/ja
Priority to US14/589,221 priority patent/US20150201013A1/en
Publication of JP2015132987A publication Critical patent/JP2015132987A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0605Improving or facilitating administration, e.g. storage management by facilitating the interaction with a user or administrator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0619Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • G06F3/0689Disk arrays, e.g. RAID, JBOD
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • H04L67/62Establishing a time schedule for servicing the requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】データコピー完了予測時間の算出を高精度に行なう。【解決手段】情報処理装置1及び他の情報処理装置1がストレージ装置2に実行させるタスクの予測される重複度を示す重複度予測情報306を作成する重複度予測情報作成部11と、タスクの重複によって発生が予測されるストレージ装置2の性能に対する影響度を示す影響度予測情報307を作成する影響度予測情報作成部12と、重複度予測情報306と影響度予測情報307とに基づき、データコピー完了予測時間308を算出する完了予測時間算出部13と、を備える。【選択図】図1

Description

本発明は、情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラムに関する。
ストレージシステムにおいては、近年、業務で扱うデータ量の増加により、バックアップやシステムの構成変更に伴うコピー処理におけるデータ量も増加しており、業務計画としてコピー時間予測処理を行なうものが知られている。
図33は、従来例としてのストレージシステムにおけるコピー時間予測処理を例示する図である。
図33に示すストレージシステム100aは、2つのサーバ装置1a,2つのスイッチ4a及び3つのストレージ装置2aを備える。そして、サーバ装置1aは、2つのスイッチ4aのうちいずれかのスイッチ4aを介して、3つのストレージ装置2aのうちいずれかのストレージ装置2aにアクセスを行なう。
以下、複数のサーバ装置のうち1つを特定する必要があるときには単に「サーバ装置#1」又は「サーバ装置#2」と表記するが、任意のサーバ装置を指すときには「サーバ装置1a」と表記する。また、以下、複数のスイッチのうち1つを特定する必要があるときには単に「スイッチ#1」又は「スイッチ#2」と表記するが、任意のスイッチを指すときには「スイッチ4a」と表記する。更に、以下、複数のストレージ装置のうち1つを特定する必要があるときには単に「ストレージ装置#1」,「ストレージ装置#2」又は「ストレージ装置#3」と表記するが、任意のストレージ装置を指すときには「ストレージ装置2a」と表記する。
サーバ装置1aは、ハイパーバイザー110aを展開する。具体的には、サーバ装置#1,#2は、ハイパーバイザー#1,#2をそれぞれ展開する。
以下、複数のハイパーバイザーのうち1つを特定する必要があるときには単に「ハイパーバイザー#1」又は「ハイパーバイザー#2」と表記するが、任意のハイパーバイザーを指すときには「ハイパーバイザー110a」と表記する。
更に、サーバ装置1aは、展開したハイパーバイザー110a上に2つの仮想サーバ111aを展開する。具体的には、サーバ装置#1は展開したハイパーバイザー#1上に仮想サーバ#1,#2を展開し、サーバ装置#2は展開したハイパーバイザー#2上に仮想サーバ#3,#4を展開する。
以下、複数の仮想サーバのうち1つを特定する必要があるときには単に「仮想サーバ#1」,「仮想サーバ#2」,「仮想サーバ#3」又は「仮想サーバ#4」と表記するが、任意の仮想サーバを指すときには「仮想サーバ111a」と表記する。
そして、仮想サーバ111aは、業務アプリケーション21aを実行し、この業務アプリケーション21aを介してストレージ装置2aに対するデータコピー処理(バックアップ処理)等のInput/Output(I/O)処理を実行する。
図33に示す4人のユーザ5aは、仮想サーバ111aに対して、ストレージ装置2aへのデータコピー処理やコピー時間予測処理等のI/O処理の実行を指示する。具体的には、ユーザ#1〜#4は、仮想サーバ#1〜#4に対して、ストレージ装置2aへのデータコピー処理やコピー時間予測処理等のI/O処理の実行をそれぞれ指示する。
以下、複数のユーザのうち1人を特定する必要があるときには単に「ユーザ#1」,「ユーザ#2」,「ユーザ#3」又は「ユーザ#4」と表記するが、任意のユーザを指すときには「ユーザ5a」と表記する。
図33に示す例において、ユーザ#1は、23時から開始するストレージ装置#1へのデータコピー処理が翌6時までに終了するかを知りたい。そこで、ユーザ#1は、仮想サーバ#1に対して、コピー時間予測処理の実行を指示する(符号H1参照)。
仮想サーバ#1の業務アプリケーション21aは、データコピー速度を測定し、データコピー処理の終了時間を予測する。仮想サーバ#1の業務アプリケーション21aは、データコピー処理に係るデータの一部をストレージ装置#1に書き込むことにより、データコピー速度を測定する(符号H2参照)。そして、仮想サーバ#1の業務アプリケーション21aは、計測したデータコピー速度と、データコピー処理に係るファイル数やブロック数とに基づき、データコピー処理の終了時間を予測する。ここでは、仮想サーバ#1の業務アプリケーション21aは、23時から開始するストレージ装置#1へのデータコピー処理が翌5時に終了すると予測することとする。
このように、データコピー処理に係るデータの一部を対象のストレージ装置に書き込むことにより、データコピー速度を測定してコピー時間予測処理を行なうストレージシステムが知られている。
特開2012−83870号公報 特開2008−293233号公報 特開2010−266993号公報
しかしながら、従来のストレージシステム100aにおいては、サーバ装置1aからストレージ装置2aに対するタスクの増加やサーバ装置1a及びストレージ装置2aの筐体数の増加により、コピー時間の予測が困難になってきている。具体的には、ストレージ装置2aの高機能化により、処理待ちのタスクもストレージ装置2aに登録しておく場合があり、ストレージ装置2aにおける負荷が増加する。そして、サーバ装置1aの業務アプリケーション21aによって、予測できないコピー速度の低下が発生する可能性がある。また、複数のサーバ装置1aが1つのストレージ装置2aに対してタスクを発行する場合には、サーバ装置1aの業務アプリケーション21aは、他のサーバ装置1aが発行したタスクにより発生するストレージ装置2aの性能低下を予測することは困難である。更に、各サーバ装置1aが発行するタスクの増加に伴い、ストレージ装置2aで各タスクが処理される時間関係も複雑化する。
図34は、従来例としてのストレージシステムにおけるデータコピー処理を例示する図である。
以下、図34において、既述の符号と同一の各符号は、既述の各符号と同様の部分を示しているので、その説明は省略する。
図33で示した例において、仮想サーバ#1の業務アプリケーション21aが予測したデータコピー処理の終了時間は翌5時であり、ユーザ#1が希望する翌6時までという条件を満たしている。そこで、ユーザ#1は、仮想サーバ#1に対して、ストレージ装置#1へのデータコピー処理の実行を指示する(符号I1参照)。仮想サーバ#1の業務アプリケーション21aは、対象のデータをストレージ装置#1に書き込むことによりデータコピー処理を開始する(符号I2参照)。
図34に示す例において、ユーザ#3は、仮想サーバ#3に対して、仮想サーバ#1によるデータコピー処理と同時間帯におけるストレージ装置#1へのデータコピー処理の実行を指示する(符号I3参照)。仮想サーバ#3の業務アプリケーション21aは、対象のデータをストレージ装置#1に書き込むことによりデータコピー処理を開始する(符号I4参照)。
同様に、ユーザ#4は、仮想サーバ#4に対して、仮想サーバ#1によるデータコピー処理と同時間帯におけるストレージ装置#1,#3へのデータコピー処理の実行を指示する(符号I5参照)。仮想サーバ#4の業務アプリケーション21aは、対象のデータをストレージ装置#1,#3に書き込むことによりデータコピー処理を開始する(符号I6,I7参照)。
ここで、ストレージ装置#1においては、符号I2,I4及びI6に示すように、仮想サーバ#1,#3,#4によるデータコピー処理に係るI/Oやタスクの実行が集中している。これにより、ストレージ装置#1に対するデータコピー処理中のデータコピー速度は、コピー時間予測処理において仮想サーバ#1の業務アプリケーション21aが計測したデータコピー速度よりも低下する。そして、仮想サーバ#1によるデータコピー処理の終了時間は、コピー時間予測処理において仮想サーバ#1の業務アプリケーション21aが予測した終了時間である翌5時よりも遅くなる。
このように、従来例におけるサーバ装置(仮想サーバ)においては、ストレージ装置を共有する他のサーバ装置(仮想サーバ)によるI/Oやタスクの実行の影響により、データコピー処理の終了時間を正確に予測することができないという課題がある。
1つの側面では、本発明は、データコピー完了予測時間の算出を高精度に行なうことを目的とする。
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本発明の他の目的の1つとして位置付けることができる。
このため、この情報処理装置は、他の情報処理装置とストレージ装置を共有する情報処理装置であって、当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に実行させるタスクの予測される重複度を示す重複度予測情報を作成する重複度予測情報作成部と、タスクの重複によって発生が予測される前記ストレージ装置の性能に対する影響度を示す影響度予測情報を作成する影響度予測情報作成部と、前記重複度予測情報と前記影響度予測情報とに基づき、データコピー完了予測時間を算出する完了予測時間算出部と、を備える。
開示の情報処理装置によれば、データコピー完了予測時間の算出を高精度に行なうことができる。
実施形態の一例としてのストレージシステムの機能構成を模式的に示す図である。 実施形態の一例としてのストレージシステムにおけるサーバ装置の機能構成を模式的に示す図である。 実施形態の一例としてのストレージシステムにおける運用例を模式的に示す図である。 実施形態の一例としてのストレージシステムにおける計画テーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける計画LUNテーブルを例示する図である。 実施形態の一例としてのストレージシステムにおけるタスクテーブルを例示する図である。 実施形態の一例としてのストレージシステムにおけるRAIDグループテーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける計画・タスク総合テーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける重複度テーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける影響度テーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける予測時間テーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける重複度推移テーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける実測重複度コピー速度テーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける進捗LUNテーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける他ノードセッションテーブルを例示する図である。 実施形態の一例としてのストレージシステムにおけるコピー時間予測処理を例示する図である。 実施形態の一例としてのストレージシステムにおけるデータコピー処理を例示する図である。 実施形態の一例としてのストレージシステムにおけるプログラム構成を模式的に示す図である。 実施形態の一例としてのストレージシステムにおける影響度管理処理を示す図である。 実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる進捗LUNテーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける影響度更新処理で用いるRAIDグループテーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる他ノードセッションテーブルを例示する図である。 実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる実測重複度コピー速度テーブルの第1の例を示す図である。 実施形態の一例としてのストレージシステムにおける重複度とコピー速度との関係の第1の例を示す図である。 実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる実測重複度コピー速度テーブルの第2の例を示す図である。 実施形態の一例としてのストレージシステムにおける重複度とコピー速度との関係の第2の例を示す図である。 実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる実測重複度コピー速度テーブルの第3の例を示す図である。 実施形態の一例としてのストレージシステムにおける重複度とコピー速度との関係の第3の例を示す図である。 実施形態の一例としてのストレージシステムにおけるコピー時間予測処理を示すシーケンス図である。 実施形態の一例としてのストレージシステムにおけるコピー時間予測処理の詳細を示すフローチャートである。 実施形態の一例としてのストレージシステムにおけるコピー時間予測処理の詳細を示すフローチャートである。 実施形態の一例としてのストレージシステムにおける影響度更新処理を示すフローチャートである。 従来例としてのストレージシステムにおけるコピー時間予測処理を例示する図である。 従来例としてのストレージシステムにおけるデータコピー処理を例示する図である。
以下、図面を参照して情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラムに係る一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。
また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
〔A〕実施形態の一例
〔A−1〕システム構成
図1は、実施形態の一例としてのストレージシステムの機能構成を模式的に示す図である。
ストレージシステム100は、サーバ装置(情報処理装置)1に対して記憶領域を提供するものであり、例えばRedundant Arrays of Independent Disks(RAID)システムである。ストレージシステム100は、図1に示すように、複数(図示する例では4つ)のサーバ装置1,複数(図示する例では3つ)のストレージ装置2,制御用スイッチ(ルータ)3及びデータ転送用スイッチ(ルータ)4を備える。各サーバ装置1間は制御用スイッチ3を介して通信可能に接続されており、各サーバ装置1と各ストレージ装置2とはデータ転送用スイッチ4を介して通信可能に接続されている。本実施形態の一例において、各サーバ装置1は、他のサーバ装置1と業務環境を共有する。
以下、複数のサーバ装置のうち1つを特定する必要があるときには「サーバ装置#1」,「サーバ装置#2」,「サーバ装置#3」又は「サーバ装置#4」と表記するが、任意のサーバ装置を指すときには「サーバ装置1」と表記する。また、以下、複数のストレージ装置のうち1つを特定する必要があるときには「ストレージ装置#1」,「ストレージ装置#2」,「ストレージ装置#3」又は「ストレージ装置#4」と表記するが、任意のストレージ装置を指すときには「ストレージ装置2」と表記する。
ストレージ装置2は、データを読み書き可能に格納する記憶装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD)である。各ストレージ装置2は、互いに同様の機能構成を備えている。
図2は、実施形態の一例としてのストレージシステムにおけるサーバ装置の機能構成を模式的に示す図である。
サーバ装置1は、サーバ機能を備えたコンピュータであり、図2に示すように、Central Processing Unit(CPU)10,記憶装置20,Read Only Memory(ROM)40,Random Access Memory(RAM)50,外部Interface(I/F)60,入力装置70及び表示装置80を備える。
図1においては、図2に示すサーバ装置1の機能構成のうち、一部の機能構成のみを示している。
入力装置70は、例えば、マウスやトラックボール,キーボードであり、この入力装置70を介して、ユーザ5(図3を用いて後述)が各種の入力操作を行なう。本実施形態の一例においては、ユーザ5は、入力装置70を介して、サーバ装置1に対するコピー時間予測処理の実行指示やデータコピー処理の実行指示,計画テーブル301(図4を用いて後述)の入力を行なう。
表示装置80は、液晶ディスプレイやCathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、ユーザ5等に対する各種情報を表示する。本実施形態の一例において、表示装置80は、ユーザ5に対して予測時間テーブル308(図11を用いて後述)や重複度推移テーブル309(図12を用いて後述)を表示する。
なお、入力装置70及び表示装置80は組み合わされたものでも良く、例えば、タッチパネルでも良い。
外部I/F60は、サーバ装置1をネットワークと接続し、このネットワークを介して他のサーバ装置1やストレージ装置2と通信を行なうためのインタフェース装置である。外部I/F60としては、例えば、有線Local Area Network(LAN)や無線LAN,Wireless Wide Area Network(WWAN)のネットワークの規格に対応する各種インタフェースカードを用いることができる。外部I/F60は、図1に示すように制御用外部I/F61及びデータ転送用外部I/F62として機能する。制御用外部I/F61は制御用スイッチ3を介して他のサーバ装置1と通信を行なうためのインタフェース装置であり、データ転送用外部I/F62はデータ転送用スイッチ4を介してストレージ装置2と通信を行なうためのインタフェース装置である。
ROM40は、Basic Input/Output System(BIOS)等のプログラムが書き込まれた記憶装置である。ROM40上のソフトウェアプログラムは、CPU10に適宜読み込まれて実行される。また、RAM50は、一次記録メモリあるいはワーキングメモリとして利用される記憶装置である。
記憶装置20は、データを読み書き可能に格納する既知の装置であり、例えば、HDDやSSDである。本実施形態の一例において、記憶装置20は、図1に示すように、業務アプリケーション21,コピー時間予測ソフトウェア22,計画テーブル(計画)301,計画Logical Unit Number(LUN)テーブル(計画情報)302,タスクテーブル(タスク情報)303,RAIDグループテーブル(RAIDグループ情報)304,計画・タスク総合テーブル305,重複度テーブル(重複度予測情報)306,影響度テーブル(影響度予測情報)307,予測時間テーブル(データコピー完了予測時間)308,重複度推移テーブル(重複度推移情報)309,実測重複度コピー速度テーブル310,進捗LUNテーブル311及び他ノードセッションテーブル312の情報を格納する記憶領域を有する。
計画テーブル301,計画LUNテーブル302,タスクテーブル303,RAIDグループテーブル304,計画・タスク総合テーブル305,重複度テーブル306,影響度テーブル307,予測時間テーブル308,重複度推移テーブル309,実測重複度コピー速度テーブル310,進捗LUNテーブル311及び他ノードセッションテーブル312については、図4〜図15を用いてそれぞれ後述する。
業務アプリケーション21及びコピー時間予測ソフトウェア22は、CPU10に実行されることによって機能する。
業務アプリケーション21は、ストレージ装置2に対するデータコピー処理(バックアップ処理)等のI/O処理を行なう。また、業務アプリケーション21は、コピー時間予測ソフトウェア22に対して情報取得用のインタフェースを備える。ユーザ5は、今後行なう、又は、定期的に行なっている業務に関する情報を業務アプリケーション21に入力装置70を介して入力する。
コピー時間予測ソフトウェア22は、データコピー処理の終了時間を予測し、又、データコピー処理におけるタスクの重複度を予測する。例えば、サーバ装置1の記憶装置20は、業務環境を共有する他のサーバ装置1の情報(Internet Protocol(IP)アドレス等)を保持している。そして、コピー時間予測ソフトウェア22は、記憶装置20が保持するIPアドレス等を参照し、このIPアドレス等を用いて他のサーバ装置1にアクセスすることによって、データコピー処理の終了時間やタスクの重複度の予測に必要な情報を他のサーバ装置1から取得する。なお、IPアドレス等は、例えば、業務環境構築時に管理者等がサーバ装置1に入力する。また、ストレージシステム100に新たなサーバ装置1を追加した場合には、例えば、追加したサーバ装置1に既存のサーバ装置1のIPアドレス等を入力し、既存のサーバ装置1にはIPアドレス等が自動で追加されるようにしても良い。コピー時間予測ソフトウェア22の詳細は、図18等を参照して後述する。
CPU10は、種々の制御や演算を行なう処理装置であり、ROM40や記憶装置20に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。すなわち、CPU10は、図1に示すように、重複度予測情報作成部11,影響度予測情報作成部12,完了予測時間算出部13,計画情報作成部14,タスク情報作成部15,RAIDグループ情報作成部16及び重複度推移情報作成部17として機能する。
なお、これらの重複度予測情報作成部11,影響度予測情報作成部12,完了予測時間算出部13,計画情報作成部14,タスク情報作成部15,RAIDグループ情報作成部16及び重複度推移情報作成部17としての機能を実現するためのプログラム(データコピー処理管理プログラム)は、例えばフレキシブルディスク,CD(CD−ROM,CD−R,CD−RW等),DVD(DVD−ROM,DVD−RAM,DVD−R,DVD+R,DVD−RW,DVD+RW,HD DVD等),ブルーレイディスク,磁気ディスク,光ディスク,光磁気ディスク等の、コンピュータ読取可能な記録媒体に記録された形態で提供される。そして、コンピュータはその記録媒体から図示しない読取装置を介してプログラムを読み取って内部記録装置または外部記録装置に転送し格納して用いる。又、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供してもよい。
重複度予測情報作成部11,影響度予測情報作成部12,完了予測時間算出部13,計画情報作成部14,タスク情報作成部15,RAIDグループ情報作成部16及び重複度推移情報作成部17としての機能を実現する際には、内部記憶装置(本実施形態では記憶装置20)に格納されたプログラムがコンピュータのマイクロプロセッサ(本実施形態ではCPU10)によって実行される。このとき、記録媒体に記録されたプログラムをコンピュータが読み取って実行してもよい。
計画情報作成部14は、各サーバ装置1がストレージ装置2に対して実行させるデータコピー処理を示す計画テーブル301と、データコピー処理計画に係るストレージ装置2のLUNとを対応づけた計画LUNテーブル302を作成する。
タスク情報作成部15は、ストレージ装置2が実行するタスクを示すタスクテーブル303を作成する。
RAIDグループ情報作成部16は、ストレージ装置2において定義されているRAIDグループ毎のLUNと性能値とを示すRAIDグループテーブル304を作成する。
重複度予測情報作成部11は、各サーバ装置1がストレージ装置2に実行させるタスクの予測される重複度を示す重複度テーブル306を作成する。具体的には、重複度予測情報作成部11は、計画LUNテーブル302とタスクテーブル303とRAIDグループテーブル304とに基づき、重複度テーブル306を作成する。また、重複度予測情報作成部11は、同一のRAIDグループ内における書き込み及び読み出しの重複度に基づいて、重複度予測テーブル306を作成する。
影響度予測情報作成部12は、タスクの重複によって発生が予測されるストレージ装置2の性能に対する影響度を示す影響度テーブル307を作成する。
完了予測時間算出部13は、重複度テーブル306と影響度テーブル307とに基づき、予測時間テーブル308を作成する。具体的には、完了予測時間算出部13は、影響度テーブル307における影響度でそれぞれ重みづけられた重複度テーブル306における重複度とRAIDグループテーブル304における性能値とに基づいて、単位時間当たりのデータコピー処理容量を算出する。そして、完了予測時間算出部13は、算出した単位時間当たりのデータコピー処理容量に基づき、予測時間テーブル308を作成する。
重複度推移情報作成部17は、完了予測時間算出部13が算出した単位時間当たりのデータコピー処理容量に基づいて、データコピー処理計画における時間帯毎のタスクの重複度の推移を示す重複度推移テーブル309を作成する。
図3は、実施形態の一例としてのストレージシステムにおける運用例を模式的に示す図である。
本実施形態の一例において、業務を実行するサーバは、図1に示したような物理サーバ装置1でも良いし、図3に示すような仮想サーバ111でも良い。以下の説明においては、業務を実行するサーバは、仮想サーバ111であるものとする。
図3に示すストレージシステム100は、2つのサーバ装置1,2つのデータ転送用スイッチ4及び3つのストレージ装置2を備える。そして、サーバ装置1は、2つのデータ転送用スイッチ4のうちいずれかのデータ転送用スイッチ4を介して、3つのストレージ装置2のうちいずれかのストレージ装置2にアクセスを行なう。
以下、複数のサーバ装置のうち1つを特定する必要があるときには単に「サーバ装置#1」又は「サーバ装置#2」と表記するが、任意のサーバ装置を指すときには「サーバ装置1」と表記する。また、以下、複数のデータ転送用スイッチのうち1つを特定する必要があるときには単に「スイッチ#1」又は「スイッチ#2」と表記するが、任意のデータ転送用スイッチを指すときには「データ転送用スイッチ4」と表記する。更に、以下、複数のストレージ装置のうち1つを特定する必要があるときには単に「ストレージ装置#1」,「ストレージ装置#2」又は「ストレージ装置#3」と表記するが、任意のストレージ装置を指すときには「ストレージ装置2」と表記する。
サーバ装置1は、ハイパーバイザー110を展開する。具体的には、サーバ装置#1,#2は、ハイパーバイザー#1,#2をそれぞれ展開する。
以下、複数のハイパーバイザーのうち1つを特定する必要があるときには単に「ハイパーバイザー#1」又は「ハイパーバイザー#2」と表記するが、任意のハイパーバイザーを指すときには「ハイパーバイザー110」と表記する。
更に、サーバ装置1は、展開したハイパーバイザー110上に1つ以上(図3に示す例では2つ)の仮想サーバ111を展開する。具体的には、サーバ装置#1は展開したハイパーバイザー#1上に仮想サーバ#1,#2を展開し、サーバ装置#2は展開したハイパーバイザー#2上に仮想サーバ#3,#4を展開する。このように、図3に示すストレージシステム100は、仮想サーバ111とストレージ装置2とが多対多である環境となっている。
以下、複数の仮想サーバのうち1つを特定する必要があるときには単に「仮想サーバ#1」,「仮想サーバ#2」,「仮想サーバ#3」又は「仮想サーバ#4」と表記するが、任意の仮想サーバを指すときには「仮想サーバ111」と表記する。
そして、仮想サーバ111は、業務アプリケーション21及びコピー時間予測ソフトウェア22を実行する。仮想サーバ111は、業務アプリケーション21を介してストレージ装置2に対するデータコピー処理等のI/O処理を実行し、又、コピー時間予測ソフトウェア22を介してコピー時間予測処理を実行する。
図3に示す4人のユーザ5は、仮想サーバ111に対して、ストレージ装置2へのデータコピー処理やコピー時間予測処理等のI/O処理の実行を指示する。具体的には、ユーザ#1〜#4は、仮想サーバ#1〜#4に対して、ストレージ装置2へのデータコピー処理やコピー時間予測処理等のI/O処理の実行をそれぞれ指示する。
以下、複数のユーザのうち1人を特定する必要があるときには単に「ユーザ#1」,「ユーザ#2」,「ユーザ#3」又は「ユーザ#4」と表記するが、任意のユーザを指すときには「ユーザ5」と表記する。
なお、図3に示す例において、ストレージシステム100は2つのサーバ装置1,2つのデータ転送用スイッチ4及び3つのストレージ装置2を備えることとし、各サーバ装置1はそれぞれ2つの仮想サーバ111を展開することとしたが、これらに限定されるものではない。ストレージシステム100が備えるサーバ装置1,データ転送用スイッチ4及びストレージ装置2の数は種々変更することができ、又、各サーバ装置1が展開する仮想サーバ111の数も種々変更することができる。
図3に示すように各サーバ装置1が複数の仮想サーバ111を展開する場合には、展開された各仮想サーバ111は、重複度予測情報作成部11,影響度予測情報作成部12,完了予測時間算出部13,計画情報作成部14,タスク情報作成部15,RAIDグループ情報作成部16及び重複度推移情報作成部17としての機能を有する。
図4は、実施形態の一例としてのストレージシステムにおける計画テーブルを例示する図である。
計画テーブル301は、各サーバ装置1がストレージ装置2に対して実行させるデータコピー処理を示す。ユーザ5は、入力装置70を介して仮想サーバ111に計画テーブル301を入力する。
図4に示す例において、計画テーブル301には、No.1〜3の3つのタスクが入力されている。No.1のタスクは、21:00に開始させ、sdxproxy Update -c class1 -p proxy1で定義される操作を実行させ、又、翌7:00までに終了させたいことを示している。なお、sdxproxy Update -c class1 -p proxy1は、業務アプリケーション21に対して、ストレージ装置2へのデータコピー処理を指示するコマンドである。また、No.2のタスクは、No.1のタスクの終了後に開始させ、sdxswap -I -c class2 -d disk1で定義される操作を実行させ、又、翌9:00までに終了させたいことを示している。なお、sdxswap -I -c class2 -d disk1は、業務アプリケーション21に対して、ストレージ装置2におけるディスクの交換を指示するコマンドである。更に、No.3のタスクは、No.1のタスクの終了後に開始させ、又、mount /dev/sfdsk/class2/volume1 /Data1 cd /Data1 tar xcv backup /tmp/backupfile.tarで定義される操作を実行させたいことを示している。なお、mount /dev/sfdsk/class2/volume1 /Data1 cd /Data1 tar xcv backup /tmp/backupfile.tarは、業務アプリケーション21に対してデバイスにデータを書き込ませるOSのコマンドを示している。
図5は、実施形態の一例としてのストレージシステムにおける計画LUNテーブルを例示する図である。
計画LUNテーブル302は、計画テーブル301とデータコピー処理計画に係るストレージ装置2のLUNとを対応づけた情報である。計画LUNテーブル302には、各コマンドで使用されるLUNが対応付けられている。
図5に示す例において、計画LUNテーブル302にはNo.1〜3のタスクが登録され、これらの登録されたNo.1〜3のタスクは図4に示したNo.1〜3のタスクにそれぞれ対応する。No.1のタスクは、LUN 12から読み出したデータをLUN 24に書き込み、ハード/コピーであり、データサイズが2TBであり、開始条件が21:00であり、又、終了予定が翌7:00であることを示している。なお、ハード/コピーとは、ストレージ装置2の筐体内で実行されるコピーを示す。また、No.2のタスクは、LUN 3から読み出したデータをLUN 30に書き込み、ソフト/コピーであり、データサイズが500GBであり、開始条件がNo.1のタスクの終了後であり、又、終了予定が翌9:00であることを示している。なお、ソフト/コピーとは、サーバ装置1を介して実行されるコピーを示す。更に、No.3のタスクは、サーバ装置1の内蔵ディスク(例えば記憶装置20)から読み出したデータをLUN 32に書き込み、ソフト/書き込みであり、データサイズが100GBであり、開始条件がNo.1のタスクの終了後であり、又、終了予定は設定されていないことを示している。なお、ソフト/書き込みとは、サーバ装置1が格納するデータをストレージ装置2に書き込むことを示す。
図6は、実施形態の一例としてのストレージシステムにおけるタスクテーブルを例示する図である。
タスクテーブル303は、ストレージ装置2に既に指示され、ストレージ装置2がこれから実行するタスク及び実行中のタスクを示す。
図6に示す例において、タスクテーブル303には、No.4〜6のタスクが登録されている。No.4のタスクは、セッション番号が101であり、LUN 32から読み出したデータをLUN 33に書き込み、ミラーリングであり、又、実行中であることを示している。なお、セッション番号とは、ストレージ装置2においてタスクを管理する番号を示す。また、No.5のタスクは、セッション番号が152であり、LUN 12から読み出したデータをLUN 18に書き込み、コピーであり、コピーサイズが1TBであり、又、90分後まで停止中であることを示している。更に、No.6のタスクは、セッション番号が87であり、LUN 40から読み出したデータをLUN 44に書き込み、コピーであり、コピーサイズが残り100GBであり、又、実行中であることを示している。
図7は、実施形態の一例としてのストレージシステムにおけるRAIDグループテーブルを例示する図である。
RAIDグループテーブル304は、ストレージ装置2において定義されているRAIDグループ毎のLUNと性能値(I/O性能)とを示す。RAIDグループテーブル304には、データコピー処理の計画における各タスクで使用するLUNやRAIDグループの情報が対応付けられている。なお、性能値は、サーバ装置1が備える図示しない性能取得用I/Fを介してストレージ装置2から取得することとしても良いし、ユーザ5が予め入力しておくこととしても良い。
図7に示す例において、RAIDグループテーブル304には、RAIDグループ2〜5,10に関する情報が登録されている。例えば、RAIDグループ2は、RAID5構成であり、LUN 12を有し、サーバ装置1に対する読み込み性能及び書き込み性能がそれぞれ4.5GB/min及び2.8GB/minであり、又、筐体内での読み込み性能及び書き込み性能が7.2GB/min及び3.6GB/minであることを示している。また、RAIDグループ3〜5,10の構成,LUN及びI/O性能も、RAIDグループ2の構成,LUN及びI/O性能と同様に示されている。
図8は、実施形態の一例としてのストレージシステムにおける計画・タスク総合テーブルを例示する図である。
計画・タスク総合テーブル305は、データコピー処理の計画及びストレージ装置2に対するタスクについて、コピー処理時間の予測に必要なデータをまとめた情報である。計画・タスク総合テーブル305は、計画LUNテーブル302とタスクテーブル303とRAIDグループテーブル304とに基づいて作成される。なお、内蔵ディスクの性能値は、サーバ装置1が自律的に測定することとしても良いし、ユーザ5が予め入力しておくこととしても良い。
図8に示す例において、計画・タスク総合テーブル305には、No.1〜6のタスクを登録されている。これらの登録されたNo.1〜3のタスクは図4に示したNo.1〜3のタスクにそれぞれ対応し、No.4〜6のタスクは図6に示したNo.4〜6のタスクにそれぞれ対応する。例えば、No.1のタスクは、筐体1における処理であり、RAIDグループ2から読み込んだデータをRAIDグループ3に書き込み、読み込み性能が7.2GB/minであり、書き込み性能が4.0GB/minであり、ハード/コピーであり、コピーサイズが2TBであり、開始条件が21:00であり、又、終了条件が翌7:00であることを示している。また、例えば、No.3のタスクは、筐体1における処理であり、内蔵ディスクから読み出したデータをRAIDグループ3に書き込み、読み込み性能が11GB/minであり、書き込み性能が3.0GB/minであり、ソフト/書き込みであり、書き込みサイズが100GBであり、又、開始条件がNo.1のタスクの終了後であることを示している。更に、例えば、No.4のタスクは、筐体1における処理であり、RAIDグループ4に書き込み、書き込み性能が3.4GB/minであり、又、RAIDグループ4においてミラーリングを実行することを示している。また、No.2,5,6のタスクにおける各情報についても、No.1,3,4のタスクにおける各情報と同様に示されている。
図9は、実施形態の一例としてのストレージシステムにおける重複度テーブルを例示する図である。
重複度テーブル306は、各サーバ装置1がストレージ装置2に実行させるタスクの予測される重複度を示す。ここで、重複度とは、データコピー処理のタスク(計画)の間でストレージ装置2のリソースを共有している程度を示す数値である。例えば、3つのデータコピー処理のタスク(計画)が同一の筐体を使用する場合には、重複度は3となる。具体的には、重複度テーブル306は、計画LUNテーブル302とタスクテーブル303とRAIDグループテーブル304とに基づいて作成される。また、重複度テーブル306は、同一のRAIDグループ内における書き込み及び読み出しの重複度に基づいて作成される。図9に示す重複度テーブル306は、データコピー処理の開始から終了までの間に発生する可能性があるタスクの重複を示すものであり、各タスクにおける重複度は時刻によって異なる。コピー時間予測ソフトウェア22は、重複度テーブル306に基づき、単位時間当たりのタスクの重複度を算出する。
図9に示す例において、重複度テーブル306にはNo.1〜6のタスクが登録され、これらの登録されたNo.1〜6のタスクは図8に示したNo.1〜6のタスクにそれぞれ対応する。また、重複度テーブル306におけるT〜Tは、No.1〜6のタスクをそれぞれ示す。例えば、No.1のタスクは、筐体がNo.2〜6のタスクと重複し、同一のRAIDグループにおいて、読み込みがNo.5のタスクの読み込みと重複し、書き込みがNo.2のタスクの読み込み及びNo.3のタスクの書き込みと重複することを示している。また、例えば、No.2のタスクは、筐体がNo.1,3〜6のタスクと重複し、同一のRAIDグループにおいて、読み込みがNo.1,3のタスクの書き込みと重複し、書き込みがNo.4のタスクの書き込みと重複することを示している。更に、例えば、No.3のタスクは、筐体がNo.1,2,4〜6のタスクと重複し、同一のRAIDグループにおいて、書き込みがNo.2のタスクの読み込み及びNo.1のタスクの書き込みと重複し、ミラーリングによってNo.4のタスクと重複することを示している。また、No.4〜6のタスクにおいて重複が発生する筐体及び処理(読み込み,書き込み又はミラーリング)についても、No.1〜3のタスクにおいて重複が発生する筐体及び処理と同様に示されている。
図10は、実施形態の一例としてのストレージシステムにおける影響度テーブルを例示する図である。
影響度テーブル307は、タスクの重複によって発生が予測されるストレージ装置2の性能に対する影響度を示し、単位時間当たりのコピーサイズの算出に使用されるパラメータが登録されている。コピー時間予測ソフトウェア22は、ストレージ装置2に対するI/Oやストレージ筐体内のコピー処理を監視し、監視結果に基づいて影響度テーブル307のパラメータを更新する。影響度テーブル307の更新手法については、図20〜図28を用いて後述する。
図10に示す例において、I/O性能のカラムの値はストレージ装置2の基本性能に対する影響度を示し、基本性能値は次式で表わせる。
基本性能値(GB/min)=対サーバ.Read×対サーバ.Read影響度
+対サーバ.Write×対サーバ.Write影響度
−対サーバ.定数項
+筐体内.Read×筐体内.Read影響度
+筐体内.Write×筐体内.Write影響度
基本性能値を示す式のうち、対サーバ.Read,対サーバ.Write,筐体内.Read及び筐体内.Writeには、図8に示した計画・タスク総合テーブル305のI/O性能のカラムの値を代入する。例えば、図8に示したNo.1のタスクはストレージ装置2の筐体内で実行されるハードコピーであるので、対サーバ.Read=0,対サーバ.Write=0,筐体内.Read=7.2,筐体内.Write=4.0となる。また、例えば、図8に示したNo.2のタスクはサーバ装置1を介して実行されるソフトコピーであるので、対サーバ.Read=4.9,対サーバ.Write=3.0,筐体内.Read=0,筐体内.Write=0となる。すなわち、コピー,書き込み又はミラーリングの種別がハードの場合には対サーバ.Read及び対サーバ.Writeの値は0となり、コピー,書き込み又はミラーリングの種別がソフトの場合には筐体内.Read及び筐体内.Writeの値は0となる。
基本性能値を示す式のうち、対サーバ.Read影響度,対サーバ.Write影響度,対サーバ.定数項,筐体内.Read影響度及び筐体内.Write影響度には、図10に示す影響度テーブル307におけるI/O性能のカラムの値を代入する。つまり、対サーバ.Read影響度=0.1,対サーバ.Write影響度=1,対サーバ.定数項=1.5,筐体内.Read=0.1,筐体内.Write=1となる。また、コピー,書き込み又はミラーリングの種別がハードの場合には、対サーバ.Read影響度,対サーバ.Write影響度及び対サーバ.定数項の値は0となる。一方、コピー,書き込み又はミラーリングの種別がソフトの場合には、筐体内.Read影響度及び筐体内.Writeの値は0となる。
例えば、図8に示したNo.1のタスクの基本性能値は、
基本性能値=0×0+0×0−0+7.2×0.1+4.0×1=4.72 (GB/min)
となる。また、例えば、図8に示したNo.2のタスクの基本性能値は、
基本性能値=4.9×0.1+3.0×1−1.5+0×0+0×0=1.99 (GB/min)
となる。
図10に示す例において、筐体,RAIDグループ及びミラーのカラムの値はストレージ装置2におけるタスクの重複による速度低下に対する影響度を示し、低下速度は次式で表わせる。
低下速度(GB/min)=筐体重複度×筐体影響度
+RAIDグループ.Read.R重複度×RAIDグループ.Read.R影響度
+RAIDグループ.Read.W重複度×RAIDグループ.Read.W影響度
+RAIDグループ.Write.R重複度×RAIDグループ.Write.R影響度
+RAIDグループ.Write.W重複度×RAIDグループ.Write.W影響度
+ミラー低下速度
ここで、ミラー低下速度は、ミラーリングの影響でストレージ装置2に発生する速度低下を示す値であり、次式で表わせる。
Figure 2015132987
低下速度を示す式のうち、筐体重複度,RAIDグループ.Read.R重複度,RAIDグループ.Read.W重複度,RAIDグループ.Write.R重複度,RAIDグループ.Write.W重複度及びミラー低下速度の値は、図9に示した重複度テーブル306に基づいて代入する。例えば、図9に示したNo.1のタスクにおいては、筐体重複度=5,RAIDグループ.Read.R重複度=1,RAIDグループ.Read.W重複度=0,RAIDグループ.Write.R重複度=1,RAIDグループ.Write.W重複度=1及びミラー重複度=0である。そして、コピー時間予測ソフトウェア22は、各重複度について単位時間当たりの重複度を算出し、低下速度を示す式に代入する。例えば、図9に示したNo.1のタスクにおいて、時刻Tに筐体重複度=5,RAIDグループ.Read.R重複度=1,RAIDグループ.Write.R重複度=1及びRAIDグループ.Write.W重複度=1である場合には、低下速度は、
低下速度=5×0.1+1×0.1+0×0.1+1×0.2+1×0.3+0=1.1 (GB/min)
となる。
ミラー低下速度を示す式は、重複度テーブル306においてミラー重複度が設定されているタスク(例えば図9に示したNo.3のタスク)に対して適用する。ミラー低下速度を示す式において、ミラー影響度には、影響度テーブル307のミラーカラムの値を代入する。また、Σ記号で示す演算は、重複度テーブル306のミラーカラムに設定されているタスク(例えば図9に示したT)の単位時間当たりのコピーサイズの逆数をミラーセッション(重複度,ミラータスク)の数だけ足し合わせることを示している。例えば、図9に示したNo.3のタスクは、ミラーリングによってNo.4のタスクと重複する。そして、例えば、時刻Tにおいて、図9に示したNo.3のタスクがミラーリングによってNo.4のタスクと重複し、No.4のタスクの単位時間当たりのコピーサイズが3.4GB/minである場合には、ミラー低下速度は、
Figure 2015132987
となる。なお、影響度テーブル307のミラーカラムに設定されているタスクが複数ある場合には、Σ記号で示した演算において、それぞれのタスクの単位時間当たりのコピーサイズの逆数を足し合わせる。そして、図9に示したNo.3のタスクにおいて、時刻Tに筐体重複度=5,RAIDグループ.Write.R重複度=1及びRAIDグループ.Write.W重複度=1である場合には、低下速度は、
Figure 2015132987
となる。
そして、基本性能値と低下速度とに基づき、単位時間当たりのコピーサイズが算出でき、
単位時間当たりのコピーサイズ(GB/min)=基本性能値−低下速度
となる。
例えば、図9に示したNo.1のタスクにおいて、時刻Tに筐体重複度=5,RAIDグループ.Read.R重複度=1,RAIDグループ.Write.R重複度=1及びRAIDグループ.Write.W重複=1である場合には、上述したように低下速度=1.1 GB/minである。また、図8に示したNo.1のタスクにおいて、基本性能値=4.72 GB/minである。そこで、単位時間当たりのコピーサイズは、
単位時間当たりのコピーサイズ=4.72−1.1=3.62 (GB/min)
となる。
図11は、実施形態の一例としてのストレージシステムにおける予測時間テーブルを例示する図である。
予測時間テーブル308は、重複度テーブル306と影響度テーブル307とに基づいて作成される。具体的には、単位時間当たりのデータコピー処理容量は、影響度テーブル307における影響度でそれぞれ重みづけられた重複度テーブル306における重複度とRAIDグループテーブル304における性能値とに基づいて算出される。そして、予測時間テーブル308は、算出された単位時間当たりのデータコピー処理容量に基づいて算出される。コピー時間予測ソフトウェア22は、表示装置80を介して予測時間テーブル308をユーザ5に提示する。
図11に示す例において、予測時間テーブル308にはNo.1〜3のタスクが登録され、これらの登録されたNo.1〜3のタスクは図4,図5,図8及び図9に示したNo.1〜3のタスクにそれぞれ対応する。
No.1のタスクは、開始時間が21:00であり、終了予測時間が翌6:09であり、最低コピー速度が21:00〜21:18で3.6GB/minであり、平均コピー速度が3.64GB/minであり、又、平均低下速度が0.07GB/minであることを示している。ここで、平均低下速度は、ストレージ装置2における最大I/O性能値(基本性能値)からの低下速度の平均を示す値である。終了予測時間カラムの括弧内の値は、ユーザ5が希望する終了予定時間と終了予測時間との差を示している。No.1のタスクは、図4に示したNo.1のタスクの終了予定時間である翌7:00よりも51分早く終了する予測であることを示している。
また、No.2のタスクは、開始時間が翌6:09であり、終了予測時間が翌9:03であり、最低コピー速度が翌6:09〜7:12で2.7GB/minであり、平均コピー速度が2.87GB/minであり、又、平均低下速度が0.53GB/minであることを示している。そして、No.2のタスクは、図4に示したNo.2のタスクの終了予定時間である翌9:00よりも3分遅く終了する予測であることを示している。
更に、No.3のタスクは、開始時間が翌6:09であり、終了予測時間が翌7:12であり、最低コピー速度が翌6:09〜7:12で1.3GB/minであり、平均コピー速度が1.3GB/minであり、又、平均低下速度が0.3GB/minであることを示している。なお、図4に示したNo.3のタスクについては終了予定時間が設定されていないため、No.3のタスクについての終了予定時間と終了予測時間との差は示されていない。
コピー時間予測ソフトウェア22は、例えば、終了予測時間がユーザ5の希望する終了予定時間よりも遅い場合や重複度が許容値を超えている場合には、表示装置80を介してユーザ5にエラーを通知しても良い。図11に示す例においては、コピー時間予測ソフトウェア22は、No.2のタスクの終了予測時間がユーザ5の希望する終了予定時間よりも遅いことをユーザ5に通知する。また、重複度の許容値は過去のコピー時間予測処理による予測値とデータコピー処理による実測値との履歴から重複度毎に算出し、コピー時間予測ソフトウェア22は算出した許容値を超えている場合に予測の正確さが保証できない旨をユーザ5に通知しても良い。
図12は、実施形態の一例としてのストレージシステムにおける重複度推移テーブルを例示する図である。
重複度推移テーブル309は、データコピー処理計画における時間帯毎のタスクの重複度の推移を示すテーブルであり、単位時間当たりのデータコピー処理容量に基づいて計画(タスク)毎に作成される。コピー時間予測ソフトウェア22は、表示装置80を介して重複度推移テーブル309をユーザ5に提示する。
図12に示す例においては、21:00,21:18,22:00,翌2:54及び翌6:09におけるタスクの重複度が示されており、開始時間及び終了時間以外の各時間はタスクの重複度が変化した時間を示す。つまり、図12に示すタスク重複度推移テーブル309は、21:00〜21:18で筐体重複度=1であり、21:18〜22:00で重複度が0であり、22:00〜翌2:54で筐体重複度=1及びRAIDグループ.Read.R重複度=1であり、翌2:54〜6:09で重複度が0であることを示している。
図13は、実施形態の一例としてのストレージシステムにおける実測重複度コピー速度テーブルを例示する図である。
コピー時間予測ソフトウェア22は、データコピー処理に際して実測重複度コピー速度テーブル310を作成し、作成した実測重複度コピー速度テーブル310を用いて影響度を算出する。実測重複度コピー速度テーブル310を用いた影響度の算出手法は、図20〜図28を用いて後述する。
図13に示す例において、実測重複度コピー速度テーブル310には、データコピー処理におけるI/O性能,筐体重複度,RAIDグループ重複度,ミラー重複度及びコピー速度が記録されている。コピー時間予測ソフトウェア22は、予め定められた時間が経過した場合やI/O性能,筐体重複度,RAIDグループ重複度,ミラー重複度又はコピー速度が変わった場合に、実測重複度コピー速度テーブル310に新たなデータを追加する。図13に示す例においては、簡単のため3つのデータのみを示しているが、これに限定されるものではなく、実測重複度コピー速度テーブル310に登録されるデータの数は種々変更することができる。
図14は、実施形態の一例としてのストレージシステムにおける進捗LUNテーブルを例示する図である。
コピー時間予測ソフトウェア22は、データコピー処理におけるI/Oの進捗からタスクのコピー速度を算出し、進捗LUNテーブル311を作成する。そして、コピー時間予測ソフトウェア22は、作成した進捗LUNテーブル311を用いて図13に示した実測重複度コピー速度テーブル310を作成し、影響度を算出する。進捗LUNテーブル311を用いた影響度の算出手法は、図20〜図28を用いて後述する。
図14に示す例において、No.1のタスクは、図4,図5,図8,図9及び図11に示したNo.1のタスクに対応する。No.1のタスクは、LUN 12から読み出したデータをLUN 24に書き込み、ハード/コピーであり、又、コピー速度が3.64GB/minであることを示している。
図15は、実施形態の一例としてのストレージシステムにおける他ノードセッションテーブルを例示する図である。
コピー時間予測ソフトウェア22は、他ノード(他の仮想サーバ111)のコピー時間予測ソフトウェア22と通信する。そして、コピー時間予測ソフトウェア22は、現在実行されている処理の中で自ノードのデータコピー処理と同じストレージ装置2を使用する処理の情報を示す他ノードセッションテーブル312を作成する。更に、コピー時間予測ソフトウェア22は、作成した他ノードセッションテーブル312を用いて図13に示した実測重複度コピー速度テーブル310を作成し、重複度を算出する。
図15に示す例においては、他ノードのセッションとして、LUN 12から読み込んだデータをLUN 3に書き込む処理が実行中であることを示している。
図16は、実施形態の一例としてのストレージシステムにおけるコピー時間予測処理を例示する図である。
図16に示すユーザ#2〜#4は、入力装置70を介してデータコピー処理の計画(計画テーブル301)を仮想サーバ#2〜#4にそれぞれ入力する(符号A11〜A13参照)。
図16に示す例において、ユーザ#1は、23時から開始するストレージ装置#1へのバックアップ処理が翌6時までに終了するかを知りたい。そこで、ユーザ#1は、仮想サーバ#1に対して、コピー時間予測処理の実行を指示する(符号A2参照)。具体的には、ユーザ#1は、入力装置70を介してデータコピー処理の計画(計画テーブル301)を仮想サーバ#1に入力する。
仮想サーバ#1のコピー時間予測ソフトウェア22は、仮想サーバ#2〜#4のコピー時間予測ソフトウェア22に対象LUN,コピーサイズ及びコピー種別を問い合わせる(符号A31〜A33参照)。
仮想サーバ#2〜#4のコピー時間予測ソフトウェア22は、自ノードの業務アプリケーション21から計画対象のストレージ装置2におけるコピーサイズ及びコピー種別を取得し(符号A41〜A43参照)、計画対象のストレージ装置2から対象LUNを取得する。
仮想サーバ#1のコピー時間予測ソフトウェア22は、仮想サーバ#2〜#4のコピー時間予測ソフトウェア22が送信した対象LUN,コピーサイズ及びコピー種別を取得する。
仮想サーバ#1のコピー時間予測ソフトウェア22は、自ノードの業務アプリケーション21から計画対象のストレージ装置2におけるコピーサイズ及びコピー種別を取得する(符号A5参照)。
仮想サーバ#1のコピー時間予測ソフトウェア22は、データコピー処理の対象であるストレージ装置#1からデータコピー処理の計画の対象LUN,ストレージ装置#1に既に指示されているタスク及びRAIDグループ情報を取得する(符号A6参照)。
仮想サーバ#1のコピー時間予測ソフトウェア22は、ユーザ#1が入力した計画テーブル301と、自ノードの業務アプリケーション21から取得したコピーサイズ及びコピー種別と、ストレージ装置#1から取得した対象LUNとに基づき、計画LUNテーブル302を作成する。また、仮想サーバ#1のコピー時間予測ソフトウェア22は、他ノードから取得した対象LUN,コピー種別及びコピーサイズに基づき、タスクテーブル303を作成する。更に、仮想サーバ#1のコピー時間予測ソフトウェア22は、ストレージ装置#1から取得したRAIDグループ情報に基づき、RAIDグループテーブル304を作成する。また、仮想サーバ#1のコピー時間予測ソフトウェア22は、計画LUNテーブル302とタスクテーブル303とRAIDグループテーブル304とに基づき、計画・タスク総合テーブル305及び重複度テーブル306を作成する。そして、仮想サーバ#1のコピー時間予測ソフトウェア22は、重複度テーブル306と予め保持する影響度テーブル307とに基づき、予測時間テーブル308及び重複度推移テーブル309を作成し、表示装置80を介してユーザ#1に提示する。
つまり、仮想サーバ#1のコピー時間予測ソフトウェア22は、他ノードの計画やストレージ装置2の状態を参照してデータコピー処理をシミュレーションし、終了予測時間を算出する。そして、仮想サーバ#1のコピー時間予測ソフトウェア22は、ユーザ#1に対して、他ノードからのI/Oやタスクの実行が集中する時間帯を示す予測時間テーブル308及び重複度推移テーブル309を提示する。これにより、ユーザ#1は、提示された予測時間テーブル308及び重複度推移テーブル309に基づいて、データコピー処理の計画を変更することができる。
図17は、実施形態の一例としてのストレージシステムにおけるデータコピー処理を例示する図である。
図17に示すユーザ#1,#3は、仮想サーバ#1,#3にデータコピー処理の実行をそれぞれ指示する(符号B1,B2参照)。
仮想サーバ#1の業務アプリケーション21は、対象のデータをストレージ装置#1に書き込むことによりデータコピー処理を開始する(符号B3参照)。
ストレージ装置#2に書き込むことによりデータコピー処理を開始する(符号B4参照)。
このように、仮想サーバ#1,#3が指示したタスクはそれぞれ別のストレージ装置2(ストレージ装置#1,#2)に書き込まれる。よって、図16に示したコピー時間予測処理で提示された予測時間テーブル308及び重複度推移テーブル309に基づきユーザ#1が計画の変更を行なえば、仮想サーバ#1におけるデータコピー処理は、他ノードからのI/Oやタスクの実行が集中する時間帯を回避して実行される。
〔A−2〕プログラム構成
図18は、実施形態の一例としてのストレージシステムにおけるプログラム構成を模式的に示す図である。
図18に示すように、コピー時間予測ソフトウェア22は、入力用モジュール221,計画・タスク管理モジュール222,時間予測モジュール223,影響度管理モジュール224及び出力用モジュール225としての機能を備える。
入力用モジュール221は、ユーザ5がデータコピー処理の計画を入力するためのインタフェースを備え、入力された計画を計画テーブル301として保持する(符号C1参照)。
計画・タスク管理モジュール222は、ユーザ5からの予測実行の指示を受け(符号C2参照)、入力用モジュール221,他ノードのコピー時間予測ソフトウェア22,業務アプリケーション21及びストレージ装置2からコピー時間予測に必要な情報を収集する。具体的には、計画・タスク管理モジュール222は、入力用モジュール221から計画テーブル301を取得する(符号C3参照)。また、計画・タスク管理モジュール222は、他ノードのコピー時間予測ソフトウェア22から他ノードの計画を取得する(符号C4参照)。更に、計画・タスク管理モジュール222は、計画テーブル301に基づき、業務アプリケーション21から対象のストレージ装置2の情報及びコピーサイズを取得する(符号C5参照)。また、計画・タスク管理モジュール222は、ストレージ装置2から対象LUN,ストレージ装置2に既に指示されているタスク及びRAIDグループ情報を取得する(符号C6参照)。更に、計画・タスク管理モジュール222は、入力用モジュール221,他ノードのコピー時間予測ソフトウェア22,業務アプリケーション21及びストレージ装置2から取得した情報に基づき、計画・タスク総合テーブル305を作成する。そして、計画・タスク管理モジュール222は、作成した計画・タスク総合テーブル305を時間予測モジュール223に入力する(符号C7参照)。
影響度管理モジュール224は、コピー時間を予測する数式のパラメータを影響度テーブル307として管理するモジュールである。影響度管理モジュール224は、データコピー処理の実行結果に基づき影響度テーブル307を更新し(符号C8参照)、更新した影響度テーブル307を時間予測モジュール223に入力する(符号C9参照)。
時間予測モジュール223は、データコピー処理時間を予測するための計算を行なう。時間予測モジュール223は、計画・タスク総合テーブル305及び影響度テーブル307を入力として算出した予測時間テーブル308及び重複度推移テーブル309を出力用モジュール225に入力する(符号C10参照)。
出力用モジュール225は、予測時間テーブル308及び重複度推移テーブル309を入力とし、ユーザ5に予測時間テーブル308及び重複度推移テーブル309を提示する(符号C11参照)。
図19は、実施形態の一例としてのストレージシステムにおける影響度管理処理を示す図である。
図19に示すユーザ#1は、コピー時間予測ソフトウェア22が予測するデータコピー処理の計画に含まれない種々のI/O発行の指示も仮想サーバ#1に対して行なう(符号D1参照)。仮想サーバ#1の業務アプリケーション21は、ユーザ#1からの指示に基づき、ストレージ装置#1にI/O発行を行なう(符号D2参照)。
本実施形態の一例においては、データコピー処理の計画に含まれないI/Oの影響によるデータコピー処理の遅延も予測時間テーブル308及び重複度推移テーブル309に反映させる。つまり、影響度管理モジュール224は、ストレージ装置2及び業務アプリケーション21を常時モニタし、影響度テーブル307のパラメータを補正する。具体的には、仮想サーバ#1の影響度管理モジュール224は、ストレージ装置2から既に指示されているタスクを取得する(符号D3参照)。仮想サーバ#1の影響度管理モジュール224は、自ノードの業務アプリケーション21からユーザ#1の指示によるI/O処理に関する情報を取得する(符号D4参照)。また、仮想サーバ#2の影響度管理モジュール224は、自ノードの業務アプリケーション21からユーザ#2(図19には不図示)の指示によるI/O処理に関する情報を取得する(符号D5参照)。更に、仮想サーバ#1の影響度管理モジュール224は、仮想サーバ#2の影響度管理モジュール224からユーザ#2(図19には不図示)の指示によるI/O処理に関する情報を取得する(符号D6参照)。そして、仮想サーバ#1の影響度管理モジュール224は、ストレージ装置2から取得したタスクと、自ノードの業務アプリケーション21及び仮想サーバ#2の影響度管理モジュール224から取得したI/O処理に関する情報とに基づき、影響度テーブル307を更新する。
〔A−3〕影響度更新処理の具体例
以下、図20〜図28を参照しながら、本実施形態の一例としてのストレージシステム100における影響度更新処理の具体例を説明する。
ユーザ5は、例えば、仮想サーバ111の業務アプリケーション21に対して、入力装置70を介して以下のディスク交換を示すコマンドを入力する。
コマンド:sdxyswap -I -c class2 -d disk10
なお、入力されたコマンドに係るI/Oは、データコピー処理の計画とは無関係で良く、又、業務アプリケーション21を介さずにストレージ装置2に直接発行されても良い。
図20は、実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる進捗LUNテーブルを例示する図である。
影響度管理モジュール224は、定期的(例えば1分毎)に業務アプリケーション21の状態を取得し、I/Oの進捗及び対象となるストレージ装置2に関する情報を取得する。そして、影響度管理モジュール224は、I/Oの進捗からコピー速度を算出し、図20に示す進捗LUNテーブル311を作成する。なお、図20に示す進捗LUNテーブル311の形式は図14に示した進捗LUNテーブル311の形式と同様であるため、その説明は省略する。
影響度管理モジュール224は、ストレージ装置2と通信し、ストレージ装置2において実行されているタスクの対象LUN及びコピー速度を取得し、進捗LUNテーブル311に追加する。ここでは、簡単のためタスクはないものとする。
図21は、実施形態の一例としてのストレージシステムにおける影響度更新処理で用いるRAIDグループテーブルを例示する図である。
影響度管理モジュール224は、ストレージ装置2から図21に示すRAIDグループテーブル304を取得する。なお、図21に示すRAIDグループテーブル304の形式は図7に示したRAIDグループテーブル304の形式と同様であるため、その説明は省略する。
図22は、実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる他ノードセッションテーブルを例示する図である。
影響度管理モジュール224は、他ノードのコピー時間予測ソフトウェア22と通信し、現在実行されている処理の中で自ノードの処理と同一のストレージ装置2を使用する処理に関する情報を取得し、図22に示す他ノードセッションテーブル312を作成する。なお、図22に示す他ノードセッションテーブル312の形式は図15に示した他ノードセッションテーブル312の形式と同様であるため、その説明は省略する。
図23は、実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる実測重複度コピー速度テーブルの第1の例を示す図である。
影響度管理モジュール224は、図20〜図22を用いてそれぞれ示した進捗LUNテーブル311,RAIDグループテーブル304及び他ノードセッションテーブル312に基づいて、ユーザ5が入力したコマンドに係るI/Oの重複度を算出する。そして、影響度管理モジュール224は、図23に示す実測重複度コピー速度テーブル310に図20に示したNo.1のタスクのI/O性能値,重複度及びコピー速度を追加する(符号E1参照)。図23の符号E1に示す例では、サーバ装置1に対する読み込み性能及び書き込み性能がそれぞれ4.5GB/min及び2.6GB/minであり、筐体重複度=1であり、RAIDグループ.Read.R重複度=1であり、又、コピー速度が2.6GB/minである。
図24は、実施形態の一例としてのストレージシステムにおける重複度とコピー速度との関係の第1の例を示す図である。
影響度管理モジュール224は、図23の符号E1で示したデータについて回帰分析を行ない、影響度を算出する。回帰分析は、11次元変数(説明変数は10次元)の多重回帰となる。
以下、図24,図26及び図28を用いて示す例においては、RAIDグループ.Read.R重複度とコピー速度との2次元における回帰分析を行なうものとする。
図24の符号E1で示すプロットは、図23の符号E1で示したデータのRAIDグループ.Read.R重複度とコピー速度との関係に対応する。つまり、図24の符号E1で示すプロットは、(RAIDグループ.Read.R重複度,コピー速度)=(1,2.6)の座標に位置する。そして、図24に示すように、複数のプロットに基づいて回帰直線が決定される。影響度管理モジュール224は、図24に示す回帰直線の傾きに-1を掛けた値をRAIDグループ.Read.R影響度として、図10に示した影響度テーブル307を更新する。
図25は、実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる実測重複度コピー速度テーブルの第2の例を示す図である。
影響度管理モジュール224は、前回の業務アプリケーション21の状態取得から所定時間経過後(例えば1分後)、図20〜図22を用いてそれぞれ示した進捗LUNテーブル311,RAIDグループテーブル304及び他ノードセッションテーブル312を更新する。そして、影響度管理モジュール224は、更新した進捗LUNテーブル311,RAIDグループテーブル304及び他ノードセッションテーブル312に基づいて、実測重複度コピー速度テーブル310を更新する。
図25に示すように、影響度管理モジュール224は、図23の符号E1で示したデータに加えて、2つのデータを実測重複度コピー速度テーブル310に追加する(符号F1及びF2参照)。図25の符号F1に示す例ではRAIDグループ.Read.R=1及びコピー速度2.7GB/minであり、又、符号F2に示す例ではRAIDグループ.Read.R=0及びコピー速度2.9GB/minである。
図26は、実施形態の一例としてのストレージシステムにおける重複度とコピー速度との関係の第2の例を示す図である。
図26に示す例では、図24の符号E1で示したプロットに加え、符号F1及びF2で示すプロットが示されている。図26の符号F1及びF2で示すプロットは、図25の符号F1及びF2でそれぞれ示したデータのRAIDグループ.Read.R重複度とコピー速度との関係に対応する。つまり、図26の符号F1及びF2で示すプロットは、(RAIDグループ.Read.R重複度,コピー速度)=(1, 2.7),(0, 2.9)の座標にそれぞれ位置する。そして、図26に示すように、複数のプロットに基づいて回帰直線が更新される。影響度管理モジュール224は、図26に示す回帰直線の傾きに-1を掛けた値をRAIDグループ.Read.R影響度として、図10に示した影響度テーブル307を更新する。
図27は、実施形態の一例としてのストレージシステムにおける影響度更新処理で用いる実測重複度コピー速度テーブルの第3の例を示す図である。
影響度管理モジュール224は、前回の業務アプリケーション21の状態取得から更に所定時間経過後(例えば1分後)、図20〜図22を用いてそれぞれ示した進捗LUNテーブル311,RAIDグループテーブル304及び他ノードセッションテーブル312を更新する。そして、影響度管理モジュール224は、更新した進捗LUNテーブル311,RAIDグループテーブル304及び他ノードセッションテーブル312に基づいて、実測重複度コピー速度テーブル310を更新する。
図27に示すように、影響度管理モジュール224は、図25の符号E1,F1及びF2で示したデータに加えて、2つのデータを実測重複度コピー速度テーブル310に追加する(符号G1及びG2参照)。図27の符号G1に示す例ではRAIDグループ.Read.R=2及びコピー速度1.9GB/minであり、又、符号G2に示す例ではRAIDグループ.Read.R=3及びコピー速度1.5GB/minである。
図28は、実施形態の一例としてのストレージシステムにおける重複度とコピー速度との関係の第3の例を示す図である。
図28に示す例では、図26の符号E1,F1及びF2で示したプロットに加え、符号G1及びG2で示すプロットが示されている。図28の符号G1及びG2で示すプロットは、図27の符号G1及びG2でそれぞれ示したデータのRAIDグループ.Read.R重複度とコピー速度との関係に対応する。つまり、図28の符号G1及びG2で示すプロットは、(RAIDグループ.Read.R重複度,コピー速度)=(2, 1.9),(3, 1.5)の座標にそれぞれ位置する。そして、図28に示すように、複数のプロットに基づいて回帰直線が更新される。影響度管理モジュール224は、図28に示す回帰直線の傾きに-1を掛けた値をRAIDグループ.Read.R影響度として、図10に示した影響度テーブル307を更新する。
以後、影響度管理モジュール224は、所定時間毎(例えば1分毎)に影響度テーブル307の更新を繰り返し行なう。
〔A−4〕動作
上述の如く構成された実施形態の一例としてのストレージシステムにおけるコピー時間予測処理を図29に示すシーケンス図(ステップS1〜S15)に従って説明する。
図29示す例において、ストレージシステム100は、1つ又は複数のサーバ装置1及び1つのストレージ装置2を備え、1つ又は複数のサーバ装置1が仮想サーバ#1及び仮想サーバ#2として機能するものとする。また、ユーザ#1,#2は、I/O発行の指示を仮想サーバ#1,#2に対してそれぞれ行なうものとする。
ユーザ#1,#2は、データコピー処理の計画を仮想サーバ#1,#2のコピー時間予測ソフトウェア22に対してそれぞれ入力する(ステップS1)。
ユーザ#1は、仮想サーバ#1のコピー時間予測ソフトウェア22にコピー時間予測処理の実行を指示する(ステップS2)。
仮想サーバ#1のコピー時間予測ソフトウェア22は、他ノードの計画情報を問い合わせる(ステップS3)。具体的には、仮想サーバ#1のコピー時間予測ソフトウェア22は、仮想サーバ#2のコピー時間予測ソフトウェア22に計画の対象LUN及びコピーサイズを問い合わせる。
仮想サーバ#2のコピー時間予測ソフトウェア22は、計画対象のストレージ装置2におけるコピーサイズを自ノードの業務アプリケーション21から取得する(ステップS4)。
仮想サーバ#2のコピー時間予測ソフトウェア22は、対象LUNをストレージ装置2から取得する(ステップS5)。
仮想サーバ#1のコピー時間予測ソフトウェア22は、仮想サーバ#2のコピー時間予測ソフトウェア22が送信した計画の対象LUN及びコピーサイズを取得する(ステップS6)。
仮想サーバ#1のコピー時間予測ソフトウェア22は、計画対象のストレージ装置2におけるコピーサイズを自ノードの業務アプリケーション21から取得する(ステップS7)。
仮想サーバ#1のコピー時間予測ソフトウェア22は、対象LUN,ストレージ装置2に既に指示されているタスク及びRAIDグループ情報をストレージ装置2から取得し(ステップS8〜S10)、コピー時間を予測する。
仮想サーバ#1のコピー時間予測ソフトウェア22は、予測時間テーブル308を作成し、計画の所要時間の予測をユーザ#1に提示する(ステップS11)。つまり、コピー時間予測ソフトウェア22は、各ユーザ5が入力したデータコピー処理の計画と、業務アプリケーション21及びストレージ装置2から取得した情報とに基づき、コピー時間を予測する。そして、コピー時間予測ソフトウェア22は、予測したコピー時間をコピー時間予測処理の実行を指示したユーザ5に提示する。
仮想サーバ#1のコピー時間予測ソフトウェア22は、重複度推移テーブル309を作成し、予測の根拠及びストレージ装置2のコピー性能の変化の予測をユーザ#1に提示する(ステップS12)。
計画の変更が必要な場合には、ステップS2に戻る(ステップS13)。つまり、コピー時間予測ソフトウェア22は、再びコピー時間を予測し、予測したコピー時間をユーザ5に提示する。
一方、計画の変更が不要な場合には、ユーザ#1は、データコピー処理の計画の実行を仮想サーバ#1の業務アプリケーション21に指示する。
仮想サーバ#1のコピー時間予測ソフトウェア22は、計画の所要時間を自ノードの業務アプリケーション21及び仮想サーバ#2のコピー時間予測ソフトウェア22から取得し(ステップS14,S15)、影響度テーブル307のパラメータを補正する。
次に、実施形態の一例としてのストレージシステムにおけるコピー時間予測処理の詳細を図30及び図31に示すフローチャート(ステップS21〜S44)に従って説明する。図30に示すフローチャートにはステップS21〜S29の処理を示し、図31に示すフローチャートにはステップS30〜S44の処理を示す。
ユーザ5は、コピー時間予測処理の実行を仮想サーバ111に指示する。
計画・タスク管理モジュール222は、他ノードの計画情報を取得する(図30のステップS21)。具体的には、計画・タスク管理モジュール222は、対象LUN及びコピーサイズを他ノードの計画・タスク管理モジュール222から取得する。
他ノードの計画・タスク管理モジュール222は、ユーザ5が入力した計画テーブル301を取得する(図30のステップS22)。
他ノードの計画・タスク管理モジュール222は、対象LUN及びコピーサイズをストレージ装置2及び業務アプリケーション21からそれぞれ取得し、計画LUNテーブル302を作成する(図30のステップS23)。そして、他ノードの計画・タスク管理モジュール222は、取得した対象LUN及びコピーサイズを問い合わせ元ノードの計画・タスク管理モジュール222に送信する。
計画・タスク管理モジュール222は、ユーザ5が入力した計画テーブル301を取得する(図30のステップS24)。
計画・タスク管理モジュール222は、業務アプリケーション21から計画の対象であるストレージ装置2のコピーサイズを取得する(図30のステップS25)。
計画・タスク管理モジュール222は、ストレージ装置2から対象LUNを取得し、計画LUNテーブル302に追加する(図30のステップS26)。
計画・タスク管理モジュール222は、ストレージ装置2から既に指示されているタスクを取得し、タスクテーブル303を作成する(図30のステップS27)。
計画・タスク管理モジュール222は、ストレージ装置2からRAIDグループ情報を取得し、RAIDグループテーブル304を作成する(図30のステップS28)。
計画・タスク管理モジュール222は、作成した計画LUNテーブル302,タスクテーブル303及びRAIDグループテーブル304に基づき、計画・タスク総合テーブル305を作成する(図30のステップS29)。
時間予測モジュール223は、重複度テーブル306を作成する(図31のステップS30)。
時間予測モジュール223は、影響度管理モジュール224から影響度テーブル307を取得する(図31のステップS31)。
時間予測モジュール223は、時刻をt=0に設定する(図31のステップS32)。
時間予測モジュール223は、時刻tが開始時間(t=0)であるかを判定する(図31のステップS33)。
時刻tが開始時間(t=0)である場合には(図31のステップS33のYESルート参照)、時間予測モジュール223は、開始フラグ=1を設定し、例えばRAM50に開始時間を記録し(図31のステップS34)、図31のステップS35に移行する。
時刻tが開始時間(t=0)でない場合には(図31のステップS33のNOルート参照)、時間予測モジュール223は、開始フラグ=0又は終了フラグ=1であるかを判定する(図31のステップS35)。
開始フラグ=0又は終了フラグ=1である場合には(図31のステップS35のYESルート参照)、図31のステップS41に移行する。
開始フラグ=0且つ終了フラグ=1でない場合には(図31のステップS35のNOルート参照)、時間予測モジュール223は、タスク(計画)の単位時間当たりのコピーサイズを算出する(図31のステップS36)。
時間予測モジュール223は、算出した単位時間当たりのコピーサイズ及び重複度を例えばRAM50に記録する(図31のステップS37)。
時間予測モジュール223は、単位時間当たりのコピーサイズを算出したタスク(計画)についての残りのコピーサイズを算出する(図31のステップS38)。
時間予測モジュール223は、算出した残りのコピーサイズが0であるかを判定する(図31のステップS39)。
算出した残りのコピーサイズが0である場合には(図31のステップS39のYESルート参照)、時間予測モジュール223は、終了フラグ=1を記録し、終了時間を例えばRAM50に記録し(図31のステップS40)、ステップS41に移行する。
一方、算出した残りのコピーサイズが0でない場合には(図31のステップS39のNOルート参照)、時間予測モジュール223は、時刻tについての全タスク(計画)の処理が終了したかを判定する(図31のステップS41)。
時刻tについての全タスク(計画)の処理が終了していない場合には(図31のステップS41のNOルート参照)、次のタスク(計画)の処理に移行し、図31のステップS33に戻る。
一方、時刻tについての全タスク(計画)の処理が終了した場合には(図31のステップS41のYESルート参照)、時間予測モジュール223は、時刻tをインクリメントする(図31のステップS42参照)。
時間予測モジュール223は、全タスク(計画)の終了フラグ=1であるかを判定する(図31のステップS43)。
全タスク(計画)の終了フラグ=1でない場合には(図31のステップS43のNOルート参照)、ステップS33に戻る。
一方、全タスク(計画)の終了フラグ=1である場合には(図31のステップS43のYESルート参照)、時間予測モジュール223は、予測時間テーブル308及び重複度推移テーブル309を作成する。時間予測モジュール223は、算出した単位時間毎に実行されているタスク(計画)のコピーサイズを積分することによって、各タスク(計画)の予測時間を算出する。
そして、出力用モジュール225は、表示装置80を介して、作成された予測時間テーブル308及び重複度推移テーブル309をユーザ5に提示し(図31のステップS44)、処理が終了する。
次に、実施形態の一例としてのストレージシステムにおける影響度更新処理を図32に示すフローチャート(ステップS51〜S54)に従って説明する。
影響度管理モジュール224は、仮想サーバ111(サーバ装置1)によるI/Oを自ノード及び他ノードの業務アプリケーション21から取得し、又、ストレージ装置2に既に指示されたタスクの実行状態をストレージ装置2から取得する(ステップS51)。
影響度管理モジュール224は、取得したI/O及びタスクの実行状態を実測重複度コピー速度テーブル310に追加する(ステップS52)。
影響度管理モジュール224は、実測重複度コピー速度テーブル310におけるコピー速度を目的変数(従属変数)とし、重複度を説明変数(独立変数)として、図24,図26及び図28を用いて示したように、回帰分析を行なう(ステップS53)。
影響度管理モジュール224は、回帰分析によって求まった回帰直線の傾きに−1を掛けた値を新たな影響度として、影響度テーブル307を更新し(ステップS54)、ステップS51に戻る。
なお、影響度管理モジュール224は、ステップS51における情報取得と、ステップS54における影響度テーブル307の更新とを異なる頻度で行なっても良い。
〔A−5〕効果
このように、本実施形態の一例におけるサーバ装置(情報処理装置)1によれば、データコピー完了予測時間の算出を高精度に行なえるという効果を奏することができる。
具体的には、重複度予測情報作成部11は、自ノードの情報処理装置1及び他ノードの情報処理装置1がストレージ装置2に実行させるタスクの予測される重複度を示す重複度予測情報306を作成する。これにより、自ノードの情報処理装置1だけではなく他ノードの情報処理装置1によるタスクの実行によって発生するタスクの重複度を算出することができる。
影響度予測情報作成部12は、タスクの重複によって発生が予測されるストレージ装置2の性能に対する影響度を示す影響度予測情報307を作成する。これにより、データコピー処理の計画とは関係のないI/Oやタスクによる影響も加味したデータコピー完了予測時間308を算出することができる。
完了予測時間算出部13は、重複度予測情報306と影響度予測情報307とに基づき、データコピー完了予測時間308を算出する。これにより、ユーザ5はデータコピー処理の計画実行前にデータコピー完了予測時間308を知ることができ、計画の変更を行なうことができるため、実際のデータコピー処理完了時間がユーザ5の希望するデータコピー予定時間よりも遅くならない。
完了予測時間算出部13は、影響度でそれぞれ重みづけられた重複度と性能値とに基づいて、単位時間当たりのデータコピー処理容量を算出することによって、データコピー完了予測時間308を算出する。これにより、データコピー処理の計画とは関係のないI/Oやタスクによる影響も加味したデータコピー完了予測時間308を算出することができるため、実際のデータコピー処理完了時間がユーザ5の希望するデータコピー予定時間よりも遅くならない。
重複度推移情報作成部17は、完了予測時間算出部13が算出した単位時間当たりのデータコピー処理容量に基づいて、計画301における時間帯毎のタスクの重複度の推移を示す重複度推移情報309を作成する。これにより、ユーザ5はデータコピー処理の計画実行前に時間帯毎のタスクの重複度を知ることができ、計画の変更を行なうことができるため、特定のストレージ装置2(RAIDグループ)においてタスクが重複することによって発生する負荷を防ぐことができる。
つまり、本実施形態の一例によれば、サーバ装置1からストレージ装置2に対するタスクが多数ある場合や、サーバ装置1及びストレージ装置2の筐体数が多数ある場合にも、ユーザ5は、データコピー処理の所要時間を知ることができ、効率的な業務計画を作成することができる。
〔B〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
〔C〕付記
(付記1)
他の情報処理装置とストレージ装置を共有する情報処理装置であって、
当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に実行させるタスクの予測される重複度を示す重複度予測情報を作成する重複度予測情報作成部と、
タスクの重複によって発生が予測される前記ストレージ装置の性能に対する影響度を示す影響度予測情報を作成する影響度予測情報作成部と、
前記重複度予測情報と前記影響度予測情報とに基づき、データコピー完了予測時間を算出する完了予測時間算出部と、
を備えることを特徴とする、情報処理装置。
(付記2)
当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に対して実行させるデータコピー処理の計画と、前記計画に係るストレージ装置の論理アドレスとを対応づけた計画情報を作成する計画情報作成部と、
前記ストレージ装置が実行するタスクを示すタスク情報を作成するタスク情報作成部と、
前記ストレージ装置において定義されているRedundant Arrays of Inexpensive Disks(RAID)グループ毎の論理アドレスと性能値とを示すRAIDグループ情報を作成するRAIDグループ情報作成部と、
を備え、
前記重複度予測情報作成部は、前記計画情報と前記タスク情報と前記RAIDグループ情報とに基づき、前記重複度予測情報を作成する、
ことを特徴とする、付記1に記載の情報処理装置。
(付記3)
前記完了予測時間算出部は、前記影響度でそれぞれ重みづけられた前記重複度と前記性能値とに基づいて、単位時間当たりのデータコピー処理容量を算出することによって、前記データコピー完了予測時間を算出する、
ことを特徴とする、付記2に記載の情報処理装置。
(付記4)
前記完了予測時間算出部が算出した前記単位時間当たりのデータコピー処理容量に基づいて、前記計画における時間帯毎のタスクの重複度の推移を示す重複度推移情報を作成する重複度推移情報作成部
を備えることを特徴とする、付記3に記載の情報処理装置。
(付記5)
前記重複度予測情報作成部は、同一のRAIDグループ内における書き込み及び読み出しの重複度に基づいて、前記重複度予測情報を作成する、
ことを特徴とする、付記1〜4のいずれか1項に記載の情報処理装置。
(付記6)
他の情報処理装置とストレージ装置を共有する情報処理装置におけるデータコピー処理管理方法であって、
当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に実行させるタスクの予測される重複度を示す重複度予測情報を作成し、
タスクの重複によって発生が予測される前記ストレージ装置の性能に対する影響度を示す影響度予測情報を作成し、
前記重複度予測情報と前記影響度予測情報とに基づき、データコピー完了予測時間を算出する、
ことを特徴とする、データコピー処理管理方法。
(付記7)
当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に対して実行させるデータコピー処理の計画と、前記計画に係るストレージ装置の論理アドレスとを対応づけた計画情報を作成し、
前記ストレージ装置が実行するタスクを示すタスク情報を作成し、
前記ストレージ装置において定義されているRedundant Arrays of Inexpensive Disks(RAID)グループ毎の論理アドレスと性能値とを示すRAIDグループ情報を作成し、
前記計画情報と前記タスク情報と前記RAIDグループ情報とに基づき、前記重複度予測情報を作成する、
ことを特徴とする、付記6に記載のデータコピー処理管理方法。
(付記8)
前記影響度でそれぞれ重みづけられた前記重複度と前記性能値とに基づいて、単位時間当たりのデータコピー処理容量を算出することによって、前記データコピー完了予測時間を算出する、
ことを特徴とする、付記7に記載のデータコピー処理管理方法。
(付記9)
前記算出した前記単位時間当たりのデータコピー処理容量に基づいて、前記計画における時間帯毎のタスクの重複度の推移を示す重複度推移情報を作成する、
ことを特徴とする、付記8に記載のデータコピー処理管理方法。
(付記10)
同一のRAIDグループ内における書き込み及び読み出しの重複度に基づいて、前記重複度予測情報を作成する、
ことを特徴とする、付記6〜9のいずれか1項に記載のデータコピー処理管理方法。
(付記11)
他の情報処理装置とストレージ装置を共有する情報処理装置が有するコンピュータに、
当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に実行させるタスクの予測される重複度を示す重複度予測情報を作成し、
タスクの重複によって発生が予測される前記ストレージ装置の性能に対する影響度を示す影響度予測情報を作成し、
前記重複度予測情報と前記影響度予測情報とに基づき、データコピー完了予測時間を算出する、
処理を実行させることを特徴とする、データコピー処理管理プログラム。
(付記12)
当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に対して実行させるデータコピー処理の計画と、前記計画に係るストレージ装置の論理アドレスとを対応づけた計画情報を作成し、
前記ストレージ装置が実行するタスクを示すタスク情報を作成し、
前記ストレージ装置において定義されているRedundant Arrays of Inexpensive Disks(RAID)グループ毎の論理アドレスと性能値とを示すRAIDグループ情報を作成し、
前記計画情報と前記タスク情報と前記RAIDグループ情報とに基づき、前記重複度予測情報を作成する、
処理を前記コンピュータに実行させることを特徴とする、付記11に記載のデータコピー処理管理プログラム。
(付記13)
前記影響度でそれぞれ重みづけられた前記重複度と前記性能値とに基づいて、単位時間当たりのデータコピー処理容量を算出することによって、前記データコピー完了予測時間を算出する、
処理を前記コンピュータに実行させることを特徴とする、付記12に記載のデータコピー処理管理プログラム。
(付記14)
前記算出した前記単位時間当たりのデータコピー処理容量に基づいて、前記計画における時間帯毎のタスクの重複度の推移を示す重複度推移情報を作成する、
処理を前記コンピュータに実行させることを特徴とする、付記13に記載のデータコピー処理管理プログラム。
(付記15)
同一のRAIDグループ内における書き込み及び読み出しの重複度に基づいて、前記重複度予測情報を作成する、
処理を前記コンピュータに実行させることを特徴とする、付記11〜14のいずれか1項に記載のデータコピー処理管理プログラム。
1 サーバ装置(情報処理装置)
2 ストレージ装置
3 制御用スイッチ
4 データ転送用スイッチ
5 ユーザ
10 CPU(コンピュータ)
11 重複度予測情報作成部
12 影響度予測情報作成部
13 完了予測時間算出部
14 計画情報作成部
15 タスク情報作成部
16 RAIDグループ情報作成部
17 重複度推移情報作成部
20 記憶装置
21 業務アプリケーション
22 コピー時間予測ソフトウェア
40 ROM
50 RAM
60 外部I/F
61 制御用外部I/F
62 データ転送用外部I/F
70 入力装置
80 表示装置
100 ストレージシステム
110 ハイパーバイザー
111 仮想サーバ
221 入力用モジュール
222 計画タスク・管理モジュール
223 時間予測モジュール
224 影響度管理モジュール
225 出力用モジュール
301 計画テーブル(計画)
302 計画LUNテーブル(計画情報)
303 タスクテーブル(タスク情報)
304 RAIDグループテーブル(RAIDグループ情報)
305 計画・タスク総合テーブル
306 重複度テーブル(重複度予測情報)
307 影響度テーブル(影響度予測情報)
308 予測時間テーブル(データコピー完了予測時間)
309 重複度推移テーブル(重複度推移情報)
310 実測重複度コピー速度テーブル
311 進捗LUNテーブル
312 他ノードセッションテーブル

Claims (6)

  1. 他の情報処理装置とストレージ装置を共有する情報処理装置であって、
    当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に実行させるタスクの予測される重複度を示す重複度予測情報を作成する重複度予測情報作成部と、
    タスクの重複によって発生が予測される前記ストレージ装置の性能に対する影響度を示す影響度予測情報を作成する影響度予測情報作成部と、
    前記重複度予測情報と前記影響度予測情報とに基づき、データコピー完了予測時間を算出する完了予測時間算出部と、
    を備えることを特徴とする、情報処理装置。
  2. 当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に対して実行させるデータコピー処理の計画と、前記計画に係るストレージ装置の論理アドレスとを対応づけた計画情報を作成する計画情報作成部と、
    前記ストレージ装置が実行するタスクを示すタスク情報を作成するタスク情報作成部と、
    前記ストレージ装置において定義されているRedundant Arrays of Inexpensive Disks(RAID)グループ毎の論理アドレスと性能値とを示すRAIDグループ情報を作成するRAIDグループ情報作成部と、
    を備え、
    前記重複度予測情報作成部は、前記計画情報と前記タスク情報と前記RAIDグループ情報とに基づき、前記重複度予測情報を作成する、
    ことを特徴とする、請求項1に記載の情報処理装置。
  3. 前記完了予測時間算出部は、前記影響度でそれぞれ重みづけられた前記重複度と前記性能値とに基づいて、単位時間当たりのデータコピー処理容量を算出することによって、前記データコピー完了予測時間を算出する、
    ことを特徴とする、請求項2に記載の情報処理装置。
  4. 前記完了予測時間算出部が算出した前記単位時間当たりのデータコピー処理容量に基づいて、前記計画における時間帯毎のタスクの重複度の推移を示す重複度推移情報を作成する重複度推移情報作成部
    を備えることを特徴とする、請求項3に記載の情報処理装置。
  5. 他の情報処理装置とストレージ装置を共有する情報処理装置におけるデータコピー処理管理方法であって、
    当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に実行させるタスクの予測される重複度を示す重複度予測情報を作成し、
    タスクの重複によって発生が予測される前記ストレージ装置の性能に対する影響度を示す影響度予測情報を作成し、
    前記重複度予測情報と前記影響度予測情報とに基づき、データコピー完了予測時間を算出する、
    ことを特徴とする、データコピー処理管理方法。
  6. 他の情報処理装置とストレージ装置を共有する情報処理装置が有するコンピュータに、
    当該情報処理装置及び前記他の情報処理装置が前記ストレージ装置に実行させるタスクの予測される重複度を示す重複度予測情報を作成し、
    タスクの重複によって発生が予測される前記ストレージ装置の性能に対する影響度を示す影響度予測情報を作成し、
    前記重複度予測情報と前記影響度予測情報とに基づき、データコピー完了予測時間を算出する、
    処理を実行させることを特徴とする、データコピー処理管理プログラム。
JP2014004062A 2014-01-14 2014-01-14 情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラム Pending JP2015132987A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014004062A JP2015132987A (ja) 2014-01-14 2014-01-14 情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラム
US14/589,221 US20150201013A1 (en) 2014-01-14 2015-01-05 Information processing apparatus, data copy processing management method, and non-transitory computer-readable recording medium having stored therein data copy processing management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004062A JP2015132987A (ja) 2014-01-14 2014-01-14 情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラム

Publications (1)

Publication Number Publication Date
JP2015132987A true JP2015132987A (ja) 2015-07-23

Family

ID=53522386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004062A Pending JP2015132987A (ja) 2014-01-14 2014-01-14 情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラム

Country Status (2)

Country Link
US (1) US20150201013A1 (ja)
JP (1) JP2015132987A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051453A1 (ja) * 2015-09-24 2017-03-30 株式会社日立製作所 ストレージシステム、及び、ストレージシステムの管理方法
JP2022011579A (ja) * 2020-06-30 2022-01-17 株式会社日立製作所 運用管理装置及び運用管理方法
JP2022079473A (ja) * 2016-06-13 2022-05-26 グーグル エルエルシー 人間のオペレータへのエスカレーション
US12225158B2 (en) 2022-12-15 2025-02-11 Google Llc System(s) and method(s) for implementing a personalized chatbot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043032A (ja) * 1999-08-02 2001-02-16 Fujitsu Ltd ディスク・タイムシェアリング装置及び方法
WO2012120667A1 (ja) * 2011-03-09 2012-09-13 株式会社日立製作所 計算機システム、データ複製スケジューリング方法及び計算機読み取り可能な非一時的記憶媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734591B1 (en) * 1999-08-16 2010-06-08 Netapp, Inc. Coherent device to device data replication
US7496723B1 (en) * 2003-12-15 2009-02-24 Symantec Operating Corporation Server-free archival of backup data
US7478018B1 (en) * 2004-09-30 2009-01-13 Emc Corporation System and methods for network call load simulation
US7797598B1 (en) * 2006-11-14 2010-09-14 Xilinx, Inc. Dynamic timer for testbench interface synchronization
US9612876B2 (en) * 2013-12-19 2017-04-04 Xerox Corporation Method and apparatus for estimating a completion time for mapreduce jobs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043032A (ja) * 1999-08-02 2001-02-16 Fujitsu Ltd ディスク・タイムシェアリング装置及び方法
WO2012120667A1 (ja) * 2011-03-09 2012-09-13 株式会社日立製作所 計算機システム、データ複製スケジューリング方法及び計算機読み取り可能な非一時的記憶媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051453A1 (ja) * 2015-09-24 2017-03-30 株式会社日立製作所 ストレージシステム、及び、ストレージシステムの管理方法
JP2022079473A (ja) * 2016-06-13 2022-05-26 グーグル エルエルシー 人間のオペレータへのエスカレーション
US11936810B2 (en) 2016-06-13 2024-03-19 Google Llc Automated call requests with status updates
JP7480198B2 (ja) 2016-06-13 2024-05-09 グーグル エルエルシー 人間のオペレータへのエスカレーション
JP2022011579A (ja) * 2020-06-30 2022-01-17 株式会社日立製作所 運用管理装置及び運用管理方法
JP7107991B2 (ja) 2020-06-30 2022-07-27 株式会社日立製作所 運用管理装置及び運用管理方法
US12225158B2 (en) 2022-12-15 2025-02-11 Google Llc System(s) and method(s) for implementing a personalized chatbot

Also Published As

Publication number Publication date
US20150201013A1 (en) 2015-07-16

Similar Documents

Publication Publication Date Title
US11314607B2 (en) Modifying aspects of a storage system associated with data mirroring
CN104272266B (zh) 对具有多个监视对象器件的计算机系统进行管理的管理系统
JP6054522B2 (ja) 統合型ストレージ/vdiプロビジョニング方法
US8095764B1 (en) Dynamic application aware storage configuration
US9100343B1 (en) Storage descriptors and service catalogs in a cloud environment
JP5158074B2 (ja) ストレージ管理プログラム、ストレージ管理方法、ストレージ管理装置およびストレージシステム
JP5235338B2 (ja) 複数の仮想化リモート・ミラーリング・セッション整合性グループを作成および管理するためのシステムおよび方法
JP5172574B2 (ja) アプリケーションデータのバックアップ構成構築に用いる管理計算機
JP5803496B2 (ja) ストレージシステム
US20150236974A1 (en) Computer system and load balancing method
US9736046B1 (en) Path analytics using codebook correlation
CN108369489B (zh) 预测固态驱动器可靠性
US9495262B2 (en) Migrating high activity volumes in a mirror copy relationship to lower activity volume groups
WO2016051445A1 (ja) ストレージシステムの管理システム
JP2015132987A (ja) 情報処理装置,データコピー処理管理方法及びデータコピー処理管理プログラム
US11080153B2 (en) Modifying journaling associated with data mirroring within a storage system
JPWO2016103471A1 (ja) 計算機システムおよび管理プログラム
JP5342003B2 (ja) ストレージシステム
US20120179928A1 (en) Optimized power savings in a storage virtualization system
JP2015036963A (ja) 情報処理システム、情報処理システムの制御方法および制御装置の制御プログラム
JP2021196922A (ja) 計算機システム及び計算機システムの運用管理方法
Syrewicze et al. Using failover cluster manager to manage hyper-v clusters
US11416057B2 (en) Power disruption data protection
JP5519553B2 (ja) サーバ管理装置、サーバ管理プログラム、サーバ管理方法、およびサーバ管理システム
JP5942014B2 (ja) 管理計算機及び更改方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180320