[go: up one dir, main page]

JP6271769B2 - 計算機システム、計算機システムにおけるデータの移行方法 - Google Patents

計算機システム、計算機システムにおけるデータの移行方法 Download PDF

Info

Publication number
JP6271769B2
JP6271769B2 JP2016570387A JP2016570387A JP6271769B2 JP 6271769 B2 JP6271769 B2 JP 6271769B2 JP 2016570387 A JP2016570387 A JP 2016570387A JP 2016570387 A JP2016570387 A JP 2016570387A JP 6271769 B2 JP6271769 B2 JP 6271769B2
Authority
JP
Japan
Prior art keywords
storage device
logical device
logical
storage
storage apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016570387A
Other languages
English (en)
Other versions
JPWO2016117040A1 (ja
Inventor
秀雄 斎藤
秀雄 斎藤
弘志 那須
弘志 那須
俊二 川村
俊二 川村
智大 川口
智大 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2016117040A1 publication Critical patent/JPWO2016117040A1/ja
Application granted granted Critical
Publication of JP6271769B2 publication Critical patent/JP6271769B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0614Improving the reliability of storage systems
    • G06F3/0617Improving the reliability of storage systems in relation to availability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0634Configuration or reconfiguration of storage systems by changing the state or mode of one or more devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0658Controller construction arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、計算機システム及び計算機システムにおけるデータの移行方法に関する。
企業等がビジネスを遂行するための業務を処理するための計算機システムでは、システムの移行中も業務を継続できることが望まれる。
本技術分野の背景技術として、国際公開第2012/017493号(特許文献1)に記載の技術がある。特許文献1には、「ホスト計算機及びストレージ装置間のデータ授受の停止を回避しながらストレージ装置の入れ替え作業を行い得る計算機システム及びデータ移行方法」について記載されている。
国際公開第2012/017493号
計算機システムにおいて、正ストレージ装置と副ストレージ装置をHigh Availability(HA)構成とし、正ストレージ装置と副ストレージ装置それぞれの論理デバイスでデータを二重化するHAペアを構成することで、計算機システムの可用性を向上させることができる。このHAペアの一方または両方の論理デバイスを、他のストレージ装置に移行する場合においても、HA構成を維持したいという新たな要求がある。
特許文献1の技術により、HAペアの一方または両方の論理デバイスを、他のストレージ装置に移行しただけでは、移行後の論理デバイスはHAペアを構成しておらず、HA構成を維持できない。
上記課題を解決するために、本発明は、計算機システムにおいて、第1のストレージ装置が有する第1の論理デバイスと、第2のストレージ装置が有する第2の論理デバイスで第1のHAペアを構成している場合、第3のストレージ装置で第1の論理デバイスを仮想化して第3のストレージ装置が有する第3の論理デバイスに対応づける。また、第4のストレージ装置は、第2の論理デバイスを仮想化して、第4のストレージ装置が有する第4の論理デバイスに対応づける。第3の論理デバイスと第4の論理デバイスで第2のHAペアを構成した後、第1の論理デバイスのデータを第3のストレージ装置に移行して、第3の論理デバイスのデータとして管理する。また、第2の論理デバイスのデータを第4のストレージ装置に移行して、第4の論理デバイスのデータとして管理する。
本発明の計算機システムは、HA構成を維持しながら、HAペアの一方または両方の論理デバイスを他のストレージ装置に移行可能であり、計算機システムの可用性を向上できる。上記した以外の課題、構成及び効果は、以下の発明を実施するための形態の説明により明らかにされる。
実施例1の計算機システムの構成を示す図である。 ホスト計算機の構成を示す図である。 ストレージ装置の構成を示す図である。 ストレージ装置が管理する記憶領域の構成を示す図である。 仮想デバイス管理テーブルの構成を示す図である。 論理デバイス管理テーブルの構成を示す図である。 ペア管理テーブルの構成を示す図である。 キャッシュ管理テーブルの構成を示す図である。 ストレージ移行処理のフローチャートである。 実施例1においてストレージ移行処理を開始する前の計算機システムの状態を示す図である。 実施例1のストレージ移行処理においてホスト計算機の入出力要求の発行先を変更する前の計算機システムの状態を示す図である。 実施例1のストレージ移行処理においてホスト計算機の入出力要求の発行先を変更した後の計算機システムの状態を示す図である。 実施例1のストレージ移行処理において移行先正ストレージ装置と移行先副ストレージ装置でHAペアを作成した後の計算機システムの状態を示す図である。 実施例1においてストレージ移行処理を終了した後の計算機システムの状態を示す図である。 ストレージリード処理のフローチャートである。 ストレージライト処理のフローチャートである。 論理デバイス更新処理のフローチャートである。 実施例2の計算機システムの構成を示す図である。
以下、図面を用いて実施例について説明する。
図1は、計算機システムの構成を示す図である。計算機システム(ストレージシステム)は、1又は複数の管理装置1と、複数のストレージ装置3と、1又は複数のホスト計算機2と、ネットワーク4とを有する。ストレージ装置3とホスト計算機2との間、複数のストレージ装置3間は、ネットワーク4で接続される。ネットワーク4は、例えばSAN(Storage Area Network)である。
1又は複数の管理装置1は、ホスト計算機2とストレージ装置3とネットワーク5を介して接続され、ホスト計算機2とストレージ装置3を管理する管理計算機である。管理装置1は、ネットワーク5と接続されたポートと、CPUと、メモリとを有する。管理装置1は、ホスト計算機2を管理する管理者またはストレージ装置3を管理する管理者によって操作される。
以下、ストレージ装置3として、移行先正ストレージ装置3A、移行先副ストレージ装置3B、移行元正ストレージ装置3C、移行元副ストレージ装置3Dについて説明する。移行元正ストレージ装置3Cは移行元正論理デバイス33Cを有し、移行元副ストレージ装置3Dは移行元副論理デバイス33Dを有する。
移行元正ストレージ装置3Cと移行元副ストレージ装置3Dは、ホスト計算機2からInquiry要求(問合せ要求)をそれぞれ受信したとき、移行元正論理デバイス33Cと移行元副論理デバイス33Dについて同じボリュームID30126を応答する。移行元正論理デバイス33Cと移行元副論理デバイス33Dのようなペアを、High Availability(HA)ペアをと呼ぶ。また、移行元正ストレージ装置3Cと移行元副ストレージ装置3Dのように、HAペアを含む複数のストレージ装置3の構成をHA構成と呼ぶ。
ホスト計算機2は、Inquiry要求に対する応答に基づき、移行元正ストレージ装置3Cの移行元正論理デバイス33Cと移行元副ストレージ装置3Dの移行元副論理デバイス33Dとを、一つのストレージ装置(以下、仮想ストレージ装置という)内の一つの論理デバイス(以下、仮想論理デバイスという)として認識する。ホスト計算機2は、仮想論理デバイスに対する入出力要求(リード要求及びライト要求)を送信すると、HAペアである移行元正論理デバイス33Cまたは移行元副論理デバイス33Dに入出力要求が送信される。
ホスト計算機2からのライト要求に対し、移行元正ストレージ装置3Cが有するHAペアの一方(移行元正論理デバイス33C)に書き込まれたデータは、移行元副ストレージ装置3Dが有するHAペアの他方(移行元副論理デバイス33D)にも格納され、移行元正ストレージ装置3Cと移行元副ストレージ装置3DのHAペアは同じデータを保持する。そのため、例えば移行元正ストレージ装置3Cと移行元副ストレージ装置3Dの一方が故障しても、他方のストレージ装置3が有するHAペアの論理デバイス33を用いて、ホスト計算機2はデータの入出力を継続することができる。
また、移行元正ストレージ装置3Cと移行元副ストレージ装置3DのHAペアは、同じデータを保持しているため、ホスト計算機2からの仮想論理デバイスに対する入出力要求を、HAペアのいずれでも受け付けることができる。そのため、パスの帯域・コントローラ30の処理能力・記憶装置31の処理性能などのリソースを有効活用することができる。
このような特徴を有する移行元正論理デバイス33Cと移行元副論理デバイス33DのようなHAペアを、Active−Active型のHAペアと呼ぶ。
本実施例の計算機システムでは、HA構成を維持しながら、移行元正ストレージ装置3Cと移行元副ストレージ装置3DのActive−Active型のHAペアを、移行先正ストレージ装置3Aと移行先副ストレージ装置3Bに移行することができる。ここで、HAペアの移行とは、移行元正ストレージ装置3Cの移行元正論理デバイス33Cのデータを移行先正ストレージ装置3Aに移行し、また移行元副ストレージ装置3Dの移行元副論理デバイス33Dのデータを移行先副ストレージ装置3Bに移行して、移行先正ストレージ装置3Aと移行先副ストレージ装置3Bでホスト計算機2にHAペアを提供することである。
HAペアを移行した後の移行先正ストレージ装置3Aと移行先副ストレージ装置3Bは、移行前の移行元正ストレージ装置3Cと移行元副ストレージ装置3Dと同様に、HA構成が組まれている。そのため、HAペアの移行後に例えば移行先正ストレージ装置3Aと移行先副ストレージ装置3Bの一方が故障しても、他方のストレージ装置3が有する移行後のHAペアの論理デバイス33を用いて、ホスト計算機2はデータの入出力を継続することができる。
本実施例によると、HA構成を組んでいるストレージ装置3において、HAペアを移行している間、また移行した後も、HA構成を維持することができる。したがって、例えば、移行先正ストレージ装置3A、移行先副ストレージ装置3B、移行元正ストレージ装置3C、移行元副ストレージ装置3Dのどの1台が故障しても、ホスト計算機2はデータアクセスを継続することができ、計算機システムは高い可用性を維持することができる。
本実施例の計算機システムにおけるHAペアの移行方法は、HAペアを有する移行元正ストレージ装置3Cと移行元副ストレージ装置3Dを、それぞれ移行先正ストレージ装置3Aと移行先副ストレージ装置3Bに、HA構成を維持しながらリプレースする場合に適用可能である。
図2は、ホスト計算機2の構成を示す図である。ホスト計算機2は、CPU20、メモリ21、ポート22を備える。CPU20は、ホスト計算機2の動作を制御するプロセッサであり、メモリ21に格納された各種プログラムを実行し、ストレージ装置3に対してリード要求又はライト要求を含む入出力要求を発行する。以下、メモリ21に格納されたプログラムを実行するCPU20による制御を、そのプログラムを主体として説明する場合がある。
メモリ21は、CPU20により実行されるプログラムとして、例えば、ユーザプログラム210と交替パス制御プログラム211を格納する。また、CPU20のワークメモリとしても用いられる。ユーザプログラム210は、ユーザがホスト計算機2の用途に応じてホスト計算機2にインストールするプログラムである。
交替パス制御プログラム211は、ストレージ装置3が提供する論理デバイス33へのアクセス経路を制御するプログラムであり、ホスト計算機2から一つの論理デバイス33への複数のアクセス経路の中から、どのアクセス経路を用いて入出力要求を発行するかを決定する。交替パス制御プログラム211は、一部のアクセス経路が障害等で利用不能になった場合、他のアクセス経路を用いて入出力要求を発行する。また、交替パス制御プログラム211は、複数のアクセス経路が利用可能な場合、それらのアクセス経路を交互に使用することによって負荷分散を行う。
図3は、ストレージ装置3の構成を示す図である。ストレージ装置3は、1又は複数の記憶装置31と、記憶装置31に対するデータの入出力を制御するコントローラ30を備える。記憶装置31は、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)である。
コントローラ30は、CPU300、メモリ301、ポート302、キャッシュメモリ303を備える。CPU300は、コントローラ30の動作を制御するプロセッサであり、メモリ301に格納された各種プログラムを実行する。以下、メモリ301に格納されたプログラムを実行するCPU300による制御を、そのプログラムを主体として説明する場合がある。
メモリ301は、CPU300により実行される各種プログラムを格納するために用いられるほか、CPU300のワークメモリとしても用いられる。メモリ301には、例えば、入出力制御プログラム3010、仮想デバイス管理テーブル3011、論理デバイス管理テーブル3012、ペア管理テーブル3013、キャッシュ管理テーブル3014が格納される。
入出力制御プログラム3010は、ホスト計算機2から受信した入出力要求に応じて、記憶装置31に対してデータの入出力を行う。後述の図15〜図17のストレージリード処理・ストレージライト処理・論理デバイス更新処理は、CPU300が、入出力制御プログラム3010を実行することにより実現される。
ポート302は、ストレージ装置3をネットワーク4と接続するためのアダプタである。キャッシュメモリ303は、主としてホスト計算機2と記憶装置31の間で授受されるデータを一時的に格納するために用いられる。
図4は、ストレージ装置3が管理する記憶領域の構成を示す図である。ストレージ装置3は、仮想デバイス管理テーブル3011を用いて、1又は複数の記憶装置31の記憶領域からRAID(Redundant Array of Inexpensive Disks)グループを構成し、1又は複数の仮想デバイス32として管理する。ストレージ装置3は、記憶装置31の記憶領域から構成したRAIDグループの代わりに、外部のストレージ装置3の論理デバイス33を、仮想デバイス管理テーブル3011を用いて、仮想デバイス32として管理することもできる。
ストレージ装置3のコントローラ30は、論理デバイス管理テーブル3012を用いて、1又は複数の仮想デバイス32の記憶領域を、1又は複数の論理デバイス33として管理する。また、ストレージ装置3は、論理デバイス管理テーブル3012を用いて、1つの論理デバイス33を、1又は複数のポート302と関連づけてホスト計算機2からアクセス可能にする。ストレージ装置3は、1又は複数の論理デバイスの記憶領域を、論理ユニット(Logical Unit)としてホスト計算機2に提供する。
図5は、ストレージ装置3が有する仮想デバイス管理テーブル3011の構成を示す図である。仮想デバイス管理テーブル3011には、各仮想デバイス32について、仮想デバイス番号30110、デバイス種別30111、RAIDレベル30112、記憶装置番号30113、外部ボリュームWWN30114、外部ボリュームLUN30115が記録される。
仮想デバイス番号30110は、ストレージ装置3内で仮想デバイス32を一意に特定する識別子である。デバイス種別30111は、仮想デバイス32が提供するデータが、自ストレージ装置3内の記憶装置31の記憶領域から構成したRAIDグループに存在するか、それとも外部のストレージ装置3の論理デバイス33に存在するか、を識別するために利用される値である。デバイス種別30111が「Internal」である場合、仮想デバイス32が提供するデータは、自ストレージ装置3内の記憶装置31の記憶領域から構成したRAIDグループに存在する。一方、デバイス種別30111が「External」である場合、仮想デバイス32が提供するデータは、外部のストレージ装置3の論理デバイス33に存在する。
RAIDレベル30112は、デバイス種別30111が「Internal」の場合に設定される値であり、RAID処理による冗長データの付加方法を識別するために利用される。RAIDレベル30112には、例えば、RAID−1を示す「1」や、RAID−5を示す「5」などが格納される。RAIDレベル30112がRAID−1を示す「1」の場合、ストレージ装置3は、RAIDグループへ格納されたデータを2つの記憶装置31へミラーリングする。また、RAIDレベル30112がRAID−5を示す「5」の場合、ストレージ装置3は、RAIDグループへ格納された複数のデータに対して1つのパリティを計算し、各データとそれらに関連するパリティをそれぞれ異なる記憶装置31へ格納する。
記憶装置番号30113は、デバイス種別30111が「Internal」の場合に設定される値であり、ストレージ装置3内で仮想デバイス32が提供するデータを記録する記憶装置31を一意に特定するために利用される。
外部ボリュームWWN30114は、デバイス種別30111が「External」の場合に設定される値であり、外部のストレージ装置3の論理デバイス33が関連づけられているポート302のWWN(World Wide Name)である。
外部ボリュームLUN(Logical Unit Number)30115は、デバイス種別30111が「External」の場合に設定される値であり、外部ボリュームWWN30114によって識別されるポート302のWWNを通してアクセスできる論理デバイス33を一意に識別するために利用される。
図6は、ストレージ装置3が有する論理デバイス管理テーブル3012の構成を示す図である。論理デバイス管理テーブル3012には、各論理デバイス33について、ポート番号30120、LUN30121、論理デバイス番号30122、仮想デバイス番号30123、リードキャッシュモード30124、ライトキャッシュモード30125、ボリュームID30126が記録される。
ポート番号30120は、ストレージ装置3内で論理デバイス33が関連づけられたポート302を一意に特定する番号である。LUN30121は、ホスト計算機2がポート302を通してアクセスできる論理デバイス33を一意に識別する値である。論理デバイス番号30122は、ストレージ装置3内で論理デバイス33を一意に特定する識別子である。仮想デバイス番号30123は、論理デバイス33に対応づけられた仮想デバイス32を、ストレージ装置3内で一意に特定する識別子である。
リードキャッシュモード30124は、ストレージ装置3がホスト計算機2からリード要求を受信したときの動作を決定するために利用される値であり、「ON」または「OFF」である。
リードキャッシュモード30124が「ON」の場合、ストレージ装置3は、リード要求に対するリードデータをキャッシュメモリ303にキャッシュする。ストレージ装置3は、リード要求を受信した際、リードデータがキャッシュメモリ303に存在する場合、リードデータをキャッシュメモリ303からホスト計算機2へ転送する。
一方、ストレージ装置3は、リードデータがキャッシュメモリ303に存在しない場合、リードデータを記憶装置31または外部のストレージ装置3からキャッシュメモリ303へ読み込んだ後、キャッシュメモリ303からホスト計算機2へ転送する。リードキャッシュモード30124が「ON」の場合、リードデータをできるだけキャッシュメモリ303からホスト計算機2へ転送することにより、リード要求の応答時間を短縮できる。
一方、リードキャッシュモード30124が「OFF」の場合、ストレージ装置3は、リードデータをキャッシュメモリ303にキャッシュしない。ストレージ装置3は、リード要求を受信した際、リードデータを必ず記憶装置31または外部のストレージ装置3から読み込み、ホスト計算機2へ転送する。このとき、キャッシュメモリ303をリードデータを一時的に格納するバッファメモリとして用いてもよいが、一時的に格納したリードデータを後続のリード要求の応答に用いない。このようにリードデータを必ず記憶装置31または外部のストレージ装置3から読み込んでホスト計算機2へ転送することにより、キャッシュメモリ303に最新データが存在することが保証されていない場合にも、ホスト計算機2へ最新データを転送できる。
ライトキャッシュモード30125は、ストレージ装置3がホスト計算機2からライト要求を受信したときの動作を決定するために利用される値であり、「BACK」、「THROUGH」、「OFF」のいずれかである。
ライトキャッシュモード30125が「BACK」の場合、ストレージ装置3は、ライト要求のライトデータをキャッシュメモリ303へ書き込んだ後、自ストレージ装置3の記憶装置31または外部のストレージ装置3へのライトデータの書き込み(デステージング)を行う前に、ホスト計算機2へ完了応答を送信する。ストレージ装置3は、デステージングをホスト計算機2からのライト要求とは非同期に行う。デステージングをライト要求と非同期に行うことにより、ライト要求の応答時間を短縮できる。
ライトキャッシュモード30125が「THROUGH」の場合、ストレージ装置3は、ライトデータのキャッシュメモリ303への書き込みとデステージングとをいずれも完了させた後に、ホスト計算機2へ完了応答を送信する。デステージングをライト要求と同期して行うことにより、キャッシュメモリ303のデータと記憶装置31または外部のストレージ装置3のデータがともに最新であることを保証できる。
ライトキャッシュモード30125が「OFF」の場合、ストレージ装置3は、ライトデータをキャッシュメモリ303にキャッシュしない。ストレージ装置3は、ライト要求を受信した際、ライトデータを記憶装置31または外部のストレージ装置3へ書き込んだ後、ホスト計算機2へ完了応答を送信する。このとき、キャッシュメモリ303を、ライトデータを一時的に格納するためのバッファメモリとして用いてもよいが、一時的に格納したライトデータを後続のリード要求の応答には用いない。このようにライトデータを記憶装置31または外部のストレージ装置3へ書き込んだ後にホスト計算機2へ完了応答を送信することにより、記憶装置31または外部のストレージ装置3に最新データが存在することを保証できる。
ボリュームID30126は、ストレージ装置3がホスト計算機2からInquiry要求(問合せ要求)を受信したときにホスト計算機2へ応答する情報である。ボリュームID30126は、例えば、ストレージ装置3の製番と論理デバイス33の論理デバイス番号30122を含む。ホスト計算機2上で動作する交替パス制御プログラム211は、異なるアクセス経路を用いて発行したInquiry要求に対する応答が同一である場合、それらのアクセス経路を同一の論理デバイス33へのアクセス経路(交替パス)であると判断する。
図7は、ストレージ装置3が、論理デバイス33のHAペアを管理するために保持するペア管理テーブル3013の構成を示す図である。ペア管理テーブル3013には、各HAペアについて、ペア番号30130、論理デバイス番号30131、ボリューム属性30132、相手装置製番30133、相手論理デバイス番号30134が記録される。
ペア番号30130は、ストレージ装置3内でHAペアを一意に特定する番号である。論理デバイス番号30131は、ペア番号30130によって特定されるHAペアを構成する自ストレージ装置3内の論理デバイス33を、自ストレージ装置3内で一意に特定する番号である。
ボリューム属性30132は、ストレージ装置3がホスト計算機2からライト要求を受信したときの動作を決定するために利用される値であり、「Primary」または「Secondary」である。HAペアの一方の論理デバイス33のボリューム属性30132は「Primary」であり、他方の論理デバイス33のボリューム属性30132は「Secondary」である。
ボリューム属性30132が「Primary」である場合、ストレージ装置3は、ライト要求を受信した際、論理デバイス番号30131によって特定される自ストレージ装置3内の論理デバイス33を更新する。その後、更新した論理デバイス33とHAペアになっている相手のストレージ装置3内の論理デバイス33を更新する。このHAペアになっている相手のストレージ装置3内の論理デバイス33は、後述するように、相手装置製番30133と相手論理デバイス番号30134によって特定される。
ボリューム属性30132が「Secondary」である場合、ストレージ装置3は、ライト要求を受信した際、自ストレージ装置3内の論理デバイス33とHAペアになっている相手のストレージ装置3内の論理デバイス33を更新する。その後、論理デバイス番号30131によって特定される自ストレージ装置3内の論理デバイス33を更新する。
相手装置製番30133は、論理デバイス番号30131によって特定される論理デバイス33とHAペアになっている、論理デバイス33が存在する相手のストレージ装置3を一意に特定する値である。
相手論理デバイス番号30134は、論理デバイス番号30131によって特定される論理デバイス33とHAペアになっている論理デバイス33を、相手装置製番30133によって特定されるストレージ装置3内で一意に特定する値である。
図8は、ストレージ装置3が、キャッシュメモリ303に格納されているデータを管理するために保持するキャッシュ管理テーブル3014の構成を示す図である。キャッシュ管理テーブル3014には、キャッシュメモリ303の各アドレスについて、キャッシュアドレス30140、論理デバイス番号30141、LBA(Logical Block Address)30142、データ属性30143が記録される。
キャッシュアドレス30140は、キャッシュメモリ303内の領域を一意に特定する情報である。論理デバイス番号30141は、キャッシュアドレス30140によって特定される領域に格納されているデータが、どの論理デバイス33のデータであるかを特定する番号である。
LBA30142は、キャッシュアドレス30140によって特定される領域に格納されているデータが、論理デバイス番号30141によって特定される論理デバイス33のどの領域のデータであるかを特定する値である。
データ属性30143は、キャッシュアドレス30140によって特定される領域に格納されているデータが、記憶装置31または外部のストレージ装置3に反映済みであるか否かを示す値であり、「Clean」または「Dirty」である。
データ属性30143が「Clean」の場合、キャッシュアドレス30140によって特定される領域に格納されているデータは記憶装置31または外部のストレージ装置3に反映済みであり、記憶装置31または外部のストレージ装置3への書き込み(デステージング)を行うことなく、キャッシュメモリ303から消去できる。
一方、データ属性30143が「Dirty」の場合、キャッシュアドレス30140によって特定される領域に格納されているデータは記憶装置31または外部のストレージ装置3に未反映であり、キャッシュメモリ303から消去する場合は先にデステージングを行う必要がある。
図9は、移行元正ストレージ装置3Cと移行元副ストレージ装置3DのHAペアを、移行先正ストレージ装置3Aと移行先副ストレージ装置3Bへ移行する際に行う処理(以下、ストレージ移行処理)のフローチャートである。図10〜図14は、ストレージ移行処理の処理前・処理中・処理後における計算機システムの状態を示す図である。
図9のS1000において、移行先正ストレージ装置3Aは、管理装置1からの指示を受けて、移行元正ストレージ装置3C内の移行元正論理デバイス33Cを、マッピング先正仮想デバイス32Aとして仮想化する。移行先正ストレージ装置3Aは、移行先正ストレージ装置3Aが有する仮想デバイス管理テーブル3011を用いて、移行元正論理デバイス33Cを外部ボリュームとしてマッピング先正仮想デバイス32Aにマッピングする。
このとき、移行先正ストレージ装置3Aは、仮想デバイス管理テーブル3011において、仮想デバイス番号30110がマッピング先正仮想デバイス32Aを特定する番号であるエントリとして、デバイス種別30111を「External」に、RAIDレベル30112を「Undefined」に、記憶装置番号30113を「Undefined」に設定する。また、移行先正ストレージ装置3Aは、外部ボリュームWWN30114として、移行元正論理デバイス33Cを提供する移行元正ストレージ装置3Cのポート302のWWNに設定する。また、移行先正ストレージ装置3Aは、外部ボリュームLUN30115として、移行元正論理デバイス33Cを一意に識別するLUNに設定する。
移行先正ストレージ装置3Aは、マッピング先正論理デバイス33Aを作成し、マッピング先正論理デバイス33Aにマッピング先正仮想デバイス32Aを対応づける。具体的には、移行先正ストレージ装置3Aは、移行先正ストレージ装置3Aが有する論理デバイス管理テーブル3012において、論理デバイス番号30122がマッピング先正論理デバイス33Aを特定する番号であるエントリとして、仮想デバイス番号30123をマッピング先正仮想デバイス32Aを特定する番号に、リードキャッシュモード30124を「OFF」に、ライトキャッシュモード30125を「OFF」に設定する。
また、移行先正ストレージ装置3Aは、移行元正ストレージ装置3Cに対してInquiry要求を発行することにより、Inquiry要求の応答として移行元正論理デバイス33CのボリュームID30126を取得する。移行先正ストレージ装置3Aは、移行元正論理デバイス33Cと同じボリュームID30126を、マッピング先正論理デバイス33AのボリュームID30126として設定する。そのため、移行元正論理デバイス33Cとマッピング先正論理デバイス33Aは、ホスト計算機2からのInquiry要求に対して同一の応答をする。以上の仮想化処理により、ホスト計算機2は、移行元正論理デバイス33Cとマッピング先正論理デバイス33Aを、一つの仮想論理デバイスとして認識するようになる。
次に、移行先副ストレージ装置3Bは、管理装置1からの指示を受けて、移行元副ストレージ装置3D内の移行元副論理デバイス33Dを、マッピング先副仮想デバイス32Bとして仮想化する(S1001)。移行先副ストレージ装置3Bは、移行先副ストレージ装置3Bが有する仮想デバイス管理テーブル3011を用いて、移行元副論理デバイス33Dを外部ボリュームとしてマッピング先副仮想デバイス32Bにマッピングする。
移行先副ストレージ装置3Bは、マッピング先副論理デバイス33Bを作成し、マッピング先副論理デバイス33Bにマッピング先副仮想デバイス32Bを対応づける。具体的には、移行先副ストレージ装置3Bは、仮想デバイス管理テーブル3011において、マッピング先副仮想デバイス32Bに関する情報を更新する。また、移行先副ストレージ装置3Bは、論理デバイス管理テーブル3012において、マッピング先副論理デバイス33Bに関する情報を更新する。仮想デバイス管理テーブル3011と論理デバイス管理テーブル3012の更新方法は、ステップS1000と同様である。
移行元副論理デバイス33Dとマッピング先副論理デバイス33Bは、ホスト計算機2からのInquiry要求に対して同一の応答をする。以上の仮想化処理により、ホスト計算機2は、移行元副論理デバイス33Dとマッピング先副論理デバイス33Bを、一つの仮想論理デバイスとして認識するようになる。
次に、移行先正ストレージ装置3Aは、管理装置1からの指示を受けて、移行先正仮想デバイス32A’と移行先正論理デバイス33A’を作成する(S1002)。
移行先正ストレージ装置3Aは、1又は複数の移行先正記憶装置31A’の記憶領域からRAIDグループを構成し、移行先正仮想デバイス32A’として管理する。移行先正ストレージ装置3Aは、移行先正ストレージ装置3Aが有する仮想デバイス管理テーブル3011において、仮想デバイス番号30110が移行先正仮想デバイス32A’を特定する番号であるエントリとして、デバイス種別30111を「Internal」に、RAIDレベル30112を移行先正仮想デバイス32A’が利用するRAIDレベルに、記憶装置番号30113を移行先正仮想デバイス32A’のRAIDグループを構成する移行先正記憶装置31A’を特定する番号に設定する。移行先正ストレージ装置3Aは、外部ボリュームWWN30114と外部ボリュームLUN30115をそれぞれ「Undefined」に設定する。
また、移行先正ストレージ装置3Aは、移行先正仮想デバイス32A’と移行先正論理デバイス33A’とを対応づける。具体的には、移行先正ストレージ装置3Aは、移行先正ストレージ装置3Aが有する論理デバイス管理テーブル3012において、論理デバイス番号30122が移行先正論理デバイス33A’を特定する番号であるエントリとして、仮想デバイス番号30123を、移行先正仮想デバイス32A’を特定する番号に設定する。
次に、移行先副ストレージ装置3Bは、管理装置1からの指示を受けて、移行先副仮想デバイス32B’と移行先副論理デバイス33B’を作成する(S1003)。移行先副ストレージ装置3Bは、1又は複数の移行先副記憶装置31B’の記憶領域からRAIDグループを構成し、移行先副仮想デバイス32B’として管理する。また、移行先副ストレージ装置3Bは、移行先副仮想デバイス32B’と移行先副論理デバイス33B’とを対応づける。ステップS1002と同様に、移行先副ストレージ装置3Bは、移行先副ストレージ装置3Bが有する仮想デバイス管理テーブル3011及び論理デバイス管理テーブル3012において、移行先副記憶装置31B’・移行先副仮想デバイス32B’・移行先副論理デバイス33B’に関する情報を更新する。
次に、ホスト計算機2は、管理装置1からの指示を受けて、入出力要求の発行先を移行元正論理デバイス33Cからマッピング先正論理デバイス33Aへ変更するとともに、移行元副論理デバイス33Dからマッピング先副論理デバイス33Bへ変更する(S1004)。上述のように、ホスト計算機2は、移行元正論理デバイス33Cとマッピング先正論理デバイス33Aを同一の仮想論理デバイスとして認識し、移行元副論理デバイス33Dとマッピング先副論理デバイス33Bを同一の仮想論理デバイスとして認識しているので、ホスト計算機2を無停止で入出力要求の発行先を変更でき、かつ移行元正論理デバイス33Cと移行元副論理デバイス33DのHAペアの構成を維持できる。
具体的には、ホスト計算機2の交替パス制御プログラム211は、管理装置1からの指示を受けて、ホスト計算機2で管理している移行元正論理デバイス33Cへのアクセス経路のリストに、マッピング先正論理デバイス33Aへのアクセス経路を追加するとともに、移行元正論理デバイス33Cへのアクセス経路を削除する。これにより、ユーザプログラム210が移行元正論理デバイス33Cへ入出力を行う際、交替パス制御プログラム211のアクセス経路制御により、マッピング先正論理デバイス33Aへ入出力要求が発行されるようになる。
ホスト計算機2の交替パス制御プログラム211は、管理装置1からの指示として、入出力要求発行先を変更する指示を単一の指示で受信してもよいし、またマッピング先正論理デバイス33Aへのアクセス経路を追加する指示と移行元正論理デバイス33Cへのアクセス経路を削除する指示を別々に受信してもよい。
ホスト計算機2の交替パス制御プログラム211は、管理装置1からの指示を受けてステップS1004を行う代わりに、移行元正ストレージ装置3Cと移行先正ストレージ装置3Aとの通信結果を基に、ステップS1004を行ってもよい。例えば、交替パス制御プログラム211は、移行元正論理デバイス33Cとマッピング先正論理デバイス33AへそれぞれInquiry要求を発行し、二つのInquiry要求に対する応答が一致した場合に、管理している移行元正論理デバイス33Cへのアクセス経路のリストに、マッピング先正論理デバイスAへのアクセス経路を追加してもよい。
また、交替パス制御プログラム211は、移行元正ストレージ装置3CへReport LUNs要求を発行し、その応答に移行元正論理デバイス33Cに対応するLUNが含まれていない場合に、管理している移行元正論理デバイス33Cへのアクセス経路のリストから、移行元正論理デバイス33Cへのアクセス経路を削除してもよい。
また、ホスト計算機2の交替パス制御プログラム211は、移行元正論理デバイス33Cからマッピング先正論理デバイス33Aへ入出力要求の発行先を変更する方法と同様に、移行元副論理デバイス33Dからマッピング先副論理デバイス33Bへの入出力要求の発行先の変更を行う。
次に、移行先正ストレージ装置3Aと移行先副ストレージ装置3Bは、マッピング先正論理デバイス33Aとマッピング先副論理デバイス33BでHAペアを構成(作成)する(S1005)。具体的には、移行先正ストレージ装置3Aと移行先副ストレージ装置3Bは、それぞれが保持しているペア管理テーブル3013にHAペアに関する情報を登録する。
移行先正ストレージ装置3Aは、移行先正ストレージ装置3Aが有するペア管理テーブル3013へHAペアに対応するエントリを追加し、そのエントリにおいて論理デバイス番号30131をマッピング先正論理デバイス33Aを特定する番号に、ボリューム属性30132を「Primary」に、相手装置製番30133を移行先副ストレージ装置3Bの製番に、相手論理デバイス番号30134をマッピング先副論理デバイス33Bを特定する番号に設定する。
一方、移行先副ストレージ装置3Bは、移行先副ストレージ装置3Bが有するペア管理テーブル3013へHAペアに対応するエントリを追加し、そのエントリにおいて論理デバイス番号30131をマッピング先副論理デバイス33Bを特定する番号に、ボリューム属性30132を「Secondary」に、相手装置製番30133を移行先正ストレージ装置3Aの製番に、相手論理デバイス番号30134をマッピング先正論理デバイス33Aを特定する番号に設定する。
ペア管理テーブル3013の更新により、ホスト計算機2からのライト要求に対し、移行先正ストレージ装置3Aが有するHAペアの一方(マッピング先正論理デバイス33A)に書き込まれたデータは、移行先副ストレージ装置3Bが有するHAペアの他方(マッピング先副論理デバイス33B)にも格納され、移行先正ストレージ装置3Aと移行先副ストレージ装置3BのHAペアは同じデータを保持する。
また、移行先正ストレージ装置3Aは、ペア管理テーブル3013を更新するとともに、移行先正ストレージ装置3Aが有する論理デバイス管理テーブル3012のマッピング先正論理デバイス33Aに対応するエントリのリードキャッシュモード30124を「ON」に、ライトキャッシュモード30125を「THROUGH」に変更する。
同様に、移行先副ストレージ装置3Bは、ペア管理テーブル3013を更新するとともに、移行先副ストレージ装置3Bが有する論理デバイス管理テーブル3012のマッピング先副論理デバイス33Bに対応するエントリのリードキャッシュモード30124を「ON」に、ライトキャッシュモード30125を「THROUGH」に変更する。
次に、移行先正ストレージ装置3Aは、管理装置1からの指示を受けて、マッピング先正論理デバイス33Aの全領域のデータを、移行先正論理デバイス33A’へコピーする(S1006)。マッピング先正論理デバイス33Aにマッピングされた移行元正論理デバイス33Cのデータが、移行元正ストレージ装置3Cから移行先正ストレージ装置3Aへ転送され、移行先正論理デバイス33A’に対応づけられた移行先正仮想デバイス32A’に格納される。
また、移行先正ストレージ装置3Aは、コピーの完了後、マッピング先正論理デバイス33Aと移行先正論理デバイス33A’に関連づけられている仮想デバイス32を交換する。具体的には、移行先正ストレージ装置3Aは、論理デバイス管理テーブル3012のマッピング先正論理デバイス33Aに対応するエントリの仮想デバイス番号30123を移行先正仮想デバイス32A’に変更する。また、移行先正ストレージ装置3Aは、論理デバイス管理テーブル3012の移行先正論理デバイス33A’に対応するエントリの仮想デバイス番号30123をマッピング先正仮想デバイス32Aに変更する。
以上の処理により、移行元正論理デバイス33Cのデータがコピー(移行)された移行先正仮想デバイス32A’に、マッピング先正論理デバイス33Aが対応づけられる。移行元正論理デバイス33Cがホスト計算機2へ提供していたデータを、マッピング先正論理デバイス33Aがホスト計算機2へ提供できるようになる。
また、移行先正ストレージ装置3Aは、仮想デバイス32を交換すると同時に、論理デバイス管理テーブル3012のマッピング先正論理デバイス33Aに対応するエントリのライトキャッシュモード30125を「BACK」に変更する。
次に、移行先副ストレージ装置3Bは、管理装置1からの指示を受けて、マッピング先副論理デバイス33Bの全領域のデータを、移行先副論理デバイス33B’へコピーする(S1007)。マッピング先副論理デバイス33Bにマッピングされた移行元副論理デバイス33Dのデータが、移行元副ストレージ装置3Dから移行先副ストレージ装置3Bへ転送され、移行先副論理デバイス33B’に対応づけられた移行先副仮想デバイス32B’に格納される。
また、移行先副ストレージ装置3Bは、コピーの完了後、マッピング先副論理デバイス33Bと移行先副論理デバイス33B’に関連づけられている仮想デバイス32を交換する。仮想デバイス32の交換方法はステップS1006と同様である。以上の処理により、移行元副論理デバイス33Dのデータがコピーされた移行先副仮想デバイス32B’に、マッピング先副論理デバイス33Bが対応づけられる。これにより、移行元副論理デバイス33Dがホスト計算機2へ提供していたデータを、マッピング先副論理デバイス33Bがホスト計算機2へ提供できるようになる。
また、移行先副ストレージ装置3Bは、仮想デバイス32を交換すると同時に、論理デバイス管理テーブル3012のマッピング先副論理デバイス33Bに対応するエントリのライトキャッシュモード30125を「BACK」に変更する。
ステップS1005で、移行先正ストレージ装置3Aと移行先副ストレージ装置3Bが、マッピング先正論理デバイス33Aとマッピング先副論理デバイス33BでHAペア(第2のHAペア)を構成した後、移行先正ストレージ装置3Aは、移行元正ストレージ装置3Cから移行元正論理デバイス33Cのデータを移行先正仮想デバイス32A’に移行して、マッピング先正論理デバイス33Aのデータとして管理する(S1006)。また、移行先副ストレージ装置3Bは、移行元副ストレージ装置3Dから移行元副論理デバイス33Dのデータを移行先副仮想デバイス32B’に移行して、マッピング先副論理デバイス33Bのデータとして管理する(S1007)。上述の処理により、移行元正ストレージ装置3Cと移行元副ストレージ装置3DのHAペア(第1のHAペア)から、移行先正ストレージ装置3Aと移行先副ストレージ装置3BのHAペア(第2のHAペア)へ、HAペアの移行を行う。なお、ステップS1006とステップS1007の順番は逆でもよい。また、ステップS1006とステップS1007を同時に実行してもよい。
本実施例によると、ステップS1005で移行先正ストレージ装置3Aと移行先副ストレージ装置3BがHAペア(第2のHAペア)を構成した後も、少なくともステップS1006・S1007を実行してHAペアの移行が完了するまで、移行元正ストレージ装置3Cと移行元副ストレージ装置3DはHAペア(第1のHAペア)を維持している。そのため、例えばHAペアの移行に失敗したとしても、移行元正ストレージ装置3Cと移行元副ストレージ装置3DのHAペア(第1のHAペア)の構成を維持可能となり、計算機システムは高い可用性を維持することができる。
本実施例によると、ステップS1006・S1007を実行した後ではなく、実行する前に、ステップS1005で移行先正ストレージ装置3Aと移行先副ストレージ装置3BがHAペア(第2のHAペア)を構成している。後述のとおり、例えば、ステップS1006・S1007のデータ移行中などに、移行先正ストレージ装置3Aまたは移行先副ストレージ装置3Bが、ホスト計算機2から第2のHAペアの一方の論理デバイスに対するリード要求を受信した場合、キャッシュメモリ303のリードデータをホスト計算機2へ転送可能となり、リード要求に対して高速に応答できる。
図10は、ストレージ移行処理を開始する前(図9のフローチャートにおいてステップS1000を実行する前)の計算機システムの状態を示す図である。移行元正ストレージ装置3Cの移行元正論理デバイス33Cと、移行元副ストレージ装置3Dの移行元副論理デバイス3DでHAペアを構成している。移行先正ストレージ装置3Aと移行先副ストレージ装置3Bは未使用である。移行元正ストレージ装置3Cと移行元副ストレージ装置3Dのそれぞれの論理デバイス管理テーブル3012において、移行元正論理デバイス33Cと移行元副論理デバイス33Dそれぞれのリードキャッシュモード30124は「ON」、ライトキャッシュモード30125は「BACK」である。
ホスト計算機2は、ユーザプログラム210が仮想論理デバイスに対してライトまたはリードする場合、交替パス制御プログラム211のアクセス制御により、移行元正論理デバイス33Cまたは移行元副論理デバイス33Dに対して入出力要求(ライト要求またはリード要求)を発行する。
移行元正ストレージ装置3Cは、ホスト計算機2から移行元正論理デバイス33Cに対するライト要求を受信すると、移行元正論理デバイス33Cを更新し、その後、移行元副ストレージ装置3Dへライトデータを含む更新コピー要求を発行する。移行元副ストレージ装置3Dは、受信した更新コピー要求に基づき、HAペアの移行元副論理デバイス33Dを更新する。
移行元正ストレージ装置3Cは、ホスト計算機2から移行元正論理デバイス33Cに対するリード要求を受信すると、自装置内のキャッシュメモリ303からリードデータをホスト計算機2へ応答する。
移行元副ストレージ装置3Dは、ホスト計算機2から移行元副論理デバイス33Dに対するライト要求を受信すると、移行元正ストレージ装置3Cへライトデータを含む更新コピー要求を発行する。移行元正ストレージ装置3Cは、受信した更新コピー要求に基づき、HAペアの移行元正論理デバイス33Cを更新する。その後、移行元副ストレージ装置3Dは、ライト要求に基づき、移行元副論理デバイス33Dを更新する。
移行元副ストレージ装置3Dは、ホスト計算機2から移行元副論理デバイス33Dに対するリード要求を受信すると、自装置内のキャッシュメモリ303からリードデータをホスト計算機2へ応答する。
図11は、図9のフローチャートにおいてステップS1003を実行した後の計算機システムの状態を示す図である。移行先正ストレージ装置3Aと移行先副ストレージ装置3Bが、それぞれ移行元正論理デバイス33Cと移行元副論理デバイス33Dを仮想化している。また、移行先正ストレージ装置3Aと移行先副ストレージ装置3Bにはそれぞれ移行先正論理デバイス33A’と移行先副論理デバイス33B’が存在するが、未使用である。
ホスト計算機2のユーザプログラム210が、移行元正論理デバイス33Cまたは移行元副論理デバイス33Dに対して、ライトする場合またはリードする場合の処理は、上述した図10の状態と同じである。
図12は、図9のフローチャートにおいてステップS1004を実行した後の計算機システムの状態を示す図である。ホスト計算機2は、ユーザプログラム210が仮想論理デバイスに対してライトまたはリードする場合、交替パス制御プログラム211のアクセス制御により、マッピング先正論理デバイス33Aまたはマッピング先副論理デバイス33Bに対して入出力要求(ライト要求またはリード要求)を発行する。
移行先正ストレージ装置3Aは、ホスト計算機2からマッピング先正論理デバイス33Aに対するライト要求を受信した場合、論理デバイス管理テーブル3012を参照し、マッピング先正論理デバイス33Aのライトキャッシュモード30125が「OFF」と判定して、移行先正ストレージ装置3Aはライト要求を移行元正ストレージ装置3Cへ送信する。移行元正ストレージ装置3Cでは、移行元正論理デバイス33Cのボリューム属性30132が「Primary」であるため、ライト要求に基づいて移行元正論理デバイス33Cを更新する。その後、移行元副ストレージ装置3Dへライトデータを含む更新コピー要求を発行する。移行元副ストレージ装置3Dは、受信した更新コピー要求に基づき、HAペアの移行元副論理デバイス33Dを更新する。その後、移行先正ストレージ装置3Aは、ホスト計算機2へ完了応答を送信する。
移行先正ストレージ装置3Aは、ホスト計算機2からマッピング先正論理デバイス33Aに対するリード要求を受信した場合、マッピング先正論理デバイス33Aのリードキャッシュモード30124が「OFF」であるため、リードデータを移行元正論理デバイス33Cから読み込み、ホスト計算機2へ転送する。
移行先副ストレージ装置3Bは、ホスト計算機2からマッピング先副論理デバイス33Bに対するライト要求を受信した場合、論理デバイス管理テーブル3012を参照して、マッピング先副論理デバイス33Bのライトキャッシュモード30125が「OFF」と判定して、移行先副ストレージ装置3Bはライト要求を移行元副ストレージ装置3Dへ送信する。移行元副ストレージ装置3Dは、ライト要求に基づき、移行元正ストレージ装置3Cへライトデータを含む更新コピー要求を発行する。移行元正ストレージ装置3Cは、受信した更新コピー要求に基づき、HAペアの移行元正論理デバイス33Cを更新する。その後、移行元副ストレージ装置3Dは、ライト要求に基づき、移行元副論理デバイス33Dを更新する。その後、移行先副ストレージ装置3Bは、ホスト計算機2へ完了応答を送信する。
移行先副ストレージ装置3Bは、ホスト計算機2からマッピング先副論理デバイス33Bに対するリード要求を受信した場合、マッピング先副論理デバイス33Bのリードキャッシュモード30124が「OFF」であるため、リードデータを移行元副論理デバイス33Dから読み込み、ホスト計算機2へ転送する。
図13は、図9のフローチャートにおいてステップS1005を実行した後の計算機システムの状態を示す図である。移行元正ストレージ装置3Cの移行元正論理デバイス33Cと、移行元副ストレージ装置3Dの移行元副論理デバイス33Dの間でHAペア(第1のHAペア)が組まれている。さらに、移行先正ストレージ装置3Aのマッピング先正論理デバイス33Aと、移行先副ストレージ装置3Bのマッピング先副論理デバイス33Bの間でHAペア(第2のHAペア)が組まれている。
移行先正ストレージ装置3Aは、ホスト計算機2からInquiry要求(問合せ要求)を受信すると、マッピング先正論理デバイス33Aに関する応答をホスト計算機2に送信する。同様に、移行先副ストレージ装置3Bは、ホスト計算機2から問合せ要求を受信すると、マッピング先副論理デバイス33Bに関する応答を前記ホスト計算機に送信する。ここで、マッピング先正論理デバイス33Aに関する応答とマッピング先副論理デバイス33Bに関する応答は同一である。すなわち、移行先正ストレージ装置3Aと移行先副ストレージ装置3Bは、ホスト計算機2からInquiry要求(問合せ要求)を受信したとき、マッピング先正論理デバイス33Aとマッピング先副論理デバイス33Bについて同じボリュームID30126を応答する。さらに、そのボリュームID30126は、図10に示すストレージ移行処理を開始する前の計算機システムの状態において、移行元正ストレージ装置3Cと移行元副ストレージ装置3Dが、ホスト計算機2からInquiry要求(問合せ要求)を受信したときに、それぞれ移行元正論理デバイス33Cと移行元副論理デバイス33Dについて応答するボリュームID30126と同じである。
したがって、ホスト計算機2は、図10の状態における移行元正論理デバイス33Cと移行元副論理デバイス33D、また図13の状態におけるマッピング先正論理デバイス33Aとマッピング先副論理デバイス33Bについて、同一の仮想論理デバイスとして認識する。そのため、ホスト計算機2を無停止で、移行元正ストレージ装置3Cと移行元副ストレージ装置3DのHAペアを、移行先正ストレージ装置3Aと移行先副ストレージ装置3BのHAペアへ移行することができる。
ホスト計算機2は、ユーザプログラム210が仮想論理デバイスに対してライトまたはリードする場合、交替パス制御プログラム211のアクセス制御により、マッピング先正論理デバイス33Aまたはマッピング先副論理デバイス33Bに対して入出力要求(ライト要求またはリード要求)を発行する。
移行先正ストレージ装置3Aは、ホスト計算機2からマッピング先正論理デバイス33Aに対するライト要求を受信した場合、論理デバイス管理テーブル3012を参照して、マッピング先正論理デバイス33Aのライトキャッシュモード30125を「THROUGH」と判定し、自装置のキャッシュメモリ303におけるマッピング先正論理デバイス33Aに対応づけられた領域に、ライトデータを格納する。さらに、移行先正ストレージ装置3Aは、移行元正ストレージ装置3Cへ移行元正論理デバイス33Cに対するライト要求を発行することにより、ライトデータを移行元正論理デバイス33Cへデステージングする。
移行元正ストレージ装置3Cは、移行先正ストレージ装置3Aからライト要求を受信すると、移行元正論理デバイス33Cのボリューム属性30132が「Primary」であるため、自装置のキャッシュメモリ303における移行元正論理デバイス33Cに対応づけられた領域に、ライトデータを格納する。その後、移行元正ストレージ装置3Cは、移行元副ストレージ装置3Dの移行元副論理デバイス33Dに対し、ライトデータを含む更新コピー要求を発行する。
移行元副ストレージ装置3Dでは、受信した更新コピー要求に基づき、自装置のキャッシュメモリ303における移行元副論理デバイス33Dに対応づけられた領域に、ライトデータを格納する。その後、移行元副ストレージ装置3Dは、移行元正ストレージ装置3Cへ更新コピー要求に対する完了応答を送信する。移行元正ストレージ装置3Cは、移行先正ストレージ装置3Aへライト要求に対する完了応答を送信する。
移行元正ストレージ装置3Cは、自装置のキャッシュメモリ303に格納されたライトデータを、移行元正論理デバイス33Cに対応づけられた仮想デバイス32を構成する記憶装置31へデステージングする処理を、ライト要求に対する完了応答とは非同期に実行する。同様に、移行元副ストレージ装置3Dは、自装置が有するキャッシュメモリ303に格納されたライトデータを、移行元副論理デバイス33Dに対応づけられた仮想デバイス32を構成する記憶装置31へデステージングする処理を、更新コピー要求に対する完了応答とは非同期に実行する。移行元正ストレージ装置3Cは、移行元正ストレージ装置3Cと移行元副ストレージ装置3Dそれぞれにおけるデステージング処理の完了を待たずに、移行先正ストレージ装置3Aへ完了応答するので、結果として計算機システムのHA構成を維持しつつ、ホスト計算機2のライト要求に対する計算機システムとしての応答を高速化できる。
移行先正ストレージ装置3Aは、マッピング先正論理デバイス33Aのボリューム属性30132が「Primary」であるため、移行先副ストレージ装置3Bのマッピング先副論理デバイス33Bに対し、ライトデータを含む更新コピー要求を発行(送信)する。移行先副ストレージ装置3Bは、移行先正ストレージ装置3Aから更新コピー要求を受信すると、自装置のキャッシュメモリ303におけるマッピング先副論理デバイス33Bに対応づけられた領域に、ライトデータを格納する。移行先副ストレージ装置3Bは、移行先正ストレージ装置3Aへ更新コピー要求に対する完了応答を送信する。
ここで、上述したように、移行元副論理デバイス33Dは、移行元正ストレージ装置3Cからの更新コピー要求に基づき、ライトデータの更新が行われている。仮に移行先副ストレージ装置3Bが移行元副ストレージ装置3Dへライトデータをデステージングしたとすると、移行元副論理デバイス33Dが二重に更新されることになり、ライト要求に対する処理コストが増大する。
そこで、本実施例では、移行先副ストレージ装置3Bは、移行元副論理デバイス33Dが二重に更新されることを防ぐために、マッピング先副論理デバイス33Bのライトキャッシュモード30125が「THROUGH」であるにも関わらず、ライトデータの移行元副論理デバイス33Dへのデステージングを行わないように制御する。すなわち、移行先副ストレージ装置3Bは、更新コピー要求のライトデータを、移行元副ストレージ装置3Dの移行元副論理デバイス33Dに対してデステージングしないデータとして管理する。
具体的には、移行先副ストレージ装置3Bは、キャッシュ管理テーブル3013にライトデータについて登録する際、ライトデータを格納するキャッシュメモリ303のキャッシュアドレス30140のデータ属性30143を「Clean」とする。移行先副ストレージ装置3Bで、ライト要求と非同期に行われるデステージング処理において、データ属性30143が「Clean」であるキャッシュアドレス30140の領域についてはデステージングされない。したがって、移行元副論理デバイス33Dが二重に更新されず、ライト要求に対する処理コストを削減できる。
移行先正ストレージ装置3Aは、移行先副ストレージ装置3Bから更新コピー要求に対する完了応答を受信した後、ホスト計算機2へライト要求に対する完了応答を送信する。
次に、移行先正ストレージ装置3Aは、ホスト計算機2からマッピング先正論理デバイス33Aに対するリード要求を受信した場合、マッピング先正論理デバイス33Aのリードキャッシュモード30124が「ON」であるため、リード要求の対象となるデータ(リードデータ)が自装置のキャッシュメモリ303に存在するときは、リードデータをキャッシュメモリ303からホスト計算機2へ転送する。図12のマッピング先正論理デバイス33Aのリードキャッシュモード30124が「OFF」の場合と比較して、リード要求に対して高速に応答可能となる。一方、移行先正ストレージ装置3Aは、リードデータが自装置のキャッシュメモリ303に存在しないときは、リードデータを移行元正論理デバイス33Cから読み込んだ後、キャッシュメモリ303からホスト計算機2へ転送する。
移行先副ストレージ装置3Bは、ホスト計算機2からマッピング先副論理デバイス33Bに対するライト要求を受信した場合、マッピング先副論理デバイス33Bのボリューム属性30132が「Secondary」であるため、移行先正ストレージ装置3Aのマッピング先正論理デバイス33Aに対し、ライトデータを含む更新コピー要求を発行(送信)する。移行先正ストレージ装置3Aは、移行先副ストレージ装置3Bから更新コピー要求を受信すると、自装置のキャッシュメモリ303におけるマッピング先正論理デバイス33Aに対応づけられた領域に、ライトデータを格納する。移行先正ストレージ装置3Aは、移行先副ストレージ装置3Bへ更新コピー要求に対する完了応答を送信する。
ここで、後述するように、移行元正論理デバイス33Cは、移行元副ストレージ装置3Dからの更新コピー要求に基づき、ライトデータの更新が行われる。仮に移行先正ストレージ装置3Aが移行元正ストレージ装置3Cへライトデータをデステージングしたとすると、移行元正論理デバイス33Cが二重に更新されることになり、ライト要求に対する処理コストが増大する。
そこで、本実施例では、移行先正ストレージ装置3Aは、移行元正論理デバイス33Cが二重に更新されることを防ぐために、マッピング先正論理デバイス33Aのライトキャッシュモード30125が「THROUGH」であるにも関わらず、ライトデータの移行元正論理デバイス33Cへのデステージングを行わないように制御する。すなわち、移行先正ストレージ装置3Aは、更新コピー要求のライトデータを、移行元正ストレージ装置3Cの移行元副論理デバイス33Cに対してデステージングしないデータとして管理する。
具体的には、移行先正ストレージ装置3Aは、キャッシュ管理テーブル3013にライトデータについて登録する際、ライトデータを格納するキャッシュメモリ303のキャッシュアドレス30140のデータ属性30143を「Clean」とする。移行先正ストレージ装置3Aで、ライト要求と非同期に行われるデステージング処理において、データ属性30143が「Clean」であるキャッシュアドレス30140の領域についてはデステージングされない。したがって、移行元正論理デバイス33Cが二重に更新されず、ライト要求に対する処理コストを削減できる。
移行先副ストレージ装置3Bは、更新コピー要求に対する完了応答を受信した後、論理デバイス管理テーブル3012を参照して、マッピング先副論理デバイス33Bのライトキャッシュモード30125を「THROUGH」と判定し、自装置のキャッシュメモリ303におけるマッピング先副論理デバイス33Bに対応づけられた領域に、ライトデータを格納する。さらに、移行先副ストレージ装置3Bは、移行元副ストレージ装置3Dへ移行元副論理デバイス33Dに対するライト要求を発行することにより、ライトデータを移行元副論理デバイス33Dへデステージングする。
移行元副ストレージ装置3Dは、移行先副ストレージ装置3Bからライト要求を受信すると、移行元副論理デバイス33Dのボリューム属性30132が「Secondary」であるため、移行元正ストレージ装置3Cの移行元正論理デバイス33Cに対し、ライトデータを含む更新コピー要求を発行する。
移行元正ストレージ装置3Cでは、受信した更新コピー要求に基づき、自装置のキャッシュメモリ303における移行元正論理デバイス33Cに対応づけられた領域に、ライトデータを格納する。その後、移行元正ストレージ装置3Cは、移行元副ストレージ装置3Dへ更新コピー要求に対する完了応答を送信する。
その後、移行元副ストレージ装置3Dは、自装置のキャッシュメモリ303における移行元副論理デバイス33Dに対応づけられた領域に、ライトデータを格納する。移行元副ストレージ装置3Dは、移行先副ストレージ装置3Bへライト要求に対する完了応答を送信する。移行先副ストレージ装置3Bは、ホスト計算機2へライト要求に対する完了応答を送信する。
移行元正ストレージ装置3Cは、自装置のキャッシュメモリ303に格納されたライトデータを、移行元正論理デバイス33Cに対応づけられた仮想デバイス32を構成する記憶装置31へデステージングする処理を、更新コピー要求に対する完了応答とは非同期に実行する。同様に、移行元副ストレージ装置3Dは、自装置が有するキャッシュメモリ303に格納されたライトデータを、移行元副論理デバイス33Dに対応づけられた仮想デバイス32を構成する記憶装置31へデステージングする処理を、ライト要求に対する完了応答とは非同期に実行する。移行元副ストレージ装置3Dは、移行元正ストレージ装置3Cと移行元副ストレージ装置3Dそれぞれにおけるデステージング処理の完了を待たずに、移行先副ストレージ装置3Bへ完了応答するので、結果として計算機システムのHA構成を維持しつつ、ホスト計算機2のライト要求に対する計算機システムとしての応答を高速化できる。
移行先副ストレージ装置3Bは、ホスト計算機2からマッピング先副論理デバイス33Bに対するリード要求を受信した場合、マッピング先副論理デバイス33Bのリードキャッシュモード30124が「ON」であるため、リードデータが自装置のキャッシュメモリ303に存在するときは、リードデータをキャッシュメモリ303からホスト計算機2へ転送する。図12のマッピング先副論理デバイス33Bのリードキャッシュモード30124が「OFF」の場合と比較して、リード要求に対して高速に応答可能となる。
一方、移行先副ストレージ装置3Bは、リードデータが自装置のキャッシュメモリ303に存在しないときは、リードデータを移行元副論理デバイス33Dから読み込んだ後、キャッシュメモリ303からホスト計算機2へ転送する。
図13を用いて、図9のフローチャートにおいてステップS1006、S1007を実行中の状態について説明する。ホスト計算機2がマッピング先正論理デバイス33Aまたはマッピング先副論理デバイス33Bに対してリードする場合の処理は、図13で上述した処理と同様である。
ホスト計算機2がマッピング先正論理デバイス33Aまたはマッピング先副論理デバイス33Bへライトする場合、図13で上述した処理に加えて、以下の処理を実行する。
ステップS1006において、移行先正ストレージ装置3Aで、マッピング先正論理デバイス33Aのデータを、移行先正論理デバイス33A’へコピーしている場合、移行先正ストレージ装置3Aは、ホスト計算機2からマッピング先正論理デバイス33Aに対するライト要求を受信すると、キャッシュメモリ303と移行元正論理デバイス33Cとマッピング先副論理デバイス33Bに加えて、移行先正論理デバイス33A’も更新した後、ホスト計算機2へライト要求に対する完了応答を送信する。
また、移行先正ストレージ装置3Aは、移行先副ストレージ装置3Bからマッピング先正論理デバイス33Aに対する更新コピー要求を受信すると、キャッシュメモリ303に加えて、移行先正論理デバイス33A’も更新した後、移行先副ストレージ装置3Bへ更新コピー要求に対する完了応答を送信する。
このようにライト要求または更新コピー要求を受信したときに、移行先正論理デバイス33A’を更新することにより、マッピング先正論理デバイス33Aから移行先正論理デバイス33A’への全領域コピーの完了後に、マッピング先正論理デバイス33Aと移行先正論理デバイス33A’が不一致となることを防ぐ。
また、ステップS1007において、移行先副ストレージ装置3Bで、マッピング先副論理デバイス33Bのデータを、移行先副論理デバイス33B’へコピーしている場合は、上述した処理と同様の処理を行い、マッピング先副論理デバイス33Bに対するライト要求または更新コピー要求を受信したときに、移行先副論理デバイス33B’を更新する。移行先副ストレージ装置3Bは、移行先副論理デバイス33B’を更新した後、ライト要求または更新コピー要求に対する完了応答を送信する。
図14は、ストレージ移行処理を終了した後(図9のフローチャートにおいてステップS1007を実行した後)の計算機システムの状態を示す図である。移行先正ストレージ装置3Aのマッピング先正論理デバイス33Aと、移行先副ストレージ装置3Bのマッピング先副論理デバイス33Bの間でHAペアが組まれている。
ホスト計算機2は、ユーザプログラム210が仮想論理デバイスに対してライトまたはリードする場合、交替パス制御プログラム211のアクセス制御により、マッピング先正論理デバイス33Aまたはマッピング先副論理デバイス33Bに対して入出力要求(ライト要求またはリード要求)を発行する。このとき、移行元正ストレージ装置3Cと移行元副ストレージ装置3Dは使用されない。
移行先正ストレージ装置3Aで、移行先正論理デバイス33A’及びマッピング先正仮想デバイス32Aを削除しても良く、仮想デバイス管理テーブル3011と論理デバイス管理テーブル3012において、移行先正論理デバイス33A’及びマッピング先正仮想デバイス32Aに関する情報を更新(削除)しても良い。同様に、移行先副ストレージ装置3Bで、移行先副論理デバイス33B’及びマッピング先副仮想デバイス32Bを削除しても良く、仮想デバイス管理テーブル3011と論理デバイス管理テーブル3012において、移行先副論理デバイス33B’及びマッピング先副仮想デバイス32Bに関する情報を更新(削除)しても良い。
上述のとおり、移行元正ストレージ装置3Cと移行元副ストレージ装置3Dは使用されないため、移行元正ストレージ装置3Cと移行元副ストレージ装置3Dは撤去可能である。すなわち、本実施例の計算機システムは、HAペアを有する移行元正ストレージ装置3Cと移行元副ストレージ装置3Dを、それぞれ移行先正ストレージ装置3Aと移行先副ストレージ装置3Bに、HA構成を維持しながらリプレースできる。
移行先正ストレージ装置3Aは、ホスト計算機2からマッピング先正論理デバイス33Aに対するライト要求を受信すると、マッピング先正論理デバイス33Aのライトキャッシュモード30125が「BACK」であるため、自装置のキャッシュメモリ303におけるマッピング先正論理デバイス33Aに対応づけられた領域に、ライトデータを格納する。移行先正ストレージ装置3Aは、移行先副ストレージ装置3Bのマッピング先副論理デバイス33Bに対し、ライトデータを含む更新コピー要求を発行する。移行先副ストレージ装置3Bは、受信した更新コピー要求に基づき、自装置のキャッシュメモリ303におけるマッピング先副論理デバイス33Bに対応づけられた領域に、ライトデータを格納する。移行先正ストレージ装置3Aは、ライトデータの移行先正記憶装置31A’へのデステージングを行う前に、ホスト計算機2へ完了応答を送信する。
移行先正ストレージ装置3Aは、ホスト計算機2からマッピング先正論理デバイス33Aに対するリード要求を受信すると、マッピング先正論理デバイス33Aのリードキャッシュモード30124が「ON」であるため、リードデータが自装置のキャッシュメモリ303に存在する場合、リードデータをキャッシュメモリ303からホスト計算機2へ転送する。一方、移行先正ストレージ装置3Aは、リードデータが自装置のキャッシュメモリ303に存在しない場合、リードデータを移行先正記憶装置31A’から読み込んだ後、キャッシュメモリ303からホスト計算機2へ転送する。
移行先副ストレージ装置3Bは、ホスト計算機2からマッピング先副論理デバイス33Bに対するライト要求を受信すると、ライト要求に基づき、移行先正ストレージ装置3Aのマッピング先正論理デバイス33Aに対し、ライトデータを含む更新コピー要求を発行する。移行先正ストレージ装置3Aは、受信した更新コピー要求に基づき、自装置のキャッシュメモリ303におけるマッピング先正論理デバイス33Aに対応づけられた領域に、ライトデータを格納する。その後、移行先副ストレージ装置3Bは、マッピング先副論理デバイス33Bのライトキャッシュモード30125が「BACK」であるため、自装置のキャッシュメモリ303におけるマッピング先副論理デバイス33Bに対応づけられた領域に、ライトデータを格納する。移行先副ストレージ装置3Bは、ライトデータの移行先副記憶装置31B’へのデステージングを行う前に、ホスト計算機2へ完了応答を送信する。
移行先副ストレージ装置3Bは、ホスト計算機2からマッピング先副論理デバイス33Bに対するリード要求を受信すると、マッピング先副論理デバイス33Bのリードキャッシュモード30124が「ON」であるため、リードデータが自装置のキャッシュメモリ303に存在する場合、リードデータをキャッシュメモリ303からホスト計算機2へ転送する。一方、移行先副ストレージ装置3Bは、リードデータが自装置のキャッシュメモリ303に存在しない場合、リードデータを移行先副記憶装置31B’から読み込んだ後、キャッシュメモリ303からホスト計算機2へ転送する。
図15は、ストレージ装置3がホスト計算機2からリード要求を受信した際に行う処理(以下、ストレージリード処理)のフローチャートである。ストレージ装置3は、ホスト計算機2からリード要求を受信する(S1010)。次に、ストレージ装置3は、リード先の論理デバイス33のリードキャッシュモード30124が「ON」であるか否かを判定する(S1011)。
ストレージ装置3は、この判定において肯定結果を得ると(S1011:YES)、ステップS1014に進む。このとき、ストレージ装置3は、キャッシュのヒット/ミスを判定する。具体的には、ストレージ装置3は、キャッシュ管理テーブル3014を参照し、リード先の論理デバイス30141及びLBA30142を持つエントリが存在するか否かを判定する。
ストレージ装置3は、この判定において肯定結果を得ると(S1014:YES)、ステップS1015に進む。このとき、ストレージ装置3は、リードデータをキャッシュメモリ303から取得し、ホスト計算機2へ送信する(S1015)。
次に、ストレージ装置3は、ホスト計算機2へリード要求に対する完了報告を送信し(S1018)、ストレージリード処理を終了する。
一方、ストレージ装置3は、ステップS1011の判定において否定結果を得ると(S1011:NO)、ステップS1012に進む。このとき、ストレージ装置3は、リードデータを、リード先の論理デバイス33と関連づけられている仮想デバイス32からバッファメモリへ転送する。バッファメモリは、例えば、ストレージ装置3のキャッシュメモリ303において、キャッシュに使用しない領域である。
S1012またはS1016で、仮想デバイスからバッファメモリまたはキャッシュメモリ303へリードデータを転送する方法に関し、仮想デバイス管理テーブル3011において当該仮想デバイス32に対応するエントリのデバイス種別30111が「Internal」の場合、リードデータをストレージ装置3内の記憶装置31から取得して転送する。一方、仮想デバイス管理テーブル3011において当該仮想デバイス32に対応するエントリのデバイス種別30111が「External」の場合、リードデータを外部のストレージ装置3から取得して転送する。
次に、ストレージ装置3は、リードデータをバッファメモリからホスト計算機2へ転送する(S1013)。ストレージ装置3は、ステップS1018の処理を行う。
一方、ストレージ装置3は、ステップS1014の判定において否定結果を得ると(S1014:NO)、ステップS1016に進む。このとき、ストレージ装置3は、リードデータを、リード先の論理デバイス33と関連づけられている仮想デバイス32からキャッシュメモリ303へ転送する。
次に、ストレージ装置3は、後続のリード要求でキャッシュメモリ303からリードデータをホスト計算機2へ転送できるように、リードデータについてキャッシュ管理テーブル3014へ登録する(S1017)。この際、データ属性30143を「Clean」として登録する。次に、ストレージ装置3は、上述したステップS1015に進む。
図16は、ストレージ装置3がホスト計算機2からライト要求を受信した際に行う処理(以下、ストレージライト処理)のフローチャートである。ストレージ装置3は、ホスト計算機2からライト要求を受信する(S1020)。次に、ストレージ装置3は、ライト先の論理デバイス33のボリューム属性30132が「Secondary」であるか否かを判定する(S1021)。
ストレージ装置3は、この判定において肯定結果を得ると(S1021:YES)、ステップS1022へ進む。ストレージ装置3は、HAペアの相手の論理デバイス33へ更新コピー要求を送信する(S1022)。S1022及びS1025の具体的処理として、ストレージ装置3は、ペア管理テーブル3013を参照し、ライト先の論理デバイス33に対応するエントリの相手装置製番30133によって特定されるストレージ装置3の相手論理デバイス番号30134によって特定される論理デバイス33宛に、更新コピー要求を送信する。
次に、ストレージ装置3は、自論理デバイス33を更新する(S1023)。自論理デバイス33の更新の詳細については、図17のフローチャートを用いて説明する。
次に、ストレージ装置3は、ライト先の論理デバイス33のボリューム属性30132が「Primary」であるか否かを判定する(S1024)。
ストレージ装置3は、この判定において肯定結果を得ると(S1024:YES)、ステップS1025に進む。ストレージ装置3は、HAペアの相手の論理デバイス33へ更新コピー要求を送信する(S1025)。
次に、ストレージ装置3は、ホスト計算機2へライト要求に対する完了報告を送信し(S1026)、ストレージライト処理を終了する。
一方、ストレージ装置3は、ステップS1021の判定において否定結果を得ると(S1021:NO)、ステップS1023に進む。
一方、ストレージ装置3は、ステップS1024の判定において否定結果を得ると(S1024:NO)、ステップS1026に進む。
図17は、ストレージ装置3が自装置内の論理デバイス33を更新する際に行う処理(以下、論理デバイス更新処理)のフローチャートである。ストレージ装置3は、ライト先の論理デバイス33のライトキャッシュモード30125が「OFF」であるか否かを判定する(S1030)。
ストレージ装置3は、この判定において肯定結果を得ると(S1030:YES)、ステップS1031に進む。ストレージ装置3は、ライトデータを、ライト要求送信元からバッファメモリへ転送する(S1031)。ライト要求送信元は、ホスト計算機2または他のストレージ装置3である。
次に、ストレージ装置3は、ライトデータをバッファメモリからライトデータに対応する論理デバイス33と関連づけられている仮想デバイス32へ転送する(S1032)。S1032またはS1037の具体的な処理として、仮想デバイス管理テーブル3011において当該仮想デバイス32に対応するエントリのデバイス種別30111が「Internal」の場合、ストレージ装置3は、ライトデータをストレージ装置3内の記憶装置31に格納する。一方、仮想デバイス管理テーブル3011において当該仮想デバイス32に対応するエントリのデバイス種別30111が「External」の場合、ストレージ装置3は、ライトデータを外部のストレージ装置3へ転送する。
ストレージ装置3は、ステップS1032を終了すると、論理デバイス更新処理を終了する。
一方、ストレージ装置3は、ステップS1030の判定において否定結果を得ると(S1030:NO)、ステップS1033に進む。このとき、ストレージ装置3は、キャッシュのヒット/ミスを判定する(S1033)。具体的には、ストレージ装置3は、キャッシュ管理テーブル3014を参照し、ライトデータに対応する論理デバイス30141とLBA30142を持つエントリが存在するか否かを判定する。
ストレージ装置3は、この判定において肯定結果を得ると(S1033:YES)、ステップS1034に進む。ストレージ装置3は、ライトデータを、ライト要求送信元からキャッシュメモリ303へ転送する(S1034)。ライト要求送信元は、ホスト計算機2または他のストレージ装置3である。
次に、ストレージ装置3は、ライト先の論理デバイス33のライトキャッシュモード30125が「THROUGH」であるか否かを判定する(S1035)。ストレージ装置3は、この判定において肯定結果を得ると(S1035:YES)、ステップS1036に進む。このとき、ストレージ装置3は、ライト要求の送信元がホスト計算機2であるか否かを判定する。
ストレージ装置3は、この判定において肯定結果を得ると(S1036:YES)、ステップS1037に進む。ストレージ装置3は、ライトデータをキャッシュメモリ303からライトデータに対応する論理デバイス33と関連づけられている仮想デバイス32へ転送(デステージング)する(S1037)。
次に、ストレージ装置3は、ライトデータについて、キャッシュ管理テーブル3014へ登録する。この際、データ属性30143を「Clean」として登録する。
ストレージ装置3は、ステップS1038を終了すると、論理デバイス更新処理を終了する。
一方、ストレージ装置3は、ステップS1033の判定において否定結果を得ると(S1033:NO)、ステップS1039に進む。ストレージ装置3は、ライトデータを格納するための領域をキャッシュメモリ303上に確保する(S1039)。具体的には、ストレージ装置3は、キャッシュ管理テーブル3014に新たにエントリを追加する。ストレージ装置3は、追加するエントリにおいて、キャッシュアドレス30140を、他のエントリで使われておらず、キャッシュメモリ303内の領域を特定するための値に設定する。また、ストレージ装置3は、追加するエントリにおいて、論理デバイス番号30141をライト先の論理デバイス33を特定する番号に、LBA30142をライト先のLBAに、設定する。次に、ストレージ装置3は、ステップS1034に進む。
一方、ストレージ装置3は、ステップS1035の判定において否定結果を得ると(S1035:NO)、ステップS1040に進む。否定結果を得たということは、ライトキャッシュモード30125は「BACK」である。このとき、ストレージ装置3は、ライトデータについて、データ属性30143を「Dirty」として、キャッシュ管理テーブル3014へ登録する。
ストレージ装置3は、ステップS1040を終了すると、論理デバイス更新処理を終了する。ストレージ装置3は、ステップS1036の判定において否定結果を得ると(S1036:NO)、ステップS1038に進む。
実施例1と同様の構成要素には同じ符号をつけて、説明を省略する。以下、実施例1と異なる点について説明し、その他の構成要素は実施例1と同様である。例えば、図2〜図8で示される実施例1の計算機システムの構成、またストレージ装置3で実行される図15のストレージリード処理、図16のストレージライト処理、図17の論理デバイス更新処理は、本実施例の計算機システムでも適用可能である。
実施例1では、HA構成を組んでいる2台のストレージ装置3におけるHAペアを、異なる2台のストレージ装置3に移行する場合について説明した。本実施例では、HA構成を組んでいる2台のストレージ装置3におけるHAペアについて、HAペアの一方の論理デバイス33を異なるストレージ装置3に移行し、HAペアの他方の論理デバイス33は同じストレージ装置内で移行する場合について説明する。
図18は、本実施例の計算機システムの構成を示す図である。複数のストレージ装置3が、ネットワーク4を介して1又は複数のホスト計算機2と接続されている。
以下、ストレージ装置3として、ストレージ装置3E、移行先ストレージ装置3F、移行元ストレージ装置3Gについて説明する。ストレージ装置3Eと移行元ストレージ装置3Gは、ストレージの可用性を向上させるためのHA構成を組んでいる。
本実施例の計算機システムでは、HA構成を維持しながら、ストレージ装置3Eと移行元ストレージ装置3GのActive−Active型のHAペアを、ストレージ装置3Eと移行先ストレージ装置3Fに移行することができる。ここで、HAペアの移行とは、移行元ストレージ装置3Gが有するHAペアの一方の論理デバイス33のデータを移行先ストレージ装置3Fに移行して、ストレージ装置3Eが有するHAペアの他方の論理デバイス33のデータを同じストレージ装置3E内の異なる論理デバイスに移行することで、ストレージ装置3Eと移行先ストレージ装置3Fでホスト計算機2にHAペアを提供することである。HAペアの移行後、ストレージ装置3Eと移行先ストレージ装置3Fが、HA構成を組んでいる。
本実施例の計算機システムにおけるHAペアの移行方法は、HAペアを有するストレージ装置3Eと移行元ストレージ装置3Gについて、HA構成を維持しながら、一方の移行元ストレージ装置3Gを移行先ストレージ装置3Fにリプレースする場合に適用可能である。
本実施例におけるストレージ移行処理は、基本的に図9を用いて説明した処理と同じであり、以下異なる点について説明する。
ストレージ装置3Eが有するHAペアの論理デバイス33のボリューム属性30132が「Primary」であり、移行元ストレージ装置3Gが有するHAペアの論理デバイス33のボリューム属性30132が「Secondary」である場合、移行先ストレージ装置3Fは実施例1のストレージ移行処理の移行先副ストレージ装置3Bと同様の処理を行う。また、移行元ストレージ装置3Gは、実施例1のストレージ移行処理の移行元副ストレージ装置3Dと同様の処理を行う。
一方、ストレージ装置3Eは、実施例1の移行先正ストレージ装置3Aと移行元正ストレージ装置3Cの両方の処理を行う。以下、ストレージ移行処理におけるストレージ装置3Eに関する動作について説明する。
ステップS1000では、ストレージ装置3Eは、管理装置1からの指示を受けて、ストレージ装置3Eが有する移行元正論理デバイス33Cを、ストレージ装置3E内でマッピング先正仮想デバイス32Aとして仮想化する。このとき、ストレージ装置3Eは、ストレージ装置3Eが有する論理デバイス管理テーブル3012のマッピング先論理デバイス33Aに対応するエントリのリードキャッシュモード30124を「OFF」に、ライトキャッシュモード30125を「OFF」に設定する。
ステップS1002では、ストレージ装置3Eは、管理装置1からの指示を受けて、ストレージ装置3E内に移行先正仮想デバイス32A’と移行先正論理デバイス33A’を作成する。
ステップS1004では、ホスト計算機2は、管理装置1からの指示を受けて、入出力要求の発行先をストレージ装置3E内で移行元正論理デバイス33Cからマッピング先正論理デバイス33Aへ変更する。
ステップS1005では、ストレージ装置3Eと移行先ストレージ装置3Fは、マッピング先正論理デバイス33Aとマッピング先副論理デバイス33BのHAペアを作成する。また、ストレージ装置3Eは、ストレージ装置3Eが有する論理デバイス管理テーブル3012のマッピング先正論理デバイス33Aに対応するエントリのリードキャッシュモード30124を「ON」に、ライトキャッシュモード30125を「THROUGH」に変更する。
ステップS1006では、ストレージ装置3Eは、管理装置1からの指示を受けて、マッピング先正論理デバイス33Aの全領域のデータを、移行先正論理デバイス33A’へコピーする。また、ストレージ装置3Eは、コピーの完了後、マッピング先正論理デバイス33Aと移行先正論理デバイス33A’に関連づけられている仮想デバイス32を交換する。また、ストレージ装置3Eは、ストレージ装置3Eが有する論理デバイス管理テーブル3012のマッピング先正論理デバイス33Aに対応するエントリのライトキャッシュモード30125を「BACK」に変更する。
また、ストレージ装置3Eが有するHAペアの論理デバイス33のボリューム属性30132が「Secondary」であり、移行元ストレージ装置3Gが有するHAペアの論理デバイス33のボリューム属性30132が「Primary」である場合についても、同様にストレージ移行処理を実行する。この場合、移行先ストレージ装置3Fは、実施例1のストレージ移行処理の移行先正ストレージ装置3Aと同様の処理を行う。また、移行元ストレージ装置3Gは、実施例1のストレージ移行処理の移行元正ストレージ装置3Cと同様の処理を行う。一方、ストレージ装置3Eは、実施例1の移行先副ストレージ装置3Bと移行元副ストレージ装置3Dの両方の処理を行う。
1 管理装置、2 ホスト計算機、3 ストレージ装置、4 ネットワーク、5 ネットワーク、30 コントローラ、31 記憶装置、32 仮想デバイス、33 論理デバイス、300 CPU、301 メモリ、302 ポート、303 キャッシュメモリ、3010 入出力制御プログラム、3011 仮想デバイス管理テーブル、3012 論理デバイス管理テーブル、3013 ペア管理テーブル、3014 キャッシュ管理テーブル

Claims (8)

  1. 論理デバイスに対応づけられた仮想デバイスを構成する記憶装置と、前記論理デバイスを管理するコントローラと、を有するストレージ装置を複数備える計算機システムにおけるデータの移行方法であって、
    第1のストレージ装置が有する第1の論理デバイスと、第2のストレージ装置が有する第2の論理デバイスで第1のHA(High Availability)ペアを構成している場合、
    前記第1の論理デバイスを、第3のストレージ装置が有する第1の仮想デバイスとして仮想化し、前記第3のストレージ装置が有する第3の論理デバイスに前記第1の仮想デバイスを対応づけ、
    前記第2の論理デバイスを、第4のストレージ装置が有する第2の仮想デバイスとして仮想化し、前記第4のストレージ装置が有する第4の論理デバイスに前記第2の仮想デバイスを対応づけるステップと、
    前記第3のストレージ装置が有する前記第3の論理デバイスと、前記第4のストレージ装置が有する前記第4の論理デバイスで第2のHAペアを構成するステップと、
    前記第2のHAペアを構成した後、前記第1のストレージ装置が有する前記第1の論理デバイスのデータを前記第3のストレージ装置に移行して、前記第3の論理デバイスのデータとして管理し、
    前記第2のストレージ装置が有する前記第2の論理デバイスのデータを前記第4のストレージ装置に移行して、前記第4の論理デバイスのデータとして管理するステップと、
    ホスト計算機の入出力要求の発行先を、前記第1のストレージ装置が有する前記第1の論理デバイスから前記第3のストレージ装置が有する第3の論理デバイスに変更し、
    前記ホスト計算機の入出力要求の発行先を、前記第2のストレージ装置が有する前記第2の論理デバイスから前記第4のストレージ装置が有する第4の論理デバイスに変更するステップと、
    前記第3のストレージ装置が前記ホスト計算機から前記第3の論理デバイスに対するライト要求を受信すると、前記第3のストレージ装置が有するキャッシュメモリに前記ライト要求のライトデータを格納し、前記第1のストレージ装置の前記第1の論理デバイスに対してライトデータをデステージングするステップと、
    前記第3のストレージ装置により、前記ライトデータを含む更新コピー要求を前記第4のストレージ装置に送信するステップと、
    前記第4のストレージ装置により、受信した前記更新コピー要求のライトデータを、前記第2のストレージ装置の前記第2の論理デバイスに対してデステージングしないデータとして管理するステップと、
    を有することを特徴とする
    データの移行方法。
  2. 前記第1のストレージ装置の前記第1の論理デバイスに対して前記ライトデータをデステージングするとき、
    前記第1のストレージ装置により、前記第1のストレージ装置が有するキャッシュメモリに前記ライトデータを格納するステップと、
    前記第1のストレージ装置により、前記ライトデータを含む更新コピー要求を前記第2のストレージ装置に送信するステップと、
    前記第2のストレージ装置により、前記第2のストレージ装置が有するキャッシュメモリに前記ライトデータを格納するステップと、を実行し、 前記第1のストレージ装置により、前記第1のストレージ装置が有するキャッシュメモリに格納されたライトデータを、前記第1の論理デバイスに対応づけられた仮想デバイスを構成する記憶装置へデステージングする処理を非同期に実行し、
    前記第2のストレージ装置により、前記第2のストレージ装置が有するキャッシュメモリに格納されたライトデータを、前記第2の論理デバイスに対応づけられた仮想デバイスを構成する記憶装置へデステージングする処理を非同期に実行する
    ことを特徴とする請求項のデータ移行方法。
  3. 前記第4のストレージ装置が前記ホスト計算機から前記第4の論理デバイスに対するライト要求を受信すると、前記ライトデータを含む更新コピー要求を前記第3のストレージ装置に送信するステップと、
    前記第3のストレージ装置により、受信した前記更新コピー要求のライトデータを、前記第1のストレージ装置の前記第1の論理デバイスに対してデステージングしないデータとして管理するステップと、
    前記第4のストレージ装置により、前記第4のストレージ装置が有するキャッシュメモリに前記ライトデータを格納し、前記第2のストレージ装置の前記第2の論理デバイスに対して前記ライト要求のライトデータをデステージングするステップと、
    をさらに有することを特徴とする請求項のデータ移行方法。
  4. 前記第2のストレージ装置の前記第2の論理デバイスに対して前記ライトデータをデステージングするとき、
    前記第2のストレージ装置により、前記ライトデータを含む更新コピー要求を前記第1のストレージ装置に送信するステップと、
    前記第1のストレージ装置により、前記第1のストレージ装置が有するキャッシュメモリに前記ライトデータを格納するステップと、
    前記第2のストレージ装置により、前記第2のストレージ装置が有するキャッシュメモリに前記ライトデータを格納するステップと、を実行し、
    前記第1のストレージ装置により、前記第1のストレージ装置が有するキャッシュメモリに格納されたライトデータを、前記第1の論理デバイスに対応づけられた仮想デバイスを構成する記憶装置へデステージングする処理を非同期に実行し、
    前記第2のストレージ装置により、前記第2のストレージ装置が有するキャッシュメモリに格納されたライトデータを、前記第2の論理デバイスに対応づけられた仮想デバイスを構成する記憶装置へデステージングする処理を非同期に実行する
    ことを特徴とする請求項のデータ移行方法。
  5. 前記第3のストレージ装置は、前記ホスト計算機から問合せ要求を受信すると、前記第2のHAペアの一方の前記第3の論理デバイスに関する応答を前記ホスト計算機に送信するステップと、
    前記第4のストレージ装置は、前記ホスト計算機から問合せ要求を受信すると、前記第2のHAペアの他方の前記第4の論理デバイスに関する応答を前記ホスト計算機に送信ステップと、をさらに有し、
    前記第3の論理デバイスに関する応答と前記第4の論理デバイスに関する応答は同一であることを特徴とする
    請求項のデータ移行方法。
  6. 前記第1のストレージ装置は、前記ホスト計算機から問合せ要求を受信すると、前記第1のHAペアの一方の前記第1の論理デバイスに関する応答を前記ホスト計算機に送信するステップと、
    前記第2のストレージ装置は、前記ホスト計算機から問合せ要求を受信すると、前記第1のHAペアの他方の前記第2の論理デバイスに関する応答を前記ホスト計算機に送信ステップと、をさらに有し、
    前記第1の論理デバイスに関する応答と、前記第2の論理デバイスに関する応答と、前記第3の論理デバイスに関する応答と、前記第4の論理デバイスに関する応答は、同一であることを特徴とする
    請求項のデータ移行方法。
  7. 論理デバイスに対応づけられた仮想デバイスを構成する記憶装置と、前記論理デバイスを管理するコントローラと、を有するストレージ装置を複数備える計算機システムにおけるデータの移行方法であって、
    第1のストレージ装置が有する第1の論理デバイスと、第2のストレージ装置が有する第2の論理デバイスで第1のHA(High Availability)ペアを構成している場合、
    前記第1の論理デバイスを、第3のストレージ装置が有する第1の仮想デバイスとして仮想化し、前記第3のストレージ装置が有する第3の論理デバイスに前記第1の仮想デバイスを対応づけ、
    前記第2の論理デバイスを、前記第2のストレージ装置が有する第2の仮想デバイスとして仮想化し、前記第2のストレージ装置が有する第4の論理デバイスに前記第2の仮想デバイスを対応づけるステップと、
    前記第3のストレージ装置が有する前記第3の論理デバイスと、前記第2のストレージ装置が有する前記第4の論理デバイスで第2のHAペアを構成するステップと、
    前記第2のHAペアを構成した後、前記第1のストレージ装置が有する前記第1の論理デバイスのデータを前記第3のストレージ装置に移行して、前記第3の論理デバイスのデータとして管理し、
    前記第2のストレージ装置が有する前記第2の論理デバイスのデータを、前記第4の論理デバイスのデータとして管理するステップと、
    ホスト計算機の入出力要求の発行先を、前記第1のストレージ装置が有する前記第1の論理デバイスから前記第3のストレージ装置が有する第3の論理デバイスに変更し、
    前記ホスト計算機の入出力要求の発行先を、前記第2のストレージ装置が有する前記第2の論理デバイスから第4の論理デバイスに変更するステップと、
    前記第3のストレージ装置が前記ホスト計算機から前記第3の論理デバイスに対するライト要求を受信すると、前記第3のストレージ装置が有するキャッシュメモリに前記ライト要求のライトデータを格納し、前記第1のストレージ装置の前記第1の論理デバイスに対してライトデータをデステージングするステップと、
    前記第3のストレージ装置により、前記ライトデータを含む更新コピー要求を前記第2のストレージ装置に送信するステップと、 前記第2のストレージ装置により、受信した前記更新コピー要求のライトデータを、前記第2のストレージ装置の前記第2の論理デバイスに対してデステージングしないデータとして管理するステップと、
    を有することを特徴とするデータ移行方法。
  8. 論理デバイスに対応づけられた仮想デバイスを構成する記憶装置と、前記論理デバイスを管理するコントローラと、を有するストレージ装置を複数備える計算機システムであって、
    第1の論理デバイスを有する第1のストレージ装置と、
    前記第1の論理デバイスと第1のHA(High Availability)ペアを構成する第2の論理デバイスを有する第2のストレージ装置と、
    前記第1の論理デバイスを仮想化した第1の仮想デバイスと、前記第1の仮想デバイスに対応づけられた第3の論理デバイスと、を有する第3のストレージ装置と、
    前記第2の論理デバイスを仮想化した第2の仮想デバイスと、前記第2の仮想デバイスに対応づけられた第4の論理デバイスと、を有する第4のストレージ装置と、
    ホスト計算機と、を備え、
    前記第3のストレージ装置と前記第4のストレージ装置は、前記第3のストレージ装置が有する前記第3の論理デバイスと、前記第4のストレージ装置が有する前記第4の論理デバイスで第2のHAペアを構成し、
    前記第2のHAペアを構成した後、前記第3のストレージ装置は、前記第1のストレージ装置が有する前記第1の論理デバイスのデータを前記第3のストレージ装置に移行して、前記第3の論理デバイスのデータとして管理し、
    前記第2のHAペアを構成した後、前記第4のストレージ装置は、前記第2のストレージ装置が有する前記第2の論理デバイスのデータを前記第4のストレージ装置に移行して、前記第4の論理デバイスのデータとして管理し、
    前記ホスト計算機は、前記ホスト計算機の入出力要求の発行先を、前記第1のストレージ装置が有する前記第1の論理デバイスから前記第3のストレージ装置が有する第3の論理デバイスに変更し、前記ホスト計算機の入出力要求の発行先を、前記第2のストレージ装置が有する前記第2の論理デバイスから前記第4のストレージ装置が有する第4の論理デバイスに変更し、
    前記第3のストレージ装置は、前記ホスト計算機から前記第3の論理デバイスに対するライト要求を受信すると、前記第3のストレージ装置が有するキャッシュメモリに前記ライト要求のライトデータを格納し、前記第1のストレージ装置の前記第1の論理デバイスに対してライトデータをデステージングし、
    前記第3のストレージ装置は、前記ライトデータを含む更新コピー要求を前記第4のストレージ装置に送信し、
    前記第4のストレージ装置は、受信した前記更新コピー要求のライトデータを、前記第2のストレージ装置の前記第2の論理デバイスに対してデステージングしないデータとして管理する
    ことを特徴とする計算機システム。
JP2016570387A 2015-01-21 2015-01-21 計算機システム、計算機システムにおけるデータの移行方法 Expired - Fee Related JP6271769B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/051435 WO2016117040A1 (ja) 2015-01-21 2015-01-21 計算機システム、計算機システムにおけるデータの移行方法

Publications (2)

Publication Number Publication Date
JPWO2016117040A1 JPWO2016117040A1 (ja) 2017-09-14
JP6271769B2 true JP6271769B2 (ja) 2018-01-31

Family

ID=56416606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016570387A Expired - Fee Related JP6271769B2 (ja) 2015-01-21 2015-01-21 計算機システム、計算機システムにおけるデータの移行方法

Country Status (3)

Country Link
US (1) US10503440B2 (ja)
JP (1) JP6271769B2 (ja)
WO (1) WO2016117040A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019075032A (ja) * 2017-10-19 2019-05-16 富士通株式会社 ストレージシステム、ストレージ制御装置およびプログラム
JP6606235B1 (ja) * 2018-07-13 2019-11-13 株式会社日立製作所 ストレージシステム
US10768837B2 (en) * 2018-10-31 2020-09-08 EMC IP Holding Company LLC Non-disruptive migration of a virtual volume in a clustered data storage system
US10895997B2 (en) * 2019-02-20 2021-01-19 Nutanix, Inc. Durable client-side caching for distributed storage
JP7212093B2 (ja) * 2021-03-25 2023-01-24 株式会社日立製作所 ストレージシステム、ストレージシステムの移行方法
US20240411474A1 (en) * 2023-06-09 2024-12-12 Hitachi, Ltd. Acceleration secondary use of data

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7997484B2 (en) * 2006-09-13 2011-08-16 Crane Merchandising Systems, Inc. Rich content management and display for use in remote field assets
US8443160B2 (en) 2010-08-06 2013-05-14 Hitachi, Ltd. Computer system and data migration method
JP5860462B2 (ja) 2011-03-02 2016-02-16 株式会社日立製作所 計算機システム及びデータ移行方法
US8832386B2 (en) * 2011-09-27 2014-09-09 Hitachi, Ltd. Management server and data migration method
US8832372B2 (en) * 2012-05-24 2014-09-09 Netapp, Inc. Network storage systems having clustered raids for improved redundancy and load balancing
CN106133676B (zh) 2014-04-21 2019-05-17 株式会社日立制作所 存储系统

Also Published As

Publication number Publication date
JPWO2016117040A1 (ja) 2017-09-14
US20170371587A1 (en) 2017-12-28
WO2016117040A1 (ja) 2016-07-28
US10503440B2 (en) 2019-12-10

Similar Documents

Publication Publication Date Title
JP6271769B2 (ja) 計算機システム、計算機システムにおけるデータの移行方法
US8639899B2 (en) Storage apparatus and control method for redundant data management within tiers
JP6074056B2 (ja) 計算機システムおよびデータ制御方法
JP5512833B2 (ja) ストレージの仮想化機能と容量の仮想化機能との両方を有する複数のストレージ装置を含んだストレージシステム
JP6898393B2 (ja) ストレージシステム及びデータ転送方法
US10296255B1 (en) Data migration techniques
JP6114397B2 (ja) 複合型ストレージシステム及び記憶制御方法
JP5718533B1 (ja) ストレージシステムのデータ移行方法
US20120226860A1 (en) Computer system and data migration method
JP2009043030A (ja) ストレージシステム
JP5635621B2 (ja) ストレージシステム及びストレージシステムのデータ転送方法
US11409454B1 (en) Container ownership protocol for independent node flushing
JP2007279845A (ja) ストレージシステム
US10936243B2 (en) Storage system and data transfer control method
US20220043582A1 (en) Read and Write Load Sharing in a Storage Array Via Partitioned Ownership of Data Blocks
CN104272281A (zh) 计算机系统和应用程序运行环境转移方法
US11740823B2 (en) Storage system and storage control method
US11822801B2 (en) Automated uniform host attachment
US8275958B2 (en) Storage system with remote copy controllers
JP6028415B2 (ja) 仮想サーバ環境のデータ移行制御装置、方法、システム
JP5597266B2 (ja) ストレージシステム
JP5355603B2 (ja) ディスクアレイ装置及び論理ボリュームアクセス方法
JP6000391B2 (ja) ストレージシステムのデータ移行方法
WO2016088372A1 (ja) アクセス装置、マイグレーション装置、分散ストレージシステム、アクセス方法及びコンピュータ読み取り可能記録媒体
JP2022061706A (ja) 計算機システム及び負荷分散方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171227

R150 Certificate of patent or registration of utility model

Ref document number: 6271769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees