JP2009070143A - Nas装置の差分リモートバックアップにおけるデータ復旧方法及び計算機システム - Google Patents
Nas装置の差分リモートバックアップにおけるデータ復旧方法及び計算機システム Download PDFInfo
- Publication number
- JP2009070143A JP2009070143A JP2007237942A JP2007237942A JP2009070143A JP 2009070143 A JP2009070143 A JP 2009070143A JP 2007237942 A JP2007237942 A JP 2007237942A JP 2007237942 A JP2007237942 A JP 2007237942A JP 2009070143 A JP2009070143 A JP 2009070143A
- Authority
- JP
- Japan
- Prior art keywords
- data
- difference
- file
- processing unit
- update
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 73
- 238000011084 recovery Methods 0.000 title claims description 35
- 238000012545 processing Methods 0.000 claims description 138
- 238000012546 transfer Methods 0.000 claims description 76
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 12
- 238000012790 confirmation Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 1
- 101150105138 nas2 gene Proteins 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2053—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
- G06F11/2094—Redundant storage or storage space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/1658—Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
- G06F11/1662—Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/16—Error detection or correction of the data by redundancy in hardware
- G06F11/20—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
- G06F11/2097—Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2201/00—Indexing scheme relating to error detection, to error correction, and to monitoring
- G06F2201/82—Solving problems relating to consistency
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2201/00—Indexing scheme relating to error detection, to error correction, and to monitoring
- G06F2201/84—Using snapshots, i.e. a logical point-in-time copy of the data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/40—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】リモートコピー元のNAS装置等に障害が発生してリモートコピーが失敗した際に、リモートコピー先のNAS装置で、受信済みのブロックのうちリモートコピーが完了したデータをファイル単位で保証する。
【解決手段】コピー元NAS装置2a、2cが、更新されたブロックとファイルの対応を、リモートコピー開始時に、コピー先NAS装置2b、2dに送信し、コピー先NAS装置2b、2dが、各ブロックのリモートコピー状態を記録する。コピー元NAS装置2a、2cの障害により、リモートコピーが失敗した際に、管理サーバ1がコピー先NAS装置2b、2dが記録した情報を参照し、更新ブロックを全て受信したファイルを選択する。コピー先NAS装置2b、2dは、管理サーバ1が選択したファイルの更新ブロックのデータを格納する。
【選択図】図2
【解決手段】コピー元NAS装置2a、2cが、更新されたブロックとファイルの対応を、リモートコピー開始時に、コピー先NAS装置2b、2dに送信し、コピー先NAS装置2b、2dが、各ブロックのリモートコピー状態を記録する。コピー元NAS装置2a、2cの障害により、リモートコピーが失敗した際に、管理サーバ1がコピー先NAS装置2b、2dが記録した情報を参照し、更新ブロックを全て受信したファイルを選択する。コピー先NAS装置2b、2dは、管理サーバ1が選択したファイルの更新ブロックのデータを格納する。
【選択図】図2
Description
本発明は、NAS装置間でストレージ装置のブロックごとに転送するリモートコピーに関する。
ディスクアレイ装置に代表されるストレージ装置は、ストレージ装置内のディスク装置の記憶域を論理的に分割して、ボリュームとしてホスト計算機に提供する。このようなストレージ装置をネットワークに接続し、ホスト計算機は、ネットワークを介してストレージ装置に接続し、ボリュームを利用する。このようにネットワークを介してボリュームを提供するストレージ装置の1つにNAS(Network Attached Storage)装置が知られている。NAS装置では、OS(Operating system)やファイルシステムが動作し、各ボリュームに格納されているファイルに対するNASクライアント(ホスト計算機)からの要求に応じたファイル入出力を実施する。
このようなNAS装置のファイルが格納されているボリュームの更新されたブロックのデータと、このボリュームのスナップショットの差分データを用いてNAS装置間でリモートコピーを実施する方法が開示されている(特許文献1)。
また、NAS装置間のリモートコピーにおいて、コピー元のNAS装置のファイルの更新内容とファイルの管理情報履歴を、コピー先のNAS装置が受信して、ボリュームに格納し、コピー先NAS装置で、ボリュームに格納したファイルの管理情報履歴を、キャッシュメモリに格納しているファイルの管理情報を更新する方法が開示されている(特許文献2)。この従来例では、ローカルサイトで更新が行われるのに合わせて、更新内容をリアルタイムにリモートサイトのファイルシステムに反映させて最新のファイルデータを参照可能としている。
特開2005−292952号公報
特開2005−128861号公報
特許文献1の方法により、運用中のNAS装置で、障害が発生した際に、リモートコピー先のNAS装置のボリュームに格納されているデータを用いて、障害が発生したNAS装置のボリュームの回復や、リモートコピー先のNAS装置で運用を継続することができる。
しかし、特許文献1では、ブロック単位で処理を行うため、リモートコピーする更新データや差分データがどのファイルのデータであるか考慮していない。このため、リモートコピーの処理中に、運用中のNAS装置で障害が発生した場合、リモートコピー先のNAS装置では、あるファイルに対する更新データと差分データを全て受信できたか否かを判断できないため、実施中であったリモートコピーで受信した更新データと差分データを、ボリュームに反映することが出来ない。したがって、前回のリモートコピーから、失敗したリモートコピーまでの運用中のNAS装置で更新されたデータの全てが、リモートコピー先のNAS装置に反映されない。このため、リモートコピー先のNAS装置から運用中のNAS装置のデータを復旧した後、もしくは、リモートコピー先のNAS装置で運用を再開した後、前回のリモートコピーから、失敗したリモートコピーの間に実施された全てのファイル操作を再度実施する必要がある。
また、特許文献2の方法により、リモートコピー先のNAS装置のキャッシュメモリ上のファイル管理情報は、リモートコピーが完了した時点のファイルの内容になるため、リモートコピー先NAS装置で、常に最新のファイルデータを参照することができる。
しかし、リモートコピー元のNAS装置のファイルが更新される度に、リモートコピー先NAS装置へのリモートコピーが実施される。即ち、ファイル単位のリモートコピーである。ところが、例えば、1つのトランザクションが複数のファイルを更新するような場合、これらの複数のファイルは、リモートコピー先のNAS装置でも1つのトランザクションで更新された内容に、更新する必要がある。このため、リモートコピーの処理中に、運用中のNAS装置で障害が発生した場合、リモートコピー先のNAS装置から運用中のNAS装置のデータを復旧した後、もしくは、リモートコピー先のNAS装置で運用を再開した後、どのファイルまでリモートコピーが完了したかを確認し、トランザクションを途中から再度実施するなどの対処が必要となる。
そこで本発明は、上記問題点に鑑みてなされたもので、差分スナップショットのリモートコピーをボリュームのブロック単位で実施するNAS装置において、リモートコピー元のNAS装置等に障害が発生してリモートコピーが失敗した際に、リモートコピー先のNAS装置で、受信済みのブロックのうちリモートコピーが完了したデータをファイル単位で保証することを目的とする。
本発明は、ネットワークを介してファイルのアクセスが行われる第1の運用ボリュームを提供する第1のNAS装置と、前記ネットワークを介して前記第1のボリュームの複製を格納する第2の運用ボリュームを提供する第2のNAS装置と、前記第1のNAS装置と第2のNAS装置を管理する管理計算機を備えて、前記第1のNAS装置に障害が発生したときに前記第2のNAS装置で前記第2の運用ボリュームを復旧する方法であって、前記第1のNAS装置は、演算処理を行うプロセッサと、情報を格納する第1のメモリと、前記第1の運用ボリュームのスナップショットの差分データを格納する第1の差分ボリュームと、前記差分データを管理する第1の差分管理処理部と、前記第2のNAS装置へデータを転送する第1の転送処理部と、前記第1の運用ボリュームに格納されているファイルとのうち更新されたファイルの更新データが格納されている前記第1の運用ボリュームのブロックの識別情報と、前記更新されたファイルの差分データが格納されている前記第1の差分ボリュームのブロックの識別情報との対応を管理する差分管理情報を具備し、前記第2のNAS装置は、演算処理を行うプロセッサと、情報を格納する第2のメモリと、前記第2の運用ボリュームのスナップショットの差分データを格納する第2の差分ボリュームと、前記差分データを管理する第2の差分管理処理部と、前記第1の転送処理部から転送されるデータを受信する第2の転送処理部と、を具備し、前記管理計算機は、演算処理を行うプロセッサと、情報を格納する第3のメモリと、前記第2のNAS装置と通信する第3の転送処理部と、前記第2の運用ボリュームと、前記第2の差分ボリュームに、更新データと差分データを格納するか否かを判定する判定処理部と、を具備し、前記第1の転送処理部が、前記差分管理情報を前記第2の転送処理部に送信し、前記第1の転送処理部が、前記差分管理情報の送信後に、前記第1の運用ボリュームの更新データと前記第1の差分ボリュームに格納されている差分データを前記第2の転送処理部に順次送信し、前記2の転送処理部が、前記第1の転送処理部から受信した前記差分管理情報を前記第2のメモリに格納し、前記2の転送処理部が、前記第1の転送処理部から更新データと差分データを受信すると共に、前記第2メモリに格納した差分管理情報に更新データと差分データの受信が完了したことを記録して、前記第2の転送処理部が、前記第2のメモリに格納された差分管理情報の更新データを全て受信できなかった際に、受信失敗通知を前記第3の転送処理部に送信し、前記第3の転送処理部が、前記第2の転送処理部から受信失敗通知を受信すると、前記第2のNAS装置の第2のメモリから前記差分管理情報を取得し、前記第3の転送処理部が、前記受信した差分管理情報を第3のメモリに格納して、前記前記判定処理部が、前記第3のメモリの差分管理情報を参照して、更新データと差分データの受信が完了したファイルを特定し、前記特定したファイルの更新指示を前記第2の転送処理部に送信し、前記第2の転送処理部が前記更新指示を受信し、当該更新指示で指定されたファイルの更新データを前記第2の運用ボリュームに格納する。
本発明のNAS装置の差分リモートバックアップにおけるデータ復旧方法は、リモートコピーの途中で、リモートコピー元のNAS装置で障害が発生し、リモートコピーが失敗した際に、リモートコピー先のNAS装置に全ての更新データと差分データの転送が完了したファイルについてのみ、リモートコピー先のNAS装置のボリュームに反映する。また、同時に更新が必要なファイルに関しては、全てのファイルの更新データと差分データの転送が完了した際に、リモートコピー先のNAS装置のボリュームに反映する。このため、リモートコピーが失敗した時点で、リモートコピーが完了しているファイルについては、リモートコピー前の状態に戻らないため、運用再開時のファイルの巻き戻りを抑えることができる。また、関連するファイルについては、ファイル間の整合性を保つことができるため、複数のファイルを扱うトランザクションを途中から実施する必要もなく、業務の再開も容易になる。
以下、本発明の一実施形態を添付図面に基づいて説明する。
<第1実施形態>
本発明の第1の実施例の概要を図1を用いて説明する。図1は、本発明の第1の実施形態を適用したストレージネットワークシステムのブロック図で、本実施形態の概要を示した図である。
本発明の第1の実施例の概要を図1を用いて説明する。図1は、本発明の第1の実施形態を適用したストレージネットワークシステムのブロック図で、本実施形態の概要を示した図である。
図1において、本実施形態のストレージネットワークシステムは、管理サーバ1と少なくとも1台のコピー元NAS装置2aと、コピー元NAS装置2aに接続するストレージ装置3aと、少なくとも1台のコピー先NAS装置2bと、コピー先NAS装置2bに接続するストレージ装置3bと、管理サーバ1がコピー元NAS装置2aとコピー先NAS装置2bとを接続する管理ネットワーク4と、コピー元NAS装置2aとコピー先NAS装置2bとを接続するデータネットワーク5を有する。なお、図1においては管理ネットワーク4とデータネットワーク5を異なるネットワークで構成したが、同一のネットワークで構成しても良い。
ストレージ装置3aと3bは、運用ボリューム8a、8bと差分ボリューム9a、9bを有する。運用ボリューム8a、8bは、NAS装置2a、2bの利用者(クライアント計算機)に対して、ファイルシステムを提供するためのボリュームである。差分ボリューム9a、9bは、運用ボリューム8a、8bの差分データ(例えば、差分スナップショット)、即ち、運用ボリューム8a、8bのデータが更新される際に、更新されるブロックに、格納されていたデータを格納するボリュームであり、一定間隔で作成される。図1の例では、1時間間隔で差分データを作成している。NAS装置2a、2bでは、差分作成処理プログラム90と、リモートコピー処理プログラム91が動作する。
コピー元NAS装置2aのCPU61(図7参照)が実行する差分作成処理プログラム90は、利用者から、NAS装置2aが提供するファイルシステムへの更新要求があった場合に、運用ボリューム8aの更新するブロックのデータを差分ボリューム9aに格納し、利用者からの更新要求の内容を運用ボリューム8aに格納する。
コピー元NAS装置2aのCPU61が実行するリモートコピー処理プログラム91は、運用ボリューム8aの更新されたブロックのデータと、差分ボリューム9aの最新の差分データ(図1では、1時間前の差分データ)を、対応するファイル名と共に、コピー先NAS装置2bへ送信するリモートコピーを実行する。この送信したデータは、コピー先NAS装置2bのCPU61が実行するリモートコピー処理プログラム91が受信し、運用ボリューム8bと差分ボリューム9bに格納する。
このリモートコピー処理プログラム91によるリモートコピーの処理が、コピー元NAS装置2aやストレージ装置3aの障害またはデータネットワークの障害等により、失敗した場合、管理サーバ1が、コピー先NAS装置2bに全ての更新されたブロックの更新データと、更新前のデータ(差分データ)のコピーが完了したファイルを特定し、特定したファイルを、コピー先NAS装置2bに通知する。コピー先NAS装置2bのCPU61が実行するリモートコピー処理プログラム91は、管理サーバ1から通知されたファイルの更新されたブロックのデータと、差分データについてのみ、運用ボリューム8bと差分ボリューム9bに反映する。
これにより、コピー先NAS装置2bにおいてはリモートコピーが失敗した時点で、リモートコピーが完了しているファイルについては、リモートコピー前の状態に戻ることはないため、運用再開時のファイルの巻き戻りを防ぐことができる。
以上の本発明の第1の実施形態の詳細を図2から図18を用いて説明する。
図2は、本発明の第1の実施形態を適用したストレージネットワークシステムを端的に表したブロック図である。
図2において、本実施形態のストレージネットワークシステムは、管理サーバ1と少なくとも1台のコピー元NAS装置2a、2cと、コピー元NAS装置2a、2bに接続するストレージ装置3a、3cと、少なくとも1台のコピー先NAS装置2b、2dと、コピー先NAS装置2b、2dに接続するストレージ装置3b、3dと、管理サーバ1をコピー元NAS装置2a、2cとコピー先NAS装置2b、2dと、に接続する管理ネットワーク4と、コピー元NAS装置2a、2cとコピー先NAS装置2b、2dと、コピー元NAS装置2a、2cが提供するファイルシステムを利用するNASクライアント500と、を接続するデータネットワーク5を有する。
NASクライアント500は、パーソナルコンピュータやワークステーションで構成され、コピー元NAS装置2a、2cが提供するファイルシステム(例えば、NFSやCIFS)サービスに接続し、コピー元NAS装置2a、2cが提供するファイルシステムへアクセスする。
ストレージ装置3a、3bは、それぞれ、コピー元NAS装置2aとコピー先NAS装置2bとを接続するための少なくとも1つのI/Oポート6と、ストレージ装置内の制御を行うコントローラ7と、少なくとも1つの運用ボリューム(P−VOL)8a、8bと、差分ボリューム(D−VOL)9a、9bとを構成する少なくとも1つのディスク装置10と、を有する。
コントローラ7では、NAS装置2a、2bからのボリュームへの読み書き要求(アクセス要求)に応じて、運用ボリューム8a、8bと差分ボリューム9a、9bに対して読み書きを実施する。なお、コピー元NAS装置2aとストレージ装置3a及びコピー先NAS装置2bとストレージ装置3bは、図1と同様に構成されてリモートコピーを実施する。
図2において、NAS装置2a、2b及びストレージ装置3a、3bは、第1のコピーペアを構成する。加えて、NAS装置2c、2d及びストレージ装置3c、3dが第2のコピーペアを構成する。第2のコピーペアでは、コピー元NAS装置2cに接続されたストレージ装置3cからコピー先NAS装置2dへ更新データと差分データがリモートコピーされ、コピー先NAS装置2dに接続されたストレージ装置3dへ書き込まれる。コピー元NAS装置2c及びコピー先NAS装置2dとストレージ装置3c、3dは、上記コピー元NAS装置2a及びコピー先NAS装置2bとストレージ装置3a、3bと同様に構成される。
図2にはNAS装置2a、2bとストレージ装置3a、3bで構成される第1のコピーペアと、NAS装置2c、2dとストレージ装置3c、3dで構成される第2のコピーペアが配置される。以下では、コピーペアを識別するため、第1のコピーペアを構成するコピー元の装置(NAS装置2a、ストレージ装置3a)をNAS1−1として識別し、コピー先の装置(NAS装置2b、ストレージ装置3b)をNAS1−2として識別する。同様に、第2のコピーペアを構成するコピー元の装置(NAS装置2c、ストレージ装置3c)をNAS2−1として識別し、コピー先の装置(NAS装置2d、ストレージ装置3d)をNAS2−2として識別する。
図3は、管理サーバ1の構成の一例を端的に示したブロック図である。図示するように、管理サーバ1は、CPU11と、管理ネットワーク4に接続するためのI/Oポート12と、キーボード17やマウス18を接続する入力装置13と、表示装置19を接続する出力装置14と、メモリ15と、これら11〜15を接続する内部バス16を有する。
メモリ15には、管理ネットワーク4の通信プロトコルで通信するための通信制御処理プログラム21と、本発明のNAS装置の差分リモートバックアップにおけるデータ復旧方法を実施する回復確認処理プログラム20が格納されている。CPU11がこれらのプログラムを実行する。また、メモリ15には、回復確認処理プログラム20が利用する、NAS管理テーブル30と、ファイル管理テーブル40と、ファイル更新テーブル50が格納される。なお、メモリ15には、図示していないが、オペレーティングシステムが格納されている。
図4は、NAS管理テーブル30の内容の一例を示す説明図である。図示するように、NAS管理テーブル30は、登録情報を識別するためのIDを格納するためのIDフィールド31と、NAS装置2a、2b、2c、2dを識別するための名称(NAS1−1〜NAS2−2)を格納するためのフィールド32と、NAS装置がコピー元NAS装置2a、2cであるか、コピー先NAS装置2b、2dであるかを識別するための種別を格納するフィールド33と、NAS装置2a、2b、2c、2dが管理ネットワーク4との接続に使用するI/Oポートに設定されているIPアドレスを格納するためのフィールド34と、を備えている。なお、リモートコピーは、IDフィールド31の値が同一のエントリに対応するストレージ装置間で実施する。
例えば、IDフィールド31の値が”001”のエントリから、IPアドレスが”192.168.1.1”のコピー元NAS装置2aを、IPアドレスが”192.168.1.2”のコピー先NAS装置2bにリモートコピーすることが分かる。
図5は、ファイル管理テーブル40の内容の一例を示す説明図である。図示するように、ファイル管理テーブル40は、登録情報を識別するためのIDを登録するためのIDフィールド41と、コピー先NAS装置2b、2dを識別するための名称を格納するためのフィールド42と、ファイル名を格納するためのフィールド43と、を備えている。IDフィールド41の値が同じエントリーが示すファイルは、整合性を保つことを示している。これらの整合性を保つ必要があるファイルを、以下では関連ファイルとする。
例えば、IDが”001”のエントリから、名称が”NAS1−2”のコピー先NAS装置2bでは、名称が”File1”と”File2”のファイルは整合性を保つファイルであることを示す。また、IDが”002”のエントリから、名称が”NAS1−2”のコピー先NAS装置2bでは、名称が”File3”のファイルと、名称が”NAS2−2”のコピー先NAS装置2dの名称が”File4”のファイルは、整合性を保つファイルであることを示す。
図6は、ファイル更新テーブル50の内容の一例を示す説明図である。図示するように、ファイル更新テーブル50は、コピー先NAS装置2bを識別するためのNAS装置名を格納するためのフィールド51と、更新するファイルの名称を格納するためのフィールド52と、を備えている。
例えば、NAS装置名が”NAS1−2”のコピー先NAS装置2bでは、名称が”File1”は、更新することができるファイルであることを示す。
図7は、NAS装置2a、2b、2c、2dの構成の一例を端的に示したブロック図である。図示するように、NAS装置2a、2b、2c、2dは、CPU(プロセッサ)61と、ストレージ装置3a、3bに接続するための少なくとも1つのI/Oポート62と、データネットワーク5と接続するための少なくとも1つの通信ポート63と、管理ネットワーク4に接続するための管理ポート64と、メモリ65と、これら61〜65を接続する内部バス66を有する。
メモリ65には、管理ネットワーク4やデータネットワーク5の通信プロトコルで通信するための通信制御処理プログラム67と、NAS装置2a、2b、2c、2dが提供するボリューム8a〜8d及び9a〜9dをホスト計算機(NASクライアント500)がアクセスするための機能を提供するNFS/CIFSサーバ処理プログラム68と、NFS/CIFSサーバ処理プログラム68がホスト計算機から受信したファイルへの読み書きの内容に応じた処理を実施するNAS−OS69と、更新されたファイルのデータの差分データを作成する差分作成処理プログラム90と、NAS装置2a、2b間と、2c、2d間でリモートコピーを実施するリモートコピー処理プログラム91が格納されている。CPU61がこれらのプログラムを実行する。また、メモリ65には、差分管理テーブル70と、ファイル管理情報80と、更新ログ100と、が格納される。
図8は、差分管理テーブル70の内容の一例を示す説明図である。差分管理テーブル70は、更新されたファイルの名称を格納するフィールド71と、フィールド71に格納された名称のファイルのデータを格納している運用ボリューム8a、8b、8c、8dでのブロックを識別するためのIdを設定するためのフィールド72と、フィールド72のIdが示すブロックの更新前のデータ、即ち差分データが格納されている差分ボリューム9a、9b、9c、9dのブロックを識別するためのIdを格納するためのフィールド73と、エントリに対応する最新の更新ブロックと差分ブロックをコピー元NAS装置2a、2cからコピー先NAS装置2b、2dに送信が完了したか否かを示す完了フラグを格納するためのフィールド74と、を備えている。
フィールド73には、差分データを作成する間隔で、順次ブロックのIdが格納される。例えば、1時間間隔で差分データを作成する場合、フィールド73aには、n時間前のデータが格納されているブロックのIdが格納され、フィールド73bには、n−1時間前のデータが格納されているブロックのIdが登録される。また、フィールド74の値が”0”の場合、送信されてないことを示し、”1”の場合、送信が完了している事を示している。なお、フィールド73は、差分データを管理するn時間に対応したn個のフィールド73a〜73nが設定される。
例えば、ファイル名が”File1”のファイルのデータが格納されている運用ボリューム8a、8b、8c、8dのブロックのうち、更新されたブロックのIdは、”P1”と”P2”であり、”P1”のn時間前(フィールド73a)とn−1時間前(フィールド73b)の差分データが格納されている差分ボリューム9a、9b、9c、9dのブロックIdは、”D1”と”D5”であり、”P2”のn時間前(フィールド73a)には更新されておらず、n−1時間前(フィールド73b)の差分データが格納されている差分ボリューム9a、9b、9c、9dのブロックIdは、”D6”であり、さらに完了フラグが”1”であることから”File1”の最新の更新ブロックと差分ブロックをコピー元NAS装置2aからコピー先NAS装置2bへの送信が完了していることを示す。
また、ファイル名が”File3”のファイルと運用ボリューム8a、8bの更新されたブロックのIdは、”P5”と”P2”であり、差分データが格納されている差分ボリュームのブロックIdは、”P5”のn時間前とn−1時間前の差分データが格納されている差分ボリュームのブロックIdは、”D4”と”D8”であり、”P2”のn時間前には更新されておらず、n−1時間前の差分データが格納されている差分ボリューム9a、9bのブロックIdは、”D6”であり、差分ボリュームのブロックIdが”D6”のブロックがコピー元NAS装置2aからコピー先NAS装置2b、2dへの送信が完了していることを示す。また、ファイル名が”File1”のファイルと、”File3”のファイルデータの一部は、運用ボリューム8a、8b、8c、8dのブロックIdが”P2”のブロックに格納されていることが分かる。すなわち、ファイル名が”File1”のファイルと、”File3”のファイルは、同じブロックにデータの一部を格納していることを示す。
図9は、ファイル管理情報80の内容の一例を示す説明図である。ファイル管理情報80は、ファイルの名称を格納するフィールド81と、フィールド81の名称のファイルのデータを格納している運用ボリューム8a、8b、8c、8dでのブロックを識別するためのIDを格納するフィールド82と、を備えている。
例えば、ファイル名が”File1”のファイルのデータが格納されている運用ボリュームのブロックのIdは、”P1”と”P2”と”P6”であり、ファイル名が”File3”のファイルのデータが格納されている運用ボリュームのブロックのIdは、”P5”と”P2”と”P8”であることが分かる。また、運用ボリュームのブロックIdが”P2”のブロックは、ファイル名が”File1”のファイルと”File3”のファイルのデータが格納されていることが分かる。
図10は、図8の差分管理テーブル70と、図9のファイル管理情報80の内容から、ファイル名が”File1”のファイルと運用ボリューム8a、8b、8c、8dのブロックと、差分ボリューム9a、9b、9c、9dのブロックの関係を示したブロック図である。図示するように、最新の”File1”は、運用ボリューム8a、8bのブロックIdが”P1”、”P2”、”P6”のブロックに格納されているデータで構成される。また、n時間前の”File1”は、運用ボリューム8a、8b.8c、8dのブロックIdが”P2”、”P6”のブロックに格納されているデータと、差分ボリューム9a、9b、9c、9dのブロックIdが”D1”のブロックに格納されているデータで構成される。また、n−1時間前の”File1”は、運用ボリューム8a、8b、8c、8dのブロックIdが”P6”のブロックに格納されているデータと、差分ボリューム9a、9b、9c、9dのブロックIdが”D5”、”D6”のブロックに格納されているデータで構成される。
図11は、更新ログ100の内容の一例を示す説明図である。更新ログ100は、更新されたファイルの名称を格納するフィールド101と、ファイルが更新された日時を格納するフィールド102と、更新したユーザの名称を格納するためのフィールド103と、を備えている。フィールド103の更新ユーザ名は、例えば、ファイルを更新したNASクライアント500の識別子などを用いることができる。
例えば、ファイル名が”File1”のファイルは、”2007/07/16 08:40”にユーザ”User1”によって更新された事が分かる。
次に、図12を用いて、コピー元NAS装置2a、2cで、ファイルが更新される際の処理手順を説明する。
図12は、コピー元NAS装置2a、2cが提供するストレージ装置3a、3cの運用ボリューム8a、8cに格納されているファイルの更新時の処理手順を示すフローである。
まず、NAS装置2a、2cでは、CPU61がNFS/CIFSサーバ処理プログラム68を実行し、運用ボリューム8a、8cを利用しているNASクライアント500から、ファイル更新要求を受信し(S1001)、更新ログ100に、エントリを追加する(S1002)。次に、S1003にて、NAS−OS69が、更新要求のあったファイルの更新すべき運用ボリューム8a、8cのブロックをファイル管理情報80を参照して特定する。次に、CPU61が差分作成処理プログラム90を実行して、S1004にて、差分管理テーブル70を参照し、S1003で特定されたブロックが、差分管理テーブル70に格納されているか否かを判定する(S1005)。S1005の判定結果で、該当するブロックが差分管理テーブル70に格納されてない場合は、S1006とS1007を実施後、S1008に遷移し、該当するブロックが差分管理テーブル70に格納されている場合、S1008に遷移する。
S1006では、S1003で特定したブロックに格納されているデータを差分ボリューム9a、9cに保存する。次に、S1007にて、S1003で特定したブロックに対応する差分管理テーブル70のエントリに、S1006で、データを保存した差分ボリューム9a、9cのブロックを格納する。このとき、S1003で特定したブロックに対応するエントリがない場合、新規にエントリを追加する。また、完了フラグのフィールド74は”0”として設定する。
S1008では、S1003で特定した運用ボリューム8a、8cのブロックに、ホスト計算機からの更新要求に含まれるデータを格納する。最後に、CPU61がNFS/CIFSサーバ処理プログラム68と通信制御処理プログラム67を実行して、更新が完了したことをホスト計算機に通知する。
以上の処理により、NASクライアント500等のホスト計算機からファイルの更新要求があったときには、当該ファイルを含む運用ボリューム8a、8cのブロックを差分ボリューム9a、9cに格納してから、更新要求に含まれるデータを運用ボリューム8a、8cのブロックに書き込む。
次に、図13と図14を用いて、コピー元NAS装置2aとコピー先NAS装置2b間で差分リモートコピーを実施する例として、差分データのリモートコピーの処理手順を説明する。
図13は、コピー元NAS装置2aのCPU61がリモートコピー処理プログラム91を実行し、コピー先NAS装置2bに更新データと差分データを送信する処理フローである。この処理は、管理サーバ1等から管理者がリモートコピーの実行を指示することで開始される。なお、NAS装置2cも同様の処理を行う。
コピー元NAS装置2aのCPU61はリモートコピー処理プログラム91を実行し、まず、S1101にて、差分管理テーブル70の全エントリを、コピー先NAS装置2bに送信する。次に、S1102にて、差分管理テーブル70のフィールド72に設定されている更新ブロックIdを取得し、この更新ブロックIdに対応する運用ボリューム8aのブロックに格納されているデータを読み込む。そして、S1103にて、差分管理テーブル70のフィールド73(フィールド73a〜73n)に格納されている差分ブロックIdを取得し、これらの差分ブロックIdに対応する差分ボリューム9aのブロックに格納されているデータを読み込む。
次にS1104にて、上記S1102、S1103で読み出した更新ブロックのデータと差分ブロックのデータを、CPU61が実行する通信制御処理プログラム67を介して、コピー先NAS装置2bに送信する。次に、S1105にて、差分管理テーブル70に格納されている全エントリの更新ブロックと差分ブロックを、コピー先NAS装置2bに送信したか判定し、全エントリの送信が完了してない場合、S1102に遷移し、差分管理テーブル70の次のエントリに対して処理を実施する。S1105にて、差分管理テーブル70の全エントリに対して処理が完了した場合、処理を終了する。
なお、上記処理は管理者の指示を契機に実行する例を示したが、所定の間隔で実行するようにしても良い。
図14は、コピー先NAS装置2bのCPU61がリモートコピー処理プログラム91を実行し、コピー元NAS装置から更新データと差分データを受信する処理フローである。なお、NAS装置2cからデータを受信するNAS装置2dも同様の処理を行う。
コピー先NAS装置2bのCPU61はリモートコピー処理プログラム91を実行して、まず、S1201にて、コピー元NAS装置2aから差分管理テーブル70を受信し、メモリ65に保存する。次に、S1202にて、コピー元NAS装置2aから送信されてくる更新ブロックと差分ブロックを受信する。次にS1203にて、更新ブロックと、差分ブロックの受信が成功したか否かを判定する。S1203の判定の結果、データの受信に失敗していた場合、S1208にて受信に失敗したことを示す受信失敗通知を、管理サーバ1に送信し、処理を終了する。受信失敗の判定は、例えば、通信プロトコルがTCP/IPの場合ではコネクションの異常終了を検知したときや、欠落したパケットの再送要求に対する応答が無い場合などに受信に失敗したことを判定することができる。
S1203の判定の結果、データの受信に成功していた場合、受信した更新ブロックと差分ブロックに対応するの差分管理テーブル70のエントリのフィールド74の値を”1”に更新し(S1204)、S1202で受信した更新ブロックと差分ブロックのデータを、メモリ65上に蓄積する(S1205)。次に、S1206にて、差分管理テーブル70の全てのエントリのフィールド74の値が”1”になっているか、即ち、差分管理テーブル70に格納されている全エントリの更新ブロックId72と差分ブロックId73のデータを全て受信したか判定し、全エントリの更新ブロックId72と差分ブロックId73のデータを全て受信してない場合、S1202に遷移し、次にコピー元NAS装置2aから送信される更新ブロックと差分ブロックのデータを受信する。
S1206の判定の結果、差分管理テーブル70の全エントリの更新ブロックId72と差分ブロックId73のデータを全て受信していた場合、S1207にて、S1205で蓄積した更新データと差分データを、運用ボリューム8bと差分ボリューム9bの該当するブロックに格納し、処理を終了する。
次に、図15を用いて、管理サーバ1のCPU11が実行する回復確認処理プログラム20の処理手順を説明する。回復確認処理プログラム20は、NAS装置2b、2dから受信失敗通知を受信したときに起動する。
図15は、CPU11が実行する回復確認処理プログラム20の処理フローである。CPU11は回復確認処理プログラム20を実行し、S1301でコピー先NAS装置2b、2dから受信失敗通知を受信して、S1302で、受信失敗通知を送信したコピー先NAS装置2b、2dの差分管理テーブル70を取得する。次に、S1303にて、S1302で所得した差分管理テーブル70を参照し、フィールド74の完了フラグの値が全て”1”となっているエントリのフィールド71のファイル名を、S1301で受信失敗通知を受信したコピー先NAS装置2b、2dの名称と共に、ファイル更新テーブル50に格納する。
次に、S1304にてコピー先NAS装置2b、2dから取得した差分管理テーブル70のエントリを1つ取得し、S1305にて、S1304で取得したエントリのフィールド74の完了フラグが全て”1”、即ち、全更新ブロックと全差分ブロックの受信が完了しているファイルのエントリであるか否かを判定する。S1305の判定の結果、全更新ブロックと全差分ブロックの受信が完了しているファイルのエントリの場合、S1309に遷移し、全更新ブロックと全差分ブロックの受信が完了してないファイルのエントリの場合、S1306とS1307とS1308を実施後、S1309に遷移する。
S1306では、S1304で取得したエントリのフィールド72の更新ブロックIdと同じ更新ブロックIdをフィールド72に格納されている差分管理テーブル70の他のエントリを検索する。すなわち、受信が完了していないファイルと同一ブロックのファイルが特定される。
S1307では、CPU11がファイル管理テーブル40を参照し、フィールド43のファイル名がS1304で取得したエントリのフィールド71のファイル名と一致するエントリを検索し、該当エントリのフィールド41のIdを取得する。そして、取得したIdと、フィールド41のIdが一致する他のエントリを検索する。すなわち、受信が完了していないファイルの関連ファイルが特定される。
S1308では、S1306で検索した差分管理テーブル70のエントリのフィールド71のファイル名、または、S1307で検索したファイル管理テーブル40のエントリのフィールド43のファイル名と、ファイル更新テーブル50からフィールド52のファイル名が一致するエントリを削除する。これにより、受信が完了しなかったブロックを含むファイルと、これらのファイルの関連ファイルがファイル更新テーブル50から削除される。
S1309では、差分管理テーブル70の全エントリに対してS1304以降の処理を実施したかを判定し、全エントリに対して実施してない場合、S1304に遷移し、次のエントリに対して上述の処理を実施する。S1309の判定の結果、全エントリに対して実施した場合、S1310にて、ファイル更新テーブル50のフィールド51に格納されている名称のコピー先NAS装置2b、2dを特定し、NAS管理テーブル30から該当するコピー先NAS装置2b、2dのIPアドレスを取得する。そして、IPアドレスを取得したコピー先NAS装置2b、2dに、ファイル更新テーブル50のフィールド52のファイル名と共に、更新通知を送信し、処理を終了する。この時、NAS管理テーブル30を参照して、コピー先NAS装置2bのIPアドレスを特定し、そのアドレスに対して、更新通知を送信する。
以上の処理により、管理サーバ1では受信失敗通知を受けると、通知を送信したコピー先NAS装置から差分管理テーブル70を取得し、この差分管理テーブル70の完了フラグ74が”0”のままでコピー元NAS装置2a、2cからデータの受信が完了していないファイルと、当該ファイルの関連ファイル及び当該ファイルと同一ブロックのファイルを除いたものを更新可能なファイル名としてコピー先NAS装置2bまたは2dに通知することができる。
次に、図16を用いて、コピー先NAS装置2b、2dのCPU61が実行するリモートコピー処理プログラム91が、管理サーバ1から更新通知を受信した際の処理を説明する。
図16は、コピー先NAS装置2b、2dのCPU61が実行するリモートコピー処理プログラム91が、管理サーバ1から更新通知を受信した際のフローである。
CPU61が実行するリモートコピー処理プログラム91は、S1401にて更新通知を管理サーバ1から受信すると、S1402に遷移する。S1402では、差分管理テーブル70から更新通知で指定されたファイル名と、フィールド71の値が一致するエントリを1件取得し、メモリ65上に蓄積しているコピー元NAS装置2a、2cから受信した更新データを、運用ボリューム8b、8dのS1402で取得したエントリのフィールド72のブロックIdのブロックに格納し、蓄積しているコピー元NAS装置2a、2cから受信した差分データを、差分ボリューム9b、9dのS1402で取得したエントリのフィールド73のブロックIdのブロックに格納する。次に、S1404にて、S1401で受信した更新通知で指定されている全てのファイルに対して処理が完了したかを判定し、まだ処理してないファイルがある場合、S1402に遷移し、全てのファイルに対して処理が完了している場合、処理を終了する。
以上の処理によって、管理サーバ1から通知を受けた更新可能ファイルについてのみ、コピー元NAS装置2a、2cから受信した更新データと差分データを適用して最新の内容に更新することができる。
次に、図17を用いて、管理サーバ1がファイル管理テーブル40を作成する手順を説明する。
図17は、管理サーバ1のCPU11が実行する回復確認処理プログラム20が、ファイル管理テーブル40を作成する処理フローである。この処理は、管理サーバ1を使用する管理者などが起動することで実行される。
まず、S1501にて、関連ファイル情報作成画面200を表示装置19に表示する。
図18は、関連ファイル情報作成画面200の一例である。図示するように、関連ファイル情報作成画面200には、NAS装置の名称を入力するためのフィールド201と、更新間隔を入力するフィールド202と、OKボタン203を備える。管理者は、フィールド201に、関連ファイル情報、即ち、ファイル管理テーブル40を作成するNAS装置の名称を入力し、フィールド202に、関連するファイルとして扱う、ファイル間の更新間隔を入力し、OKボタン203を選択する。
例えば、フィールド202に”5分”と入力した場合には、ファイルaが更新された3分後にファイルbが更新されると、ファイルaとファイルbは関連するファイルとして扱う。また、ファイルbの更新後、7分後にファイルcが更新された場合に、ファイルcはファイルa、ファイルbと関連するファイルとしては扱わない。
CPU11が実行する回復確認処理20は、関連ファイル情報作成画面200で、OKボタン203が選択されると、S1502に遷移する。
S1502では、関連ファイル情報作成画面200のフィールド201に入力された名称のNAS装置の更新ログ100を取得する。具体的には、NAS管理テーブル30からフィールド201に入力された名称と、フィールド32のNAS名が一致するエントリのフィールド34のIPアドレスに対して、CPU11が実行する通信制御プログラム21を介して接続し、更新ログ100を取得する。
次に、S1503にて、S1502で取得した更新ログ100のエントリをフィールド103の値、即ち、ファイルを更新した利用者(更新ユーザ)により、分類する。そして、S1504にて、S1503で利用者別に分類した更新ログのエントリのフィールド102の値、即ちファイルの更新時刻の間隔が、関連ファイル情報作成画面200のフィールド202で入力された更新間隔以内のエントリに分類する。そして、S1505では、更新間隔以内で同一の利用者によって更新された複数のファイルを関連ファイルとして抽出し、同一のIDを付加してファイル管理テーブル40に登録する。
以上、本発明のNAS装置の差分リモートバックアップにおけるデータ復旧方法の第1の実施形態では、NAS装置間で差分スナップショットを用いたリモートコピーする際に、更新データが格納されている運用ボリュームのブロックと、差分データが格納されている差分ボリュームのブロックを、更新されたファイルと関連付け、各ブロック毎に、リモートコピーの実施状態をコピー先NAS装置2bの差分管理テーブル70に記録する。管理サーバ1がコピー先NAS装置の差分管理テーブル70を参照して、コピー元NAS装置2a、2cの障害により、リモートコピーが失敗した際に、コピー先NAS装置2b、2dに全ての更新データと差分データの転送が完了したファイルをコピー先NAS装置2b、2dの運用ボリューム8b、8dと差分ボリューム9b、9dにデータを反映するファイルとして選択する。また、同時に更新が必要なファイルに関しては、全てのファイルの更新データと差分データの転送が完了している場合に、コピー先NAS装置2b、2dの運用ボリューム8b、8dと差分ボリューム9b、9dにデータを反映するファイルとして選択する。コピー先NAS装置2b、2dは、管理サーバ1が選択したファイルの更新データと差分データを運用ボリューム8b.8dと差分ボリューム9b、9dに格納する。これにより、リモートコピーが失敗した時点で、リモートコピーが完了しているファイルについては、リモートコピー前の状態に戻らないため、コピー先NAS装置2b、2dでの運用再開時のファイルの巻き戻りを抑えることができる。また、関連するファイルについては、ファイル間の整合性を保つことができるため、複数のファイルを扱うトランザクションを途中から実施する必要もなく、業務の再開も容易になる。さらに、管理サーバ1がコピー先NAS装置2b、2dに格納するファイルを選択するため、NAS装置間のファイルに関しても、整合性を保つことができる。
<第2実施形態>
次に、本発明の第2の実施形態を図19から図23を用いて説明する。
次に、本発明の第2の実施形態を図19から図23を用いて説明する。
図19は、本発明の第2の実施形態を適用したストレージネットワークシステムを端的に示したブロック図である。
図示するように、本実施形態のストレージネットワークシステムは、少なくとも1台のコピー元NAS装置2aと、コピー元NAS装置2aに接続するストレージ装置3aと、少なくとも1台のコピー先NAS装置2bと、コピー先NAS装置2bに接続するストレージ装置3bと、コピー元NAS装置2aとコピー先NAS装置2bとが接続するデータネットワーク5を有する。
ストレージ装置3a、3bは、それぞれ、コピー元NAS装置2aとコピー先NAS装置2bと接続するための少なくとも1つのI/Oポート6と、ストレージ装置内の制御を行うコントローラ7と、少なくとも1つの運用ボリューム(P−VOL)8a、8bと、差分ボリューム9a、9bとを構成する少なくとも1つのディスク装置10と、を有する。コントローラ7では、NAS装置2a、2bからのボリュームへの読み書き要求に応じて、運用ボリューム8a、8bと差分ボリューム9a、9bに対して読み書きを実施する。
なお、第2の実施形態におけるNAS装置2a、2bの構成は、第1の実施形態と同じであるため、説明を省略する。また、第2の実施形態では、コピー元NAS装置2aとコピー先NAS装置2bのCPU61が実行するリモートコピー処理プログラム91の処理が第1の実施形態と異なる。
以下に、第2の実施形態における、CPU61が実行するリモートコピー処理プログラム91の処理の一例を説明する。
図20は、本発明の第2の実施形態におけるコピー元NAS装置2aのCPU61が実行するリモートコピー処理プログラム91の処理フローである。
コピー元NAS装置2aのCPU61はリモートコピー処理プログラム91を実行し、まず、S2101にて、差分管理テーブル70の全エントリを、コピー先NAS装置2bに送信し、S2102にて、更新ログ100をコピー先NAS装置2bに送信する。
次に、S2103にて、差分管理テーブル70のフィールド72に格納されている更新ブロックIdに対応する運用ボリューム8aのブロックに格納されているデータを読み込み、S2104にて、差分管理テーブル70のフィールド73に格納されている差分ブロックIdに対応する差分ボリューム9aのブロックに格納されているデータを読み込む。
次にS2105にて、S2103、S2104で読み出した更新ブロックのデータと差分ブロックのデータを、CPU61が実行する通信制御処理プログラム67を介して、コピー先NAS装置2bに送信する。次に、S2106にて、差分管理テーブル70に格納されている全エントリの更新ブロックと差分ブロックを、コピー先NAS装置2bに送信したか判定し、全エントリの送信が完了してない場合、S2103に遷移し、差分管理テーブル70の次のエントリに対して処理を実施する。S2106にて、差分管理テーブル70の全エントリに対して処理が完了した場合、処理を終了する。
上記処理は、前記第1実施形態と同様に、NAS装置2a、2bの管理者がNASクライアント500から指示することで実行しても良い。あるいは、所定の間隔で上記処理を実行するようにしても良い。
図21は、本発明の第2の実施形態におけるコピー先NAS装置2bのCPU61が実行するリモートコピー処理プログラム91の処理フローである。
コピー先NAS装置2bのCPU61はリモートコピー処理プログラム91を実行し、まず、S2201にて、コピー元NAS装置2aから差分管理テーブル70を受信し、メモリ65の差分管理テーブル70に保存する。次に、S2202にて、コピー元NAS装置2aから更新ログ100を受信し、メモリ65の更新ログ100に保存する。
次に、S2203にて、コピー元NAS装置2aから送信されてくる更新ブロックと差分ブロックを受信する。次にS2204にて、更新ブロックと、差分ブロックの受信が成功したか否かを判定する。この判定は前記第1実施形態と同様に行えばよい。S2204の判定の結果、受信に失敗していた場合、S2209に遷移し、関連ファイルを特定する処理を実行する。S2209の処理の詳細は、後で説明する。
S2004の判定の結果、受信に成功していた場合、受信した更新ブロックと差分ブロックに対応するの差分管理テーブル70のエントリのフィールド74の値を”1”に更新し(S2205)、S2203で受信した更新ブロックと差分ブロックのデータを、メモリ65上に蓄積する(S2206)。次に、S2207にて、差分管理テーブル70の全てのエントリのフィールド74の値が”1”になっているか、即ち、差分管理テーブル70に格納されている全エントリの更新ブロックId72と差分ブロックId73のデータを全て受信したか判定し、全エントリの更新ブロックId72と差分ブロックId73のデータを全て受信してない場合、S2203に遷移し、次にコピー元NAS装置2aから送信される更新ブロックと差分ブロックのデータを受信する。
S2207の結果、差分管理テーブル70の全エントリの更新ブロックId72と差分ブロックId73のデータを全て受信していた場合、S2208に遷移し、受信が完了していない場合、S2203に遷移する。
S2208では、差分管理テーブル70の完了フラグのフィールド74の完了フラグが全て”1”、即ち、全更新ブロックと全差分ブロックの受信が完了しているファイルの更新データと差分データを、運用ボリューム8bと差分ボリューム9bの該当するブロックに格納し、処理を終了する。
次に、図22を用いて、図21のS2209の詳細を説明する。
図22は、第2の実施形態におけるコピー先NAS装置2bのCPU61が実行するリモートコピー処理プログラム91が関連するファイルを特定する処理フローである。
CPU61はリモートコピー処理プログラム91を実行し、S2301にて、更新ログ100のエントリをフィールド103の値、即ち、ファイルを更新した利用者(NASクライアント500の識別子)により分類する。そして、S2302にて、S2301で利用者別に分類した更新ログのエントリのフィールド102の値、即ちファイルの更新時刻の間隔が、一定更新間隔以内のエントリに分類する。つまり、前記第1実施形態のファイル更新テーブル50を作成する代わりに、更新ログ100上で関連ファイルを特定するファイル管理情報を生成することになる。
次に、S2303において、S2302で分類した全てのファイルに対応する差分管理テーブル70のエントリを参照し、完了フラグ74の値が”0”のエントリがあるか否かを判定し、該当するエントリが無かった場合、処理を終了する。S2303の判定の結果、該当するエントリがあった場合、S2302で分類した全てのファイルに対応する差分管理テーブルのエントリを参照し、完了フラグ74の値を”0”に設定する。すなわち、更新対象のファイルの関連ファイルを格納するブロックの受信が完了していなければ、更新対象のファイルと関連ファイルを更新する対象から除外することができる。この後、S2208で差分管理テーブル70の完了フラグのフィールド74の完了フラグが全て”1”のファイルのみが更新されることになる。
以上、本発明のNAS装置の差分リモートバックアップにおけるデータ復旧方法の第2の実施形態では、NAS装置間で差分スナップショットを用いたリモートコピーする際に、更新データが格納されている運用ボリュームのブロックと差分データが格納されている差分ボリュームのブロックを、更新されたファイルと関連付け、各ブロック毎に、リモートコピーの実施状態をコピー先NAS装置2bの差分管理テーブル70に記録する。コピー元NAS装置2aの障害により、リモートコピーが失敗した際に、コピー先NAS装置2bに全ての更新データと差分データの転送が完了したファイルをコピー先NAS装置2bの運用ボリューム8aと差分ボリューム9bにデータを格納する。これにより、リモートコピーが失敗した時点で、リモートコピーが完了しているファイルについては、リモートコピー前の状態に戻らないため、コピー先NAS装置での運用再開時のファイルの巻き戻りを抑えることができる。
以上のように本発明の第1及び第2の実施形態によれば、運用ボリューム8aと差分ボリューム9aの更新データを、更新ブロックと差分ブロックとしてコピー元NAS装置2aからコピー先NAS装置2bへリモートコピーを行う際に、更新されたファイルを構成するブロックの位置を示す差分管理テーブル70を、ブロックの転送に先立ってコピー元NAS装置2aからコピー先NAS装置2bへ送信する。これにより、コピー元NAS装置2a等に障害が発生してコピー先NAS装置2bで更新ブロックや差分ブロックの受信に失敗した場合、ファイルを構成する全てのブロック単位で受信が完了しているファイルについては、更新ブロックと差分ブロックを適用することで最新のファイルとして利用可能であることを保証できる。したがって、ブロック単位でリモートコピーを行うNAS装置に本発明を適用することで、リモートコピーが失敗したときにファイル単位での整合性を保証することが可能となる。
さらに、ファイルの更新間隔と、更新を指令したユーザ(NASクライアント500)から、リモートコピーが失敗したときに同時に復旧するファイルを関連ファイルとして抽出しておくことで、コピー先NAS装置2bでデータを復旧する際に、ユーザが利用する複数のファイルのうち、一部のファイルだけが更新前の状態となるのを防ぐことができる。
1 管理サーバ
2a、2c コピー元NAS装置
2b、2d コピー先NAS装置
3a、3b、3c、3d ストレージ装置
4 管理ネットワーク
5 データネットワーク
6、12、62 I/Oポート
7 コントローラ
8a、8b、8c、8d 運用ボリューム
9a、9b、9c、9d 差分ボリューム
10 ディスク装置
11、61 CPU
13 入力装置
14 出力装置
15、65 メモリ
16、66 内部バス
17 キーボード
18 マウス
19 表示装置
20 回復確認処理プログラム
21、67 通信制御処理プログラム
30 NAS管理テーブル
40 ファイル管理テーブル
50 ファイル更新テーブル
63 通信ポート
64 管理ポート
68 NFS/CIFSサーバ処理プログラム
69 NAS−OS
70 差分管理テーブル
80 ファイル管理情報
90 差分作成処理プログラム
91 リモートコピー処理プログラム
100 更新ログ
200 関連ファイル情報作成画面
300a、300b、300c File1
500 NASクライアント
2a、2c コピー元NAS装置
2b、2d コピー先NAS装置
3a、3b、3c、3d ストレージ装置
4 管理ネットワーク
5 データネットワーク
6、12、62 I/Oポート
7 コントローラ
8a、8b、8c、8d 運用ボリューム
9a、9b、9c、9d 差分ボリューム
10 ディスク装置
11、61 CPU
13 入力装置
14 出力装置
15、65 メモリ
16、66 内部バス
17 キーボード
18 マウス
19 表示装置
20 回復確認処理プログラム
21、67 通信制御処理プログラム
30 NAS管理テーブル
40 ファイル管理テーブル
50 ファイル更新テーブル
63 通信ポート
64 管理ポート
68 NFS/CIFSサーバ処理プログラム
69 NAS−OS
70 差分管理テーブル
80 ファイル管理情報
90 差分作成処理プログラム
91 リモートコピー処理プログラム
100 更新ログ
200 関連ファイル情報作成画面
300a、300b、300c File1
500 NASクライアント
Claims (15)
- ネットワークを介してファイルのアクセスが行われる第1の運用ボリュームを提供する第1のNAS装置と、前記ネットワークを介して前記第1のボリュームの複製を格納する第2の運用ボリュームを提供する第2のNAS装置と、前記第1のNAS装置と第2のNAS装置を管理する管理計算機を備えて、前記第1のNAS装置に障害が発生したときに前記第2のNAS装置で前記第2の運用ボリュームを復旧する方法であって、
前記第1のNAS装置は、演算処理を行うプロセッサと、情報を格納する第1のメモリと、前記第1の運用ボリュームのスナップショットの差分データを格納する第1の差分ボリュームと、前記差分データを管理する第1の差分管理処理部と、前記第2のNAS装置へデータを転送する第1の転送処理部と、前記第1の運用ボリュームに格納されているファイルとのうち更新されたファイルの更新データが格納されている前記第1の運用ボリュームのブロックの識別情報と、前記更新されたファイルの差分データが格納されている前記第1の差分ボリュームのブロックの識別情報との対応を管理する差分管理情報を具備し、
前記第2のNAS装置は、演算処理を行うプロセッサと、情報を格納する第2のメモリと、前記第2の運用ボリュームのスナップショットの差分データを格納する第2の差分ボリュームと、前記差分データを管理する第2の差分管理処理部と、前記第1の転送処理部から転送されるデータを受信する第2の転送処理部と、を具備し、
前記管理計算機は、演算処理を行うプロセッサと、情報を格納する第3のメモリと、前記第2のNAS装置と通信する第3の転送処理部と、前記第2の運用ボリュームと、前記第2の差分ボリュームに、更新データと差分データを格納するか否かを判定する判定処理部と、を具備し、
前記第1の転送処理部が、前記差分管理情報を前記第2の転送処理部に送信する手順と、
前記第1の転送処理部が、前記差分管理情報の送信後に、前記第1の運用ボリュームの更新データと前記第1の差分ボリュームに格納されている差分データを前記第2の転送処理部に順次送信する手順と、
前記2の転送処理部が、前記第1の転送処理部から受信した前記差分管理情報を前記第2のメモリに格納する手順と、
前記2の転送処理部が、前記第1の転送処理部から更新データと差分データを受信すると共に、前記第2メモリに格納した差分管理情報に更新データと差分データの受信が完了したことを記録する手順と、
前記第2の転送処理部が、前記第2のメモリに格納された差分管理情報の更新データを全て受信できなかった際に、受信失敗通知を前記第3の転送処理部に送信する手順と、
前記第3の転送処理部が、前記第2の転送処理部から受信失敗通知を受信すると、前記第2のNAS装置の第2のメモリから前記差分管理情報を取得する手順と、
前記第3の転送処理部が、前記受信した差分管理情報を第3のメモリに格納する手順と、
前記前記判定処理部が、前記第3のメモリの差分管理情報を参照して、更新データと差分データの受信が完了したファイルを特定する手順と、
前記第3の転送処理部が、前記特定されたファイルの更新指示を前記第2の転送処理部に送信する手順と、
前記第2の転送処理部が前記更新指示を受信し、当該更新指示で指定されたファイルの更新データを前記第2の運用ボリュームに格納する手順と、
を含むことを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - 請求項1に記載のNAS装置の差分リモートバックアップにおけるデータ復旧方法であって、
前記指定されたファイルの更新データを第2の運用ボリュームに格納する手順は、
前記第2の転送処理部が前記更新指示を受信し、当該更新指示で指定されているファイルの更新データと差分データを前記第2の運用ボリュームと、前記第2の差分ボリュームに格納することを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - 請求項2に記載のNAS装置の差分リモートバックアップにおけるデータ復旧方法であって、
前記管理計算機は、同時に更新する必要があるファイルを関連ファイルとして管理するファイル管理情報を具備し、
前記判定処理部は、前記第3のメモリの差分管理情報を参照し、前記ファイル管理情報の関連ファイルの更新データと差分データを全て受信が完了したファイルを更新対象として特定し、前記第3の転送処理部が、前記特定されたファイルについて前記第2の転送処理部に前記更新指示を送信することを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - 請求項3に記載のNAS装置の差分リモートバックアップにおけるデータ復旧方法であって、
前記第1のNAS装置は、ファイルの更新日時とファイルの更新操作を要求したクライアント計算機の対応関係を記録する更新ログ情報を具備し、
前記第1の差分管理処理部は、ファイルの更新操作が実施された際に、ファイルの名称と、更新日時と、更新操作を実施したクライアント計算機の識別子を、前記更新ログ情報に記録し、
前記管理計算機は、前記第1のNAS装置の前記更新ログ情報を参照して、所定の時間内に、同じクライアント計算機が更新したファイルを、同時に更新する必要がある関連ファイルとして前記ファイル管理情報に記録することを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - 請求項3または請求項4に記載のNAS装置の差分リモートバックアップにおけるデータ復旧方法であって、
前記判定処理部は、前記第3のメモリの差分管理情報を参照し、更新データと差分データの一部を受信したファイルの更新データと差分データを格納する同一のブロックに含まれるファイルを更新対象から除外することを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - ネットワークを介してファイルのアクセスが行われる第1の運用ボリュームを提供する第1のNAS装置と、前記ネットワークを介して前記第1のボリュームの複製を格納する第2の運用ボリュームを提供する第2のNAS装置と、を備えて、前記第1のNAS装置に障害が発生したときに前記第2のNAS装置で前記第2の運用ボリュームを復旧する方法であって、
前記第1のNAS装置は、演算処理を行うプロセッサと、情報を格納する第1のメモリと、前記第1の運用ボリュームのスナップショットの差分データを格納する第1の差分ボリュームと、前記差分データを管理する第1の差分管理処理部と、前記第2のNAS装置へデータを転送する第1の転送処理部と、前記第1の運用ボリュームに格納されているファイルとのうち更新されたファイルの更新データが格納されている前記第1の運用ボリュームのブロックの識別情報と、前記更新されたファイルの差分データが格納されている前記第1の差分ボリュームのブロックの識別情報との対応を管理する差分管理情報を具備し、
前記第2のNAS装置は、演算処理を行うプロセッサと、情報を格納する第2のメモリと、前記第2の運用ボリュームのスナップショットの差分データを格納する第2の差分ボリュームと、前記差分データを管理する第2の差分管理処理部と、前記第1の転送処理部から転送されるデータを受信する第2の転送処理部と、前記第2の運用ボリュームと前記第2の差分ボリュームに、更新データと差分データを格納するか否かを判定する判定処理部と、を具備し、
前記第1の転送処理部が、前記差分管理情報を前記第2の転送処理部に送信する手順と、
前記第1の転送処理部が、前記差分管理情報の送信後に、前記第1の運用ボリュームの更新データと前記第1の差分ボリュームに格納されている差分データを前記第2の転送処理部に順次送信する手順と、
前記2の転送処理部が、前記第1の転送処理部から受信した前記差分管理情報を前記第2のメモリに格納する手順と、
前記2の転送処理部が、前記第1の転送処理部から更新データと差分データを受信すると共に、前記第2メモリに格納した差分管理情報に更新データと差分データの受信が完了したことを記録する手順と、
前記第2の転送処理部が、前記第2のメモリに格納した差分管理情報の更新データを全て受信できなかった際に、前記前記判定処理部が、前記第2のメモリの差分管理情報を参照して、更新データと差分データの受信が完了したファイルを特定する手順と、
前記第2の転送処理部が、前記特定されたファイルの更新データを前記第2の運用ボリュームに格納する手順と、
を含むことを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - 請求項6に記載のNAS装置の差分リモートバックアップにおけるデータ復旧方法であって、
前記特定されたファイルの更新データを第2の運用ボリュームに格納する手順は、
前記第2の転送処理部が、前記特定されているファイルの更新データと差分データを前記第2の運用ボリュームと、前記第2の差分ボリュームに格納することを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - 請求項7に記載のNAS装置の差分リモートバックアップにおけるデータ復旧方法であって、
前記第2のNAS装置は、同時に更新する必要があるファイルを関連ファイルとして管理するファイル管理情報を生成し、
前記判定処理部は、前記差分管理情報を参照し、前記ファイル管理情報の関連ファイルの更新データと差分データを全て受信が完了しているファイルを更新対象として特定し、前記第2の転送処理部が、前記特定されたファイルに対応する更新データと差分データを、前記第2の運用ボリュームと前記第2の差分ボリュームに格納することを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - 請求項8に記載のNAS装置の差分リモートバックアップにおけるデータ復旧方法であって、
前記第1のNAS装置は、ファイルの更新日時とファイルの更新操作を要求したクライアント計算機の対応関係を記録する更新ログ情報を具備し、
前記第1の差分管理処理部は、ファイルの更新操作が実施された際に、ファイルの名称と、更新日時と、更新操作を実施したクライアント計算機の識別子を、前記更新ログ情報に記録し、
前記第2のNAS装置は、前記第1のNAS装置の前記更新ログ情報を参照して、所定の時間内に、同じクライアント計算機が更新したファイルを、同時に更新する必要がある関連ファイルとして前記ファイル管理情報に記録することを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - 請求項8または請求項9に記載のNAS装置の差分リモートバックアップにおけるデータ復旧方法であって、
前記判定処理部は、前記第2のメモリの差分管理情報を参照し、更新データと差分データの一部を受信したファイルの更新データと差分データを格納する同一のブロックに含まれるファイルを更新対象から除外することを特徴とするNAS装置の差分リモートバックアップにおけるデータ復旧方法。 - ネットワークを介してファイルのアクセスが行われる第1の運用ボリュームを提供する第1のNAS装置と、前記ネットワークを介して前記第1のボリュームの複製を格納する第2の運用ボリュームを提供する第2のNAS装置と、を備えた計算機システムであって、
前記第1のNAS装置は、演算処理を行うプロセッサと、情報を格納する第1のメモリと、前記第1の運用ボリュームのスナップショットの差分データを格納する第1の差分ボリュームと、前記差分データを管理する第1の差分管理処理部と、前記第2のNAS装置へデータを転送する第1の転送処理部と、前記第1の運用ボリュームに格納されているファイルとのうち更新されたファイルの更新データが格納されている前記第1の運用ボリュームのブロックの識別情報と、前記更新されたファイルの差分データが格納されている前記第1の差分ボリュームのブロックの識別情報との対応を管理する差分管理情報を具備し、
前記第2のNAS装置は、演算処理を行うプロセッサと、情報を格納する第2のメモリと、前記第2の運用ボリュームのスナップショットの差分データを格納する第2の差分ボリュームと、前記差分データを管理する第2の差分管理処理部と、前記第1の転送処理部から転送されるデータを受信する第2の転送処理部と、前記第2の運用ボリュームと前記第2の差分ボリュームに、更新データと差分データを格納するか否かを判定する判定処理部と、を具備し、
前記第1の転送処理部が、前記差分管理情報を前記第2の転送処理部に送信し、前記差分管理情報の送信後に、前記第1の運用ボリュームの更新データと前記第1の差分ボリュームに格納されている差分データを前記第2の転送処理部に順次送信し、
前記2の転送処理部が、前記第1の転送処理部から受信した前記差分管理情報を前記第2のメモリに格納した後に、前記第1の転送処理部から更新データと差分データを受信すると共に、前記第2メモリに格納した差分管理情報に更新データと差分データの受信が完了したことを記録し、
前記第2の転送処理部が、前記第2のメモリに格納された差分管理情報の更新データを全て受信できなかった際に、前記前記判定処理部が、前記第2のメモリの差分管理情報を参照して、更新データと差分データの受信が完了したファイルを特定し、前記特定したファイルの更新データを前記第2の運用ボリュームに格納することを特徴とする計算機システム。 - 請求項11に記載の計算機システムであって、
前記第2の転送処理部は、前記特定されているファイルの更新データと差分データを前記第2の運用ボリュームと、前記第2の差分ボリュームに格納することを特徴とする計算機システム。 - 請求項12に記載の計算機システムであって、
前記第2のNAS装置は、同時に更新する必要があるファイルを関連ファイルとして管理するファイル管理情報を生成し、
前記判定処理部は、前記第2のメモリの差分管理情報を参照し、前記ファイル管理情報の関連ファイルの更新データと差分データを全て受信が完了しているファイルを更新対象として特定し、前記第2の転送処理部が、前記特定されたファイルに対応する更新データと差分データを、前記第2の運用ボリュームと前記第2の差分ボリュームに格納することを特徴とする計算機システム。 - 請求項13に記載の計算機システムであって、
前記第1のNAS装置は、ファイルの更新日時とファイルの更新操作を要求したクライアント計算機の対応関係を記録する更新ログ情報を具備し、
前記第1の差分管理処理部は、ファイルの更新操作が実施された際に、ファイルの名称と、更新日時と、更新操作を実施したクライアント計算機の識別子を、前記更新ログ情報に記録し、
前記第2のNAS装置は、前記第1のNAS装置の前記更新ログ情報を参照して、所定の時間内に、同じクライアント計算機が更新したファイルを、同時に更新する必要がある関連ファイルとして前記ファイル管理情報に記録することを特徴とする計算機システム。 - 請求項13または請求項14に記載の計算機システムであって、
前記判定処理部は、前記第2のメモリの差分管理情報を参照し、更新データと差分データの一部を受信したファイルの更新データと差分データを格納する同一のブロックに含まれるファイルを更新対象から除外することを特徴とする計算機システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007237942A JP2009070143A (ja) | 2007-09-13 | 2007-09-13 | Nas装置の差分リモートバックアップにおけるデータ復旧方法及び計算機システム |
US12/017,685 US7769721B2 (en) | 2007-09-13 | 2008-01-22 | Data recovery method in differential remote backup for a NAS system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007237942A JP2009070143A (ja) | 2007-09-13 | 2007-09-13 | Nas装置の差分リモートバックアップにおけるデータ復旧方法及び計算機システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009070143A true JP2009070143A (ja) | 2009-04-02 |
Family
ID=40455715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007237942A Pending JP2009070143A (ja) | 2007-09-13 | 2007-09-13 | Nas装置の差分リモートバックアップにおけるデータ復旧方法及び計算機システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7769721B2 (ja) |
JP (1) | JP2009070143A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012003544A (ja) * | 2010-06-17 | 2012-01-05 | Hitachi Ltd | 計算機システム、及びシステム制御方法 |
JP2012523044A (ja) * | 2009-04-03 | 2012-09-27 | マイクロソフト コーポレーション | ピア及びクラウドからの差分ファイル及びシステムの復元 |
US8683154B2 (en) | 2010-06-17 | 2014-03-25 | Hitachi, Ltd. | Computer system and system control method |
JP2015162216A (ja) * | 2014-02-28 | 2015-09-07 | 日本電信電話株式会社 | 分散処理システム |
JP2021086159A (ja) * | 2019-11-25 | 2021-06-03 | 富士通株式会社 | ストレージシステム、ストレージ制御装置およびストレージ制御プログラム |
JP2022127506A (ja) * | 2021-02-19 | 2022-08-31 | 株式会社日立製作所 | スケールアウト型ストレージシステム及び記憶制御方法 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8713060B2 (en) | 2009-03-31 | 2014-04-29 | Amazon Technologies, Inc. | Control service for relational data management |
US8332365B2 (en) | 2009-03-31 | 2012-12-11 | Amazon Technologies, Inc. | Cloning and recovery of data volumes |
US9207984B2 (en) | 2009-03-31 | 2015-12-08 | Amazon Technologies, Inc. | Monitoring and automatic scaling of data volumes |
US8060792B2 (en) | 2009-03-31 | 2011-11-15 | Amazon Technologies, Inc. | Monitoring and automated recovery of data instances |
US8307003B1 (en) | 2009-03-31 | 2012-11-06 | Amazon Technologies, Inc. | Self-service control environment |
US9705888B2 (en) * | 2009-03-31 | 2017-07-11 | Amazon Technologies, Inc. | Managing security groups for data instances |
WO2010137064A1 (en) * | 2009-05-26 | 2010-12-02 | Hitachi, Ltd. | Information processing system and data backup method in information processing system |
US9135283B2 (en) | 2009-10-07 | 2015-09-15 | Amazon Technologies, Inc. | Self-service configuration for data environment |
US8335765B2 (en) | 2009-10-26 | 2012-12-18 | Amazon Technologies, Inc. | Provisioning and managing replicated data instances |
US8676753B2 (en) | 2009-10-26 | 2014-03-18 | Amazon Technologies, Inc. | Monitoring of replicated data instances |
US8074107B2 (en) | 2009-10-26 | 2011-12-06 | Amazon Technologies, Inc. | Failover and recovery for replicated data instances |
JP5845712B2 (ja) * | 2011-08-17 | 2016-01-20 | 富士通株式会社 | 中継装置および中継方法 |
US8983899B1 (en) * | 2012-02-08 | 2015-03-17 | Symantec Corporation | Systems and methods for archiving files in distributed replication environments |
US9009525B1 (en) * | 2012-06-07 | 2015-04-14 | Western Digital Technologies, Inc. | Methods and systems for NAS device pairing and mirroring |
US9411821B1 (en) * | 2014-03-27 | 2016-08-09 | Emc Corporation | Block-based backups for sub-file modifications |
US9348827B1 (en) * | 2014-03-27 | 2016-05-24 | Emc Corporation | File-based snapshots for block-based backups |
US9967337B1 (en) * | 2015-12-29 | 2018-05-08 | EMC IP Holding Company LLC | Corruption-resistant backup policy |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003280964A (ja) * | 2002-03-22 | 2003-10-03 | Hitachi Ltd | スナップショット取得方法、ストレージシステム及びディスク装置 |
JP4267421B2 (ja) | 2003-10-24 | 2009-05-27 | 株式会社日立製作所 | リモートサイト及び/又はローカルサイトのストレージシステム及びリモートサイトストレージシステムのファイル参照方法 |
JP4515132B2 (ja) | 2004-03-31 | 2010-07-28 | 株式会社日立製作所 | ストレージシステム、ストレージ装置及びリモートコピー方法 |
US7562077B2 (en) * | 2005-03-28 | 2009-07-14 | Netapp, Inc. | Method and apparatus for generating and describing block-level difference information about two snapshots |
-
2007
- 2007-09-13 JP JP2007237942A patent/JP2009070143A/ja active Pending
-
2008
- 2008-01-22 US US12/017,685 patent/US7769721B2/en active Active
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012523044A (ja) * | 2009-04-03 | 2012-09-27 | マイクロソフト コーポレーション | ピア及びクラウドからの差分ファイル及びシステムの復元 |
US8805953B2 (en) | 2009-04-03 | 2014-08-12 | Microsoft Corporation | Differential file and system restores from peers and the cloud |
JP2012003544A (ja) * | 2010-06-17 | 2012-01-05 | Hitachi Ltd | 計算機システム、及びシステム制御方法 |
US8683154B2 (en) | 2010-06-17 | 2014-03-25 | Hitachi, Ltd. | Computer system and system control method |
JP2015162216A (ja) * | 2014-02-28 | 2015-09-07 | 日本電信電話株式会社 | 分散処理システム |
JP2021086159A (ja) * | 2019-11-25 | 2021-06-03 | 富士通株式会社 | ストレージシステム、ストレージ制御装置およびストレージ制御プログラム |
JP2022127506A (ja) * | 2021-02-19 | 2022-08-31 | 株式会社日立製作所 | スケールアウト型ストレージシステム及び記憶制御方法 |
US11630734B2 (en) | 2021-02-19 | 2023-04-18 | Hitachi, Ltd. | Scale-out storage system and storage control method |
JP7331027B2 (ja) | 2021-02-19 | 2023-08-22 | 株式会社日立製作所 | スケールアウト型ストレージシステム及び記憶制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20090077134A1 (en) | 2009-03-19 |
US7769721B2 (en) | 2010-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009070143A (ja) | Nas装置の差分リモートバックアップにおけるデータ復旧方法及び計算機システム | |
CN109117425B (zh) | 用于数字资产同步的方法、系统和介质 | |
JP5991699B2 (ja) | 情報処理装置、情報処理システム、バックアップ方法、およびプログラム | |
JP5183300B2 (ja) | ファイルシステムの移行方法、移行計算機及びプログラム | |
US8244997B2 (en) | Storage controller, storage system, and storage controller control method | |
JP6725742B2 (ja) | ファイルストレージ、オブジェクトストレージ、およびストレージシステム | |
JP5697754B2 (ja) | 計算機システム、ファイル管理方法及びメタデータサーバ | |
TWI492077B (zh) | 檔案系統的檢查點 | |
US8090917B2 (en) | Managing storage and migration of backup data | |
US8438136B2 (en) | Backup catalog recovery from replicated data | |
US8135677B2 (en) | File management system and method | |
US20080027998A1 (en) | Method and apparatus of continuous data protection for NAS | |
US20120159232A1 (en) | Failure recovery method for information processing service and virtual machine image generation apparatus | |
JP2004038929A (ja) | 複数のスナップショットを管理するシステム及び方法 | |
US20210240573A1 (en) | Method and system for adaptive incrementally updated backups with dynamic data file detection | |
US11232002B2 (en) | Method and system for seamless database backup live-mounting using self-contained database backups | |
CN109753381B (zh) | 一种基于对象存储的持续数据保护方法 | |
US20110282843A1 (en) | Method and system for data backup and replication | |
US11513907B2 (en) | Method and system for resuming interrupted database backup operations using checkpoints | |
JP2005182683A (ja) | データ転送方法及びシステム並びにプログラム | |
JP2003330782A (ja) | 計算機システム | |
CN113795827B (zh) | 用于重复数据删除云分层的垃圾收集 | |
JP2016081189A (ja) | 情報処理装置とデータ同期方法、データ同期システムおよびプログラム | |
US20210240520A1 (en) | Method and system for resuming interrupted database backup operations | |
US20240020206A1 (en) | Data control apparatus and data control method |