JP4686303B2 - ストレージ管理方法およびストレージシステム - Google Patents
ストレージ管理方法およびストレージシステム Download PDFInfo
- Publication number
- JP4686303B2 JP4686303B2 JP2005242005A JP2005242005A JP4686303B2 JP 4686303 B2 JP4686303 B2 JP 4686303B2 JP 2005242005 A JP2005242005 A JP 2005242005A JP 2005242005 A JP2005242005 A JP 2005242005A JP 4686303 B2 JP4686303 B2 JP 4686303B2
- Authority
- JP
- Japan
- Prior art keywords
- failure
- volume
- data path
- storage
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/0703—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
- G06F11/0766—Error or fault reporting or storing
- G06F11/0769—Readable error formats, e.g. cross-platform generic formats, human understandable formats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/0703—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
- G06F11/0706—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
- G06F11/0727—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a storage system, e.g. in a DASD or network based storage system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/0703—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
- G06F11/0766—Error or fault reporting or storing
- G06F11/0784—Routing of error reports, e.g. with a specific transmission path or data flow
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Debugging And Monitoring (AREA)
Description
また、遠隔地にある2サイト(拠点)でデータを常に同期させておき、地震や火災など拠点が失われるような災害時でも、他方のサイトのネットワークを利用して業務が直ちに再開できる、冗長性を高める手法が知られている。さらに、広域災害や同時多発テロ等により複数の拠点が同時に利用できなくなった場合のダメージを考え、3サイト以上で冗長性を維持する手法も知られている。
このような状況下において、複数のサイトで構成されるような大規模構成システムで冗長性を維持するため、複数のサイトに跨ったデータのコピーを実施する必要がある。その際に、一つのサイトで障害が発生すると、コピーの失敗により、関連するサイトにおいても障害が誘発する可能性がある。
そこで、従来、そのような障害に対処するため、複数の障害から根本原因を特定する方法が知られている。この方法では、常に最新の状態に更新されているSANトポロジ・マップに対して、発生した障害の情報をマッピングしていき、そこから導かれる障害の時間的・空間的関連性から問題を判定する(例えば、特許文献1)。
このため、たとえ、コピー障害の原因を判定することが困難であったとしても、そのコピー障害に対する適切な対処を行いやすくすることが望まれていた。
そこで、本発明は、前記問題に鑑みてなされたもので、コピー障害に対する適切な対処を行いやすくすることを目的とする。
図1は本発明の実施の形態1におけるシステム全体の構成例を示すブロック図である。ここでは、東京(First Site)、大阪(Second Site)、福岡(Third Site)の3サイト11、12、13により構成された大規模構成システムを例示している。
各サイト11〜13は、ストレージ管理システム(管理サーバともいう)2、3、4の各々に接続され、各ストレージ管理システム2、3、4がIP(Internet Protocol)ネットワーク53を介してマルチサイト管理システム(計算機ともいう)1に接続されている。サイト11とサイト12との間は、IPネットワーク51によって接続されている。サイト12とサイト13との間は、IPネットワーク52によって接続されている。なお、図1では、図示されていないが、東京と福岡の各サイト11、13間を接続するIPネットワークも存在し、各サイト11〜13間の相互接続を実現しているものとする。
そして、各サイト11〜13では、複数のホスト200に接続されたSAN(Storage Area Network)21〜23が構築されている。SAN21には、ストレージ装置31とFC-IP(Fiber Channel−Internet Protocol)変換装置(単に「変換装置」あるいは「中継装置」ともいう)41とが接続されている。同様に、SAN22、23の各々にも、ストレージ装置32、33と変換装置42、43とが接続されている。
なお、ネットワークの接続形態として、各サイト11〜13相互間では専用線などのネットワークを介して実現するようにしてもよい。また、SAN21〜23の各々にはネットワーク用スイッチを接続するようにしてもよい。
次に、ストレージ装置31〜33の構成について説明する。ここでは、ストレージ装置31の構成について詳述するが、ストレージ装置32、33の構成も同様であるため、重複説明を適宜省略する。
図1に示すように、ストレージ装置31は、ボリューム61と、コントロールユニット(中継装置)71と、ポート(中継装置)81とを含んで構成されている。コントロールユニット71は、ボリューム61に関する制御機能や、コピー機能あるいはリモートコピー機能などをもつ。
ボリューム61は、例えば、一または複数の記憶装置(ハードディスクドライブなど)をRAID(Redundant Array of Independent Disks)構成により形成された仮想的な記憶領域を意味する。ボリューム61は、他のボリューム(例えば、大阪サイトのボリューム62など)とペアボリュームを組む。図1では、ストレージ装置31内に1つのボリューム61が記載されているが、複数のボリュームが存在するものとする。
ペアボリュームとは、コントロールユニット71、72、73、74、75のコピー機能(同一のストレージ装置内のコピー機能)あるいはリモートコピー機能(複数のストレージ装置間のコピー機能)を用いた正ボリューム(複製元ボリューム)と副ボリューム(複製先ボリューム)の組を指す。
なお、ストレージ装置32は、2つのボリューム62、63と、3台のコントロールユニット72、73、74と、2つのポート82、83とを含んで構成されている。
次に、ストレージ管理システム2〜4の構成について説明する。なお、図1では、1台のストレージ管理システム2の構成が記載されているが、他のストレージ管理システム3、4も同様の構成である。
ストレージ管理システム2〜4は、管理下の各サイト11〜13を管理している。具体的には、ストレージ管理システム2は東京のサイト11を管理し、ストレージ管理システム3は大阪のサイト12を管理する。また、ストレージ管理システム4は福岡のサイト13を管理する。
ストレージ管理システム2は、管理下のサイト11内の装置(ホスト、ストレージ装置、スイッチ、FC-IP変換装置の各々を意味する)にLAN(Local Area Network)もしくはFC(Fibre Channel)を介して接続されている。そして、ストレージ管理システム2は、SNMP(Simple Network Management Protocol)や、各装置(ホスト、ストレージ装置、スイッチ、FC-IP変換装置)の専用APIなどにより、サイト11内の装置(ホスト、ストレージ装置、スイッチ、FC-IP変換装置)の管理や監視を行っている。
メモリ101Bには、SAN情報収集プログラム101と障害監視プログラム102とがロードされている。また、ハードディスク装置101Cには、DB(Data Base)103とGUI104とを有する。GUIは、Graphical User Interfaceの略であり、ウィンドウなどの画像を表示するためのプログラムを表す。CPU101Aは、各種のプログラム101、102、104に従って実行する。
SAN情報収集プログラム101は、ストレージ管理システム2〜4が管理しているサイト11〜13内の装置(ホスト、ストレージ装置、スイッチ、FC-IP変換装置)の設定や動作情報(性能情報)を定期的に収集している。このSAN情報収集プログラム101が収集した情報は、後記するペアボリューム情報テーブル221(図2参照)やSAN構成情報テーブル241(図5参照)、障害イベントログ情報テーブル261(図8参照)として作成されたり更新されたりして、ストレージ管理システム2内のDB103に格納される。
障害監視プログラム102は、障害イベントログ情報テーブル261〜263(図8〜図10参照)を参照してペアボリュームに関する障害を検知した場合に、そのペアボリュームに関する障害イベント通知メッセージをマルチサイト管理システム1に送信する。
次に、マルチサイト管理システム1の構成について説明する。マルチサイト管理システム1は、各サイト11〜13のストレージ管理システム2〜4とIPネットワーク53によって接続されている。
図1に示すように、マルチサイト管理システム1は、CPU(処理部)111Aと、メモリ111Bと、ハードディスク装置111Cとを含んで構成されている。
メモリ111Bには、障害特定プログラム111とデータパス構築プログラム112とがロードされている。また、ハードディスク装置111Cには、DB(Data Base)113とGUI(Graphical User Interface)114とを有する。CPU111Aは、各種プログラム111、112、114に従って実行する。
障害特定プログラム111は、ストレージ管理システム2〜4から通知された障害イベント通知メッセージを受信すると、その障害イベント通知メッセージを基にデータパス構築プログラム112を用いて各サイト11〜13からデータパス(ペアボリューム間におけるデータの流れを表したもの)を構築するための情報を選別したり収集したりする。収集したデータパスを受け取った障害特定プログラム111は、構築されたデータパス上に存在する障害イベントを各サイト11〜13から収集する。
そして、CPU111Aが、障害の特定および運用上問題が波及する影響範囲をマルチサイト管理システム1の管理者用端末115(コンピュータの表示装置)にGUI114を用いて表示する。また、CPU111Aが、障害の影響範囲にあるサイト11〜13に障害警告メッセージを送信する。これらの内容は後記する。
次に、各サイト11〜13を管理するストレージ管理システム2〜4のDBに管理されているペアボリューム情報テーブル221〜223の構成例を図2ないし図4に基づいて説明する。
図2はペアボリューム情報テーブル221(ペアボリューム情報ともいう)の構成例を示す図である。ペアボリューム情報テーブル221は、東京のサイト11を管理するストレージ管理システム2のDBで管理されている。
図2に示すように、ペアボリューム情報テーブル221は、正ボリュームと副ボリュームとの項目(列)を含んで構成されている。正ボリュームは複製元のボリュームを表し、副ボリュームは複製先のボリュームを表す。
正ボリュームには、装置名と、Vol部品名と、CU部品名と、Port部品名との項目を含んでいる。装置名には、複製元のストレージ装置を識別するための情報(例えば、ストレージ装置31を表す「ST01」など)が示され、Vol部品名には、正ボリュームを識別するための情報(例えば、ボリューム61を表す「01」など)が示される。
また、副ボリュームにも、正ボリュームの場合と同様、装置名と、Vol部品名と、CU部品名と、Port部品名との項目を含んでいる。装置名には、複製先のストレージ装置を識別するための情報(例えば、ストレージ装置32を表す「ST02」など)が示され、Vol部品名には、副ボリュームを識別するための情報(例えば、ボリューム62を表す「02」など)が示される。
CU部品名には、副ボリュームを制御するコントロールユニットを識別するための情報(例えば、コントロールユニット72を表す「12」など)が示され、Port部品名には、副ボリュームに用いられるポートを識別するための情報(例えば、ポート82を表す「22」など)が示される。
図5はSAN構成情報テーブル241(ストレージ装置の接続形態を表す接続情報ともいう)の構成例を示す図である。SAN構成情報テーブル241は、東京のサイト11を管理するストレージ管理システム2のDBで管理されている。
図5に示すように、SAN構成情報テーブル241は、装置種別と装置名と部品名との項目(列)を含んで構成されている。
装置種別には、ストレージ装置、変換装置、ボリューム、CU(コントロールユニット)、ポートのいずれかの種別が示される。
装置名には、装置種別で指定された装置の所属装置(ストレージ装置、変換装置)を識別するための情報(例えば、「ST01」「FP01」など)が示され、部品名には、装置名で指定された部品(ボリューム、CU、ポート)を識別するための情報(例えば、「01」など)が示される。
図8は障害イベントログ情報テーブル261の構成例を示す図である。障害イベントログ情報テーブル261は、東京のサイト11を管理するストレージ管理システム2のDBで管理されている。
図8に示すように、障害イベントログ情報テーブル261は、装置種別と装置名と部品名と障害イベントと報告済フラグの項目(列)を含んで構成されている。
装置種別には、CPU101Aによって障害が検出された装置(ポート、CUなど)の種別が示され、障害イベントには、障害の内容が示される。
報告済みフラグは、当該障害イベントをマルチサイト管理システム1に報告したことを示すフラグである。報告済みであれば「○」の値が書き込まれ、未報告であれば「‐」の値が書き込まれる。
なお、装置名と部品名の項目には、図5〜図7に示した装置名と部品名の各値が示される。
図11に示すように、サイト情報テーブル300は、装置種別と装置名とサイト名との項目(列)を含んで構成されている。装置種別には、ストレージ装置または変換装置のいずれかの種別が示され、装置名には、装置種別で指定された装置を識別するための情報が示される。サイト名には、東京、大阪または福岡のいずれかの拠点が示される。このような構成により、ストレージ装置または変換装置と、その設置先のサイトとの対応付けが可能となる。
次に、ペアボリュームを抽象的に表した抽象データパスについて説明する。
図12は抽象データパスの概念図である。ここでは、カスケード接続されたペアボリュームの集合を表す抽象データパスを例にして説明する。
図12では、ボリューム401(「01」のVol部品名)、ボリューム402(「02」のVol部品名)、ボリューム403(「03」)、ボリューム404(「04」)の順に流れる抽象データパスが表されている。
このうち、ボリューム401とボリューム402の関係をみると、ボリューム401を正ボリュームとしたペアボリュームが形成され、ボリューム401から402へのリモートコピー411が行われている。これは、ペアボリューム情報テーブル221(図2の最上段のレコード参照)に示された関係と同じである。次に、ボリューム402とボリューム403の関係をみると、ボリューム402を正ボリュームとしたペアボリュームが形成され、ボリューム402から403へのコピー412が行われている。これは、ペアボリューム情報テーブル222(図3の最上段から2段目のレコード参照)に示された関係と同じである。
ボリューム403とボリューム404の関係をみると、ボリューム403を正ボリュームとしたペアボリュームが形成され、ボリューム403から404へのリモートコピー413が行われている。これは、ペアボリューム情報テーブル223(図4の最上段のレコード参照)に示された関係と同じである。
このように、3つのコピー411〜413によって、1つの抽象データパスが構成されている。
なお、本実施の形態において、ペアボリュームを構成する正ボリュームと副ボリュームとの間のある位置からみて、正ボリューム側を上流と称したり、副ボリューム側を下流と称したりもする。
次に、図12に示した抽象データパスに対応するデータパスのマッピング例について説明する。なお、データパスとは、抽象データパスに対して、実際に複製元ボリュームから複製先ボリュームへの複製に必要なデータを中継する装置(コントロールユニットなど)をマッピングした集合を指す。
図13はデータパスのマッピング例を示す概念図である。
図13に示すボリューム501〜504の各々は、図12のボリューム401〜404に対応している。そして、ボリューム501とボリューム502との間には、ボリューム501からボリューム502へのリモートコピーが行われる場合のデータの中継順序と同様の配列にコントロールユニット571(「CU」表記、図1のコントロールユニット71に相当)などがマッピングにより示されている。
また、障害の根本原因が存在する範囲592として、コントロールユニット574の下流にある装置(図13のPort、SAN、FC-IP、IP、FC-IP、SAN、Port、CU、04)が示されている。
さらに、運用上問題が出る影響範囲593として、コントロールユニット574の上流にある装置(図13の03、CU、02、CU、Port、SAN、FC-IP、IP、FC-IP、SAN、Port、CU、01)が示されている。
なお、図13では、複数のサイト間で1つの経路(「01」→「02」→「03」→「04」)のみが存在する場合について説明したが、例えば、1つの経路(「01」→「02」→「03」→「04」)上で他のボリュームへの分岐経路(「02」→他のボリューム)が存在する場合にも適用がある。
次に、図13に示したデータパスのマッピング例を表すデータパス構成情報テーブル280の構成例について説明する。
図14はデータパス構成情報テーブル280の構成例を示す図である。
データパス構成情報テーブル280は、装置情報と、上流装置情報と、障害イベントとの項目を含んで構成されている。
装置情報は、対象となる装置がどのサイトに存在するのかを表したものであり、装置種別と装置名と部品名とサイト名との項目を有している。装置種別、装置名および部品名の項目には、図5〜図7に示した装置種別、装置名および部品名の各値が示される。サイト名の項目には、当該装置の管理下にあるサイト先(東京、大阪、福岡)が示される。
上流装置情報は、装置情報の装置名(または部品名)で指定された装置(または部品)の上流に位置付けられる装置(または部品)を表すものであり、装置種別と装置名と部品名とサイト名との項目(装置情報の項目と同様の内容)を有している。
障害イベントには、障害イベントログ情報テーブル261〜263(図8〜図10参照)の障害イベントで指定された内容が示される。この障害イベントで指定された内容は、管理者等のユーザにとって、障害の根本原因を特定する際の判断材料となりうる。
次に、図1の障害特定プログラム111の処理例について説明するが、その前提として、まず障害の根本原因の特定に関する原理を説明する。
本実施の形態では、コピー/リモートコピーに関する障害があった場合、データパスの一番下流に近い障害がその障害の根本原因にあるとの前提で処理を行う。このため、まずは、当該障害に関連するデータパスを構築するために必要な情報を収集し、その情報から障害の根本原因を特定する。具体的には、コピー/リモートコピーに関して発生した障害にかかるペアボリュームに基づいて、そのボリュームに関連するペアボリュームを全て追跡する。そして、追跡により収集したペアボリュームから抽象データパスを構築する。
次に、構築した抽象データパスに対してストレージシステム内における装置(ポート、コントローラなど)の接続情報をマッピングすることでデータパスを構築する。すなわち、抽象データパス内で表されるペアボリューム間において、正ボリューム(コピー元)から副ボリューム(コピー先)へのコピー/リモートコピーに関するデータを中継した装置をその正ボリュームと副ボリュームの間に新しく追加する。
このようにして構築したデータパス上でコピー/リモートコピーに関する障害が発生した場合、データの流れは正ボリュームから副ボリュームへの一方向であるため、データパス上のデータの流れがどこかの装置で塞き止められていることになっている。そして、障害が発生した場合に他の装置へ波及する範囲は、データが上手く流れなくなったデータパスの上流部分になっている。したがって、このような特徴から、コピー/リモートコピーに関する障害の根本原因は発生した障害の下流にあり、コピー/リモートコピーに関する障害の影響範囲は発生した障害の上流にあることになる。
図15は障害特定プログラム111の処理例を示すフローチャートである。ここでは、例えば、大阪のサイト12を管理するストレージ管理システム3の障害監視プログラム102が、障害イベントログ情報テーブル262(図9参照)の2行目にあるペアボリュームに関する障害(例えば、コントロールユニットでペアボリュームエラー)を検知した場合を前提に説明する。
この場合、ストレージ管理システム3では、障害監視プログラム102が、まず、ペアボリューム情報テーブル222(図3参照)から、障害イベントログ情報テーブル262(図9参照)の2行目に指定された項目(装置種別、装置名、部品名)264〜266の各値(CU、ST02、14)に対応する行に含まれる全項目の各項目224〜231の値を取り出す。
そして、障害監視プログラム102が、障害イベントログ情報テーブル262(図9参照)の2行目に指定された項目(装置種別、装置名)の各値264〜265(CU、ST02)と、前記取り出したペアボリューム情報テーブル222(図3参照)の全項目の各値224〜231とを含む障害イベント通知メッセージをマルチサイト管理システム1に送信する。これにより、マルチサイト管理システム1では、障害特定プログラム111により図15のステップ601以降の処理が行われる。
この依頼により、ボリューム63の情報224〜225を受け取ったデータパス構築プログラム112は、ボリューム63の情報224〜225に基づいて、データパスを構築し、構築したデータパスの構成情報をデータパス構成情報テーブル280として、障害特定プログラム111に返す。
本実施の形態では、調査対象装置はコントロールユニット74であり、このコントロールユニット74を管理するストレージ管理システムはストレージ管理システム3(障害イベント通知メッセージ中の項目265で指定されたもの)である。装置障害確認メッセージには、データパス構成情報テーブル289(図17参照)の項目281〜283(装置種別、装置名、部品名)の各値を含んで構成されている。
他方、障害イベントログが存在しない場合は、「無」の値を装置障害報告メッセージに含めて、マルチサイト管理システム1に送信する。
ステップ610では、特定した根本原因とその影響範囲とを特定して、例えばコンピュータの表示装置に表示する。この表示例は後記図18で詳述する。
ステップ611では、ステップ610において特定した障害の影響範囲内のストレージ管理システム2〜4に障害警告メッセージを送信し、ステップ612に進んで、次の障害イベントの待ち受け状態(待機状態)に移行する。なお、ステップ611において送信された障害警告メッセージを受信したストレージ管理システム2〜4は、その障害警告メッセージに含まれるデータパス構成情報テーブル280をDBに格納する。
次に、図15のステップ603で渡されたボリュームの情報(図3の装置名およびVol部品名の値224〜225)を受け取るデータパス構築プログラム112(図1参照)の処理例について説明する。
図16はデータパス構築プログラム112の処理例を示すフローチャートである。
ステップ631では、データパス構築プログラム112は、図15のステップ603で渡されたボリュームの情報(図3の装置名およびVol部品名の値224〜225)を受け取り、抽象データパスの構築を開始する。
ステップ632では、受け取った情報で指定されたボリュームを調査対象ボリュームとする。
具体的には、受け取った情報(図3の装置名およびVol部品名の値224〜225)を新規に作成したデータパス構成情報テーブル280(図14参照)の装置種別、装置名および部品名の項目(列)281〜283に書き込む。また、データパス構成情報テーブル280(図14参照)の装置種別、装置名および部品名の項目(列)285〜287の全てに「-」の値を書き込む。そして、このようにして書き込んだデータパス構成情報テーブル280(図14参照)の1行目で指定されたボリュームを調査対象ボリュームとする。なお、装置種別、装置名および部品名の項目(列)285〜287(図14参照)の全ての値が「-」の場合、データパス構成情報テーブル280で表されるデータパスの最上流であることを示す。
その要求メッセージの送信を受け、ストレージ管理システム3は、例えば、部品名283で指定された値を表すボリューム63(図1参照)とペアボリュームとなっている全てのボリューム(正ボリュームと副ボリューム)の位置を特定する情報(図3の正ボリュームの項目224〜225・副ボリュームの項目228〜229)をペアボリューム情報テーブル222(図3参照)から検索する。
ストレージ管理システム3は、前記検索されたボリューム63の全ペアボリュームの位置を特定する情報(図3のペアボリューム情報テーブル222の2行目の正ボリュームの項目224〜225・図3のペアボリューム情報テーブル222の3行目の副ボリュームの項目228〜229の各値)をペアボリューム構成情報メッセージとして、マルチサイト管理システム1に送信する。
また、その2行目の項目285〜287には、ボリューム62の副ボリュームである1行目の項目285〜287の値を書き込み、また、1行目の項目285〜287には、正ボリュームであるボリューム62の2行目の項目281〜283の値を書き込む。
他方、重複があれば、ボリューム62の情報(図3の正ボリュームの項目224〜225の各値)を書き込まない。
そして、ボリューム63の副ボリュームであるボリューム64の情報(図4の正ボリュームの項目224〜225の各値)について、データパス構成情報テーブル280において重複がないか調べる。その結果、重複がなければ、ボリューム64の情報(図3の正ボリュームの項目224〜225の各値)と、当該ボリュームのサイト名とをデータパス構成情報テーブル280の3行目の項目281〜283に書き込む。また、3行目の項目285〜287には、1行目の項目281〜283の値を書き込む。他方、もし重複があれば、ボリューム64の情報は一切書き込まない。以上より、データパス構成情報テーブル280の1行目のボリューム63に関する調査が終了する。
そして、次行に調査対象となるデータが存在する場合は(ステップ636のNo)、その行を調査対象とし(ステップ637)、ステップ633に戻る。
他方、次行に調査対象となるデータが存在しない場合は(ステップ636のYes)、全ての抽象データパスを構築できたことになるため、抽象データパスの構築を終了しデータパス構築を開始する(ステップ661)。このときのデータパス構成情報テーブルは、図17に示したテーブル289の構成となる。
その要求メッセージの送信を受け、ストレージ管理システム2は、ペアボリューム情報テーブル221(図2参照)やSAN構成情報テーブル241(図5参照)を用いて、受信したペアボリュームパス要求メッセージに含まれる各値の正ボリュームから副ボリュームに届く複製データを中継した装置の経路(パス)を追跡させる。そして、ストレージ管理システム2は、前記追跡した結果(図2のペアボリューム情報テーブル221の1行目の項目224〜231の各値、図5のSAN構成情報テーブル241の変換装置(複製データの中継経路となるもの)の装置名245の値)をペアボリュームパス情報メッセージに含めて、マルチサイト管理システム1に送信する。
データパス構成情報テーブル280の5行目(コントロールユニット71に関するもの)は、装置名282の「ST01」の値をキーとして、サイト情報テーブル300(図11参照)が検索される。そして、そのキーに対応するサイト名285に例えば「東京」と書き込まれる。また、5行目の項目285〜287(図14の上流装置情報の装置種別、装置名、部品名)に、4行目の項目281〜283(図14の装置情報の装置種別、装置名、部品名)の値が書き込まれる。
確認の結果、2つの項目281、285の各値が共に「ボリューム」である行があれば、調査が未完了と判断し(ステップ665のNo)、当該行に示されたボリュームのペアボリュームを調査対象とし(ステップ666)、ステップ663に戻ってステップ処理を行う。他方、調査完了済と判断すれば(ステップ665のYes)、ステップ667に進んでデータパスの構築を終了する(ステップ667)。終了後、マルチサイト管理システム1のCPU111Aは、構築したデータパスを表す中継経路を管理者用端末115に表示させる。この表示画面は、図13のような中継経路を表示することとなる。これにより、ユーザは、コピー障害に対する適切な対処を行いやすくなる。
もっとも、データの冗長性を高めるため、複数の経路(変換装置の組み合わせ)が存在する場合があるので、その場合は、その経路の終端となるポート82のレコードをその経路の数だけ複製する。そして、そのポート82の上流に位置づけられた装置を特定するための項目285〜287(図17の上流装置情報の装置種別、装置名、部品名)に、それぞれの経路の上流を示す値を書き換える。これにより、複数の経路を表すことが可能となる。
なお、IPネットワークなどの公衆回線網がリモートコピーに利用される場合、ストレージ管理システムではその公衆回線網を用いて中継経路の管理を行うことができないため、経路の追跡を行わない。
次に、図15のステップ610での表示例を図18に示す。この表示例では、マルチサイト管理システム1のGUI114により出力されたウィンドウ700を用いて示している。
図18に示すように、ウィンドウ700には、検知障害、障害特定および影響範囲特定の表示項目710、711、712がある。そして、検知障害の表示項目710は、装置種別、装置名、部品名、サイト名および障害イベントの各項目を含んでいる。障害特定の表示項目711は、装置種別、装置名、部品名、サイト名および障害イベントの各項目を含んでいる。また、影響範囲特定の表示項目712は、装置種別、装置名、部品名、サイト名および障害イベントの各項目を含んでいる。ボタン799は、GUI114による表示の終了を指示するためのものである。
このようなウィンドウ700をみたユーザは、例えば、検知障害の表示項目710等から、大阪サイトのコントロールユニットでペアボリュームエラーが検知されたこと等を確認することが可能となる。
障害特定の表示項目711の情報731〜735は、ステップ610(図15参照)において特定された障害の根本原因にかかる装置の情報と、その直近の上下流に位置する装置の情報とからなり、これらの情報は、データパス構成情報テーブル280から抽出されて表示される。なお、仮に冗長化された経路が存在し、上流もしくは下流の装置が複数ある場合は、それらの装置の情報は全てデータパス構成情報テーブル280から抽出されて表示される。
影響範囲特定の表示項目712の情報741〜745は、ステップ610において特定した障害範囲にある装置の情報である。
次に、ストレージ管理システム2〜4での障害監視プログラム102の処理例について説明する。
図19は障害監視プログラム102の処理例を示すフローチャートである。ここでは、ストレージ管理システム2を例にして説明するが、他のストレージ管理システム3、4も同様の処理を行う。
ストレージ管理システム2の障害監視プログラム102は、一定時間経過したとき、もしくはSNMPにより障害を検知したときに(ステップ680)、ステップ681に進む。
ステップ681では、障害監視プログラム102がロードされているストレージ管理システム2の障害イベントログ情報テーブル261(図8参照)より、未報告のペアボリューム障害を検索する。そして、検索の結果、未報告障害が存在するかの判断を行う(ステップ682)。具体的には、障害イベントログ情報テーブル261(図8参照)の報告済フラグに示された「○」(○は報告済を表す)以外の行に障害イベント(ペアボリュームに関するもの)があるかどうかの判断を行う。
実施の形態2では、実施の形態1において用いられていた障害イベントに代えて、性能異常イベントを用いる点に主要な特徴がある。性能異常イベントとは、入出力データの転送量などの性能指標を監視する装置(コントローラ、ポート、キャッシュ、メモリなど)において、あらかじめ設定されていた性能指標の閾値を超過した場合に通知されるものである。性能指標としては、入出力データの転送量のほか、通信帯域やキャッシュ残り容量などがある。もっとも、装置の性能指標は、当該装置が監視してもよいし、専用の監視装置あるいはストレージ管理システム2〜4が一括して監視してもよい。
図20において、マルチサイト管理システム1では、実施の形態1における障害特定プログラム111(図1参照)に代えて、性能異常特定プログラム116がメモリ111Bにロードされている。また、ストレージ管理システム2では、実施の形態1における障害監視プログラム102(図1参照)に代えて、性能異常監視プログラム105がメモリ101Bにロードされている(ストレージ管理システム3、4も同様)。
そして、ストレージ管理システム2のDBには、図21に示す性能異常イベントログ情報テーブル269が管理されている。この性能異常イベントログ情報テーブル269は、障害イベントログ情報テーブル261〜263(図8〜図10参照)の障害イベントの項目267に代えて、図21に示す性能異常イベントの項目270にした点が、障害イベントログ情報テーブル261〜263(図8〜図10参照)と異なる。この性能異常イベントログ情報テーブル269の値は、ストレージ管理システム2〜4のSAN情報収集プログラム101がSNMPなどにより性能異常の通知を受信した場合などに各装置から性能異常イベントの情報を収集して更新される。
性能異常特定プログラム116は、図22に示すデータパス構成情報テーブル291を作成してDB103に格納する。データパス構成情報テーブル291も、図14のデータパス構成情報テーブル280の障害イベントの項目288に代えて、性能異常イベントの項目292にした点が、データパス構成情報テーブル280(図14参照)と異なる。その他の構成は、実施の形態1の場合とほぼ同様である。
図23は性能異常特定プログラム116の処理例を示すフローチャートである。ここでは、例えば、ストレージ管理システム3(大阪のサイトを管理)の性能監視異常監視プログラム105が、性能異常イベントログ情報テーブル269の1行目の性能異常イベントを検知し、マルチサイト管理システム1に対して性能異常通知メッセージを送信した場合を前提に説明する。なお、性能異常イベント通知メッセージは、性能異常イベントログ情報テーブル269(図21参照)の項目270の性能異常イベントを含む以外は、実施の形態1における障害イベント通知メッセージと同じ構造である。
ステップ822では、受信した性能異常イベント通知メッセージから、ボリュームの情報を抽出する。具体的には、性能異常イベント通知メッセージに含まれているペアボリュームに関する情報(図3の項目224〜231の値)から、性能異常が発生したペアボリュームの正ボリュームであるボリューム63の情報(図3の項目224〜225の値)を取り出す。
なお、マルチサイト管理システム1から装置性能異常確認メッセージを受信したストレージ管理システム2〜4は、装置性能異常確認メッセージより、性能異常イベントログ情報テーブル269(図21参照)を検索する。検索の結果、ストレージ管理システム2〜4は、性能異常イベントログ情報テーブル269(図21参照)の項目270に性能異常イベントログが存在する場合は、その性能異常イベントを装置性能異常報告メッセージに含め、他方、性能異常イベントログが存在しない場合は、「無」の値を装置性能異常報告メッセージに含めて、マルチサイト管理システム1に送信する。
他方、ステップ827において、そのような装置が存在しない場合は(ステップ827のYes)、データパス内で一番下流にある性能異常イベントを探し出し、それを根本原因として特定する(ステップ829)。具体的には、ステップ829では、収集した性能異常イベントの中で、データパスのもっとも下流にある(最上流の装置から辿る回数がもっとも多い)装置で発生した性能異常イベント(図22の項目292の値)を検索する。
ステップ831では、影響範囲内のストレージ管理システムに性能異常警告メッセージを送信し、ステップ832に進んで、次の性能異常イベントの待ち受け状態(待機状態)に移行する(ステップ832)。具体的には、ステップ830で特定した性能異常の影響範囲にある装置のサイト(図22の項目284の値)を管理するストレージ管理システム2〜4に対して、データパス構成情報テーブル291(図22参照)によって構成される性能異常警告メッセージを送信する。
性能異常特定の表示項目714(情報731〜734、736)では、図23のステップ830において性能異常を特定した装置の情報とその直近の上下流の装置の情報とが表示される。
影響範囲特定の表示項目715(情報741〜744、746)では、ステップ610において特定した障害範囲にある装置の情報である。
図25は性能異常監視プログラム105の処理例を示すフローチャートである。ここでは、ストレージ管理システム2を例にして説明するが、他のストレージ管理システム3、4も同様の処理を行う。
ストレージ管理システム2の性能異常監視プログラム105は、一定時間経過したとき、もしくはSNMPにより障害を検知したときに(ステップ800)、ステップ801に進む。
ステップ801では、性能異常監視プログラム105がロードされているストレージ管理システム2の性能異常イベントログ情報テーブル269(図21参照)より、未報告のペアボリューム性能異常を検索する。そして、検索の結果、未報告性能異常が存在するかの判断を行う(ステップ802)。具体的には、性能異常イベントログ情報テーブル269(図21参照)の報告済フラグに示された「○」(○は報告済を表す)以外の行の性能異常イベント(ペアボリュームに関するもの)があるかどうかの判断を行う。
障害イベント通知メッセージを受信したマルチサイト管理システム1の障害特定プログラム111は、受信した障害イベント通知メッセージからボリュームに関する情報を抽出し、その情報をデータパス構築プログラム112に渡して、データパスを構築させる。その際のデータパスを構築するための情報は、データパス構成情報テーブル280と同様である。データパス構築プログラム112からデータパス構成情報テーブル280を受け取った障害特定プログラム111は、障害を検知したコントロールユニット71よりデータパスの下流にある装置に対して、その装置を管理する各サイトのストレージ管理システム2〜4に対して装置障害確認メッセージを送信し、返信された装置障害報告メッセージの内容をデータパス構成情報テーブル280に反映させる。その結果、ステップ609においてボリューム62においてボリュームが書き込みエラーであるという情報がデータパス上でもっとも下流にあることが判明したため、障害の根本原因をボリューム62の書き込みエラーと特定し、影響範囲をストレージ装置31と特定し、マルチサイト管理システム1において図18の障害特定表示ウィンドウを用いて表示する。そして、データパス構成情報テーブル280を含んだ障害警告メッセージをストレージ管理システム2に送信する。
2〜4 ストレージ管理システム
11〜13 サイト(東京11・大阪12・福岡13)
21〜23 SAN(ストレージ・エリア・ネットワーク)
31〜33 ストレージ装置
41〜44 FC-IP変換装置
51〜53 IPネットワーク
61〜64 ボリューム
71〜75 コントロールユニット
81〜84 ポート
101 SAN情報収集プログラム
101A CPU(処理部)
101B メモリ
101C ハードディスク装置
102 障害監視プログラム
103 DB
104 GUI
111 障害特定プログラム
111A CPU(処理部)
111B メモリ
111C ハードディスク装置
112 データパス構築プログラム
113 DB
114 GUI
Claims (4)
- 複数のストレージ装置と、前記ストレージ装置の各々を管理する各管理サーバと、前記各管理サーバとの間で通信を行う計算機とを含んで構成されるコンピュータシステムを用いて、一または複数の前記ストレージ装置でのコピー障害が発生した際に、コピー障害に対する発生原因を特定するストレージ管理方法であって、
前記管理サーバは、管理下の前記ストレージ装置の接続形態を表す接続情報と、当該ストレージ装置のボリュームとペアを組むペアボリュームに関するペアボリューム情報とを格納する記憶部を有し、
前記計算機は、
一または複数の前記管理サーバからストレージ装置でのコピーに関する障害イベントの通知メッセージを受けた場合、前記通知メッセージからボリューム情報を抽出し、前記ボリューム情報に基づいてデータパスを構築するとともに構築したデータパスの構成を示すデータパス構成情報を作成し、前記通知メッセージに含まれていた障害を検知した装置を調査対象装置とし、前記調査対象装置を管理する管理サーバに装置障害確認メッセージを送信し、
前記装置障害確認メッセージを受信した管理サーバは、
前記調査対象装置に係る障害イベントログを含む装置障害報告メッセージを作成して前記計算機に送信し、
前記計算機は、
受信した前記装置障害報告メッセージに基づいて、前記データパス構成情報に含まれる障害イベントを更新し、前記データパス構成情報のうち障害イベントのある装置の下流側にある装置を調査し、前記データパス構成情報の中で複数の障害イベントがある場合、一番下流にある障害イベントを抽出して根本原因として特定し、前記根本原因を表示装置に表示する
ことを特徴とするストレージ管理方法。 - 前記計算機は、前記通知メッセージで通知された障害にかかわるペアボリュームのコピー元のボリュームよりも上位に位置する装置に対し、その障害の影響範囲として特定する
ことを特徴とする請求項1に記載のストレージ管理方法。 - 複数のストレージ装置と、前記ストレージ装置の各々を管理する各管理サーバと、前記各管理サーバとの間で通信を行う計算機とを含んで構成されるストレージシステムであって、
前記管理サーバは、管理下の前記ストレージ装置の接続形態を表す接続情報と、当該ストレージ装置のボリュームとペアを組むペアボリュームに関するペアボリューム情報とを格納する記憶部を有し、
前記計算機は、
一または複数の前記管理サーバからストレージ装置でのコピーに関する障害イベントの通知メッセージを受けた場合、前記通知メッセージからボリューム情報を抽出し、前記ボリューム情報に基づいてデータパスを構築するとともに構築したデータパスの構成を示すデータパス構成情報を作成し、前記通知メッセージに含まれていた障害を検知した装置を調査対象装置とし、前記調査対象装置を管理する管理サーバに装置障害確認メッセージを送信し、
前記装置障害確認メッセージを受信した管理サーバは、
前記調査対象装置に係る障害イベントログを含む装置障害報告メッセージを作成して前記計算機に送信し、
前記計算機は、
受信した前記装置障害報告メッセージに基づいて、前記データパス構成情報に含まれる障害イベントを更新し、前記データパス構成情報のうち障害イベントのある装置の下流側にある装置を調査し、前記データパス構成情報の中で複数の障害イベントがある場合、一番下流にある障害イベントを抽出して根本原因として特定し、前記根本原因を表示装置に表示する
ことを特徴とするストレージシステム。 - 前記計算機は、前記通知メッセージで通知された障害にかかわるペアボリュームのコピー元のボリュームよりも上位に位置する装置に対し、その障害の影響範囲として特定する
ことを特徴とする請求項3に記載のストレージシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005242005A JP4686303B2 (ja) | 2005-08-24 | 2005-08-24 | ストレージ管理方法およびストレージシステム |
US11/251,912 US20070050417A1 (en) | 2005-08-24 | 2005-10-18 | Storage management method and a storage system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005242005A JP4686303B2 (ja) | 2005-08-24 | 2005-08-24 | ストレージ管理方法およびストレージシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007058484A JP2007058484A (ja) | 2007-03-08 |
JP4686303B2 true JP4686303B2 (ja) | 2011-05-25 |
Family
ID=37805618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005242005A Expired - Fee Related JP4686303B2 (ja) | 2005-08-24 | 2005-08-24 | ストレージ管理方法およびストレージシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20070050417A1 (ja) |
JP (1) | JP4686303B2 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4806557B2 (ja) | 2005-10-18 | 2011-11-02 | 株式会社日立製作所 | ログを管理するストレージ装置及び計算機システム |
US8548942B2 (en) * | 2006-10-04 | 2013-10-01 | Salesforce.Com, Inc. | Methods and systems for recursive saving of hierarchical objects to a database |
US8161010B2 (en) * | 2006-10-04 | 2012-04-17 | Salesforce.Com, Inc. | Methods and systems for providing fault recovery to side effects occurring during data processing |
US8682863B2 (en) * | 2006-10-04 | 2014-03-25 | Salesforce.Com, Inc. | Methods and systems for bulk row save logic in an object relational mapping layer and application framework |
JP4434235B2 (ja) * | 2007-06-05 | 2010-03-17 | 株式会社日立製作所 | 計算機システムまたは計算機システムの性能管理方法 |
JP5026212B2 (ja) * | 2007-09-28 | 2012-09-12 | 株式会社日立製作所 | 計算機システム並びに管理装置及び管理方法 |
US7962781B2 (en) | 2008-06-17 | 2011-06-14 | Fujitsu Limited | Control method for information storage apparatus, information storage apparatus and computer readable information recording medium |
JP5594413B2 (ja) * | 2013-08-19 | 2014-09-24 | 株式会社リコー | 画像処理装置 |
US20180018326A1 (en) * | 2015-01-30 | 2018-01-18 | Hitachi, Ltd. | Storage management system, storage system, and extension method |
US10437510B2 (en) * | 2015-02-03 | 2019-10-08 | Netapp Inc. | Monitoring storage cluster elements |
US11412041B2 (en) | 2018-06-25 | 2022-08-09 | International Business Machines Corporation | Automatic intervention of global coordinator |
US10915380B2 (en) * | 2018-07-16 | 2021-02-09 | International Business Machines Corporation | Global coordination of in-progress operation risks for multiple distributed storage network memories |
US10606479B2 (en) | 2018-08-07 | 2020-03-31 | International Business Machines Corporation | Catastrophic data loss prevention by global coordinator |
US11442826B2 (en) * | 2019-06-15 | 2022-09-13 | International Business Machines Corporation | Reducing incidents of data loss in raid arrays having the same raid level |
US20240086302A1 (en) * | 2022-09-07 | 2024-03-14 | Hitachi, Ltd. | Connectivity management device, system, method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003204327A (ja) * | 2001-12-28 | 2003-07-18 | Hitachi Ltd | コンピュータシステムの管理方法、管理プログラム、記憶装置および表示装置 |
JP2003316491A (ja) * | 2002-04-23 | 2003-11-07 | Hitachi Ltd | プログラム、情報処理方法、情報処理装置、及び記憶装置 |
JP2004127141A (ja) * | 2002-10-07 | 2004-04-22 | Hitachi Ltd | ストレージ装置を有するネットワークにおける、ボリューム及び障害管理方法 |
JP2004334574A (ja) * | 2003-05-08 | 2004-11-25 | Hitachi Ltd | ストレージの運用管理プログラム、運用管理方法及び管理計算機 |
JP2005149398A (ja) * | 2003-11-19 | 2005-06-09 | Hitachi Ltd | ストレージ制御装置及びストレージシステム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7424529B2 (en) * | 1999-12-10 | 2008-09-09 | International Business Machines Corporation | System using host bus adapter connection tables and server tables to generate connection topology of servers and controllers |
JP4477950B2 (ja) * | 2004-07-07 | 2010-06-09 | 株式会社日立製作所 | リモートコピーシステム及び記憶装置システム |
JP2006185108A (ja) * | 2004-12-27 | 2006-07-13 | Hitachi Ltd | ストレージシステムのデータを管理する管理計算機及びデータ管理方法 |
-
2005
- 2005-08-24 JP JP2005242005A patent/JP4686303B2/ja not_active Expired - Fee Related
- 2005-10-18 US US11/251,912 patent/US20070050417A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003204327A (ja) * | 2001-12-28 | 2003-07-18 | Hitachi Ltd | コンピュータシステムの管理方法、管理プログラム、記憶装置および表示装置 |
JP2003316491A (ja) * | 2002-04-23 | 2003-11-07 | Hitachi Ltd | プログラム、情報処理方法、情報処理装置、及び記憶装置 |
JP2004127141A (ja) * | 2002-10-07 | 2004-04-22 | Hitachi Ltd | ストレージ装置を有するネットワークにおける、ボリューム及び障害管理方法 |
JP2004334574A (ja) * | 2003-05-08 | 2004-11-25 | Hitachi Ltd | ストレージの運用管理プログラム、運用管理方法及び管理計算機 |
JP2005149398A (ja) * | 2003-11-19 | 2005-06-09 | Hitachi Ltd | ストレージ制御装置及びストレージシステム |
Also Published As
Publication number | Publication date |
---|---|
US20070050417A1 (en) | 2007-03-01 |
JP2007058484A (ja) | 2007-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4686303B2 (ja) | ストレージ管理方法およびストレージシステム | |
JP4432488B2 (ja) | ディザスタリカバリのシームレス管理のための方法と装置 | |
US7191198B2 (en) | Storage operation management program and method and a storage management computer | |
JP5060485B2 (ja) | 複製データの可用性及び最新性を検証するための方法及びシステム。 | |
US8204980B1 (en) | Storage array network path impact analysis server for path selection in a host-based I/O multi-path system | |
US7725776B2 (en) | Method for displaying pair state of copy pairs | |
US7185228B2 (en) | Method for controlling information processing system and information processing system | |
EP2864885B1 (en) | System and method for datacenters disaster recovery | |
US8069366B1 (en) | Global write-log device for managing write logs of nodes of a cluster storage system | |
US7865767B2 (en) | Storage system and method for copying data to plurality of sites | |
JP4520802B2 (ja) | ストレージネットワーク管理サーバ、ストレージネットワーク管理方法、ストレージネットワーク管理用プログラムおよびストレージネットワーク管理システム | |
JP4671399B2 (ja) | データ処理システム | |
JP4634202B2 (ja) | ネットワークトポロジー表示方法、管理サーバ、及びネットワーク管理プログラム | |
JP2005018510A (ja) | データセンタシステム及びその制御方法 | |
TW200540680A (en) | Method, system, and program for handling a failover to a remote storage location | |
JP2005326935A (ja) | 仮想化ストレージを備える計算機システムの管理サーバおよび障害回避復旧方法 | |
US20120030440A1 (en) | Storage system group including scale-out storage system and management method therefor | |
US9736046B1 (en) | Path analytics using codebook correlation | |
JP2010113559A (ja) | リモートコピー管理システム、方法及び装置 | |
JP4717923B2 (ja) | ストレージシステム、データ復旧可能時刻の推定値の算出方法、および、管理計算機 | |
CN107888405B (zh) | 管理设备和信息处理系统 | |
US8812542B1 (en) | On-the-fly determining of alert relationships in a distributed system | |
JP4326819B2 (ja) | ストレージシステムの制御方法、ストレージシステム、プログラム、及び記録媒体 | |
Tate et al. | IBM System Storage SAN Volume Controller and Storwize V7000 Replication Family Services | |
JP4592735B2 (ja) | 外部記憶装置及び外部記憶装置のデータ回復方法並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110208 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |