[go: up one dir, main page]

JP4479930B2 - ノードシステム、サーバ切換え方法、サーバ装置、データ引き継ぎ方法、およびプログラム - Google Patents

ノードシステム、サーバ切換え方法、サーバ装置、データ引き継ぎ方法、およびプログラム Download PDF

Info

Publication number
JP4479930B2
JP4479930B2 JP2007330060A JP2007330060A JP4479930B2 JP 4479930 B2 JP4479930 B2 JP 4479930B2 JP 2007330060 A JP2007330060 A JP 2007330060A JP 2007330060 A JP2007330060 A JP 2007330060A JP 4479930 B2 JP4479930 B2 JP 4479930B2
Authority
JP
Japan
Prior art keywords
server
active
server device
data
active server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007330060A
Other languages
English (en)
Other versions
JP2009151629A (ja
Inventor
創 前佛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2007330060A priority Critical patent/JP4479930B2/ja
Application filed by NEC Corp filed Critical NEC Corp
Priority to CN200880121845.9A priority patent/CN101903864B/zh
Priority to KR1020107016362A priority patent/KR20100099319A/ko
Priority to PCT/JP2008/069589 priority patent/WO2009081657A1/ja
Priority to EP08864266A priority patent/EP2224341B1/en
Priority to US12/746,591 priority patent/US20100268687A1/en
Priority to TW097145987A priority patent/TWI410810B/zh
Publication of JP2009151629A publication Critical patent/JP2009151629A/ja
Application granted granted Critical
Publication of JP4479930B2 publication Critical patent/JP4479930B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2038Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with a single idle spare processing component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2028Failover techniques eliminating a faulty processor or activating a spare
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2041Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant with more than one idle spare processing component

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Multi Processors (AREA)

Description

本発明は、複数台のサーバで冗長を実現する技術に関する。
信頼性向上のために複数台のサーバを組み合わせて冗長構成を実現したシステムあるいは装置がある(特許文献1参照)。例えば、通信システムのノードを複数台のサーバで構成したものがある。一般的な冗長構成として、例えば、2重化、N重化、N+1冗長がある。さらに、常時、アクティブサーバとスタンバイサーバの間でデータを同期させておくことにより、アクティブサーバに障害が発生したときに、スタンバイサーバがサービスを引き継ぐことができるようにした方式(ホットスタンバイ)もある。
例えば、図6に示されたホットスタンバイの2重化構成では、アクティブサーバ901に対してスタンバイサーバ902が1対1で対応している。そして、アクティブサーバに障害が発生していない通常の運用時、アクティブサーバ901とスタンバイサーバ902はサービスの継続に必要なデータを同期させている。図中の矢印はデータの同期を示している。図6では、アクティブサーバ901のデータ903とスタンバイサーバ902のデータ904とが同期している。それにより、スタンバイサーバ902はアクティブサーバ901のサービスを継続できる状態に保たれている。したがって、アクティブサーバ901に障害が発生してもスタンバイサーバ902によってサービスを継続することができる。
また、図7に示されたホットスタンバイのN重化構成では全てのサーバがアクティブサーバである。通常運用時、各アクティブサーバのサービスの継続に必要なデータを他のアクティブサーバに分散して、複数のアクティブサーバ間で互いにデータを同期させている。それによって、いずれかのアクティブサーバに障害が発生したとき他のアクティブサーバによってサービスを継続することができる。
また、図8に示されたコールドスタンバイのN+1冗長構成では、複数のアクティブサーバ921,922に対して1つのスタンバイサーバ923が割り当てられている。いずれかのアクティブサーバに障害が発生すると、スタンバイサーバ923がそのアクティブサーバに代わってサービスを開始する。
また、図9に示されたホットスタンバイのN+1冗長構成では、複数のアクティブサーバ931〜933に対して1つのホットスタンバイサーバ934が割り当てられている。この点については図9の構成は図8の構成と同じである。しかし、図9の構成では、通常運用時、アクティブサーバとスタンバイサーバの間でデータが同期している。それによって、アクティブサーバ931〜933のいずれかに障害が発生したときスタンバイサーバ934によってサービスを継続することができる。
特開2001−43105号公報
図6に示した2重化構成では、通常運用時に動作するアクティブサーバの2倍の台数のサーバが必要とされる。そのため、処理能力とコストの関係でみると高コストになる。また、サーバを増設することによりノードをスケールアウトしようとすると、サーバを2台ずつ追加しなければならない。これも高コストの要因となる。
また、図7に示したN重化構成を採用すれば、処理能力とコストの関係でみたとき、図6の構成に比べてコストが低減される。しかし、いずれかのアクティブサーバに障害が発生したとき、サービスを引き継ぐ複数のサーバに通信経路を分割する必要があり、そのための処理が複雑となる。
また、図8に示したコールドスタンバイのN+1冗長構成では、図6の構成よりコストが削減され、かつ図7のような通信経路を分割する処理が不要である。また、図8の構成では、データを同期させる処理も不要である。しかし、アクティブサーバとスタンバイサーバの間でデータを同期させていないので、障害の発生したアクティブサーバに代わってスタンバイサーバが動作し始めたとき、それまでアクティブサーバが提供していたサービスが継続されない。
図8と同様の構成を採用し、障害の発生したアクティブサーバからスタンバイサーバへ同期データを転送してから、スタンバイサーバがサービスを開始するようにしたものもある。しかし、その場合、一度に大量の同期データを転送する必要があるため、サーバの切り換えを高速に行うためには、高速データ転送が可能な特殊なインターフェースを持った高価なサーバが必要となる。
図9に示したホットスタンバイのN+1冗長構成では、スタンバイサーバが動作し始めたとき、アクティブサーバのサービスを継続することができる。しかし、N台のアクティブサーバ931〜933とのデータの同期を1台のスタンバイサーバ934でまかなうので、アクティブサーバの台数Nが増えると、スタンバイサーバ934に大きなリソースが必要となってしまう。アクティブサーバ931〜933とスタンバイサーバ934とに同一性能のサーバを用いるのが一般的であるが、そうするとアクティブサーバがオーバースペックとなってコストが増大する。
本発明の目的は、複数のサーバによる冗長構成において、低コストで、切り替え時に、通信経路を分割するような複雑な処理を要さず、サービスを継続することを可能にする技術を提供することである。
上記目的を達成するために、本発明のノードシステムは、
前段のサーバのデータに同期したデータを後段のサーバにて記憶するようにカスケード接続した複数のアクティブサーバと、
前記複数のアクティブサーバのカスケード接続の最後の段のデータに同期したデータを記憶するスタンバイサーバと、を有し、
いずれかのアクティブサーバに障害が発生すると、障害の発生した前記アクティブサーバの後段から前記スタンバイサーバまでの各々のサーバが、それぞれの前段のサーバに同期したデータを用いて、それまで前記前段のサーバが行っていたサービスを引き継いで行うものである。
本発明のサーバ切換え方法は、複数のアクティブサーバをカスケード接続するように、前段のアクティブサーバのデータに同期したデータを後段のアクティブサーバにて記憶するとともに、前記複数のアクティブサーバのカスケード接続の最後の段のデータに同期したデータをスタンバイサーバにて記憶し、
いずれかのアクティブサーバに障害が発生すると、障害の発生した前記アクティブサーバの後段から前記スタンバイサーバまでの各々のサーバが、それぞれの前段のサーバに同期したデータを用いて、それまで前記前段のサーバが行っていたサービスを引き継ぐものである。
本発明のサーバ装置は、前段のアクティブサーバ装置のデータに同期したデータを後段のアクティブサーバ装置にて記憶するように複数のアクティブサーバ装置がカスケード接続され、最後の段のアクティブサーバ装置のデータに同期したデータがスタンバイサーバ装置に記憶されるノードシステムにおける前段のアクティブサーバ装置のデータに同期したデータを記憶する記憶手段と、
前記前段のアクティブサーバ装置に障害が発生したとき、または前記前段のアクティブサーバ装置から要求があったとき、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせた後、前記記憶手段にて記憶されている、前記前段のアクティブサーバ装置のデータに同期したデータを用いて、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継いで行う処理手段と、を有している。
本発明のプログラムは、前段のアクティブサーバ装置のデータに同期したデータを後段のアクティブサーバ装置にて記憶するように複数のアクティブサーバ装置がカスケード接続され、最後の段のアクティブサーバ装置のデータに同期したデータがスタンバイサーバ装置に記憶されるノードシステムにおける前段のアクティブサーバ装置のデータに同期したデータを記憶する手順と、
前記前段のアクティブサーバ装置に障害が発生したとき、または前記前段のアクティブサーバ装置から要求があったとき、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせる手順と、
前記記憶手段にて記憶されている、前記前段のアクティブサーバ装置のデータに同期したデータを用いて、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぐ手順と、コンピュータに実行させるためのプログラムである。
本発明によれば、複数のアクティブサーバに対して1つのスタンバイサーバを備える冗長構成において、アクティブサーバとスタンバイサーバの両方をデータの同期に活用する。これにより、スタンバイサーバをアクティブサーバに1対1で対応させるより低コストで、スタンバイサーバに必要なリソースがアクティブサーバの台数に依存せず、通信経路を分割するような複雑な処理を要さずに、サーバを切り替えてサービスを継続させることができる。
本発明を実施するための形態について図面を参照して詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態のノードの構成を示すブロック図である。本実施形態のノードはアクティブサーバ111,112とスタンバイサーバ12とを有している。アクティブサーバ111,112とスタンバイサーバ12は通信路13に接続されている。
アクティブサーバ111,112は、通常運用時、自身のデータD11,D12を用いてサービスを提供するとともに、他のサーバに自身のデータを同期させる。これにより、アクティブサーバ111,112のサービスを他のサーバによって継続できる状態が維持される。他のサーバとは、他のアクティブサーバまたはスタンバイサーバのいずれかである。データの同期において、アクティブサーバ111,112の相互関係はカスケード接続となっている。カスケード接続における最後のアクティブサーバ112は自身のデータD12を、更に次段にカスケード接続されたスタンバイサーバ12にデータD12′として同期させている。
いずれかのアクティブサーバに障害が発生すると、そのアクティブサーバの次段のサーバは、障害の発生したアクティブサーバと同期したデータを用いてサービスを継続させる。その際、前段のアクティブサーバと同期したデータを用いたサービスを行うアクティブサーバがそれまで行っていたサービスは、更に次段のサーバによって継続される。
スタンバイサーバ12は、前段のアクティブサーバ112に障害が発生したとき、あるいはアクティブサーバ112が更に前段のアクティブサーバ111に代わってサービスを開始するとき、アクティブサーバ112と同期したデータD12′を用いてサービスを継続させる。
図1の例では、アクティブサーバ111に障害が発生すると、アクティブサーバ112が、アクティブサーバ111と同期したデータD11′を用いてサービスを継続させる。そして、アクティブサーバ112が行っていたサービスはスタンバイサーバ12によって継続される。
本実施形態では、前段のアクティブサーバのデータを次段のアクティブサーバに同期させ、最後の段のアクティブサーバのデータをスタンバイサーバに同期させるように複数のアクティブサーバ111,112と1つのスタンバイサーバ12をカスケード接続しておき、いずれかのアクティブサーバに障害が発生したとき、それ以降のサーバが、前段のサーバから同期したデータを用いて前段のサーバのサービスを継続する。
このように、複数のアクティブサーバに対して1つのスタンバイサーバを備える構成において、アクティブサーバとスタンバイサーバの両方をデータの同期に活用している。その結果、本実施形態によれば、スタンバイサーバをアクティブサーバに1対1で対応させるより低コストで、スタンバイサーバに必要なリソースがアクティブサーバの台数に依存せず、通信経路を分割するような複雑な処理を要さずに、サーバを切り替えてサービスを継続させることができる。
スタンバイサーバに必要なリソースがアクティブサーバの台数に依存しないことは、スタンバイサーバの低コストでの調達や、アクティブサーバとスタンバイサーバを共通にする場合におけるアクティブサーバの低コストでの調達に寄与すると考えられる。
再び図1を参照すると、アクティブサーバ11は、プロセッサ14、記憶装置15、および通信インターフェース16を有している。
プロセッサ14は、ソフトウェアプログラムを実行することにより動作し、記憶装置15に記憶されているデータを用いてサービスを提供する。
また、プロセッサ14は、自身のデータを用いてサービスを提供しているとき、自身のデータを後段のサーバに同期させる。また、自サーバの前段にアクティブサーバ11があれば、プロセッサ14は、前段のアクティブサーバ11に同期したデータを記憶装置15に記憶させる。
また、プロセッサ14は、前段のアクティブサーバ11に障害が発生したとき、あるいは前段のアクティブサーバ11が更に前段のアクティブサーバ11に代わってサービスを開始するとき、前段のアクティブサーバ11と同期したデータD1′を用いてサービスを継続させる。
記憶装置15は自サーバのサービスに必要なデータを保持する。また、前段にアクティブサーバ11があれば、記憶装置15は、前段のサーバから同期したデータD1′をも保持する。
通信インターフェース16は通信路13に接続されており、サーバ間の通信を行う。サーバ間では、アクティブサーバ同士あるいはアクティブサーバとスタンバイサーバの間の同期データが転送される。
スタンバイサーバ12は、プロセッサ17、記憶装置18、および通信インターフェース19を有している。
プロセッサ17は、ソフトウェアプログラムを実行することにより動作し、前段のアクティブサーバ112に障害が発生したとき、あるいはアクティブサーバ112が更に前段のアクティブサーバ111に代わってサービスを開始するとき、記憶装置18に記憶されている、アクティブサーバ112と同期したデータD12′を用いてサービスを継続させる。
記憶装置18は、前段のアクティブサーバ112と同期したデータD12′を保持する。
通信インターフェース19は通信路13に接続されており、前段のアクティブサーバ112との間の通信を行う。その通信ではアクティブサーバ112とスタンバイサーバ12の間の同期データが転送される。
図2は、第1の実施形態のサーバにおいて、前段のアクティブサーバに障害が発生したサーバの動作を示すフローチャートである。ここでは一例としてアクティブサーバ11とスタンバイサーバ12の動作を共通化している。
図2を参照すると、サーバは前段のアクティブサーバ11の障害を検出し、サーバ系切換えシーケンスを開始する(ステップ101)。サーバ系切換えシーケンスは、冗長を構成する複数のサーバ間においてサービスの切換えを行う一連の処理シーケンスである。サーバは、自身の後段にアクティブサーバ11またはスタンバイサーバがあるか否か判定する(ステップ102)。これは自身がアクティブサーバ11かスタンバイサーバ12かを判定する処理である。アクティブサーバ11とスタンバイサーバ12の動作を共通化しない場合には、この処理は不要である。後段にサーバがあることは自身がアクティブサーバであることを意味し、後段にサーバが無いことは自信がスタンバイサーバであることを意味する。
後段にサーバがあれば、サーバは後段のサーバにサーバ系切換え要求を送信する(ステップ103)。サーバ系切換え要求は、サーバ系切換えシーケンスの開始を要求するためのメッセージである。その後、サーバは、後段のサーバからサーバ系切換え完了を受信すると(ステップ104)、自サーバの動作を停止する(ステップ105)。サーバ系切換え完了は、サーバ系切換えシーケンスが完了したことを通知するためのメッセージである。続いて、サーバは、前段のサーバと同期したデータを用いて、それまで前段のサーバが行っていたサービスを引き継ぐ(ステップ106)。
また、ステップ102の判定において後段にサーバが無ければ、サーバは、ステップ106の動作に移行し、それまで前段のサーバが行っていたサービスを引き継ぐ。
図3は、第1の実施形態のサーバにおいて、前段のアクティブサーバからサーバ系切換え要求を受信したサーバの動作を示すフローチャートである。ここでは一例としてアクティブサーバ11とスタンバイサーバ12の動作を共通化している。
図3を参照すると、サーバは、前段のサーバからサーバ系切換え要求を受信し、サーバ系切換えシーケンスを開始する(ステップ201)。ステップ202〜206に示したサーバ系切換えシーケンスは、図2に示したステップ102〜106と同じものである。ステップ202〜206の処理を終えると、サーバは、前段のサーバに対してサーバ系切換え完了を送信して処理を終了する。
次に、アクティブサーバ11に障害が発生したときのノード全体の動作について説明する。ここでは、アクティブサーバ111とアクティブサーバ112とがサービスを提供する通常運用の状態から、アクティブサーバ111に障害が発生したときのノードの動作について説明する。アクティブサーバ111に障害が発生した場合には、アクティブサーバ112とスタンバイサーバ12がサービスを提供するようにサーバの切り換えが起こってノードの動作が再開する。
アクティブサーバ111に障害が発生すると、アクティブサーバ112はその障害を検出し、サーバ系切換えシーケンスを開始する。アクティブサーバ112は自身がスタンバイサーバではないことを確認し、自身のサービスを継続する後段のサーバ(スタンバイサーバ12)にサーバ系切換えを要求する。
スタンバイサーバ12は、サーバ系切換え要求を受けると、前段のアクティブサーバ112と同期したデータD12′を用いて、それまでアクティブサーバ112が行っていたサービスを開始する。そして、スタンバイサーバ12は、前段のアクティブサーバ112へサーバ系切換え完了を通知する。
アクティブサーバ112は、スタンバイサーバ12からサーバ系切換え完了を受けると、それまで自身で行っていたサービスを停止する。次に、アクティブサーバ112は、前段のアクティブサーバ111と同期したデータD11′を用いて、それまでアクティブサーバ111が行っていたサービスを開始する。
なお、サーバ間で送受信されるサーバ系切換え要求およびサーバ系切換え完了のデータ量は、サービスに用いるデータを同期させるために転送される同期データのデータ量に比べて十分に小さい。そのためサーバ間の通信にかかる時間は短く、サーバ系切換えは即時に完了する。そのため、アクティブサーバ111に障害が発生したとき、ノード全体としてはサービスを継続させることができる。
また、本実施形態では、後段のサーバが前段のサーバの障害を検出することとしたが、本発明はこれに限定されるものではなく、障害監視はどのような構成あるいは方法で行われてもよい。
(第2の実施形態)
第1の実施形態では、カスケード接続された1系統のアクティブサーバに対して1つのスタンバイサーバが割り当てられていた。しかし、本発明はそれに限定されるものではない。第2の実施形態として、アクティブサーバがカスケード接続された2系統に対して1つのスタンバイサーバを割り当てる構成を例示する。
アクティブサーバは、他の1つのアクティブサーバのバックアップとしても機能するので、自身のデータを含めて2台のアクティブサーバの分のデータを記憶するだけの記憶容量を備えている。同じ性能のサーバをアクティブサーバとスタンバイサーバの両方に用いることにすると、スタンバイサーバにも2台のアクティブサーバの分のデータを記憶するだけの記憶容量が備わることになる。
そこで、本実施形態では、複数のアクティブサーバを2系統に分けて、系統毎にカスケード接続でデータを同期させ、その2系統の最後の段に1つのスタンバイサーバを共用することにする。これにより、いずれかのアクティブサーバに障害が発生したときにサーバ系切換えをそのアクティブサーバの属する系統だけに限定することができる。
また、その結果、サーバ系切換えに伴ってサーバ間で送受信されるメッセージ少なくすることができる。N台のアクティブサーバを全て1系統にカスケード接続した場合にはサーバ間の通信回数は最大でN回となるが、(N/2)台毎の2系統に分ければ通信回数は最大で(N/2)回で済む。その結果、ノード全体としてのサーバ系切換えにかかる時間の短縮にもなる。
図4は、第2の実施形態のノードの構成を示すブロック図である。本実施形態のノードはアクティブサーバ211〜214とスタンバイサーバ22とを有している。アクティブサーバ211〜214とスタンバイサーバ22は通信路23に接続されている。
アクティブサーバ211〜214は、カスケード接続でデータを同期させる系統を、アクティブサーバ211,212の系統と、アクティブサーバ214,213の系統との2つに分けている。
アクティブサーバ211〜214は、通常運用時、自身のデータD21〜D24を用いてサービスを提供するとともに、カスケード接続の後段にあるサーバに自身のデータD21〜D24を同期させる。
いずれかのアクティブサーバに障害が発生すると、そのアクティブサーバの次段のサーバは、障害の発生したアクティブサーバと同期したデータを用いてサービスを継続させる。その際、前段のアクティブサーバと同期したデータを用いたサービスを行うアクティブサーバがそれまで行っていたサービスは、更に次段のサーバによって継続される。
スタンバイサーバ22は、2系統のいずれかに属する前段のアクティブサーバ21に障害が発生したとき、あるいは前段のアクティブサーバ21が更にその前段のアクティブサーバ21に代わってサービスを開始するとき、前段のアクティブサーバ21と同期したデータD2′を用いてサービスを継続させる。
本実施形態では、アクティブサーバ21に障害が発生したとき、サーバ系切換えは障害の発生したアクティブサーバ21の属する系統に閉じられる。
図4の例では、アクティブサーバ211に障害が発生すると、アクティブサーバ212が、アクティブサーバ211と同期したデータD21′を用いてサービスを継続させる。そして、アクティブサーバ212が行っていたサービスはスタンバイサーバ22によって継続される。
また、アクティブサーバ214に障害が発生すると、アクティブサーバ213が、アクティブサーバ214と同期したデータD24′を用いてサービスを継続させる。そして、アクティブサーバ213が行っていたサービスはスタンバイサーバ22によって継続される。
再び図4を参照すると、アクティブサーバ21は、プロセッサ24、記憶装置25、および通信インターフェース26を有している。プロセッサ24、記憶装置25、および通信インターフェース26の構成および動作は、図1に示した第1の実施形態によるアクティブサーバ11のプロセッサ14、記憶装置15、および通信インターフェース16と同様である。
スタンバイサーバ22は、プロセッサ27、記憶装置28、および通信インターフェース29を有している。スタンバイサーバ22は、2系統のアクティブサーバに共用される点で、図1に示した第1の実施形態によるスタンバイサーバ12と異なる。ただし、スタンバイサーバ22は、各系統に対して、第1の実施形態のスタンバイサーバ12と同様の動作をする。また、プロセッサ27、記憶装置28、および通信インターフェース29の各系統に対する動作も第1の実施形態によるプロセッサ17、記憶装置18、および通信インターフェース19と同様である。
次に、アクティブサーバ211に障害が発生したときのノード全体の動作について説明する。ここでは、アクティブサーバ211〜214がサービスを提供する通常運用の状態から、アクティブサーバ211に障害が発生したときのノードの動作について説明する。アクティブサーバ211に障害が発生した場合には、アクティブサーバ212とスタンバイサーバ22がサービスを提供するようにサーバの切り換えが起こってノードの動作が再開する。
アクティブサーバ211に障害が発生すると、アクティブサーバ212がその障害を検出し、サーバ系切換えシーケンスを開始する。アクティブサーバ212は自身がスタンバイサーバではないことを確認し、自身のサービスを継続する後段のサーバ(スタンバイサーバ22)へサーバ系切換えを要求する。
スタンバイサーバ22は、サーバ系切換え要求を受けると、前段のアクティブサーバ212と同期したデータD22′を用いて、それまでアクティブサーバ212が行っていたサービスを開始する。そして、スタンバイサーバ22は、アクティブサーバ212へサーバ系切換え完了を通知する。
アクティブサーバ212は、スタンバイサーバ22からサーバ系切換え完了を受けると、それまで自身で行っていたサービスを停止する。次に、アクティブサーバ212は、前段のアクティブサーバ211と同期したデータD21′を用いて、それまでアクティブサーバ211が行っていたサービスを開始する。
なお、サーバ間で送受信されるサーバ系切換え要求およびサーバ系切換え完了のデータ量は、サービスに用いるデータを同期させるために転送される同期データのデータ量に比べて十分に小さい。そのためサーバ間の通信にかかる時間は短く、サーバ系切換えは即時に完了する。そのため、アクティブサーバ211に障害が発生したとき、ノード全体としてはサービスを継続させることができる。
また、ここではアクティブサーバの2つの系統に対して1つのスタンバイサーバを備える構成を例示したが、3つ以上の系統に対して1つのスタンバイサーバを備える構成も可能である。
(第3の実施形態)
第1および第2の実施形態では、各アクティブサーバはいずれか1つの系統に属しており、複数のアクティブサーバのデータの同期は1方向だけであった。しかし、本発明はこれに限定されるものでない。第3の実施形態では、複数のアクティブサーバのデータの同期が2方向にカスケード接続された構成を例示する。
この例では、1つの方向で最前の段となるアクティブサーバが、もう1つの方向では最後の段となる。複数のアクティブサーバは、隣接するアクティブサーバが双方向で互いにデータを同期させるようにして一列に接続され、さらに両端の2つのアクティブサーバは自身のデータをスタンバイサーバにも同期させる。
方向が異なるカスケード接続を別の系統と見れば、アクティブサーバがそれぞれ2系統に属することとなる。そのため、アクティブサーバに障害が発生したとき、2系統のうち適当な方を選択して切換えを実行することができる。
この構成によれば、いずれかのアクティブサーバに障害が発生したときにサーバ系切換えをいずれか1方向だけに限定することができる。また、いずれかのアクティブサーバに障害が発生したとき、障害の発生したアクティブサーバに応じて、サービスを切り換えるサーバの段数がより少ない系統を選択することが可能となる。その結果、サーバ系切換えに伴ってサーバ間で送受信されるメッセージをより少なくすることができる。N台のアクティブサーバを全て1系統にカスケード接続した場合にはサーバ間の通信回数は最大でN回となるが、(N/2)台毎の2つに分け、さらに双方にカスケード接続してトータルで4系統とすれば、通信回数は最大で(N/4)回で済む。その結果、ノード全体としてのサーバ系切換えにかかる時間の短縮にもなる。
図5は、第3の実施形態のノードの構成を示すブロック図である。本実施形態のノードはアクティブサーバ311〜316とスタンバイサーバ32とを有している。アクティブサーバ311〜316とスタンバイサーバ32は通信路33に接続されている。
アクティブサーバ311〜316は、カスケード接続でデータを同期させるアクティブサーバを、アクティブサーバ311,312,313の組と、アクティブサーバ313,314,315,316の組との2つに分けている。
同じ組みに属する複数のアクティブサーバ31は、隣接するアクセスサーバ31が双方向で互いにデータを同期させるようにして一列に接続され、さらに両端の2台のアクティブサーバ31は自身のデータをスタンバイサーバ32にも同期させている。
例えば、アクティブサーバ311,312,313の組では、アクティブサーバ311とアクティブサーバ312とが双方向で互いにデータを同期させている。また、アクティブサーバ312とアクティブサーバ313とが双方向で互いにデータを同期させている。さらに、両端にあるアクティブサーバ311とアクティブサーバ313は、自身のデータをスタンバイサーバ32にも同期させている。これにより、アクティブサーバ311,312,313の組によってカスケード接続の2つの系統ができている。
なお、ここでは、アクティブサーバ313が2つの組に属し、かつ各組のカスケード接続の系統において最後の段にあってスタンバイサーバ32に接続する位置にある。この構成により、スタンバイサーバ32に同期させる2系統のデータを1台のアクティブサーバ313のデータで兼用することができる。
再び図5を参照すると、アクティブサーバ31は、プロセッサ34、記憶装置35、および通信インターフェース36を有している。プロセッサ34、記憶装置35、および通信インターフェース36の構成および動作は、図1に示した第1の実施形態によるアクティブサーバ11のプロセッサ14、記憶装置15、および通信インターフェース16と同様である。ただし、本実施形態では、1つのアクティブサーバ31が複数の系統に属している。
したがって、いずれかのアクティブサーバ31に障害が発生したとき、そのアクティブサーバ31の属している系統のうち、どの系統にてサーバ系切換えを行うかの判断が行われる。プロセッサ34は、図1に示した第1の実施形態によるアクティブサーバ11のプロセッサ14と同様の機能に加え、いずれかのアクティブサーバ31に障害が発生したときにサーバ系切換えを行う系統を選択する機能を備えていてもよい。例えば、障害の発生したアクティブサーバ31の位置に応じてサーバ系切換えを行う系統を選択することにしてもよい。より具体的には、障害の発生したアクティブサーバ31と、その障害に対して最もサーバ系切換えの段数が少ない系統とを対応付けた情報を各サーバに予め設定しておくことにしてもよい。
スタンバイサーバ32は、プロセッサ37、記憶装置38、および通信インターフェース39を有している。スタンバイサーバ32は、図4に示した第2の実施形態のスタンバイサーバ22と同様、複数の系統に共用される。スタンバイサーバ32は、各系統に対して第1の実施形態のスタンバイサーバ12と同様の動作をする。また、プロセッサ37、記憶装置38、および通信インターフェース39の各系統に対する動作も第1の実施形態によるプロセッサ17、記憶装置18、および通信インターフェース19と同様である。
次に、アクティブサーバ314に障害が発生したときのノード全体の動作について説明する。ここでは、アクティブサーバ311〜316がサービスを提供する通常運用の状態から、アクティブサーバ314に障害が発生したときのノードの動作について説明する。
アクティブサーバ314に障害が発生すると、アクティブサーバ313とアクティブサーバ315がその障害を検出する。アクティブサーバ313を経由する系統では、スタンバイサーバ32までに経由するサーバは1台(アクティブサーバ313のみ)である。一方、アクティブサーバ315を経由する系統では、スタンバイサーバ32までに経由するサーバは2台(アクティブサーバ315,316)である。それ故、アクティブサーバ313を経由する系統でサーバ系切換えが行われることになる。
アクティブサーバ313はサーバ系切換えシーケンスを開始する。アクティブサーバ313は、自身がスタンバイサーバ32ではないことを確認し、自身のサービスを継続する後段のサーバ(スタンバイサーバ32)へサーバ系切換えを要求する。
スタンバイサーバ32は、サーバ系切換え要求を受けると、前段のアクティブサーバ313と同期したデータD33′′′を用いて、それまでアクティブサーバ313が行っていたサービスを開始する。また、スタンバイサーバ32は、アクティブサーバ313へサーバ系切換え完了を通知する。
アクティブサーバ313は、スタンバイサーバ32からサーバ系切換え完了を受けると、それまで自身で行っていたサービスを停止する。次に、アクティブサーバ313は、前段のアクティブ314と同期したデータD34″を用いて、それまでアクティブサーバ314が行っていたサービスを開始する。
なお、サーバ間で送受信されるサーバ系切換え要求およびサーバ系切換え完了のデータ量は、サービスに用いるデータを同期させるために転送される同期データのデータ量に比べて十分に小さい。そのためサーバ間の通信にかかる時間は短く、サーバ系切換えは即時に完了する。そのため、アクティブサーバ314に障害が発生したとき、ノード全体としてはサービスを継続させることができる。
第1の実施形態のノードの構成を示すブロック図である。 第1の実施形態のサーバにおいて、前段のアクティブサーバに障害が発生したサーバの動作を示すフローチャートである。 第1の実施形態のサーバにおいて、前段のアクティブサーバからサーバ系切換え要求を受信したサーバの動作を示すフローチャートである。 第2の実施形態のノードの構成を示すブロック図である。 第3の実施形態のノードの構成を示すブロック図である。 ホットスタンバイの2重化構成について説明するための図である。 ホットスタンバイのN重化構成について説明するための図である。 コールドスタンバイのN+1冗長構成について説明するための図である。 ホットスタンバイのN+1冗長構成について説明するための図である。
符号の説明
11,21,31 アクティブサーバ
12,22,32 スタンバイサーバ
13,23,33 通信路
14,17,24,27,34,37 プロセッサ
15,18,25,28,35,38 記憶装置
16,19,26,29,36,39 通信インターフェース

Claims (21)

  1. 前段のサーバのデータに同期したデータを後段のサーバにて記憶するようにカスケード接続した複数のアクティブサーバと、
    前記複数のアクティブサーバのカスケード接続の最後の段のデータに同期したデータを記憶するスタンバイサーバと、を有し、
    いずれかのアクティブサーバに障害が発生すると、障害の発生した前記アクティブサーバの後段から前記スタンバイサーバまでの各々のサーバが、それぞれの前段のサーバに同期したデータを用いて、それまで前記前段のサーバが行っていたサービスを引き継いで行う、ノードシステム。
  2. 前記複数のアクティブサーバによるカスケード接続の系統が複数あり、前記複数の系統における最後の段のアクティブサーバのデータに同期したデータを同じスタンバイサーバに記録する、請求項1に記載のノードシステム。
  3. 少なくとも1つのアクティブサーバがカスケード接続の複数の系統に属しており、前記アクティブサーバに障害が発生すると、前記アクティブサーバが属している前記複数の系統の中で、サービスを切り換えるサーバの段数がより少なくなる系統にて切り換えを実行する、請求項2に記載のノードシステム。
  4. 同じ系統に属する複数のアクティブサーバは、隣接するアクティブサーバが双方向で互いにデータを同期させるようにして一列に接続され、前記系統の両端の2つのアクティブサーバのデータに同期したデータを前記スタンバイサーバにて記憶する、請求項2または3に記載のノードシステム。
  5. カスケード接続の複数の系統に属し、かつ前記複数の系統のいずれにおいても最後の段に位置するアクティブサーバがあり、前記複数の系統の最後の段に位置する前記アクティブサーバのデータに同期したデータを前記スタンバイサーバに記録する、請求項2から4のいずれか1項に記載のノードシステム。
  6. 複数のアクティブサーバによるカスケード接続が2系統あり、前記アクティブサーバの各々がいずれか1つの系統に属しており、前記2系統の最後の段のアクティブサーバのデータに同期したデータを1つのスタンバイサーバに記録する、請求項2に記載のノードシステム。
  7. 複数のアクティブサーバをカスケード接続するように、前段のアクティブサーバのデータに同期したデータを後段のアクティブサーバにて記憶するとともに、前記複数のアクティブサーバのカスケード接続の最後の段のデータに同期したデータをスタンバイサーバにて記憶し、
    いずれかのアクティブサーバに障害が発生すると、障害の発生した前記アクティブサーバの後段から前記スタンバイサーバまでの各々のサーバが、それぞれの前段のサーバに同期したデータを用いて、それまで前記前段のサーバが行っていたサービスを引き継ぐ、サーバ切換え方法。
  8. 前記複数のアクティブサーバによるカスケード接続の系統が複数あり、
    前記複数の系統における最後の段のアクティブサーバのデータに同期したデータを同じスタンバイサーバに記録する、請求項7に記載のサーバ切換え方法。
  9. 少なくとも1つのアクティブサーバがカスケード接続の複数の系統に属しており、
    前記アクティブサーバに障害が発生すると、前記アクティブサーバが属している前記複数の系統の中で、サービスを切り換えるサーバの段数がより少なくなる系統にて切り換えを実行する、請求項8に記載のサーバ切換え方法。
  10. 同じ系統に属する複数のアクティブサーバは、隣接するアクティブサーバが双方向で互いにデータを同期させるようにして一列に接続されており、
    前記系統の両端の2つのアクティブサーバのデータに同期したデータを前記スタンバイサーバにて記憶する、請求項8または9に記載のサーバ切換え方法。
  11. カスケード接続の複数の系統に属し、かつ前記複数の系統のいずれにおいても最後の段に位置するアクティブサーバがあり、
    前記複数の系統の最後の段に位置する前記アクティブサーバのデータに同期したデータを前記スタンバイサーバに記録する、請求項8から10のいずれか1項に記載のサーバ切換え方法。
  12. 複数のアクティブサーバによるカスケード接続が2系統あり、前記アクティブサーバの各々がいずれか1つの系統に属しており、
    前記2系統の最後の段のアクティブサーバのデータに同期したデータを1つのスタンバイサーバに記録する、請求項8に記載のサーバ切換え方法。
  13. 前段のアクティブサーバ装置のデータに同期したデータを後段のアクティブサーバ装置にて記憶するように複数のアクティブサーバ装置がカスケード接続され、最後の段のアクティブサーバ装置のデータに同期したデータがスタンバイサーバ装置に記憶されるノードシステムにおける前段のアクティブサーバ装置のデータに同期したデータを記憶する記憶手段と、
    前記前段のアクティブサーバ装置に障害が発生したとき、または前記前段のアクティブサーバ装置から要求があったとき、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせた後、前記記憶手段にて記憶されている、前記前段のアクティブサーバ装置のデータに同期したデータを用いて、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継いで行う処理手段と、を有するサーバ装置。
  14. 前記処理手段は、前記前段のアクティブサーバ装置に障害が発生したとき、または前記前段のアクティブサーバ装置から要求があったとき、
    後段にサーバ装置がなければ、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせる処理を省いて、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぎ、
    後段にサーバ装置があれば、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせた後、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぐ、請求項13に記載のサーバ装置。
  15. 前記処理手段は、カスケード接続の複数の系統に属しているアクティブサーバ装置に障害が発生すると、前記アクティブサーバ装置が属している前記複数の系統の中で、サービスを切り換えるサーバの段数がより少なくなる系統にて切り換えを実行する、請求項13に記載のサーバ装置。
  16. 前段のアクティブサーバ装置のデータに同期したデータを後段のアクティブサーバ装置にて記憶するように複数のアクティブサーバ装置がカスケード接続され、最後の段のアクティブサーバ装置のデータに同期したデータがスタンバイサーバ装置に記憶されるノードシステムにおける前段のアクティブサーバ装置のデータに同期したデータを記憶し、
    前記前段のアクティブサーバ装置に障害が発生したとき、または前記前段のアクティブサーバ装置から要求があったとき、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせ、
    前記前段のアクティブサーバ装置のデータに同期したデータを用いて、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぐ、データ引き継ぎ方法。
  17. 前記前段のアクティブサーバ装置に障害が発生したとき、または前記前段のアクティブサーバ装置から要求があったとき、
    後段にサーバ装置がなければ、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせる処理を省いて、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぎ、
    後段にサーバ装置があれば、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせた後、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぐ、請求項16に記載のデータ引き継ぎ方法。
  18. カスケード接続の複数の系統に属しているアクティブサーバ装置に障害が発生すると、前記アクティブサーバ装置が属している前記複数の系統の中で、サービスを切り換えるサーバの段数がより少なくなる系統にて切り換えを実行する、請求項16に記載のデータ引き継ぎ方法。
  19. 前段のアクティブサーバ装置のデータに同期したデータを後段のアクティブサーバ装置にて記憶するように複数のアクティブサーバ装置がカスケード接続され、最後の段のアクティブサーバ装置のデータに同期したデータがスタンバイサーバ装置に記憶されるノードシステムにおける前段のアクティブサーバ装置のデータに同期したデータを記憶する手順と、
    前記前段のアクティブサーバ装置に障害が発生したとき、または前記前段のアクティブサーバ装置から要求があったとき、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせる手順と、
    記前段のアクティブサーバ装置のデータに同期したデータを用いて、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぐ手順と、コンピュータに実行させるためのプログラム。
  20. 前記前段のアクティブサーバ装置に障害が発生したとき、または前記前段のアクティブサーバ装置から要求があったとき、
    後段にサーバ装置がなければ、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせる処理を省いて、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぎ、
    後段にサーバ装置があれば、自サーバ装置がそれまで行っていたサービスを後段のサーバ装置に引き継がせた後、それまで前記前段のアクティブサーバ装置が行っていたサービスを引き継ぐ、請求項19に記載のプログラム。
  21. カスケード接続の複数の系統に属しているアクティブサーバ装置に障害が発生すると、前記アクティブサーバ装置が属している前記複数の系統の中で、サービスを切り換えるサーバの段数がより少なくなる系統にて切り換えを実行する、請求項19に記載のプログラム。
JP2007330060A 2007-12-21 2007-12-21 ノードシステム、サーバ切換え方法、サーバ装置、データ引き継ぎ方法、およびプログラム Active JP4479930B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2007330060A JP4479930B2 (ja) 2007-12-21 2007-12-21 ノードシステム、サーバ切換え方法、サーバ装置、データ引き継ぎ方法、およびプログラム
KR1020107016362A KR20100099319A (ko) 2007-12-21 2008-10-29 노드 시스템, 서버 절환 방법, 서버 장치, 및 데이터 인수 방법
PCT/JP2008/069589 WO2009081657A1 (ja) 2007-12-21 2008-10-29 ノードシステム、サーバ切換え方法、サーバ装置、およびデータ引き継ぎ方法
EP08864266A EP2224341B1 (en) 2007-12-21 2008-10-29 Node system, server switching method, server device, and data transfer method
CN200880121845.9A CN101903864B (zh) 2007-12-21 2008-10-29 节点系统、服务器切换方法、服务器装置和数据接管方法
US12/746,591 US20100268687A1 (en) 2007-12-21 2008-10-29 Node system, server switching method, server apparatus, and data takeover method
TW097145987A TWI410810B (zh) 2007-12-21 2008-11-27 節點系統、伺服器切換方法、伺服器裝置、資料移交方法及程式產品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007330060A JP4479930B2 (ja) 2007-12-21 2007-12-21 ノードシステム、サーバ切換え方法、サーバ装置、データ引き継ぎ方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2009151629A JP2009151629A (ja) 2009-07-09
JP4479930B2 true JP4479930B2 (ja) 2010-06-09

Family

ID=40800973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007330060A Active JP4479930B2 (ja) 2007-12-21 2007-12-21 ノードシステム、サーバ切換え方法、サーバ装置、データ引き継ぎ方法、およびプログラム

Country Status (7)

Country Link
US (1) US20100268687A1 (ja)
EP (1) EP2224341B1 (ja)
JP (1) JP4479930B2 (ja)
KR (1) KR20100099319A (ja)
CN (1) CN101903864B (ja)
TW (1) TWI410810B (ja)
WO (1) WO2009081657A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107532A (ko) 2015-01-27 2017-09-25 닛본 덴끼 가부시끼가이샤 네트워크 기능 가상화의 관리, 및 오케스트레이션 장치, 시스템, 관리 방법 및 프로그램
US10628273B2 (en) 2015-01-30 2020-04-21 Nec Corporation Node system, server apparatus, scaling control method, and program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8578202B2 (en) * 2010-07-29 2013-11-05 Ca, Inc. System and method for providing high availability for distributed application
DE102011116866A1 (de) * 2011-10-25 2013-04-25 Fujitsu Technology Solutions Intellectual Property Gmbh Clustersystem und Verfahren zum Ausführen einer Mehrzahl von virtuellen Maschinen
CN102541693A (zh) * 2011-12-31 2012-07-04 曙光信息产业股份有限公司 数据的多副本存储管理方法和系统
US9021166B2 (en) 2012-07-17 2015-04-28 Lsi Corporation Server direct attached storage shared through physical SAS expanders
JP6056408B2 (ja) * 2012-11-21 2017-01-11 日本電気株式会社 フォールトトレラントシステム
JP5976589B2 (ja) * 2013-03-29 2016-08-23 シスメックス株式会社 検体分析方法及び検体分析システム
CN103699461A (zh) * 2013-11-27 2014-04-02 北京机械设备研究所 一种双主机相互冗余热备份方法
CN111352878B (zh) * 2018-12-21 2021-08-27 达发科技(苏州)有限公司 数字信号处理系统及方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2888278B2 (ja) * 1995-09-14 1999-05-10 日本電気株式会社 相互ホットスタンバイシステム待機系選択方式
US6119162A (en) * 1998-09-25 2000-09-12 Actiontec Electronics, Inc. Methods and apparatus for dynamic internet server selection
US6397307B2 (en) * 1999-02-23 2002-05-28 Legato Systems, Inc. Method and system for mirroring and archiving mass storage
US6567376B1 (en) * 1999-02-25 2003-05-20 Telefonaktiebolaget Lm Ericsson (Publ) Using system frame number to implement timers in telecommunications system having redundancy
JP3887130B2 (ja) 1999-07-30 2007-02-28 株式会社東芝 高可用性計算機システム及び同システムにおけるデータバックアップ方法
US6886004B2 (en) * 2000-08-24 2005-04-26 Red Hat, Inc. Method and apparatus for atomic file look-up
US20030005350A1 (en) * 2001-06-29 2003-01-02 Maarten Koning Failover management system
US6922791B2 (en) * 2001-08-09 2005-07-26 Dell Products L.P. Failover system and method for cluster environment
US6978398B2 (en) * 2001-08-15 2005-12-20 International Business Machines Corporation Method and system for proactively reducing the outage time of a computer system
US6978396B2 (en) * 2002-05-30 2005-12-20 Solid Information Technology Oy Method and system for processing replicated transactions parallel in secondary server
US7793060B2 (en) * 2003-07-15 2010-09-07 International Business Machines Corporation System method and circuit for differential mirroring of data
JP4415610B2 (ja) * 2003-08-26 2010-02-17 株式会社日立製作所 系切替方法、レプリカ作成方法、及びディスク装置
JP2005250840A (ja) * 2004-03-04 2005-09-15 Nomura Research Institute Ltd 耐障害システムのための情報処理装置
TWI257226B (en) * 2004-12-29 2006-06-21 Inventec Corp Remote control system of blade server and remote switching control method thereof
JP2006285448A (ja) * 2005-03-31 2006-10-19 Oki Electric Ind Co Ltd 冗長システム
JP4339286B2 (ja) * 2005-07-01 2009-10-07 日本電信電話株式会社 ノード間情報共有システム
CN101022451B (zh) * 2006-02-14 2014-07-23 杭州华三通信技术有限公司 数据通信中连接状态的同步方法及其应用的通信节点
US7873702B2 (en) * 2006-03-31 2011-01-18 Masstech Group Inc. Distributed redundant adaptive cluster
US7752404B2 (en) * 2006-12-29 2010-07-06 Emc Corporation Toggling between concurrent and cascaded triangular asynchronous replication
US7899917B2 (en) * 2007-02-01 2011-03-01 Microsoft Corporation Synchronization framework for occasionally connected applications
TW200849001A (en) * 2007-06-01 2008-12-16 Unisvr Global Information Technology Corp Multi-server hot-backup system and fault tolerant method
JP4561800B2 (ja) * 2007-09-25 2010-10-13 沖電気工業株式会社 データ同期システム及び方法
US7870095B2 (en) * 2007-12-03 2011-01-11 International Business Machines Corporation Apparatus, system, and method for replication of data management information

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107532A (ko) 2015-01-27 2017-09-25 닛본 덴끼 가부시끼가이샤 네트워크 기능 가상화의 관리, 및 오케스트레이션 장치, 시스템, 관리 방법 및 프로그램
US11099869B2 (en) 2015-01-27 2021-08-24 Nec Corporation Management of network functions virtualization and orchestration apparatus, system, management method, and program
US10628273B2 (en) 2015-01-30 2020-04-21 Nec Corporation Node system, server apparatus, scaling control method, and program

Also Published As

Publication number Publication date
KR20100099319A (ko) 2010-09-10
EP2224341A1 (en) 2010-09-01
US20100268687A1 (en) 2010-10-21
WO2009081657A1 (ja) 2009-07-02
TWI410810B (zh) 2013-10-01
CN101903864B (zh) 2016-04-20
JP2009151629A (ja) 2009-07-09
EP2224341A4 (en) 2012-03-07
EP2224341B1 (en) 2013-03-20
TW200935244A (en) 2009-08-16
CN101903864A (zh) 2010-12-01

Similar Documents

Publication Publication Date Title
JP4479930B2 (ja) ノードシステム、サーバ切換え方法、サーバ装置、データ引き継ぎ方法、およびプログラム
JP2017534133A (ja) 分散ストレージ及びレプリケーションシステム、並びに方法
US7865763B2 (en) Data replication method
US20150019491A1 (en) Replication of Data Between Mirrored Data Sites
JP2001306349A (ja) バックアップ装置及びバックアップ方法
CN104994168A (zh) 分布式存储方法及分布式存储系统
JP4491482B2 (ja) 障害回復方法、計算機、クラスタシステム、管理計算機及び障害回復プログラム
CN105634832B (zh) 一种服务器的备份方法和装置
CN103634411A (zh) 一种具有状态一致性的市场数据实时广播系统及方法
JP5994601B2 (ja) 並列計算機、並列計算機の制御プログラム及び並列計算機の制御方法
JP2006048122A (ja) 通信システム
JP5201134B2 (ja) 二重化システム、切替プログラムおよび切替方法
CN114244859B (zh) 数据处理方法及装置和电子设备
CN108390919A (zh) 一种用于高可靠双机热备的消息同步系统及方法
CN106294031A (zh) 一种业务管理方法和存储控制器
US12225075B2 (en) Methods, apparatuses, and devices for lease transfer between master and slave replicas
WO2024179427A1 (zh) 一种双az集群下的容灾方法及相关设备
CN110351122A (zh) 容灾方法、装置、系统与电子设备
JP2009075710A (ja) 冗長化システム
JP2009217765A (ja) 複数宛先への同期送信方法、その実施システム及び処理プログラム
JP4392343B2 (ja) メッセージ配布方法、待機系ノード装置およびプログラム
WO2011058639A1 (ja) 通信方法、情報処理装置及びプログラム
JP4435142B2 (ja) クラスタシステム及び同期化方法
CN116339929A (zh) 一种去中心化的分布式事务处理方法及装置
CN117555688A (zh) 基于双活中心的数据处理方法、系统、设备及存储介质

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100309

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4