[go: up one dir, main page]

JP2001134522A - San type intelligent data cache device - Google Patents

San type intelligent data cache device

Info

Publication number
JP2001134522A
JP2001134522A JP31145999A JP31145999A JP2001134522A JP 2001134522 A JP2001134522 A JP 2001134522A JP 31145999 A JP31145999 A JP 31145999A JP 31145999 A JP31145999 A JP 31145999A JP 2001134522 A JP2001134522 A JP 2001134522A
Authority
JP
Japan
Prior art keywords
data
san
type intelligent
bus
cache
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31145999A
Other languages
Japanese (ja)
Inventor
Hironao Takahashi
宏尚 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PROSTOR JAPAN KK
Original Assignee
PROSTOR JAPAN KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PROSTOR JAPAN KK filed Critical PROSTOR JAPAN KK
Priority to JP31145999A priority Critical patent/JP2001134522A/en
Publication of JP2001134522A publication Critical patent/JP2001134522A/en
Pending legal-status Critical Current

Links

Landscapes

  • Memory System (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a SAN type intelligent data cache capable of connecting a computer to its I/O device efficiently transferring data and drastically improving retrieval capability. SOLUTION: A three-dimensional bus is formed by arraying devices, composed of memory units, etc., and bus controllers, symmetrically in stages at 90 deg. on both the surfaces of a mother board which is mounted with a common cache memory unit 2 of tens of GB inside and arranged in the center, and the memories are shared and made accessible.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、データ・キャッシ
ュに関し、特に、コンピュータ及びそのI/Oデバイス
等に接続する事が出来、複数のファイバ・チャンネル・
アービトレーテッド・ループ(以下、「FC−AL」と
いう。)インターフェースを持ち、大量のデータの転
送、検索が可能なSAN型インテリジェント・データ・
キャッシュ装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data cache, and more particularly, to a data cache that can be connected to a computer and its I / O devices and the like.
SAN-type intelligent data transmission / reception system that has an arbitrated loop (hereinafter referred to as “FC-AL”) interface and can transfer and search large amounts of data.
It relates to a cache device.

【0002】[0002]

【従来の技術】現在、コンピュータネットワークとして
SANの普及がめざましい。SANとは、ストレージ・
エアリア・ネットワーク(Storage Area Network)の略
称であり、LANが単にコンピュータ通信用のネットワ
ークであるのとは違い、SANは、コンピュータのデー
タが大容量化されることを想定して、コンピュータが持
っているデータディスク自信を共有化し、それを直接ア
クセスする事によって無駄なデータ転送を省く事ができ
るデータ中心のコンピュータネットワークの事である。
2. Description of the Related Art At present, SAN is remarkably spread as a computer network. SAN is a storage and
This is an abbreviation of Air Area Network (Storage Area Network). Unlike a LAN, which is simply a network for computer communication, a SAN has a computer assuming that computer data will have a large capacity. This is a data-centric computer network that can share the data disk itself and access it directly to avoid unnecessary data transfer.

【0003】SAN構成配下のFC−ALデータ通信に
おいて、複数のコンピュータから共有化されたディスク
デバイス内の情報を検索する場合、一度にアクセスが集
中してしまうので多くの待ち時間が発生し、サーバーへ
のレスポンスの低下を招いてしまう。データの転送能力
は高いが、データ検索・配信能力が低い故に、サーバー
(ネットワークシステムにおける他のコンピュータにサ
ービスするコンピュータ)が多数必要となってしまう。
今後益々増え続けるデータ検索件数増大において問題視
されている。
[0003] In the FC-AL data communication under the SAN configuration, when searching for information in a shared disk device from a plurality of computers, a large amount of waiting time occurs because access is concentrated at one time, and a server is required. The response to is reduced. Although the ability to transfer data is high, the ability to search and distribute data is low, so many servers (computers serving other computers in the network system) are required.
There is a problem with the increasing number of data searches that will continue to increase in the future.

【0004】従来から、FC−ALシステムにおいて、
サーバーとデバイス間には、FC−AL スイッチ(HU
B)が使用されており、そのデータの冗長のためにRA
IDディスク装置が取り付けられていた。FC−AL
スイッチHUBは、単にデータの伝達経路を分岐する為の
目的で使用する物でそれ自身データの冗長性を持たせる
物ではない。
Conventionally, in the FC-AL system,
An FC-AL switch (HU
B) is used, and RA is used for the data redundancy.
An ID disk device was attached. FC-AL
The switch HUB is used merely for the purpose of branching the data transmission path, and does not itself provide data redundancy.

【0005】従来のFC−AL スイッチは、図3
(a)で概略示すように、あくまでもデータの仲介を行
う切替手段にすぎず、従って速度または、データ検索能
力を向上させるインテリジェント機能までは持たない。
そして、FC−ALディスクやテープデバイスを接続す
る場合には、接続されるこれらのデバイスの処理スピー
ドに合わせてデータ転送する必要があるから、結果的に
は、接続されるデバイスが多いほど転送スピード(せい
ぜい100MB程度)と検索能力が低下する傾向があっ
た。
A conventional FC-AL switch is shown in FIG.
As schematically shown in (a), it is merely a switching means for mediating data, and therefore does not have an intelligent function for improving speed or data search capability.
When connecting an FC-AL disk or tape device, it is necessary to transfer data in accordance with the processing speed of these connected devices. As a result, the transfer speed increases as the number of connected devices increases. (At most about 100 MB), the search ability tended to decrease.

【0006】ところで、図4(a)に示すように、従来
からコンピュータの入出力部にキャッシュメモリーを設
ける技術は周知であるが、これは、接続されているディ
スクのデータを読み出す時のみにデータキャッシュ(蓄
える)される。従って、近年のインターネット、WWW
サーバーに必要とされるデータの更新(書き込み)に
は、読み書き同時に対応する必然性が生じている。
As shown in FIG. 4A, a technique of providing a cache memory in an input / output unit of a computer is well known. However, this technique is used only when reading data from a connected disk. It is cached (stored). Therefore, the recent Internet, WWW
Updating (writing) of data required by the server necessitates simultaneous reading and writing.

【0007】そして、この従来のキャッシュメモリーの
バス構造(メモリユニット及びバスを含む全体の構造)
は、図3(b)に示すように、基本的に2次元上に配さ
れマザーボード上に、バスが形成されメモリーユニット
も搭載される構造であるために、メモリーの搭載量に限
度が生じてしまう。このため、入出力I/Oが遅い従来
のSCSIベースであればまだ対応できるが、高速なF
C−ALの多重通信では、大量なメモリー要求に対応で
きず結果としてノンウエート転送が不可能であった。
The bus structure of the conventional cache memory (the entire structure including the memory unit and the bus)
As shown in FIG. 3 (b), the structure is basically a two-dimensional arrangement in which a bus is formed on a motherboard and a memory unit is also mounted. I will. For this reason, the conventional SCSI base having a slow input / output I / O can still cope with it,
In the C-AL multiplex communication, a large amount of memory request could not be handled, and as a result, non-wait transfer was impossible.

【0008】又、従来のシリコンディスク装置は、これ
を主メモリーエリアとして利用すると、確かにデータの
読み出し時のだけでなく書き込み時も高速化されるが、
通常は事前に使用者がデータを書き込む作業をしておく
必要があり、その運用毎に書き換え作業が発生する。そ
して、高価な半導体メモリーを採用するために、大容量
化は価格的に難しく、あくまでも限られたデータのみを
予め書き込んでおくというプロセスが必要であった。
Further, in the conventional silicon disk device, when this is used as a main memory area, not only the speed at the time of reading data but also the speed at the time of writing are increased.
Normally, the user needs to write data in advance, and a rewriting operation occurs for each operation. In order to adopt an expensive semiconductor memory, it is difficult to increase the capacity in terms of cost, and a process of writing only limited data in advance is required.

【0009】又、従来から利用されているRAIDコン
トローラは、ディスクの冗長性を確保するためにディス
ク用のRAIDコントローラとして存在している。しか
し、図5(a)に示すような、コンピュータとの接続位
置の関係では、確かにSCSI、FC−ALといったインタ
ーフェースで接続されるが、その機能を考えた場合に
は、あくまでもデバイスをコンピュータに繋ぐものにす
ぎず、ネットワーク転送のFC−ALスイッチにおける
データ転送の冗長性を確保するものではない。
A RAID controller conventionally used exists as a disk RAID controller to ensure disk redundancy. However, as shown in FIG. 5A, the connection position with the computer is certainly connected by an interface such as SCSI or FC-AL. However, considering its function, the device is merely connected to the computer. It is merely a connection and does not ensure the redundancy of data transfer in the FC-AL switch for network transfer.

【0010】[0010]

【発明が解決しようする課題】本発明は、従来の上記問
題を解決することを目的とし、コンピュータ及びそのI
/Oデバイス等に接続する事が出来、外部接続インター
フェースとしてFC−ALチャンネルを多重チャンネル
持ち同時接続可能な構成として、大量のデータの転送、
検索が可能なSAN型インテリジェント・データ・キャ
ッシュ装置、即ちSANに適用されるインテリジェント
・データ・キャッシュ装置を実現することを課題とす
る。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned conventional problems and to provide a computer and its I / O.
/ O device, etc., and a multi-channel FC-AL channel as an external connection interface that can be connected at the same time.
It is an object of the present invention to realize a SAN type intelligent data cache device capable of searching, that is, an intelligent data cache device applied to a SAN.

【0011】そして、このデータ・キャッシュ装置を、
FC−ALスイッチとして位置づけ、FC−ALデータ
通信において、コンピュータとそのデバイス間に位置づ
ける事によりデータの検索、書き換えを一時的にキャッ
シュし、直接ディスクに書き込まずにキャシュ・メモリ
ーで、データの読み書きを代行しデータの検索能力を増
大するものである。これにより、従来のキャッシュメモ
リー、あるいはシリコンディスク等の技術では対応でき
ない、高速・高密度化情報のデータ処理の迅速化を実現
するものである。
Then, this data cache device is
Positioned as an FC-AL switch, in FC-AL data communication, it is positioned between a computer and its device to temporarily cache data search and rewrite, and read / write data in cache memory without directly writing to disk. Instead, it increases the data search capability. As a result, the speed of data processing of high-speed and high-density information, which cannot be dealt with by conventional cache memory or silicon disk technology, is realized.

【0012】[0012]

【課題を解決するための手段】本発明は、内部に立体バ
ス構造を有し、該立体バス構造に、1又は2以上の共有
キャッシュ・メモリーユニットを搭載したSAN型イン
テリジェント・データ・キャッシュ装置であって、上記
立体バス構造は、中央に配設されたデータバスを有する
マザーボードと、該マザーボードの両面に、例えば、9
0度の角度をもって起立するように、多段且つ対称的に
配列された複数のデバイスとから成り、上記デバイス
は、バスコントローラーと上記共有キャッシュ・メモリ
ユニット、バスコントローラーとCPU、及びバスコン
トローラーとFC−AL I/Fユニットの夫々の組み
合わせから成るものを含み、上記共有キャッシュ・メモ
リーユニットを共有化してアクセス可能とするととも
に、データの遅配を無くすことを可能にしたことを特徴
とするSAN型インテリジェント・データ・キャッシュ
装置を提供する。
SUMMARY OF THE INVENTION The present invention relates to a SAN type intelligent data cache device having a three-dimensional bus structure inside and one or more shared cache memory units mounted on the three-dimensional bus structure. The three-dimensional bus structure includes a motherboard having a data bus arranged in the center, and 9
It comprises a plurality of devices arranged in multiple stages and symmetrically so as to stand at an angle of 0 degrees, wherein the devices are a bus controller and the shared cache memory unit, a bus controller and the CPU, and a bus controller and the FC-FC. A SAN-type intelligent memory, including a combination of the AL I / F units, wherein the shared cache memory unit is shared and made accessible, and data delay is eliminated. Provide a data cache device.

【0013】上記SAN型インテリジェント・データ・
キャッシュ装置は、データを格納するディスク装置に接
続されており、上記ディスク装置のブロック・アドレス
について、予め設定されたサンプリング時間内で書き込
み及び読み出しアクセス頻度がカウントされ、上記共有
キャッシュ・メモリユニットは、その一部領域に、上記
アクセス頻度の高いブロック・アドレスのデータが固定
メモリーグループとして格納され、上記領域は書き込み
及び読み出しに対応する自己学習機能を持ったメモリー
構造となるものであり、上記データの書き込み及び読み
出しの夫々のメモリー領域配分は、任意に決定できるよ
うな構成とすることで、データベース検索の効率アップ
とそのチューニングが可能である。
The above-mentioned SAN type intelligent data
The cache device is connected to a disk device that stores data, and for block addresses of the disk device, write and read access frequencies are counted within a preset sampling time, and the shared cache memory unit is In a part of the area, data of the block address having a high access frequency is stored as a fixed memory group, and the area has a memory structure having a self-learning function corresponding to writing and reading. By adopting a configuration in which the memory area allocation for writing and reading can be arbitrarily determined, it is possible to increase the efficiency of database search and tune it.

【0014】上記SAN型インテリジェント・データ・
キャッシュ装置のデバイス側には、複数の上記ディスク
装置が接続され、該ディスク装置に格納されるデータの
冗長性を採るために二重又は三重化してデータを格納す
るミラーリング構造が設けられ、オフラインでデータの
バックアップを採ることを可能とし、さらにデータの高
速検索に対応すべく高速分割書き込みが構築可能な構成
とすることにより、冗長性と高速性を兼ね備えた構成と
する。
The above-mentioned SAN type intelligent data
On the device side of the cache device, a plurality of the above disk devices are connected, and a mirroring structure for storing data in a double or triple manner in order to obtain redundancy of the data stored in the disk device is provided, and offline. A configuration having both redundancy and high speed is provided by making it possible to make a backup of the data and to make it possible to construct high-speed divisional writing in order to cope with high-speed retrieval of data.

【0015】[0015]

【発明の実施の形態】本発明に係るSAN型インテリジ
ェント・データ・キャッシュ装置(以下、「データ・キ
ャッシュ装置」という。)の実施の形態を実施例に基づ
いて、図面を参照して説明する。図1は、本発明の実施
例の概要を説明する図である。この図1において、本発
明に係るデータ・キャッシュ装置1の基本的な構成は、
共有メモリーである数十GByteまで搭載できる共有キャ
ッシュ・メモリーユニット(以下、単にメモリーユニッ
トという。)2と、LAN上のコンピュータ3と接続し
外部と通信する複数のFC−AL I/Fユニット(INP
UT)4と、ストレージデバイス5と接続するFC−AL
I/Fユニット(OUTPUT)6と、これらを制御するC
PU(CPUユニット)7と、データバス8とから構成
されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a SAN type intelligent data cache device (hereinafter, referred to as "data cache device") according to the present invention will be described based on embodiments with reference to the drawings. FIG. 1 is a diagram illustrating an outline of an embodiment of the present invention. In FIG. 1, the basic configuration of the data cache device 1 according to the present invention is as follows.
A shared cache memory unit (hereinafter, simply referred to as a memory unit) 2 that can be mounted up to several tens of gigabytes, which is a shared memory, and a plurality of FC-AL I / F units (INPs) connected to a computer 3 on a LAN and communicating with the outside.
UT) 4 and FC-AL connected to storage device 5
I / F unit (OUTPUT) 6 and C controlling these
It comprises a PU (CPU unit) 7 and a data bus 8.

【0016】本発明では、GB(ギガバイト)単位の巨大
なメモリーユニット2をFC−ALインターフェース
4、6とともに配備する事によって、LAN上の複数の
コンピュータ3とストレージデバイス5(具体的には、
ストレージ用のディスク装置等)をDMA(ダイレクト・
メモリー・アクセス)を用いて、待ち時間ゼロのシリコ
ンディスク領域を実現するものである。このメモリー領
域のデータ検索能力は1秒間に実に12万回を達成出来
るものである。
In the present invention, a huge memory unit 2 in GB (gigabyte) units is provided together with the FC-AL interfaces 4 and 6, so that a plurality of computers 3 and storage devices 5 (specifically,
DMA (direct /
(Memory access) to realize a silicon disk area with zero latency. The data search capability of this memory area can achieve 120,000 times per second.

【0017】(バス構造)本発明に係るデータ・キャッ
シュ装置1の構成をさらに、図2に示す詳細なシステム
ブロック図により説明する。本データ・キャッシュ装置
1の中心部にデータバス8を設け、このデータバス8
を、それぞれ統一した規格のバスコントローラー9を介
して、FC−AL I/Fユニット4、FC−AL I/
Fユニット6、CPUユニット7、複数のメモリーユニ
ット2等の各ユニットに対して等価的に接続されてい
る。
(Bus Structure) The configuration of the data cache device 1 according to the present invention will be further described with reference to a detailed system block diagram shown in FIG. A data bus 8 is provided at the center of the data cache device 1, and the data bus 8
To the FC-AL I / F unit 4 and the FC-AL I /
It is equivalently connected to each unit such as the F unit 6, the CPU unit 7, and the plurality of memory units 2.

【0018】即ち、それぞれのバスコントローラー9
は、同じ規格のモジュールコネクターで接合され、複数
のメモリユニット2、CPU7、複数のFC−AL I
/Fユニット4、6及びその他必要に応じて付設される
内部バス拡張モジュール(busextension module。図示
せず。)に振り分けられる。このバスコントローラー9
が同期を取って待ち時間ゼロのメモリー転送を行うこと
で、大幅な検索能力アップを実現している。
That is, each bus controller 9
Are connected by a module connector of the same standard, a plurality of memory units 2, a plurality of CPUs 7, and a plurality of FC-ALIs.
/ F units 4, 6 and other internal bus extension modules (bus extension modules, not shown) attached as necessary. This bus controller 9
Achieves a significant increase in search capability by synchronizing and performing zero-latency memory transfers.

【0019】さらに具体的には、本発明では、図3
(c)に示すように、立体バス構造を採用する。即ち、
この立体バス構造は、中央にマザーボード10を配し、
このマザーボード10に形成されたデータバス8に対し
て、図3(d)に示すような一対のユニット(上記各ユ
ニット2、4、6、7等)とバスコントローラー9との
組み合わせから成るデバイス11を90度の角度で起立
するように対称的に配置して構成され、このような構成
により、データの遅延を最小限に押さえ込むことができ
る。これにより、本発明に係る試作装置では、1.6か
ら3.2GB/秒のデータ転送スピードを実現するととも
に、数十GBのメモリーを完全なノンウエートアクセス可
能する事に成功した。
More specifically, in the present invention, FIG.
As shown in (c), a three-dimensional bus structure is adopted. That is,
This three-dimensional bus structure has a motherboard 10 in the center,
A device 11 composed of a combination of a pair of units (each of the units 2, 4, 6, 7, etc.) and a bus controller 9 as shown in FIG. Are symmetrically arranged so as to stand at an angle of 90 degrees. With such a configuration, data delay can be minimized. As a result, in the prototype device according to the present invention, a data transfer speed of 1.6 to 3.2 GB / sec was realized, and a memory of several tens of GB could be completely non-wait-accessed.

【0020】マザーボード10上のデータバス8は、マ
ザーボード10に直角に多段かつ高集積状態でに配設さ
れた、メモリーユニット2、FC−AL I/Fユニッ
ト4、6及びCPU7等を互いに接続し、内部バスピー
ド1.6から3.2GB/秒という高速データバスを構成
する。このような高速のバススピードと数十GBという大
きなメモリーを持つことにより、データの入出力に対し
て十分なキャパシティーを持つことが出来、複数チャン
ネルの同時多重アクセスを可能に出来る。
The data bus 8 on the motherboard 10 connects the memory unit 2, the FC-AL I / F units 4 and 6, the CPU 7, etc., which are arranged at right angles to the motherboard 10 in multiple stages and in a highly integrated state. And a high-speed data bus having an internal speed of 1.6 to 3.2 GB / sec. By having such a high-speed bus speed and a large memory of several tens of GB, it is possible to have sufficient capacity for data input / output, and to enable simultaneous multiple access of a plurality of channels.

【0021】すでに述べたように、従来のFC−ALス
イッチHUBは、図3(a)で示しているように、ディス
ク装置には1対1、又はコンピュータP1〜P3とディ
スクD1〜D3がN対Nで接続される(図3(a)の矢
印で左方に示す概念図参照。)だけのものでデータの検
索は、全て接続されているデータ・ディスク装置(Dis
k)が行っているノン・インテリジェントなスイッチで
あった。
As described above, in the conventional FC-AL switch HUB, as shown in FIG. 3A, one-to-one or one-to-one connection between computers P1 to P3 and disks D1 to D3 Data retrieval is performed only for those connected in pairs N (see the conceptual diagram shown on the left side by the arrow in FIG. 3A), and data retrieval is performed using all connected data disk devices (Dis
k) was a non-intelligent switch.

【0022】このような従来のFC−AL HUBスイッチ
の方法でも複数のコンピュータP1〜P3でディスクD
1〜D3の共有化や多重化が可能であったが、コンピュ
ータ側からのアクセス頻度に対して1秒間に数十から数
百回程度の検索能力しか実現できなかった。
In such a conventional FC-AL HUB switch method, a plurality of computers P1 to P3 use a disk D.
Although sharing and multiplexing of 1 to D3 were possible, only about several tens to several hundreds of search capability per second could be realized with respect to the access frequency from the computer side.

【0023】又、従来は図3(b)に示すようなメモリ
ーユニット等のユニット及びバスが配設されて成るマザ
ーボードを、平面状に又は多段状に複数枚設け、このよ
うな複数のマザーボードをさらに複数のバスでもって接
続していた。従って、物理的にユニット相互の配置が集
中されておらず、又バスの長さも長くなるために、デー
タ転送のスピードが遅かった。
Conventionally, a plurality of motherboards having units such as a memory unit and a bus as shown in FIG. 3 (b) are provided in a plane or in multiple stages, and such a plurality of motherboards are provided. In addition, they were connected by multiple buses. Therefore, the physical arrangement of the units is not concentrated, and the length of the bus is long, so that the data transfer speed is low.

【0024】しかしながら、本発明では、図3(c)に
示す構造により、キャッシュデータ装置自体に数十GBと
いう巨大な共有キャッシュ・メモリユニットと高速デー
タバスを有し、上記の通り大幅な検索能力アップを実現
を可能としている。
However, according to the present invention, due to the structure shown in FIG. 3C, the cache data device itself has a huge shared cache memory unit of several tens of GB and a high-speed data bus, and as described above, has a great search capability. Up is possible.

【0025】(キャッシュメモリー)従来のキャッシュ
メモリー図4(a)は、データを読み出す(図中では
「読み込み」としているが「読み出し」と同じ。)場合
にのみデータが一時的にキャッシュメモリー領域に投影
されて次のアクセスでたまたま同じデータがその領域に
存在すればヒットして速くデータが得られるという方法
を採用してる。
(Cache Memory) Conventional Cache Memory In FIG. 4A, data is temporarily stored in the cache memory area only when data is read (in the figure, "read" is the same as "read"). A method is adopted in which, if the same data happens to be projected in the next access and exists in the area, a hit is made and data can be obtained quickly.

【0026】これでは、一度に大量のデータ検索が発生
するWWWサーバ、インターネットサーバーでは対応し
きれない。なぜかというと、一度でもデータ量の大きな
画像ファイルでも入ってしまうとそのデータが全てのデ
ータ領域に被さるので、その後の検索にヒットする確立
が低下してしまう。
[0026] In this case, a WWW server or an Internet server which can search a large amount of data at a time cannot cope with it. The reason is that if an image file with a large data amount is entered even once, that data covers all the data areas, and the probability of hitting in subsequent searches decreases.

【0027】そこで、本発明では、初期設定された、デ
ータのサンプリング時間内の、場合によってはサンプリ
ング条件(例.データの種類等)で発生したデータのア
クセスをそのディスクのブロックナンバーとして統計を
取り、最もアクセス回数の大きかったアドレスデータを
固定メモリーグループとしてメモリーユニット2の一部
の領域上に固定化する事によって、最もデータのヒット
率が高いシリコンディスクを生成し、データ・キャッシ
ュ装置1内のデータを最適化する。このデータのサンプ
リングはその後も継続して行われ、常にデータ検索率を
高めようとするものである。要するに、本発明では、上
記メモリーユニット2の一部の領域は、書き込み及び読
み出しに対応する自己学習機能を持ったメモリー構造と
なるものである。
Therefore, according to the present invention, statistics of the access of data generated during the initially set data sampling time, and in some cases, under the sampling conditions (eg, data type, etc.) are taken as the block number of the disk. By fixing the address data having the largest number of accesses as a fixed memory group on a partial area of the memory unit 2, a silicon disk having the highest data hit rate is generated, Optimize your data. Sampling of this data is continuously performed thereafter, so as to always increase the data search rate. In short, in the present invention, a partial area of the memory unit 2 has a memory structure having a self-learning function corresponding to writing and reading.

【0028】このように本発明では、あらかじめ設定さ
れたサンプリング時間内の、場合によってはサンプリン
グ条件(例.データの種類等)を決めて、データの使用
状態の履歴をとり、その時間内で最も多く使用されたデ
ータのみを抽出してメモリーユニット2から成るメモリ
ー上に固定領域として常駐(シリコンディスクを作成)
させ、その後の検索で高いデータヒット率を実現するも
のである。ここでのデータは、コンピュータ3から見た
場合ブロック番号で管理させておりそのブロック番号レ
ベルのデータを一つの単位として管理する事で効率化を
計っている。
As described above, according to the present invention, a sampling condition (eg, type of data, etc.) within a preset sampling time is determined in some cases, and a history of data use status is obtained. Only used data is extracted and resident as a fixed area on the memory consisting of the memory unit 2 (a silicon disk is created)
Then, a high data hit rate is realized in the subsequent search. The data here is managed by a block number when viewed from the computer 3, and the efficiency attained by managing the data at the block number level as one unit.

【0029】例えば、これはコンピュータ3側の要求に
対応して、そのデータの格納されているディスクのブロ
ックアドレスの履歴をとって使用頻度の高かったブロッ
クのデータを、メモリーユニット2内の固定メモリーエ
リアに格納、上記のようにシリコンディスク化して高速
なデータトランザクションを実現するものである。
For example, in response to a request from the computer 3, the history of the block address of the disk where the data is stored is used to store the frequently used block data in the fixed memory in the memory unit 2. It is stored in an area and is made into a silicon disk as described above to realize a high-speed data transaction.

【0030】このようなメモリーの構造により、図4
(b)にその概念を示すように、データの読み出し(図
中では「読み込み」としている「読み出し」と同じ。)
だけでなく、書き込みに関しても同時に100%キャッ
シュ保管され、コンピュータ側にデータ転送完了の通達
がなされる。これらによって、コンピュータ側から見た
データ検索を最大限に効率的に行うことが可能となる。
With such a memory structure, FIG.
As shown in (b), the concept of reading data is the same as “read” in the figure.
In addition to writing, 100% cache storage is performed at the same time, and the computer is notified of the completion of data transfer. As a result, it is possible to perform a data search as viewed from the computer as efficiently as possible.

【0031】SANは、データを一つの集まりとして複
数のコンピュータから共有化を目指した構成を形成して
いるが、このSANにおいてインテリジェント・キャッ
シュは、複数のコンピュータから頻度の高いデータのみ
を固定メモリー化する事が出来るものである。
The SAN has a configuration in which data is shared by a plurality of computers as a single unit. In this SAN, an intelligent cache stores only frequently-used data from a plurality of computers in a fixed memory. You can do it.

【0032】このような、キャッシュ内のデータの最適
化によって、インターネットを介するウエーブサーバー
や、データベースサーバー等の大量のデータ検索回数に
対応できるシステムが構築できる様になる。なお、上記
データの書き込み及び読み出しのメモリー領域(固定領
域)の配分を、CPUの割付テーブルを変えることによ
り任意に決定できるような構成とすることで、データベ
ース検索の効率アップとそのチューニングが可能であ
る。
By optimizing the data in the cache, a system capable of coping with a large number of data searches, such as a web server or a database server via the Internet, can be constructed. It is to be noted that the allocation of the memory area (fixed area) for writing and reading the data can be arbitrarily determined by changing the allocation table of the CPU, thereby improving the efficiency of database search and tuning the database. is there.

【0033】(RAID機能)従来の技術RAID(冗
長性ディスクアレイ)は、図5(a)で示すように、一
つ専用システムとしてRAIDコントローラからディス
クが接続された、サブシステム構造が一般的であった。
(RAID Function) As shown in FIG. 5A, a conventional technology RAID (redundancy disk array) has a general subsystem structure in which disks are connected from a RAID controller as one dedicated system. there were.

【0034】本発明では、図5(b)に示すように、F
C−ALのスイッチとして各コンピュータから共有メモ
リー領域にアクセスが発生し、その基になるストレージ
デバイス5を直接2重化または、3重化する(複数のデ
ィスク装置を接続する)事で冗長性を持たせている。こ
れは、従来の「RAID5」のようなパリティベースの
ものはなく、もっと単純なデータディスクのミラー化で
あるが、FC−AL直結のため拡張性に富み簡単に多重
のホストコンピュータ統合を可能にする。
In the present invention, as shown in FIG.
Each computer accesses the shared memory area as a C-AL switch, and the storage device 5 on which the computer is based is directly doubled or tripled (connecting a plurality of disk devices) to increase redundancy. I have it. This is a simpler mirroring of the data disk, without a parity-based one like the conventional "RAID5", but it is scalable and easy to integrate multiple host computers because it is directly connected to the FC-AL. I do.

【0035】これによってデータの安全性を兼ねながら
その検索スピードを犠牲にしないネットワーク型の冗長
性ユニットが実現できる。この多重化の原理は、基本的
には、共有メモリーからディスクへのアウトプットでD
MAの転送先を複数にセットするだけであり、同じSCSI
-IDを複数のディスクに割り当てる事である。
As a result, a network-type redundancy unit can be realized which does not sacrifice the search speed while also securing data security. The principle of this multiplexing is basically that the output from shared memory to disk is D
Just set the transfer destination of MA to multiple, same SCSI
-Assign ID to multiple disks.

【0036】要するに、本発明に係るデータ・キャッシ
ュ装置1のデバイス側に、ストレージデバイス5として
複数のディスク装置12を接続すれば、格納するデータ
の冗長性を採るために2重又は3重化してデータを格納
するミラーリング構造を構築でき、オフラインでデータ
のバックアップを採ることを可能とし、さらにデータの
高速分割書き込みによりデータの高速検索を可能とす
る。
In short, if a plurality of disk devices 12 are connected as storage devices 5 to the device side of the data cache device 1 according to the present invention, the data is duplicated or tripled in order to obtain redundancy of the stored data. A mirroring structure for storing data can be constructed, data can be backed up offline, and high-speed data retrieval can be performed by high-speed divisional writing of data.

【0037】以上、本発明に係るデータ・キャッシュを
実施例に基づいて説明したが、本発明は、上記実施例に
限定されることなく、特許請求の範囲の技術的事項の範
囲内でいろいろな実施の態様があることは言うまでもな
い。
Although the data cache according to the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications may be made within the technical scope of the claims. It goes without saying that there are embodiments.

【0038】[0038]

【発明の効果】以上の構成より成る本発明に係るデータ
・キャッシュ装置は、データを効率的に転送、検索する
大容量のインテリジェントメモリーを搭載することで、
ディスク、などの周辺装置を高速化する事が出来、コン
ピュータとそのI/OデバイスをFC−ALインターフ
ェースで繋ぎFC−ALスイッチとして使用すれば、デ
ータの読み出し及び書き込みともにデータをキャッシュ
(蓄え)するので、WWWサーバーやデータ検索サーバ
ーにおいて大幅な検索能力向上が可能となる。
The data cache device according to the present invention having the above-described configuration is provided with a large-capacity intelligent memory for efficiently transferring and retrieving data.
Peripheral devices such as disks can be sped up, and if a computer and its I / O device are connected by an FC-AL interface and used as an FC-AL switch, data is cached for both reading and writing. Therefore, it is possible to greatly improve the search capability in the WWW server and the data search server.

【0039】本発明では、基本的にインテリジェントメ
モリーディスク装置としての性格を持ち、一定のデータ
サンプリング時間又は一定条件配下で抽出したデータを
そのメモリー上に展開するので、いちいち使用者があら
かじめ保管すべきデータを検討する必要もなく、データ
の入出力のスピードとデータ検索能力がアップできる。
外部接続インターフェースにFC−ALを多重チャンネ
ル持ち、内部構造には、1.6から3.2GB/秒と言う
圧倒的なデータバスが走っており複数チャンネルのFC
−ALチャンネルポートが同時接続可能なためFC−A
Lスイッチとしてもきわめて有用である。
The present invention basically has the character of an intelligent memory disk device, and develops data extracted under a certain data sampling time or under a certain condition in its memory. There is no need to examine data, and the speed of data input / output and data search ability can be improved.
The external connection interface has multiple channels of FC-AL, and the internal structure has an overwhelming data bus of 1.6 to 3.2 GB / sec.
-FC-A because AL channel port can be connected at the same time
It is also very useful as an L switch.

【0040】従来では、64MBから128MB程度であっ
たデータキャッシュメモリ容量に比べ、本発明では、4
GBから48GB実行容量を持つ。その為、1000GBから
10,000GBのディスク装置が有効的に背後に接続可
能になっている。(実際の容量は接続したディスク装置
の総和となる。)従って、大容量のデータを高速メモリ
ーとして運用することが出来る。
In the present invention, compared with the data cache memory capacity of about 64 MB to 128 MB in the past,
It has a running capacity from GB to 48GB. Therefore, a disk device of 1000 GB to 10,000 GB can be effectively connected behind. (The actual capacity is the sum of the connected disk devices.) Therefore, large-capacity data can be operated as a high-speed memory.

【0041】本発明は、本来のデータキャッシングをす
る以外に、FC−ALのスイッチとして、複数のディス
クを接続した場合にミラーリング(複製)とストライピ
ング(分散書き込み)を行いFC−ALに接続されてい
るディスク同士が冗長性を持ってデータの保護を行うこ
とができる。このミラーリングは3系統持つことが可能
で3台目のものをオフラインバックアップとして運用す
る事が可能となる。
According to the present invention, in addition to the original data caching, when a plurality of disks are connected, the FC-AL switch performs mirroring (duplication) and striping (distributed writing) when connected to the FC-AL. Disks can protect data with redundancy. This mirroring can have three systems, and the third one can be operated as an offline backup.

【0042】本発明では、中央にマザーボードを配し、
このマザーボードの両面に、バスコントローラーと各ユ
ニットから成るデバイスを、例えば90度の角度で起立
するように設けて、対称的に配置して接続する立体バス
構造により、データの遅延を最小限に押さえ込み、これ
によって1.6から3.2GB/秒のデータ転送スピード
を実現するとともに数十GBのメモリーを完全なノンウエ
ートアクセス可能とする。
In the present invention, a motherboard is arranged in the center,
On both sides of this motherboard, a device consisting of a bus controller and each unit is provided so as to stand up at an angle of, for example, 90 degrees, and a three-dimensional bus structure that connects and connects symmetrically minimizes data delay. As a result, a data transfer speed of 1.6 to 3.2 GB / sec is realized, and tens of GB of memory can be completely non-wait-accessed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るデータ・キャッシュ装置の実施例
の概要を説明する図である。
FIG. 1 is a diagram illustrating an outline of an embodiment of a data cache device according to the present invention.

【図2】本発明に係るデータ・キャッシュ装置の実施例
のブロックダイヤグラム図である。
FIG. 2 is a block diagram of an embodiment of a data cache device according to the present invention.

【図3】(a)は従来のFC−AL製品を示す図であ
り、(b)は従来のキャッシュメモリーのバス構造を示
す図であり、(c)、(d)は本発明のデータ・キャッ
シュ装置の実施例の立体バス構造を示す図である。
3A is a diagram showing a conventional FC-AL product, FIG. 3B is a diagram showing a bus structure of a conventional cache memory, and FIGS. 3C and 3D are data diagrams of the present invention. FIG. 2 is a diagram illustrating a three-dimensional bus structure of an embodiment of a cache device.

【図4】従来のキャッシュメモリーと、本発明のデータ
・キャッシュ装置の概念を対比する図である。
FIG. 4 is a diagram comparing the concept of a conventional cache memory with the concept of a data cache device of the present invention.

【図5】従来のRAID機能と本発明のRAIDの利用
の概念を対比する図である。
FIG. 5 is a diagram comparing the concept of the conventional RAID function with the concept of using the RAID of the present invention.

【符号の説明】[Explanation of symbols]

1 データ・キャッシュ装置 2 共有キャッシュ・メモリーユニット(メモリーユ
ニット) 3 コンピュータ 4 FC−AL I/Fユニット(INPUT) 5 ストレージデバイス 6 FC−AL I/Fユニット(OUTPUT) 7 CPU 8 データバス 9 バスコントローラー 10 マザーボード 11 バスコントローラーと各ユニットとから成るデ
バイス 12 ディスク装置
Reference Signs List 1 data cache device 2 shared cache memory unit (memory unit) 3 computer 4 FC-AL I / F unit (INPUT) 5 storage device 6 FC-AL I / F unit (OUTPUT) 7 CPU 8 data bus 9 bus controller DESCRIPTION OF SYMBOLS 10 Motherboard 11 Device consisting of bus controller and each unit 12 Disk unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 内部に立体バス構造を有し、該立体バ
ス構造に、1又は2以上の共有キャッシュ・メモリーユ
ニットを搭載したSAN型インテリジェント・データ・
キャッシュ装置であって、 上記立体バス構造は、中央に配設されたデータバスを有
するマザーボードと、該マザーボードの両面に、起立す
るように、多段且つ対称的に配列された複数のデバイス
とから成り、 上記デバイスは、バスコントローラーと上記共有キャッ
シュ・メモリユニット、バスコントローラーとCPU、
及びバスコントローラーとFC−AL I/Fユニット
の夫々の組み合わせから成るものを含み、 上記共有キャッシュ・メモリーユニットを共有化してア
クセス可能とするとともに、データの遅配を無くすこと
を可能にしたことを特徴とするSAN型インテリジェン
ト・データ・キャッシュ装置。
1. A SAN type intelligent data storage device having a three-dimensional bus structure therein, and one or more shared cache memory units mounted on the three-dimensional bus structure.
A cache device, wherein the three-dimensional bus structure includes a motherboard having a data bus disposed in the center, and a plurality of devices symmetrically arranged on both sides of the motherboard so as to stand upright. The device includes a bus controller and the shared cache memory unit, a bus controller and a CPU,
And a combination of a bus controller and an FC-AL I / F unit, wherein the shared cache / memory unit is made accessible and accessible, and data delay is eliminated. SAN type intelligent data cache device.
【請求項2】 上記SAN型インテリジェント・デー
タ・キャッシュ装置は、データを格納するディスク装置
に接続されており、 上記ディスク装置のブロック・アドレスについて、予め
設定されたサンプリング時間内で書き込み及び読み出し
アクセス頻度がカウントされ、 上記共有キャッシュ・メモリユニットは、その一部領域
に、上記アクセス頻度の高いブロック・アドレスのデー
タが固定メモリーグループとして格納され、上記領域は
書き込み及び読み出しに対応する自己学習機能を持った
メモリー構造となるものであり、 上記データの書き込み及び読み出しの夫々のメモリー領
域配分は、任意に決定できるような構成とすることで、
データベース検索の効率アップとそのチューニングが可
能であることを特徴とする請求項1記載のSAN型イン
テリジェント・データ・キャッシュ装置。
2. The SAN-type intelligent data cache device is connected to a disk device for storing data, and a write / read access frequency of a block address of the disk device within a preset sampling time. In the shared cache memory unit, the data of the frequently accessed block address is stored as a fixed memory group in a partial area, and the area has a self-learning function corresponding to writing and reading. The memory structure for each of writing and reading of the data can be arbitrarily determined.
2. The SAN-type intelligent data cache device according to claim 1, wherein the efficiency of database search and the tuning thereof are possible.
【請求項3】 上記SAN型インテリジェント・デー
タ・キャッシュ装置のデバイス側には、複数の上記ディ
スク装置が接続され、該ディスク装置に格納されるデー
タの冗長性を採るために二重又は三重化してデータを格
納するミラーリング構造が設けられ、オフラインでデー
タのバックアップを採ることを可能とし、 さらにデータの高速検索に対応すべく高速分割書き込み
が構築可能な構成とすることにより、冗長性と高速性を
兼ね備えた構成であることを特徴とする請求項1又は2
記載のSAN型インテリジェント・データ・キャッシュ
装置。
3. A plurality of disk units are connected to the device side of the SAN type intelligent data cache unit, and the disk units are doubled or tripled to obtain redundancy of data stored in the disk units. A mirroring structure for storing data is provided, enabling backup of data offline, and a configuration that allows high-speed divisional writing to be configured to support high-speed data retrieval, thereby increasing redundancy and high speed. 3. The structure according to claim 1, wherein the structure is combined.
The SAN-type intelligent data cache device according to claim 1.
JP31145999A 1999-11-01 1999-11-01 San type intelligent data cache device Pending JP2001134522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31145999A JP2001134522A (en) 1999-11-01 1999-11-01 San type intelligent data cache device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31145999A JP2001134522A (en) 1999-11-01 1999-11-01 San type intelligent data cache device

Publications (1)

Publication Number Publication Date
JP2001134522A true JP2001134522A (en) 2001-05-18

Family

ID=18017487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31145999A Pending JP2001134522A (en) 1999-11-01 1999-11-01 San type intelligent data cache device

Country Status (1)

Country Link
JP (1) JP2001134522A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139329A (en) * 2004-11-10 2006-06-01 Hitachi Ltd I / O target change control method
US7212961B2 (en) 2002-08-30 2007-05-01 Lsi Logic Corporation Interface for rapid prototyping system
US7299427B2 (en) * 2002-08-30 2007-11-20 Lsi Corporation Radio prototyping system
EP2136299A1 (en) 2008-06-18 2009-12-23 Fujitsu Limited Distributed disk cache system and distributed disk cache method
US10078550B2 (en) 2014-09-19 2018-09-18 Kabushiki Kaisha Toshiba Memory system, error correction device, and error correction method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212961B2 (en) 2002-08-30 2007-05-01 Lsi Logic Corporation Interface for rapid prototyping system
US7299427B2 (en) * 2002-08-30 2007-11-20 Lsi Corporation Radio prototyping system
JP2006139329A (en) * 2004-11-10 2006-06-01 Hitachi Ltd I / O target change control method
EP2136299A1 (en) 2008-06-18 2009-12-23 Fujitsu Limited Distributed disk cache system and distributed disk cache method
US8166242B2 (en) 2008-06-18 2012-04-24 Fujitsu Limited Distributed disk cache system and distributed disk cache method
US10078550B2 (en) 2014-09-19 2018-09-18 Kabushiki Kaisha Toshiba Memory system, error correction device, and error correction method

Similar Documents

Publication Publication Date Title
US8595313B2 (en) Systems and method for simple scale-out storage clusters
US7054998B2 (en) File mode RAID subsystem
US6751703B2 (en) Data storage systems and methods which utilize an on-board cache
US6477619B1 (en) Disk array controller, its disk array control unit, and increase method of the unit
US7581060B2 (en) Storage device control apparatus and control method for the storage device control apparatus
US6578128B1 (en) Address management for a shared memory region on a multi-processor controller board
US20020069318A1 (en) Real time application accelerator and method of operating the same
US6944712B2 (en) Method and apparatus for mapping storage partitions of storage elements for host systems
US20040221105A1 (en) Cluster-type storage system and managing method of the cluster-type storage system
US9069783B1 (en) Active-active scale-out for unified data path architecture
US10310995B1 (en) Arbitration control system and method for storage systems
US6868438B2 (en) Storage system, disk control cluster and a method of increasing of disk control cluster
US6961836B2 (en) Method and apparatus for mapping storage partitions of storage elements to host systems
US8032610B2 (en) Scalable high-speed cache system in a storage network
EP4394576A1 (en) Apparatus and methods for accessing data at a storage node
US7502886B1 (en) Data storage device with two-tier raid control circuitry
JP2001134522A (en) San type intelligent data cache device
CN118259829A (en) Device and method for accessing data at a storage node
US20060031639A1 (en) Write unmodified data to controller read cache
US6643722B1 (en) Data storage system having director boards with plural processors
US7174422B1 (en) Data storage device with two-tier raid control circuitry
US6738842B1 (en) System having plural processors and a uni-cast/broadcast communication arrangement
CN115438039A (en) Method and device for adjusting data index structure of storage system
KR100347527B1 (en) RAID system with single fibre channel arbitrated loop
US6880032B1 (en) Data storage system having concurrent ESCON channels