[go: up one dir, main page]

JPH03235143A - Cache memory controller - Google Patents

Cache memory controller

Info

Publication number
JPH03235143A
JPH03235143A JP2033054A JP3305490A JPH03235143A JP H03235143 A JPH03235143 A JP H03235143A JP 2033054 A JP2033054 A JP 2033054A JP 3305490 A JP3305490 A JP 3305490A JP H03235143 A JPH03235143 A JP H03235143A
Authority
JP
Japan
Prior art keywords
cache
memory
address
data
virtual address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2033054A
Other languages
Japanese (ja)
Inventor
Takashi Oneda
大根田 隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2033054A priority Critical patent/JPH03235143A/en
Priority to DE69126898T priority patent/DE69126898T2/en
Priority to EP91102021A priority patent/EP0442474B1/en
Publication of JPH03235143A publication Critical patent/JPH03235143A/en
Pending legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE:To curtail the number of times of flash of the cache contents, while contriving the high speed conversion of an access by adding a process identification number as an address of a cache memory, and dividing and using the cache memory at every process. CONSTITUTION:With respect to an address of a cache memory 4, a process identification number from a register B9, and an index of a virtual address VA are given to a high order one and a subordinate one, respectively. Accordingly, a data memory 5 and a tag memory 6 are divided into four areas corresponding to the process identification number, and in these areas, data and tag information are written or read out in or from an entry subjected to address designation by the index. In such a way, while holding the high speed conversion of an access, based on a virtual address cache, the number of times of flash of the cache contents by a context switch can be decreased.

Description

【発明の詳細な説明】 (イ)産業上の利用分野 本発明は、主記憶のデータの一部のコピーを記憶し、記
憶データの仮想アドレスをタグ情報として記憶する仮想
アドレスキャッシュメモリに関する。
DETAILED DESCRIPTION OF THE INVENTION (A) Field of Industrial Application The present invention relates to a virtual address cache memory that stores a copy of a portion of data in a main memory and stores a virtual address of the stored data as tag information.

(ロ)従来の技術 「インターフェース1989年2月号P、263〜F、
276、に開示されているように、キャッシュメモリは
大別して2つの方式に分けられ、つは、仮想アドレスを
ベースとしたタグ情報を記憶する仮想アドレスキャッシ
ュ、他の一つは、仮想アドレスをアドレス変換ユニット
(MMUと言う)で変換した物理アドレスを、タグ情報
として記憶する物理アドレスキャッシュである。
(b) Conventional technology "Interface February 1989 issue P, 263-F,
As disclosed in 276, cache memory can be roughly divided into two types: one is a virtual address cache that stores tag information based on virtual addresses, and the other is a virtual address cache that stores tag information based on virtual addresses. This is a physical address cache that stores physical addresses converted by a conversion unit (referred to as MMU) as tag information.

仮想アドレスキャッシュは、プロセッサが出力する仮想
アドレスをそのまま用いてキャッシュをアクセスするの
で、アクセスを高速化できるという利点を有しているが
、プロセッサが実行しようとするプロセスを切換える、
所謂、コンテキストスイッチが起こる度に、キャッシュ
の内容をフラッシュしなければならないという欠点があ
る。
Virtual address cache has the advantage of speeding up access because it accesses the cache using the virtual address output by the processor as is, but it also has the advantage of speeding up access.
The disadvantage is that the contents of the cache must be flushed every time a so-called context switch occurs.

他方、物理アドレスキャッシュは、キャッシュと主記憶
との情報の一貫性が保たれるので、コンテキストスイッ
チが起こる度にキャッシュの内容をフラッシュする必要
はないが、アクセスのために物理アドレスへの変換を要
するため、その変換時間の分だけキャッシュのアクセス
が遅くなる。
On the other hand, a physical address cache maintains information consistency between the cache and main memory, so there is no need to flush the contents of the cache every time a context switch occurs, but it does require translation to a physical address for access. Therefore, cache access is delayed by the conversion time.

(ハ)発明が解決しようとする課題 従来の技術では、仮想アドレスキャッシュであっても物
理アドレスキャッシュであっても、利点を有するものの
各々個有の欠点を有し、理想的なキャッシュメモリ制御
を実現できなかった。
(c) Problems to be Solved by the Invention In the conventional technology, both virtual address cache and physical address cache have advantages but each has its own disadvantages, and ideal cache memory control cannot be achieved. I couldn't make it happen.

そこで、本発明は、仮想アドレスキャッシュにおけるア
クセスの高速化という利点を生かしつつ、キャッシュ内
容のフラッシュ回数を減少させることを目的とするもの
である。
Therefore, an object of the present invention is to reduce the number of times cache contents are flushed while taking advantage of high-speed access in a virtual address cache.

(ニ)課題を解決するための手段 本発明は、主記憶のデータの一部のコピーを記憶するデ
ータメモリと、該データメモリに記憶したデータの仮想
アドレスの第1部分をタグ情報として記憶し、且つ、デ
ータの有効性を示すバリッドビットを記憶したタグメモ
リとより成り、プロセッサが出力する仮想アドレスの第
2部分をアドレスとして入力するキャッシュメモリの制
御装置において、複数のプロセスの中から選択した所定
数のプロセスに対してシリアルなプロセス識別番号を割
り付け、前記プロセッサが実行しようとするプロセスの
前記プロセス識別番号を発生するプロセス識別番号発生
手段を設け、該発生手段からのプロセス識別番号を前記
キャッシュメモリのアドレスとして付加する構成として
、上記課題を解決するものである。
(d) Means for Solving the Problems The present invention includes a data memory that stores a copy of a part of data in the main memory, and a first part of the virtual address of the data stored in the data memory as tag information. , and a tag memory that stores a valid bit indicating the validity of data, and which inputs the second part of the virtual address output by the processor as an address. A process identification number generating means is provided for allocating serial process identification numbers to a predetermined number of processes, generating the process identification number of the process that the processor intends to execute, and storing the process identification number from the generating means in the cache. The above-mentioned problem is solved as a configuration in which the address is added as a memory address.

(ネ)作用 本発明では、プロセス識別番号をキャッシュメモリのア
ドレスとして付加しているので、プロセス毎にキャッシ
ュメモリが分割して使用され、このため、プロセス識別
番号が割り付けられている所定数のプロセス間であれば
、コンテキストスイッチが起こっても、キャッシュの内
容をフラッシュする必要がなくなる。又、基本的には仮
想アドレスキャッシュを採用しているため、アクセスの
高速性も損われない。
(f) Effect In the present invention, since the process identification number is added as the address of the cache memory, the cache memory is divided and used for each process. In this case, there is no need to flush the contents of the cache even if a context switch occurs. Additionally, since a virtual address cache is basically used, access speed is not compromised.

(へ)実施例 第1図は、本発明の実施例としてのダイレクトマツブト
キャッシュを示すブロック図であり、(1〉は仮想アド
レスVAを出力するMPU、(2)はデータを記憶する
主記憶、(3)は仮想アドレスVAを物理アドレスRA
に変換するアドレス変換手段としてのMMU、(4)は
主記憶のデータの一部のコピーを記憶するデータメモリ
(5)とタグメモ)(6)とより成るキャッシュメモリ
である。
(F) Embodiment FIG. 1 is a block diagram showing a direct computer cache as an embodiment of the present invention, in which (1> is an MPU that outputs a virtual address VA, and (2) is a main memory that stores data. , (3) converts virtual address VA to physical address RA
The MMU (4) is a cache memory consisting of a data memory (5) that stores a copy of a part of data in the main memory and a tag memo (6).

(7)はO8が複数のプロセスに割り付けたプロセスI
Dのうち、MPU(1)が実行しようとするプロセスI
DがセットされるレジスタAであって、本実施例ではO
8が割り付けるプロセスIDを256通りとしているた
め、レジスタAは8ビツトで構成されている。このレジ
スタAの出力は、MMU(3)に入力されており、MM
U(3)では実行しようとするプロセスに応じて仮想ア
ドレスVAを物理アドレスRAに変換し、主記憶(2)
にアドレスとして与えている。尚、仮想アドレスVAの
うちオフセット部分は、主記憶(2〉の下位アドレスと
してそのまま与えられる。
(7) is the process I assigned by O8 to multiple processes.
Among D, process I that MPU (1) attempts to execute
D is the register A to be set, and in this embodiment O
Since 8 is assigned 256 process IDs, register A consists of 8 bits. The output of this register A is input to MMU (3), and MM
U (3) converts the virtual address VA into a physical address RA according to the process to be executed, and stores it in the main memory (2).
is given as an address. Note that the offset portion of the virtual address VA is given as is as a lower address of the main memory (2>).

又、本実施例では、O8において、256通りのプロセ
スIDから任意の4つのプロセスを選択し、各プロセス
にシリアルなプロセス識別番号’004.’01,1.
’10」、’ll」を割り付けており、その対応を第4
図に示すようにテーブル(8)に記憶している。そして
、MPU(1)が実行しようとするプロセスに対応した
プロセス識別番号を2ビツトのジスタB(9)にセット
するようにしており、このレジスタB(9)の出力が、
キャッシュメモリ(4)中のデータメモリ(5)及びタ
グメモリ(6)に、上位アドレスとして与えられる。
Further, in this embodiment, in O8, arbitrary four processes are selected from 256 process IDs, and each process is assigned a serial process identification number '004. '01,1.
'10' and 'll' are assigned, and their correspondence is explained in the fourth section.
As shown in the figure, it is stored in table (8). Then, the process identification number corresponding to the process that the MPU (1) intends to execute is set in the 2-bit register B (9), and the output of this register B (9) is
It is given as an upper address to the data memory (5) and tag memory (6) in the cache memory (4).

キャッシュメモリ(4)の両メモリ(5)(6)の下位
アドレスとしては、第2図に示す仮想アドレスVA中の
インデックスフィールドが入力され、仮想アドレスVA
中のタグフィールドがタグ情報としてタグメモリ(6)
に記憶される。このタグメモリ(6)には記憶したデー
タの有効性を示すバリッドビットVも記憶されており、
このバリッドビットをリセットすることにより対応する
キャッシュデータはフラッシュ、即ち、無効化される。
The index field in the virtual address VA shown in FIG. 2 is input as the lower address of both memories (5) and (6) of the cache memory (4), and the virtual address VA
The tag field inside is stored as tag information in tag memory (6)
is memorized. This tag memory (6) also stores a valid bit V indicating the validity of the stored data.
By resetting this valid bit, the corresponding cache data is flushed, ie, invalidated.

ところで、第1図において、(10)(11)(12)
はバスの接続を制御するバッファ、(13)はMPU(
1)が出力する仮想アドレスのタグフィールドとタグメ
モリから読出したタグ情報とを比較する比較器、(14
)は比較器の出力と読出したバリッドビットとの論理積
をとるANDゲート、(15)はANDゲートの出力に
応じてバッファ(10)(11)(12)を制御すると
共に、タグメモリ(6〉のバリッドビットをリセットす
るコントロールロジック、〈16)はバリッドビットを
リセットするときのみコントロールロジック(15〉か
ら出力されるロジックアドレスを選択するマルチプレク
サMUX、(17)はスーパーバイザーモードのときの
みMPU(1)が出力する物理アドレスを選択するMU
Xであり、主記憶(2)の特定領域にはテーブル(8)
を含むO5が常駐されており、O5はスーパーバイザー
モードにおいてMPU(1)が出力する物理アドレスに
より直接アクセスされる。
By the way, in Figure 1, (10) (11) (12)
is the buffer that controls the bus connection, and (13) is the MPU (
a comparator (14) that compares the tag field of the virtual address output by 1) with the tag information read from the tag memory;
) is an AND gate that takes the logical product of the output of the comparator and the read valid bit, and (15) controls the buffers (10), (11), and (12) according to the output of the AND gate, and also controls the tag memory (6). 〉 control logic that resets the valid bit, 〈16) is the control logic only when resetting the valid bit (15〉), a multiplexer MUX that selects the logic address output from 〉, 1) MU that selects the physical address output by
X, and a table (8) is stored in a specific area of the main memory (2).
The O5 containing the MPU (1) is resident, and the O5 is directly accessed by the physical address output by the MPU (1) in the supervisor mode.

以下、本実施例を更に詳しく説明する。This example will be explained in more detail below.

先ず、キャッシュメモリ(4)のアドレスには、上位に
レジスタBからのプロセス識別番号が、そして、下位に
仮想アドレスVAのインデックスが与えられているため
、データメモリ(5)及びタグメモリ(6〉は、第3図
に示すように、プロセス識別番号に対応した4つのエリ
ア(5a)〜(5d)及び(6a)〜(6d)に分割さ
れ、これらエリア内においてインデックスでアドレス指
定されるエントリーにデータ及びタグ情報が書込み又は
読出しされる。
First, since the address of the cache memory (4) is given the process identification number from register B in the upper part and the index of the virtual address VA in the lower part, the data memory (5) and the tag memory (6> As shown in Figure 3, is divided into four areas (5a) to (5d) and (6a) to (6d) corresponding to the process identification number, and within these areas, the entries addressed by the index are Data and tag information are written or read.

例えば、第4図のようにプロセスID’l」。For example, as shown in FIG. 4, the process ID 'l'.

’50..’100..’125J(ブo(=スfi別
番号r00」〜「11」に各々割り付けられているとき
、プロセスID’50.のプロセスをMPU(1)が実
行しようとして、プロセスID’ 50」をレジスタA
に、そして、プロセス識別番号「01.をレジスタBに
セットし、仮想アドレスVAを出力すると、データメモ
リ(5)においては、分割エリア(5b)のインデック
スによりアドレス指定されるデータがバッファ(11)
を介してMPU(1)に取込まれ、タグメモリ(6〉に
おいては、分割エリア(6b)のインデックスによりア
ドレス指定されるタグ情報が読出され、比較器(13)
においてMPU(1)が出力した仮想アドレスのタグフ
ィールドと比較される。
'50. .. '100. .. '125J (when assigned to bus o(=Sfi specific number r00' to '11'), the MPU (1) attempts to execute the process with process ID '50.' and stores the process ID '50' in register A.
Then, when the process identification number "01." is set in register B and the virtual address VA is output, in the data memory (5), the data addressed by the index of the divided area (5b) is transferred to the buffer (11).
The tag information addressed by the index of the divided area (6b) is read out in the tag memory (6>) and sent to the comparator (13).
It is compared with the tag field of the virtual address output by MPU (1).

比較の結果、タグが一致し、そのバリッドビットがセッ
トされていれば、キャッシュがヒツトしたので、MPU
(1)は取り込んだデータを正しいと判断して利用する
。ヒツトしないときは、MMU(3)で変換された物理
アドレスに基づき主記憶(2)から仮想アドレスに対応
するデータがバッファ(10)を介してMPU(1)に
読込まれる。又、このデータ及び対応する仮想アドレス
のタグフィールドは、データメモリ(5)及びタグメモ
リ(6)において、各々、分割エリア(5b)及び(6
b)のインデックスによりアドレス指定されるエンドノ
ーに書込まれる。このとき、記憶したデータのバリッド
ビットがリセットされていれば、それを有効化する。
As a result of the comparison, if the tags match and the valid bit is set, the cache has been hit and the MPU
In (1), the imported data is determined to be correct and used. When there is no hit, data corresponding to the virtual address is read from the main memory (2) into the MPU (1) via the buffer (10) based on the physical address converted by the MMU (3). Also, this data and the tag field of the corresponding virtual address are stored in divided areas (5b) and (6) in the data memory (5) and tag memory (6), respectively.
b) is written to the end node addressed by the index in b). At this time, if the valid bit of the stored data has been reset, it is validated.

このように、キャッシュメモリ(4〉の各分割エリアは
、4つのプロセスによって各々利用され、従って、これ
ら4つのプロセス間でコンテキストスイッチが起こった
ときは、キャッシュ内容をフラッシュする必要がない。
In this way, each divided area of the cache memory (4>) is used by each of the four processes, so when a context switch occurs between these four processes, there is no need to flush the cache contents.

ここで、O8の処理内容を含めて具体的に説明すると、
第5図に示すように、O8はコンテキストスイッチが起
こると、次にMPU(1)が実行すべきプロセスが、テ
ーブル(8)に割り付けられているプロセスであるか検
索し、テーブル(8)のプロセスであれば、キャッシュ
をフラッシュすることなく、そのプロセスIDをレジス
タAに、そのプロセス識別番号をレジストBにセットす
る。
Here, we will explain concretely including the processing contents of O8.
As shown in FIG. 5, when a context switch occurs, O8 searches whether the next process to be executed by MPU (1) is the process assigned to table (8), and If it is a process, its process ID is set in register A, and its process identification number is set in register B, without flushing the cache.

又、例えば、プロセスID’70.のプロセスのように
、テーブル(8)に割り付けられていないプロセスを実
行すべきときは、キャッシュメモリ(4)の4つの分割
エリアのうちいずれか1つのエリアを全てフラッシュす
る。即ち、レジスタBにフラッシュしようとするエリア
に対応するプロセス識別番号をセットし、MPU(1)
からコントロールロジック(15)にフラッシュの指示
を与える。すると、コントロールロジック(15)は、
エリア全域をカバーするロジックアドレスをタグメモリ
(6)に順次出力すると共に、リセット信号を出力する
ことにより、エリア内のバリッドビットを全てハード的
にリセットしてフラッシュを行う。
Also, for example, process ID'70. When a process that is not allocated to the table (8) is to be executed, such as the process in the table (8), any one of the four divided areas of the cache memory (4) is completely flushed. That is, set the process identification number corresponding to the area to be flushed in register B, and
gives a flush instruction to the control logic (15). Then, the control logic (15) is
By sequentially outputting logic addresses covering the entire area to the tag memory (6) and outputting a reset signal, all valid bits in the area are reset by hardware and flash is performed.

そして、1エリアのフラッシュの後、そのエリアに対応
するプロセス識別番号を新たに実行しようとするプロセ
スID、ここでは「70.に割り付は変更し、以下同様
に、レジスタA及びBへのセットを行う。
After flushing one area, the process ID number corresponding to that area is changed to the new process ID to be executed, here "70.", and the following is similarly set to registers A and B. I do.

以上説明した実施例では、実行しようとするプロセスの
プロセスID及びプロセス識別番号を各々セットする独
立したレジスタA及びBを設けていたが、レジスタAの
所定のビット出力をプロセス識別番号として用い、レジ
スタBをAで兼用することもできる。例えば、レジスタ
Aの下位2ビツトの出力をレジスタBの出力の代わりに
用いるのである。この場合、プロセス識別番号r00、
には、プロセスID0,4,8.・・・・・・・・・、
252のうちのいずれか1つのプロセスIDを割り付け
なければならず、以下、同様に、rol、。
In the embodiment described above, independent registers A and B are provided to respectively set the process ID and process identification number of the process to be executed. B can also be used as A. For example, the output of the lower two bits of register A is used instead of the output of register B. In this case, process identification number r00,
have process IDs 0, 4, 8 .・・・・・・・・・、
Any one of 252 process IDs must be assigned, and similarly, rol.

rto、、’it、に対しても、下位2ビツトが各々r
01」、rlo」、「11」を有するプロセスIDのう
ちいずれか1つのプロセスIDを割り付けるという制限
が加えられ、プロセスIDを任意に選択可能であった前
述の実施例と比べれば自由度は減るが、回路構成は簡略
化される。
For rto, ,'it, the lower two bits are each r
A restriction is added that one of the process IDs "01", "rlo", and "11" is assigned, and the degree of freedom is reduced compared to the above-mentioned embodiment in which it was possible to arbitrarily select a process ID. However, the circuit configuration is simplified.

又、本発明は、上述のダイレクトマツブトキャッシュだ
けでなく、nウエイセットアソシエイテイプキャッシュ
にも適用できることは言うまでもない。
Furthermore, it goes without saying that the present invention can be applied not only to the above-mentioned direct Matsubutsu cache but also to n-way set associative caches.

(ト)発明の効果 本発明に依れば、仮想アドレスキャッシュを基本として
アクセスの高速化を保ちながら、コンテキストスイッチ
によるキャッシュ内容のフラッシュ回数を減少させるこ
とができる。
(G) Effects of the Invention According to the present invention, it is possible to reduce the number of times cache contents are flushed by context switching while maintaining high-speed access based on a virtual address cache.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例の構成を示すブロック図、第2
図は仮想アドレスのフィールド内容を示す図、第3図は
キャッシュメモリとプロセス識別番号との関係を示す図
、第4図はプロセスIDとプロセス識別番号との対応テ
ーブルを示す図、第5図は実施例におけるO8の処理内
容を示すフローチャートである。 (1)・・・MPU、 (2)・・・主記憶、 (3)
・・・MMU、   (4)・・・キャッシュメモリ、
(5)・・・データメモリ、  (6)・・・タグメモ
リ、 (7)・・・レジスタA1(8)・・・テーブル
、 (9)・・・レジスタB、  (13)・・・比較
器、(15)・・・コントロールロシ・ンク。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention, and FIG.
Figure 3 shows the field contents of virtual addresses, Figure 3 shows the relationship between cache memory and process identification numbers, Figure 4 shows the correspondence table between process IDs and process identification numbers, and Figure 5 shows the correspondence table between process IDs and process identification numbers. It is a flowchart which shows the processing content of O8 in an Example. (1)...MPU, (2)...Main memory, (3)
...MMU, (4) ...cache memory,
(5)...Data memory, (6)...Tag memory, (7)...Register A1 (8)...Table, (9)...Register B, (13)...Comparison Container, (15)...controller.

Claims (1)

【特許請求の範囲】[Claims] (1)主記憶のデータの一部のコピーを記憶するデータ
メモリと、該データメモリに記憶したデータの仮想アド
レスの第1部分をタグ情報として記憶し、且つ、データ
の有効性を示すバリッドビットを記憶したタグメモリと
より成り、プロセッサが出力する仮想アドレスの第2部
分をアドレスとして入力するキャッシュメモリの制御装
置において、複数のプロセスの中から選択した所定数の
プロセスに対してシリアルなプロセス識別番号を割り付
け、前記プロセッサが実行しようとするプロセスの前記
プロセス識別番号を発生するプロセス識別番号発生手段
を設け、該発生手段からのプロセス識別番号を前記キャ
ッシュメモリのアドレスとして付加する構成としたこと
を特徴とするキャッシュメモリ制御装置。
(1) A data memory that stores a copy of part of the data in the main memory, and a valid bit that stores the first part of the virtual address of the data stored in the data memory as tag information and indicates the validity of the data. In a cache memory control device, the second part of the virtual address output by the processor is input as an address, and the second part of the virtual address output by the processor is input as an address. A process identification number generation means is provided for assigning a number and generating the process identification number of a process that the processor is to execute, and the process identification number from the generation means is added as an address of the cache memory. Characteristic cache memory control device.
JP2033054A 1990-02-13 1990-02-13 Cache memory controller Pending JPH03235143A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2033054A JPH03235143A (en) 1990-02-13 1990-02-13 Cache memory controller
DE69126898T DE69126898T2 (en) 1990-02-13 1991-02-13 Device and method for controlling a cache memory
EP91102021A EP0442474B1 (en) 1990-02-13 1991-02-13 Apparatus and method for controlling cache memory

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2033054A JPH03235143A (en) 1990-02-13 1990-02-13 Cache memory controller

Publications (1)

Publication Number Publication Date
JPH03235143A true JPH03235143A (en) 1991-10-21

Family

ID=12376050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2033054A Pending JPH03235143A (en) 1990-02-13 1990-02-13 Cache memory controller

Country Status (1)

Country Link
JP (1) JPH03235143A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210526A (en) * 1994-01-20 1995-08-11 Hitachi Ltd Parallel computer
JP2000259498A (en) * 1999-03-10 2000-09-22 Internatl Business Mach Corp <Ibm> Instruction cache for multi-thread processor
JP2008511882A (en) * 2004-08-31 2008-04-17 フリースケール セミコンダクター インコーポレイテッド Virtual address cache and method for sharing data using unique task identifiers
JP2008512758A (en) * 2004-09-07 2008-04-24 フリースケール セミコンダクター インコーポレイテッド Virtual address cache and method for sharing data stored in virtual address cache
JP2009064462A (en) * 2008-10-27 2009-03-26 Toshiba Corp Microprocessor
US7673155B2 (en) 2001-09-28 2010-03-02 Kabushiki Kaisha Toshiba Microprocessor with improved task management and table management mechanism

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210526A (en) * 1994-01-20 1995-08-11 Hitachi Ltd Parallel computer
JP2000259498A (en) * 1999-03-10 2000-09-22 Internatl Business Mach Corp <Ibm> Instruction cache for multi-thread processor
US7673155B2 (en) 2001-09-28 2010-03-02 Kabushiki Kaisha Toshiba Microprocessor with improved task management and table management mechanism
JP2008511882A (en) * 2004-08-31 2008-04-17 フリースケール セミコンダクター インコーポレイテッド Virtual address cache and method for sharing data using unique task identifiers
JP2008512758A (en) * 2004-09-07 2008-04-24 フリースケール セミコンダクター インコーポレイテッド Virtual address cache and method for sharing data stored in virtual address cache
JP2009064462A (en) * 2008-10-27 2009-03-26 Toshiba Corp Microprocessor
JP4643702B2 (en) * 2008-10-27 2011-03-02 株式会社東芝 Microprocessor

Similar Documents

Publication Publication Date Title
US5586283A (en) Method and apparatus for the reduction of tablewalk latencies in a translation look aside buffer
US4980816A (en) Translation look-aside buffer control system with multiple prioritized buffers
JP3802061B2 (en) Parallel access micro-TLB to increase address translation speed
US5754818A (en) Architecture and method for sharing TLB entries through process IDS
JP3666689B2 (en) Virtual address translation method
JP2646854B2 (en) Microprocessor
JPH03142644A (en) Cache memory control system
JPH03266153A (en) Two-level conversion look-aside buffer using partial address for speed improvement
US20070288721A1 (en) Miss-under-miss processing and cache flushing
US6564301B1 (en) Management of caches in a data processing apparatus
JPH10177520A (en) Data processor and data processing system
JP3449487B2 (en) Conversion index buffer mechanism
EP0365117B1 (en) Data-processing apparatus including a cache memory
US5737575A (en) Interleaved key memory with multi-page key cache
JPH0322155A (en) Cache memory device
US5675765A (en) Cache memory system with independently accessible subdivided cache tag arrays
JP2846697B2 (en) Cache memory controller
JPH03235143A (en) Cache memory controller
US6574698B1 (en) Method and system for accessing a cache memory within a data processing system
JPH07281948A (en) Memory controller
US12164425B2 (en) Technique for tracking modification of content of regions of memory
JP2000148589A (en) Memory management device, its method and storage medium storing program
JPS623354A (en) Cache memory access system
KR0184475B1 (en) Cache memory access circuit
JP3219810B2 (en) Data processing device