[go: up one dir, main page]

JPH0612392A - Computer resource distribution method and system - Google Patents

Computer resource distribution method and system

Info

Publication number
JPH0612392A
JPH0612392A JP5047790A JP4779093A JPH0612392A JP H0612392 A JPH0612392 A JP H0612392A JP 5047790 A JP5047790 A JP 5047790A JP 4779093 A JP4779093 A JP 4779093A JP H0612392 A JPH0612392 A JP H0612392A
Authority
JP
Japan
Prior art keywords
computer
processing
client
resource
computers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5047790A
Other languages
Japanese (ja)
Inventor
Shinji Sumimoto
真司 住元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5047790A priority Critical patent/JPH0612392A/en
Publication of JPH0612392A publication Critical patent/JPH0612392A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)
  • Computer And Data Communications (AREA)

Abstract

(57)【要約】 【目的】 処理量が異なる複数の処理を複数の計算機に
分散して計算機システムの効率を向上する。 【構成】 分散すべき処理の処理量が既知の場合、クラ
イアント31b内のスケジューラ13は処理量の大きい
処理から順に積算処理量が少ない計算機33〜36に割
り当て、該積算処理量に割り当てた処理の処理量を加算
して積算処理量を更新し、順次、各処理を計算機に割り
当てる。又、クライアントに利用可能な計算機を割り当
てるために、各計算機は利用率等の状態データに該状態
データの信頼度を付加して計算機の分散制御を行うサー
バ(ドメインリソースマネージャDM)に送信し、該サ
ーバはこれらデータに基づいてクライアントに利用可能
計算機33〜36を割り当てる。各利用可能計算機のエ
ージェントAGTはクライアントに資源利用トークンを
送信して計算機資源の排他的利用を許可する。
(57) [Summary] [Purpose] To improve the efficiency of a computer system by distributing multiple processes with different processing amounts to multiple computers. [Structure] When the processing amount of a process to be distributed is known, the scheduler 13 in the client 31b allocates the processes having a large processing amount to the computers 33 to 36 having a small cumulative processing amount in order, and The processing amount is added to update the integrated processing amount, and each processing is sequentially assigned to the computer. Further, in order to allocate an available computer to the client, each computer adds the reliability of the state data to the state data such as the utilization rate and sends it to the server (domain resource manager DM) for distributed control of the computer, The server allocates the available computers 33 to 36 to the clients based on these data. The agent AGT of each available computer sends a resource use token to the client to allow exclusive use of computer resources.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は計算機資源分散方法及び
システムに係わり、特にネットワークに接続された複数
の計算機に処理を分散する計算機資源分散方法及びシス
テムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer resource distribution method and system, and more particularly to a computer resource distribution method and system for distributing processing to a plurality of computers connected to a network.

【0002】[0002]

【従来の技術】LAN(ローカルエリアネットワーク)
等のネットワークに多数の計算機を接続し、各計算機で
処理を分散したり、ファイルを分散管理する計算機シス
テムがある。かかる計算機システムにおいて、各計算機
に処理を割り当てる場合、従来は割り当てる処理が実際
にどれくらいの処理量、あるいはどれくらいの処理時間
(CPU時間)を必要としているかということは、ほと
んど考慮されず、考慮されたとしてもこれら処理量ある
いは処理時間はオペレータ等の判断で個別に指定するも
のであった。又、複数の計算機に処理を分散する場合、
各計算機のCPU速度(処理速度)やCPU利用率(C
PU負荷)等を考慮して処理を割り当てるということも
行われていなかった。更に、単位時間当りの処理量の異
なる複数の処理をパイプライン式に並列に実行する場
合、単位時間当りの処理量の相違を考慮することなく各
処理を計算機に分散して並列に実行する場合がほとんど
であった。このため、処理量あるいは処理速度が異なる
複数の処理を複数の計算機で効率良く並列的に実行で
き、しかも、計算機のCPU速度やCPU利用率を考慮
して複数の処理をダイナミックに複数の計算機に分散し
て並列処理する計算機資源の分散処理方式が要求されて
いる。
2. Description of the Related Art LAN (Local Area Network)
There is a computer system in which a large number of computers are connected to a network such as the above and the processing is distributed among the computers or files are distributed and managed. In such a computer system, when assigning a process to each computer, it has been taken into consideration that the amount of the process actually assigned or the amount of processing time (CPU time) actually required was hardly taken into consideration. However, these processing amounts or processing times are individually designated by the judgment of the operator or the like. Also, when distributing the processing to multiple computers,
CPU speed (processing speed) and CPU utilization rate (C) of each computer
It has not been done to allocate processing in consideration of (PU load). Furthermore, when multiple processes with different throughput per unit time are executed in parallel in a pipeline manner, when each process is distributed to computers and executed in parallel without considering the difference in throughput per unit time. Was the most. Therefore, a plurality of processes having different processing amounts or processing speeds can be efficiently executed in parallel on a plurality of computers, and further, the plurality of processes can be dynamically transferred to the plurality of computers in consideration of the CPU speed and the CPU utilization rate of the computers. There is a demand for a distributed processing method of computer resources for distributed and parallel processing.

【0003】ところで、CPU利用率等のCPU状態を
考慮してダイナミックに複数の処理を複数の計算機に分
散するには、処理分散を司る計算機(サーバという)に
各計算機のCPU状態を通知しなければならない。かか
る状態データの通知方法として、通信間隔を短くして
頻繁に送る方法、通信間隔を長くして送る方法、状
態の変化時には頻繁に、状態安定時にはゆっくりと状態
データを送る方法がある。しかし、第1の方法によれば
正確な状態データの維持が可能であるが、通信回数が多
くなり、受信処理のオーバヘッドと通信パスの占有率が
大きくなり、他のデータの通信効率を低下する問題があ
る。又、第2の方法によれば通信回数が減るが急激な状
態変化を検出できない問題がある。更に、第3の方法に
よれば、状態が安定している場合には通信回数が減る
が、状態変化が激しいと第1の方法と同じく通信回数が
多くなる問題がある。
By the way, in order to dynamically distribute a plurality of processes to a plurality of computers in consideration of the CPU state such as a CPU utilization rate, a computer (called a server) which controls the process distribution must be notified of the CPU state of each computer. I have to. As a method of notifying such state data, there are a method of shortening the communication interval and sending frequently, a method of lengthening the communication interval and sending, frequently sending state data when changing the state, and slowly sending state data when the state is stable. However, according to the first method, although accurate state data can be maintained, the number of communications increases, the overhead of the reception process and the occupation rate of the communication path increase, and the communication efficiency of other data decreases. There's a problem. Further, according to the second method, the number of communications is reduced, but there is a problem that a rapid state change cannot be detected. Further, according to the third method, the number of communications decreases when the state is stable, but when the state changes drastically, there is a problem that the number of communications increases as in the first method.

【0004】又、CPU状態を考慮してダイナミックに
複数の処理を複数の計算機に分散して実行させるには、
CPUの状態がホストダウンを含め動的に変化するこ
と、接続される計算機の種類が多種多様であること、
CPUの状態通知に通信遅延があることを考慮しなけ
ればならない。なぜならば、CPU状態が変化すると、
予め一定量の資源を確保できず、又、時々刻々と変化す
る状態情報の収集が困難になり、処理を割り当てたら状
態が変化していて処理終了が遅れるという問題が発生す
るからである。又、計算機の種類が多種多様であると、
CPUの性能などに大きなばらつきが存在し、又、計算
機毎の状態情報の収集が困難になり、正しく処理割り当
てができず、割り当てた処理の終了が遅れるという問題
が発生するからである。更に、状態通知の遅延により、
処理の多重割り当てが発生する場合があり、これを完全
になくすためには、全CPU間で同期を取る必要があ
り、構成が複雑になり、しかもコストアップの原因にな
るからである。
In order to dynamically execute a plurality of processes by distributing them to a plurality of computers in consideration of the CPU state,
The state of the CPU changes dynamically, including host down, the types of computers connected are diverse,
It is necessary to consider that there is a communication delay in the CPU status notification. Because when the CPU state changes,
This is because it is not possible to secure a certain amount of resources in advance, and it becomes difficult to collect state information that changes from moment to moment, and if a process is assigned, the state will change and the end of the process will be delayed. Also, if there are various types of computers,
This is because there is a large variation in the performance of the CPU, and it becomes difficult to collect the state information for each computer, so that correct process allocation cannot be performed and the end of the allocated process is delayed. Furthermore, due to the delay in status notification,
This is because multiple allocation of processing may occur, and in order to completely eliminate this, it is necessary to synchronize all CPUs, which complicates the configuration and causes cost increase.

【0005】[0005]

【発明が解決しようとする課題】以上より、従来の計算
機システムにおいては、各計算機に均一に処理を割り当
てることができず、システム全体のスループットが低下
し、処理結果が迅速に得られない問題があった。又、従
来の計算機システムでは、計算機の状態を正確に維持を
しようとすると、通信回数が多くなり、受信処理のため
のオーバヘッドが大きくなり、計算機が能率良く処理が
できず、しかも通信パスの占有率が上がり、他のデータ
の通信効率を低下する問題があった。更に、従来の計算
機システムでは、計算機毎の正確な状態情報の収集が困
難であり、正しく処理割り当てができない問題があっ
た。
As described above, in the conventional computer system, the processing cannot be uniformly assigned to each computer, the throughput of the entire system is lowered, and the processing result cannot be obtained quickly. there were. In addition, in the conventional computer system, when trying to maintain the state of the computer accurately, the number of communications increases, the overhead for receiving processing increases, the computer cannot process efficiently, and the communication path is occupied. There is a problem that the rate increases and the communication efficiency of other data decreases. Furthermore, in the conventional computer system, it is difficult to collect accurate status information for each computer, and there is a problem that processing cannot be allocated correctly.

【0006】以上から本発明の目的は、処理量あるいは
処理速度が異なる複数の処理を複数の計算機に分散して
効率良く並列に実行できる計算機資源分散方法及びシス
テムを提供することである。本発明の別の目的は、計算
機のCPU速度やCPU利用率を考慮して各計算機に複
数の処理を分散して並列処理ができる計算機資源分散方
法及びシステムを提供することである。本発明の更に別
の目的は、処理を実際に実行することにより得られた処
理量等を履歴情報として蓄積しておき、該履歴情報を用
いて複数の計算機に処理を分散する計算機資源分散方法
及びシステムを提供することである。本発明の他の目的
は、少ない通信で、しかも、正確に各計算機資源の状態
を管理し、該状態に基づいて処理を複数の計算機に分散
する計算機資源分散システムを提供することである。本
発明の更に他の目的は、状態が変化する複数の計算機資
源を、資源要求した他の複数の計算機に効率的に割り当
てることができる計算機資源分散システムを提供するこ
とである。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a computer resource distribution method and system which can distribute a plurality of processes having different processing amounts or processing speeds to a plurality of computers and efficiently execute them in parallel. Another object of the present invention is to provide a computer resource distribution method and system capable of performing parallel processing by distributing a plurality of processes to each computer in consideration of the CPU speed and CPU utilization rate of the computer. Still another object of the present invention is to store a processing amount and the like obtained by actually executing a process as history information and distribute the process to a plurality of computers by using the history information. And to provide a system. Another object of the present invention is to provide a computer resource distribution system that manages the state of each computer resource accurately with a small amount of communication and distributes the processing to a plurality of computers based on the state. Still another object of the present invention is to provide a computer resource distribution system capable of efficiently allocating a plurality of computer resources whose states change, to a plurality of other computers that have requested resources.

【0007】[0007]

【課題を解決するための手段】図1及び図2は本発明の
原理説明図である。図1において、11は実行処理群、
13は複数の処理を計算機に割り当てる処理割り当て装
置(スケジューラ)、30は計算機(CPU)群であ
る。11a,11b,11c・・は実行すべき処理、3
1〜36は計算機(CPU)である。図2において、3
1〜36はネットワークに接続された複数の計算機(ホ
ストA〜ホストF)、31a〜36aは各計算機に設け
られ計算機の動作状態を監視するローカルリソースマネ
ージャ(Local Resource Manager:LM)、31b,3
2bは分散処理のために利用できる計算機を要求し、割
り当てられた計算機を用いて処理を分散して実行するク
ライアント(CLIENT:CLT)、32cは各計算機の動作
状態を収集して保持すると共に、クライアントCLTか
らの計算機資源利用要求に対して利用できる計算機を決
定するドメインリソースマネージャ(Domain Resource M
anager:DM)、31d〜36dは各計算機に設けら
れ、ドメインリソースマネージャDMから指示されたク
ライアントCLTに計算機資源の排他的利用を許可する
メッセージ(トークン)を送って自計算機資源を該クラ
イアントに排他的に利用させる資源利用許可機構(エー
ジェントという)である。
1 and 2 are explanatory views of the principle of the present invention. In FIG. 1, 11 is an execution processing group,
Reference numeral 13 is a process allocation device (scheduler) for allocating a plurality of processes to a computer, and 30 is a computer (CPU) group. 11a, 11b, 11c ... Processes to be executed, 3
1-36 are computers (CPU). In FIG. 2, 3
1 to 36 are a plurality of computers (host A to host F) connected to the network, 31a to 36a are local resource managers (Local Resource Managers: LMs) provided in the respective computers and monitoring the operating state of the computers, 31b, 3
2b is a client (CLIENT: CLT) that requests a computer that can be used for distributed processing, and distributes and executes the process using the assigned computer, and 32c collects and holds the operating state of each computer, and A domain resource manager (Domain Resource Manager) that determines the computers that can be used in response to computer resource use requests from the client CLT.
anager: DM), 31d to 36d are provided in each computer, and send a message (token) permitting exclusive use of computer resources to the client CLT instructed by the domain resource manager DM to exclude the own computer resource from the client. It is a resource use permission mechanism (called an agent) that is used for specific purposes.

【0008】[0008]

【作用】少なくとも1つの計算機に処理分散用のスケジ
ューラ13(図1参照)を設け、分散すべき処理(11
a〜11g)の処理量が既知の場合、スケジューラは処
理量の大きいものから順に処理を積算処理量(初期値は
0)が少ない計算機(31〜36)に割り当てると共
に、割り当てた処理の処理量を積算処理量に加算するこ
とにより該計算機の積算処理量を更新し、以後、順次同
様の方法で処理を計算機に割り当てる。このようにすれ
ば、各計算機の処理量を均一にでき、各計算機の処理の
終了時間をほぼ同時刻にでき、しかも計算機システムの
効率を向上でき、処理結果を早く得ることができる。
A scheduler 13 (see FIG. 1) for processing distribution is provided in at least one computer, and the processing to be distributed (11
a to 11 g), the scheduler allocates the processes to the computers (31 to 36) with the smallest cumulative processing amount (initial value is 0) in order from the largest processing amount, and the processing amount of the allocated processing. Is added to the integrated processing amount to update the integrated processing amount of the computer, and thereafter, the processes are sequentially assigned to the computers by the same method. By doing so, the processing amount of each computer can be made uniform, the processing end time of each computer can be made approximately the same time, the efficiency of the computer system can be improved, and the processing result can be obtained quickly.

【0009】分散処理に利用できる計算機の決定は以下
のように行う(図2(a)参照)。各計算機31〜36のロ
ーカルリソースマネージャLM31a〜36aはCPU
利用率等を示す状態データに該状態データの信頼度を示
すデータを付加して、ドメインリソースマネージャDM
32cに送信する。DM32cはクライアント31b
(図1のスケジューラ13に対応)から分散処理のため
に利用できる計算機の割り当て要求を受信すると、各計
算機の利用率及び信頼度を考慮して利用可能な1以上の
計算機を決定する。例えば、利用率が低く、かつ、信頼
度が高い計算機を順に利用可能計算機として決定する。
クライアント31bは利用可能計算機に図1で説明した
方法で処理を分散する。各計算機のローカルリソースマ
ネージャLM 31a〜36aは状態変動の度合いが小
さい場合には信頼度(安定度、有効時間)を増大し、状
態変動の度合いが大きい場合には信頼度を減少し、又、
該信頼度が大きい時状態データの送信間隔を長くし、信
頼度が小さい時状態データの送信間隔を短くする。
A computer that can be used for distributed processing is determined as follows (see FIG. 2 (a)). The local resource managers LM31a-36a of the computers 31-36 are CPUs.
The domain resource manager DM is added to the state data indicating the usage rate and the like, by adding the data indicating the reliability of the state data.
32c. DM 32c is the client 31b
When a request for allocating computers that can be used for distributed processing is received from (corresponding to the scheduler 13 in FIG. 1), one or more computers that can be used are determined in consideration of the utilization rate and reliability of each computer. For example, a computer having a low utilization rate and a high reliability is sequentially determined as an available computer.
The client 31b distributes the processing to the available computers by the method described in FIG. The local resource managers LM 31a to 36a of the respective computers increase the reliability (stability, effective time) when the degree of state change is small, decrease the reliability when the degree of state change is large, and
When the reliability is high, the transmission interval of the state data is lengthened, and when the reliability is low, the transmission interval of the state data is shortened.

【0010】このようにすれば、ドメインリソースマネ
ージャDMは少ない通信で、しかも、正確に各計算機資
源の状態を管理でき、効率的な計算機資源の割り当てが
可能となる。この場合、各計算機のローカルリソースマ
ネージャLM 31a〜36aは計算機のハードウェア
情報を状態データに付加してドメインリソースマネージ
ャDM 32cに送信し、ドメインリソースマネージャ
DMは各計算機の動作状態、信頼度、ハードウェア情報
に基づいてクライアント31bに1以上の計算機の利用
を可能にする。このようにすれば、計算機の能力に応じ
た計算機の割り当てが可能となり、均一な分散処理がで
き、システムの効率を向上できる。
With this arrangement, the domain resource manager DM can manage the state of each computer resource accurately with a small amount of communication, and can efficiently allocate the computer resource. In this case, the local resource managers LM 31a to 36a of the respective computers add the hardware information of the computers to the state data and send the domain data to the domain resource manager DM 32c, and the domain resource manager DM sends the operating state, reliability, hardware The client 31b can use one or more computers based on the wear information. In this way, computers can be assigned according to the capacity of the computers, uniform distributed processing can be performed, and system efficiency can be improved.

【0011】クライアント31bが実際に利用可能計算
機33〜36に処理を依頼できるようにするために、以
下の処理が行われる。ドメインリソースマネージャDM
32cは前述のようにクライアント31bからの計算
機資源利用要求に対して利用できる計算機33〜36を
決定すると、各計算機のエージェント33d〜36dに
クライアントからの処理依頼を受け付けるように指示す
る(図2(a))。この指示により、各エージェント33d
〜36dは計算機資源の利用を希望するクライアント3
1bとの間にコネクションを設定し(図2(b))、しかる
後、資源利用トークンを送信して該クライアントに計算
機資源を排他的に割り当てる。資源利用トークンは、資
源状態、利用できる資源量、資源の安定度、資源の利用
制限時間を有し、クライアント31bはこれら情報を考
慮して複数の計算機に図1の方法で処理を分散する。
又、エージェントは複数のクライアント31b,32b
が計算機資源の利用を希望している場合には、各クライ
アントとの間にコネクションを設定すると共に、所定の
1つのクライアント31bのみに資源利用トークンを送
出して該クライアント31bに計算機資源を排他的に利
用させ、該クライアントによる計算機資源の利用終了に
より次のクライアント32bに資源利用トークンを送出
して計算機資源を排他的に利用させる。このようにする
ことにより、状態が変化する複数の計算機資源を、資源
要求した他の複数の計算機に効率的に割り当てることが
できる。
The following processing is performed so that the client 31b can actually request the available computers 33 to 36 to perform processing. Domain resource manager DM
When the computer 32c determines the computers 33 to 36 that can be used in response to the computer resource utilization request from the client 31b as described above, it instructs the agents 33d to 36d of each computer to accept the processing request from the client (see FIG. a)). By this instruction, each agent 33d
36d is a client 3 who wishes to use computer resources
A connection is established with 1b (FIG. 2 (b)), and then a resource use token is transmitted to exclusively allocate computer resources to the client. The resource use token has a resource state, an available resource amount, a resource stability, and a resource use time limit, and the client 31b distributes the processing to a plurality of computers by the method of FIG. 1 in consideration of these pieces of information.
The agent is a plurality of clients 31b, 32b.
If the client wants to use the computer resource, a connection is established with each client, and a resource use token is sent to only one predetermined client 31b to exclusively use the computer resource for the client 31b. When the client finishes using the computer resource, a resource use token is sent to the next client 32b to exclusively use the computer resource. By doing so, the plurality of computer resources whose states change can be efficiently allocated to the other plurality of computers that have requested the resources.

【0012】[0012]

【実施例】【Example】

(a) 本発明の概略全体構成 図3は本発明の全体構成図であり、11は実行すべき処
理群、30はLAN(Local Area network)等の通信ネッ
トワーク、31〜36はネットワークに接続された複数
の計算機(ホストA〜ホストF)である。各計算機にお
いて、31a〜36aは計算機の動作状態を監視するロ
ーカルリソースマネージャ(LM)、31b,32bは
分散処理のために利用できる計算機を要求し、割り当て
られた計算機に処理11を分散して実行するクライアン
ト(CLIENT:CLT)、32cは各計算機の利用率等の状
態を収集して保持すると共に、クライアントCLTから
の計算機資源利用要求に対して利用できる計算機を決定
するサーバ(ドメインリソースマネージャDMとい
う)、31d〜36dはDM32cから指示されたクラ
イアントCLTに計算機資源の排他的利用を許可するメ
ッセージ(資源利用トークンという)を送って自計算機
資源を該クライアントに排他的に利用させる資源利用許
可機構(エージェントという)である。
(a) Schematic overall configuration of the present invention FIG. 3 is an overall configuration diagram of the present invention. 11 is a processing group to be executed, 30 is a communication network such as a LAN (Local Area network), and 31 to 36 are connected to the network. A plurality of computers (host A to host F). In each computer, 31a to 36a are local resource managers (LMs) that monitor the operating status of the computers, 31b and 32b request computers that can be used for distributed processing, and the processing 11 is distributed to the allocated computers and executed. A client (CLIENT: CLT) 32c that collects and holds the states such as the utilization rate of each computer and also determines a computer that can be used in response to a computer resource utilization request from the client CLT (domain resource manager DM). ), 31d to 36d send a message (referred to as a resource use token) for permitting exclusive use of computer resources to the client CLT instructed by the DM 32c to allow the client to exclusively use its own computer resources. Agent).

【0013】全体の動作の概略 処理の分散 クライアント31bは処理11を遠隔の計算機に分散し
て実行するには、遠隔の計算機より利用許可を得なけれ
ばならない。利用許可を得るための制御は後述する。
今、複数の計算機33〜36より利用許可されているも
のとする。クライアント31b内のスケジューラ13
は、分散すべき処理11a〜11nの処理量が既知の場
合、処理量の大きい処理から順に積算処理量(初期値は
0)が少ない計算機(33〜36)に割り当てる。スケ
ジューラ13は所定の処理を計算機に割り当てると、該
割り当てた処理の処理量を積算処理量に加算することに
より計算機31〜36の積算処理量を更新する。以後、
順次同様の方法で全処理11a〜11nを計算機に割り
当てる。
General Process Distribution of Overall Operation The client 31b must obtain a use permission from a remote computer in order to execute the process 11 by distributing it to a remote computer. The control for obtaining the usage permission will be described later.
Now, it is assumed that the use is permitted by the plurality of computers 33 to 36. Scheduler 13 in client 31b
When the processing amounts of the processes 11a to 11n to be dispersed are known, the processes are assigned to the computers (33 to 36) with the smallest integrated processing amount (initial value is 0) in order from the largest processing amount. When the scheduler 13 allocates a predetermined process to the computer, the scheduler 13 updates the integrated processing amount of the computers 31 to 36 by adding the processing amount of the allocated process to the integrated processing amount. After that,
All processes 11a to 11n are sequentially assigned to the computers by the same method.

【0014】このようにすれば、各計算機の処理量を均
一にでき、各計算機の処理の終了時間をほぼ同時刻にで
き、しかも計算機システムの効率を向上でき、処理結果
を早く得ることができる。この場合、各処理を実際に実
行することにより得られる処理量を履歴情報として蓄積
しておき、該履歴情報を参照して各処理の処理量を得る
ようにすれば、正しい処理量を求めることができ、各計
算機の処理量の均一度を更に高めることができ、計算機
システムの効率を向上できる。又、処理量を計算機のC
PU速度で除算した値を積算処理量に加算して該積算処
理量を更新し、この積算処理量に基づいて処理の分散を
行うようにすれば、各計算機の処理速度の差を考慮した
均一な分散処理ができ、ますますシステムの効率を向上
できる。この場合、計算機の負荷に基づいてCPU速度
を補正するようにすれば、更に処理の均一度を高めるこ
とができる。
By doing so, the processing amount of each computer can be made uniform, the processing end time of each computer can be made substantially the same time, the efficiency of the computer system can be improved, and the processing result can be obtained quickly. . In this case, if the processing amount obtained by actually executing each process is accumulated as history information and the processing amount of each process is obtained by referring to the history information, the correct processing amount can be obtained. Therefore, the uniformity of the throughput of each computer can be further increased, and the efficiency of the computer system can be improved. Also, the amount of processing is C of the computer
If the value obtained by dividing by the PU speed is added to the integrated processing amount and the integrated processing amount is updated and the processing is distributed based on this integrated processing amount, uniform processing is performed in consideration of the difference in the processing speed of each computer. The distributed processing can be performed, and the efficiency of the system can be further improved. In this case, if the CPU speed is corrected based on the load on the computer, the uniformity of processing can be further increased.

【0015】利用可能計算機の決定(図4〜図6) クライアントが分散処理に利用できる計算機の決定は以
下のように行う。各計算機31〜36のローカルリソー
スマネージャLM31a〜36aは自分のCPU状態
(例えばCPU利用率)を監視し、該状態データにその
信頼度を示すデータを付加して、ドメインリソースマネ
ージャDM32cに送信する(図4)。しかる後、ドメ
インリソースマネージャDM32cはクライアント31
bからローカルリソースマネージャLM31aを介して
計算機の利用要求を受信すると(図5参照)、各計算機
31〜36の利用率及び信頼度を考慮して利用可能な1
以上の計算機を決定する。例えば、利用率が低く、か
つ、信頼度が高い計算機33〜36を順に利用可能計算
機として決定する。これにより、クライアント31bは
利用可能計算機33〜36に図3で説明した方法で処理
を分散する。
Determination of Available Computers (FIGS. 4 to 6) The computers that can be used by the client for distributed processing are determined as follows. The local resource managers LM31a to 36a of the respective computers 31 to 36 monitor their own CPU status (for example, CPU utilization rate), add data indicating the reliability to the status data, and send it to the domain resource manager DM32c ( (Fig. 4). Then, the domain resource manager DM 32c becomes the client 31.
When a computer use request is received from the computer b via the local resource manager LM31a (see FIG. 5), it is available 1 considering the utilization rate and reliability of each computer 31-36.
Determine the above computer. For example, the computers 33 to 36 having low utilization rates and high reliability are sequentially determined as available computers. As a result, the client 31b distributes the processing to the available computers 33 to 36 by the method described in FIG.

【0016】信頼度としては、例えば安定度や状態デー
タの有効時間等が考えられる。各計算機のローカルリソ
ースマネージャLM31a〜36aは状態変動の度合い
が小さい場合には信頼度(安定度、有効時間)を増大
し、状態変動の度合いが大きい場合には信頼度を減少
し、又、該信頼度が大きい時状態データの送信間隔を長
くし、信頼度が小さい時状態データの送信間隔を短くす
る。このようにすることにより、ドメインリソースマネ
ージャDM32cは少ない通信で、しかも、正確に各計
算機資源の状態を管理でき、効率的な計算機資源の割り
当てが可能となる。又、各ローカルリソースマネージャ
LM31a〜36aは計算機のハードウェア情報(CP
U速度等)を状態データに付加してドメインリソースマ
ネージャDM32cに送信し、ドメインリソースマネー
ジャDM32aは各計算機の動作状態、信頼度、ハード
ウェア情報に基づいてクライアントCLTに1以上の計
算機の利用を可能にする。このようにすれば、計算機の
能力に応じた計算機の割り当てが可能となり、均一な分
散処理ができ、システムの効率を向上できる。
As the reliability, for example, stability and effective time of state data can be considered. The local resource managers LM31a to 36a of the respective computers increase the reliability (stability, effective time) when the degree of state change is small, and decrease the reliability when the degree of state change is large. When the reliability is high, the transmission interval of the state data is lengthened, and when the reliability is low, the transmission interval of the state data is shortened. By doing so, the domain resource manager DM 32c can manage the state of each computer resource accurately with a small amount of communication, and can efficiently allocate the computer resource. In addition, each of the local resource managers LM31a to 36a uses the hardware information (CP) of the computer.
(U speed etc.) is added to the state data and transmitted to the domain resource manager DM32c, and the domain resource manager DM32a can use one or more computers for the client CLT based on the operating state, reliability and hardware information of each computer. To In this way, computers can be assigned according to the capacity of the computers, uniform distributed processing can be performed, and system efficiency can be improved.

【0017】計算機資源の利用許可 クライアント31bがドメインリソースマネージャDM
32cにより決定された計算機33〜36に対して実際
に処理を依頼できるようにするためには、各計算機より
利用許可を受ける必要があり、以下の制御が行われる。
ドメインリソースマネージャDM32cは前述のように
クライアント31bからの計算機資源利用要求に対して
利用できる計算機33〜36を決定すると、ローカルリ
ソースマネージャLMを介して各計算機のエージェント
33d〜36dにクライアント31bからの処理依頼を
受け付けるように指示する(図6)。この指示により、
各エージェント33d〜36dは計算機資源の利用を希
望するクライアント31bとの間にコネクションを設定
し(図7参照)、しかる後、資源利用トークン(Token)
を送信して該クライアントに計算機資源を排他的に割り
当てる。資源利用トークンは、資源状態、利用できる資
源量、資源の安定度、資源の利用制限時間を有し、クラ
イアント31bはこれらの情報を考慮して複数の計算機
に図3で説明した方法で処理を分散する。このようにす
ることにより、状態が変化する複数の計算機資源を、資
源要求した他の複数の計算機に効率的に割り当てること
ができる。
Computer resource use permission client 31b is a domain resource manager DM
In order to be able to actually request the processing to the computers 33 to 36 determined by the computer 32c, it is necessary to obtain usage permission from each computer, and the following control is performed.
When the domain resource manager DM 32c determines the computers 33 to 36 that can be used in response to the computer resource use request from the client 31b as described above, the agents 33d to 36d of the respective computers perform processing from the client 31b via the local resource manager LM. Instruct to accept the request (Fig. 6). By this instruction,
Each of the agents 33d to 36d establishes a connection with the client 31b desiring to use the computer resource (see FIG. 7), and thereafter, the resource use token (Token).
To exclusively allocate computer resources to the client. The resource use token has a resource state, an available resource amount, a resource stability, and a resource use time limit, and the client 31b considers these pieces of information and performs processing on a plurality of computers by the method described in FIG. Spread. By doing so, the plurality of computer resources whose states change can be efficiently allocated to the other plurality of computers that have requested the resources.

【0018】又、エージェント33d〜36dは複数の
クライアント31b,32bが計算機資源の利用を希望
している場合には、各クライアントとの間にコネクショ
ンを設定すると共に、所定の1つのクライアント31b
のみに資源利用トークンを送出して該クライアント31
bに計算機資源を排他的に利用させ、該クライアントに
よる計算機資源の利用終了により次のクライアント32
bに資源利用トークンを送出して計算機資源を排他的に
利用させる。
When a plurality of clients 31b and 32b desire to use computer resources, the agents 33d to 36d set up a connection with each client, and at the same time, one predetermined client 31b.
The resource use token is sent only to the client 31
b to exclusively use the computer resource, and when the client finishes using the computer resource, the next client 32
A resource use token is sent to b to exclusively use computer resources.

【0019】(b) 処理の分散制御 図8は本発明の分散処理の実施例構成図であり、11は
実行処理群、13は複数の処理を計算機に割り当てる処
理割り当て装置(スケジューラ)であり、図3のクライ
アント31bに含まれるもの、30は計算機群である。
実行処理群11において11a〜11gは計算機により
実行される処理、計算機群30において31〜36は図
示しないLAN等のネットワークに接続された計算機
(CPUあるいはホストという)である。スケジューラ
13において、13bは実際に実行すべき処理11a〜
11gの処理量に関する履歴情報を管理する履歴情報管
理部、13cは処理11a〜11gの処理手順とその処
理量に関するデータを蓄える実行処理テーブル、13e
は処理を割り当てる計算機に関する情報、例えばCPU
速度(処理速度)VcpuやCPU負荷(利用率)ηを蓄
える処理割り当て計算機テーブル、13fは実際に処理
を各計算機に割り当てる際の処理手順を記憶する処理割
り当て法則テーブル、13gは各テーブルの情報に基づ
いて各計算機31〜36に実行させる処理を割り当てる
処理割り当て部、13hは処理割り当て部により作成さ
れた計算機・処理の対応関係を記憶する計算機実行処理
テーブル、13iは計算機実行処理テーブル13hに記
憶された内容に従って、各計算機に処理を割り当てると
共に、処理の実行終了を監視する処理起動・実行監視部
である。
(B) Distributed control of processing FIG. 8 is a block diagram of an embodiment of distributed processing according to the present invention. 11 is an execution processing group, 13 is a processing allocation device (scheduler) for allocating a plurality of processings to a computer, A computer group 30 is included in the client 31b of FIG.
In the execution processing group 11, 11a to 11g are processing executed by a computer, and in the computer group 30, 31 to 36 are computers (referred to as CPUs or hosts) connected to a network such as a LAN (not shown). In the scheduler 13, 13b is a process 11a to be actually executed.
A history information management unit that manages history information related to the processing amount of 11g, 13c is an execution processing table that stores data regarding the processing procedure of the processing 11a to 11g and the processing amount, 13e.
Is information about the computer to which the process is assigned, eg, CPU
The processing allocation computer table that stores the speed (processing speed) Vcpu and the CPU load (utilization rate) η, 13f is a processing allocation rule table that stores the processing procedure when the processing is actually allocated to each computer, and 13g is the information of each table. A processing allocation unit that allocates the processing to be executed by each of the computers 31 to 36 based on the above, 13h is a computer execution processing table that stores the correspondence between the computers and processing created by the processing allocation unit, and 13i is stored in the computer execution processing table 13h. According to the contents described above, it is a process activation / execution monitoring unit that allocates a process to each computer and monitors the end of process execution.

【0020】処理起動・実行監視部13iは処理を起動
してから終了するまでの時間(処理時間)あるいは計算
機から通知される処理量(処理ステップ数)あるいは単
位時間当りの処理量(=処理量/処理時間)を監視し、
処理終了後これらを履歴情報として履歴情報管理部13
bに通知して処理名に対応させて記憶させる機能を有し
ている。実行処理テーブル13cは処理情報及び履歴情
報に基づいて処理手順や処理量等に関するデータを記憶
する。処理割り当て部13gは処理割り当て法則テーブ
ル13fが指示する割り当てアルゴリズムに従って、実
行処理テーブル13cや処理割り当て計算機テーブル1
3eの内容(処理量、CPU速度、負荷率等)に基づい
て各計算機に処理を割り当てる。割り当て方法として
は、次の〜の方法が考えられる。すなわち、 各処理11a,11b,11c,・・・の処理量が既
知の場合には、各処理を処理量の大きいものから順に並
べ、計算機31,32,33・・・に対応させて記憶し
てある積算処理量(初期値は0)が最も少ない計算機に
処理を割り当てる。ついで、積算処理量に割り当てた処
理の処理量を加算して該計算機の積算処理量を更新し、
以後、順次、各処理を同様の割り当てを行って計算機に
割り当て、得られた計算機・処理の対応関係を計算機実
行処理テーブル13hに格納する。この方法によれば、
各計算機の処理量が均一になるように各処理を割り当て
ることができ、処理の終了時間を略同じ、又はできるだ
け近ずけることができる。尚、処理量としては処理のス
テップ数あるいは処理時間を用いることができる。
The process activation / execution monitoring unit 13i determines the time (process time) from the start to the end of the process, the process amount (the number of processing steps) notified from the computer, or the process amount per unit time (= process amount). / Processing time)
After the processing is completed, the history information management unit 13 uses these as history information.
It has a function of notifying b and storing it in association with the processing name. The execution processing table 13c stores data relating to processing procedures, processing amounts, etc. based on processing information and history information. The process allocation unit 13g uses the execution algorithm table 13c and the process allocation computer table 1 according to the allocation algorithm instructed by the process allocation rule table 13f.
A process is assigned to each computer based on the content of 3e (processing amount, CPU speed, load factor, etc.). The following methods can be considered as the allocation method. That is, when the processing amount of each process 11a, 11b, 11c, ... Is known, the respective processes are arranged in descending order of processing amount and stored in association with the computers 31, 32, 33. The process is assigned to the computer with the smallest accumulated processing amount (initial value is 0). Then, add the processing amount of the processing assigned to the integrated processing amount to update the integrated processing amount of the computer,
After that, the respective processes are sequentially assigned in the same manner to the computers, and the obtained computer-process correspondences are stored in the computer execution process table 13h. According to this method
Each process can be assigned so that the processing amount of each computer becomes uniform, and the end times of the processes can be made approximately the same or as close as possible. The number of processing steps or the processing time can be used as the processing amount.

【0021】予め、測定又は計算により各処理の単位
時間当りの処理量(=処理量/処理時間)が判っている
場合には、各処理11a,11b,11c,・・・を単
位時間当りの処理量の大きいものから順に並べ、計算機
31,32,33・・・に対応させて記憶してある積算
処理量(初期値は0)が最も少ない計算機に処理を割り
当てる。ついで、割り当てた処理の単位時間当りの処理
量を該積算処理量に加算することにより計算機の積算処
理量を更新し、以後、順次、各処理を同様の割り当てを
行って計算機に割り当てる。この方法によれば、各計算
機のCPU負荷(利用率)を均一にできる。尚、利用率
ηは、ある時間Tの間にユーザ(アプリケーションプロ
グラム)が計算機を使用している時間をTu、計算機の
OSが使用している時間をToとすれば、次式 η=(Tu+To)・100/T(%) (a) により与えられる。この利用率ηは所定時間毎に各計算
機のOS(オペレーションシステム)より計算機情報と
してスケジューラ13に通知される。
When the processing amount per unit time (= processing amount / processing time) of each processing is known in advance by measurement or calculation, each processing 11a, 11b, 11c, ... The processing amount is arranged in descending order, and the processing is assigned to the computer having the smallest accumulated processing amount (initial value is 0) stored in association with the computers 31, 32, 33, .... Then, the integrated processing amount of the computer is updated by adding the processing amount of the allocated process per unit time to the integrated processing amount, and thereafter, each process is sequentially allocated in the same manner and allocated to the computer. According to this method, the CPU load (utilization rate) of each computer can be made uniform. The utilization rate η is given by the following equation η = (Tu + To, where Tu is the time the user (application program) is using the computer during a certain time T and To is the time the computer OS is using ) · 100 / T (%) (a) The utilization rate η is notified to the scheduler 13 as computer information from the OS (operation system) of each computer every predetermined time.

【0022】ファイルを処理する場合には、各処理1
1a,11b,11c,・・・をファイルのサイズ(大
きさ)順に並べ、計算機31,32,33・・・に対応
させて記憶してある積算ファイル量(初期値は0)が最
も少ない計算機に処理を割り当てる。ついで、積算ファ
イル量に割り当てた処理のファイル量を加算することに
より計算機の積算ファイル量を更新し、以後、順次、各
処理を同様の割り当てを行って計算機に割り当てる。こ
の方法は、処理量とファイルのサイズが対応しているこ
とに着目してファイルの大きさを処理量の目安として用
いるものである。
When processing a file, each processing 1
Computers having the smallest accumulated file amount (initial value is 0) stored in association with the computers 31, 32, 33, ... by arranging 1a, 11b, 11c, ... In order of file size (size). Assign processing to. Then, the accumulated file amount of the computer is updated by adding the file amount of the allocated process to the accumulated file amount, and thereafter, each process is sequentially allocated in the same manner to the computer. This method uses the size of the file as a measure of the processing amount, paying attention to the correspondence between the processing amount and the file size.

【0023】最初は他の方法によって割り当てを行っ
て処理を実行する。そして、実際に実行することにより
得られる各処理11a,11b,11c,・・・の処理
時間あるいは処理量(処理ステップ数)あるいは単位時
間当りの処理量(=処理量/処理時間)を処理起動・実
行監視部13iで監視し、処理終了後これらを履歴情報
として履歴情報管理部13bに通知し、処理名に対応さ
せて記憶させる。以後、再び処理割り当てが必要になれ
ば、該履歴情報を用いて各処理の処理量を求めて実行処
理テーブル13cを作成し、処理割り当て部13gはこ
の処理量に基づいての方法あるいはの方法で各処理
を計算機31,32,33・・・に割り当てる。この方
法によれば、実際の処理量が判るため、各計算機処理量
の均一度あるいは各計算機利用率の均一度を更に向上で
きる。
First, the allocation is performed by another method to execute the processing. Then, the processing time or processing amount (the number of processing steps) or the processing amount per unit time (= processing amount / processing time) of each processing 11a, 11b, 11c, ... -The execution monitoring unit 13i monitors the information, and after the processing is completed, notifies the history information management unit 13b of these as history information and stores the history information in association with the processing name. After that, when the process allocation becomes necessary again, the processing amount of each process is obtained using the history information to create the execution process table 13c, and the process allocation unit 13g uses the method or the method based on this process amount. Each process is assigned to the computers 31, 32, 33, .... According to this method, since the actual throughput can be known, it is possible to further improve the uniformity of the throughput of each computer or the uniformity of the utilization rate of each computer.

【0024】計算機システムの各計算機の処理速度が
異なる場合には、上記〜の方法と同様に、各処理1
1a,11b,11c,・・・を処理量あるいは単位時
間当りの処理量あるいはファイル量の大きいものから順
に並べ、しかる後、計算機31,32,33・・・に対
応させて記憶してある積算値(初期値は0)が最も少な
い計算機に処理を割り当てる。ついで、処理量あるいは
単位時間当りの処理量あるいはファイル量を計算機のC
PU速度(処理速度)Vcpuで除算した値を積算値に加
算して該積算値を更新し、以後、順次、同様の割り当て
を行って各処理を計算機に割り当てる。この方法によれ
ば、各計算機の処理速度の差を考慮した均一な分散処理
ができる。尚、CPU速度は予め各計算機より計算機情
報としてスケジューラ13に通知されている。
When the processing speed of each computer of the computer system is different, each processing 1 is performed in the same manner as the above-mentioned methods (1) to (3).
1a, 11b, 11c, ... Are arranged in order from the processing amount or the processing amount per unit time or the file amount is large, and thereafter, the integration is stored corresponding to the computers 31, 32, 33. The process is assigned to the computer with the smallest value (initial value is 0). Then, the processing amount or the processing amount or file amount per unit time is calculated by C of the computer.
A value divided by the PU speed (processing speed) Vcpu is added to the integrated value to update the integrated value, and thereafter, the same allocation is sequentially performed to allocate each process to the computer. According to this method, uniform distributed processing can be performed in consideration of the difference in processing speed between computers. The CPU speed is previously notified from each computer to the scheduler 13 as computer information.

【0025】上記の方法において、計算機の負荷に
基づいて計算機のCPU速度Vcpuを補正し、補正によ
り得られた実効CPU速度Veffを用いて積算値を更新
する。この方法によれば、計算機の負荷に基づいてCP
U速度を補正できるため、の方法に比べて更に処理の
均一度を高めることができる。尚、実効CPU速度は次
式 Veff=(100−η)・Vcpu/100 (b) により計算できるから、各計算機から所定時間毎に計算
機情報として入力される負荷率ηとCPU速度Vcpuを
用いて(b)式によりスケジューラ13は実効CPU速度
Veffを演算できる。
In the above method, the CPU speed Vcpu of the computer is corrected based on the load of the computer, and the integrated value is updated using the effective CPU speed Veff obtained by the correction. According to this method, CP is calculated based on the load of the computer.
Since the U speed can be corrected, the uniformity of processing can be further improved as compared with the above method. The effective CPU speed can be calculated by the following formula: Veff = (100−η) · Vcpu / 100 (b). The scheduler 13 can calculate the effective CPU speed Veff from the equation (b).

【0026】以上の〜のいずれの方法により、処理
を割り当てるかは、例えば、以下に従う。すなわち、
(1) ファイルの処理においてはの方法を利用し、(2)
予め処理量が判っている場合にはの方法を利用し、
(3) 複数の計算機を利用したパイプライン処理の場合に
はの方法を利用し、(4) 一度実行したことがある処理
についてはの方法を利用し、(5) 異なる早さの計算機
からなるシステムにおいてはの方法を利用し、(6) 計
算機が並列的に他の処理を実行している場合にはの方
法を利用する。このようにすれば、効率的な処理の分
散、すなわちスケジューリング処理を実現できる。
Which of the above-mentioned methods (1) to (3) is used to allocate the processing is as follows, for example. That is,
(1) Use the method in the processing of files, (2)
If you know the throughput in advance, use the method of
(3) Use the method in the case of pipeline processing using multiple computers, (4) Use the method in the case of processing that has been executed once, and (5) Consist of computers with different speeds. In the system, use the method of, and (6) Use the method of when the computer is executing other processing in parallel. In this way, efficient processing distribution, that is, scheduling processing can be realized.

【0027】コンパイル処理に適用した場合の実施例 図9はコンパイル処理を分散処理する計算機システムの
構成図である。10はLAN等のネットワーク、31〜
35はネットワークに接続され、UNIX(ユニック
ス)上で動作する計算機(以後、ホスト1〜ホスト5と
いう)で、ホスト1〜3のCPU速度は100%(正規
化して1)、ホスト4,5のCPU速度は倍の200%
(正規化して2)である。各ホストのうち、1つのホス
ト4には処理割り当て(スケジューリング)を行うスケ
ジューラ13が搭載されている。計算機31〜35は分
散処理のために利用できるものとして既に許可されてい
るものとする。
Embodiment When Applied to Compile Processing FIG. 9 is a block diagram of a computer system for distributed processing of compile processing. 10 is a network such as a LAN, 31-
Reference numeral 35 denotes a computer (hereinafter, referred to as host 1 to host 5) that is connected to a network and operates on UNIX (hereinafter referred to as host 1 to host 5). The CPU speed of hosts 1 to 3 is 100% (normalized to 1) CPU speed doubled to 200%
(Normalized to 2). Among the hosts, one host 4 is equipped with a scheduler 13 that performs process allocation (scheduling). It is assumed that the computers 31 to 35 have already been permitted to be used for distributed processing.

【0028】図10は図9の計算機システムによりコン
パイル処理を分散処理する場合のコンパイル装置の構成
図である。このコンパイル装置は、プログラムのコンパ
イル手順を書いたファイルよりいくつかのコンパイルコ
マンドを生成し、各コンパイルコマンド(処理手順)に
応じた処理を複数のネットワーク上のホストに分散して
並列的に実行させるもので、コンパイル処理の速度向上
を実現するものである。図中、31〜35は計算機(ホ
スト1〜ホスト5)、13はスケジューラ、21はプロ
グラムのコンパイル手順を書いた手順ファイル、22は
今まで実行された処理の処理量あるいは処理時間あるい
は単位時間当りの処理量を履歴情報として記憶する処理
手順実行履歴ファイル、23は計算機(ホスト)よりス
ケジューラに入力されるCPU速度Vcpuや負荷率ηを
含む計算機情報(分散処理ホスト情報),24は処理する
ファイル名やファイルサイズを有する処理情報である。
スケジューラ13は処理手順ファイル21、処理手順実
行履歴ファイル22、分散処理ホスト情報23を参照し
コンパイルコマンドに応じた処理をホスト1〜5に割り
当て、各ホストをしてコンパイル処理を並列起動する。
FIG. 10 is a block diagram of a compiling device when the compiling process is distributed and processed by the computer system of FIG. This compiling device generates some compiling commands from a file in which the compiling procedure of a program is written, and processes according to each compiling command (processing procedure) are distributed to hosts on a plurality of networks and executed in parallel. It is intended to improve the speed of the compilation process. In the figure, 31 to 35 are computers (host 1 to host 5), 13 is a scheduler, 21 is a procedure file in which a program compilation procedure is written, and 22 is the processing amount or processing time of the processing executed so far or per unit time. The processing procedure execution history file that stores the processing amount as the history information, 23 is computer information (distributed processing host information) including the CPU speed Vcpu and load factor η input to the scheduler from the computer (host), and 24 is a file to be processed. It is processing information having a name and a file size.
The scheduler 13 refers to the processing procedure file 21, the processing procedure execution history file 22, and the distributed processing host information 23, assigns the processing according to the compile command to the hosts 1 to 5, and activates the compile processing in parallel for each host.

【0029】図11はスケジューラ13の構成図であ
り、図8と同一部分には同一符号を付している。図中、
13aは手順ファイル21の内容を解析してコンパイル
コマンドを生成すると共に、処理情報24を参照して該
コンパイルコマンドなどの処理とファイルの関係及びフ
ァイルのサイズを出力する手順ファイル解析部、13b
は実際に実行すべき処理の処理量等に関する情報を処理
手順実行履歴ファイル22から読み出して実行履歴テー
ブルとして管理すると共に、処理量あるいは処理時間等
を出力する履歴情報管理部、13cは各処理の処理手順
とその処理量に関するデータ等を蓄える実行処理テーブ
ル、13dは各ホスト1〜5から送られてくる分散処理
ホスト情報(CPU速度、CPU利用率)23を管理す
るホスト情報管理部、13eは処理を分散するホスト1
〜5についてCPU速度(処理速度)Vcpuや現在のC
PU負荷(利用率)η等のホスト情報を蓄える分散ホス
トテーブル(図8の処理割り当て計算機テーブル13e
に対応)であり、ホスト情報管理部13dにより更新さ
れる。13fは処理割り当て法則テーブル、13jは分
散処理のために利用できる計算機資源を確保するための
資源要求部であり後述する。
FIG. 11 is a block diagram of the scheduler 13. The same parts as those in FIG. 8 are designated by the same reference numerals. In the figure,
13a is a procedure file analysis unit that analyzes the contents of the procedure file 21 to generate a compile command, and outputs the relationship between the process such as the compile command and the file and the file size by referring to the processing information 24, 13b.
Is a history information management unit that reads out information regarding the processing amount of the processing to be actually executed from the processing procedure execution history file 22 and manages it as an execution history table, and outputs the processing amount or processing time. An execution processing table that stores data regarding processing procedures and the amount of processing, 13d is a host information management unit that manages distributed processing host information (CPU speed, CPU utilization rate) 23 sent from each host 1 to 5, and 13e is Host 1 that distributes processing
About 5 CPU speed (processing speed) Vcpu and current C
A distributed host table (processing allocation computer table 13e in FIG. 8) that stores host information such as PU load (utilization rate) η
And is updated by the host information management unit 13d. Reference numeral 13f is a process allocation rule table, and reference numeral 13j is a resource request unit for securing computer resources that can be used for distributed processing, which will be described later.

【0030】13gは各テーブル13c,13eの情報
を参照し、所定の割り当てアルゴリズムに従って各ホス
ト1〜5に処理を割り当てる処理割り当て部、13hは
処理割り当て部により作成された計算機・処理の対応関
係を記憶するホスト・実行処理マッピングテーブル(図
8の計算機実行処理テーブル13hに対応)、13iは
マッピングテーブル13hに記憶された内容に従って、
各計算機に処理を割り当てると共に、処理の実行終了を
監視する処理起動・実行監視部である。この処理起動・
実行監視部13iは処理を起動してから終了するまでの
時間(処理時間)あるいは計算機から通知される処理量
(処理ステップ数)あるいは単位時間当りの処理量(=
処理量/処理時間)を監視し、処理終了後これらを履歴
情報として履歴情報管理部13bに通知する。履歴情報
管理部13bは通知された履歴情報を記憶すると共に、
処理手順実行履歴ファイル22に登録する。
Reference numeral 13g refers to the information in each of the tables 13c and 13e, and a processing allocation unit that allocates processing to each host 1 to 5 according to a predetermined allocation algorithm. The host / execution process mapping table to be stored (corresponding to the computer execution process table 13h in FIG. 8), 13i is in accordance with the contents stored in the mapping table 13h.
A process activation / execution monitoring unit that allocates a process to each computer and monitors the end of process execution. Start this process
The execution monitoring unit 13i displays the time (processing time) from the start to the end of the processing, the processing amount (the number of processing steps) notified from the computer, or the processing amount per unit time (=
The processing amount / processing time) is monitored, and after completion of the processing, these are notified to the history information management unit 13b as history information. The history information management unit 13b stores the notified history information and
It is registered in the processing procedure execution history file 22.

【0031】図12は実行処理テーブル13cの構成図
であり、全体の整理番号を示すシーケンス番号欄13c-
1、起動処理欄(処理手順を示すコンパイルコマンド)1
3c-2、実行履歴欄13c-3、ファイルサイズ欄13c-4、実行
モード欄13c-5、プロセスID欄13c-6を有している。こ
のなかで実行モードはコンパイル処理、パイプライン処
理などの実行の種別を表しており、パイプライン処理の
モードであった場合には、パイプライン処理されること
を示す。又、履歴情報には単位時間当りの処理量(デー
タ処理の速度)や処理時間等が格納される。履歴情報は
すべてある1つのマシン(計算機)上での実行に換算し
た値となっているために、CPU速度が異なる場合には
速度情報によって変換されて利用される。蓄積される情
報としては処理テーブルの一覧と、履歴情報部分であ
り、実行履歴の中でもベストの値(その時の状態)、ワ
ーストの値、平均等について格納されている。
FIG. 12 is a block diagram of the execution processing table 13c, which is a sequence number column 13c-indicating an overall reference number.
1, start processing column (compile command showing the processing procedure) 1
3c-2, execution history column 13c-3, file size column 13c-4, execution mode column 13c-5, and process ID column 13c-6. Among them, the execution mode represents the type of execution such as compilation processing and pipeline processing. When the execution mode is pipeline processing, it indicates that pipeline processing is performed. Further, the history information stores a processing amount per unit time (speed of data processing), processing time, and the like. Since the history information is a value converted into execution on a certain one machine (computer), when the CPU speeds are different, the history information is converted and used according to the speed information. The accumulated information includes a list of processing tables and a history information portion, and stores the best value (state at that time), the worst value, the average, etc. in the execution history.

【0032】以下、実際のコンパイルの例に従って本発
明の分散処理方式を説明する。 ステップ1:まず、コンパイルの手順ファイル21及び
処理情報24を入力する。手順ファイル21は以下に示
す内容を有しており、又、処理情報24はコンパイルす
るソースファイルx.c,y.c,z.cのファイルサイズを有
し、ソースファイルx.cのファイルサイズは100K
B、ソースファイルy.cのファイルサイズは200K
B、ソースファイルz.cのファイルサイズは150KB
であるとする。
The distributed processing method of the present invention will be described below with reference to an actual compilation example. Step 1: First, the compilation procedure file 21 and the processing information 24 are input. The procedure file 21 has the following contents, and the processing information 24 has the file size of the source files xc, yc, zc to be compiled, and the file size of the source file xc is 100K.
B, the file size of the source file yc is 200K
B, the source file zc has a file size of 150 KB
Suppose

【0033】手順ファイル SRCS: x.c y.c z.c (1) OPT: -c (2) all: x.o y.o z.o (3) ld z.o x.o y.o -o a.out (4) x.o: cc $(OPT) x.c (5) y.o: cc $(OPT) y.c (6) z.o: cpp z.c |cc1 -0| as > z.o (7) Procedure file SRCS: xc yc zc (1) OPT: -c (2) all: xo yo zo (3) ld zo xo yo -o a.out (4) xo: cc $ (OPT) xc (5 ) yo: cc $ (OPT) yc (6) zo: cpp zc | cc1 -0 | as> zo (7)

【0034】手順ファイル21において、(1)はソース
ファイルの略称を示すもので、ソースファイルとして
x.c y.c z.c の3つのファイルがあることを指示する。
(2)はコンパイルのオプションを指定するもので、"-c"
により、アセンブラまでをおこない、.oファイル(中間
オブジェクトファイル)を作成した時点でコンパイル処
理を終了することを指示する。(3)はソースファイル x.
c y.c z.c から生成される中間オブジェクトファイル名
を指示するもので、それぞれの中間オブジェクトファイ
ルは x.o y.o z.o となる。(4)において"ld"はローダコ
マンドであり、"ld"以降に示すいくつかのオブジェクト
ファイルを使用して実行可能ファイルa.outの作成を指
示するものである。尚、"-o"は出力ファイル名を指定す
るものであり、また、"ld"の引数で指定したファイルは
その指定順序で結合される。(5)は中間オブジェクトx.o
を作成する手順を指示するもので、ソースファイルx.c
をコンパイルして中間オブジェクトx.oを作成すること
を示している。尚、"cc"はC言語コンパイルコマンドを
示し、$(OPT)は変数部であり、(2)で指定したオプショ
ン値"-c"で置き換えられる。(6)は中間オブジェクトy.o
を作成する手順を指示するもので、ソースファイルy.c
をコンパイルして中間オブジェクトy.oを作成すること
を示している。(7)は中間オブジェクトz.oを作成する手
順を指示するもので、ソースファイルz.cをプリプロセ
ッサ処理し、処理結果をパイプ(Pipe) "|"で接続され
た次のコンパイル本体cc1に渡し、コンパイル本体cc1は
コンパイル処理してアセンブラコードのファイルを作成
し、処理結果をパイプ "|" で接続された次のアセンブ
ラに渡し、アセンブラasはアセンブラコードのファイル
より中間オブジェクトファイルz.oを作成することを示
している。
In the procedure file 21, (1) indicates the abbreviation of the source file.
Indicates that there are three files, xc yc zc.
(2) specifies a compile option, "-c"
Tells that the assembler should be executed and the compile process should be terminated when the .o file (intermediate object file) is created. (3) is the source file x.
Specifies the name of the intermediate object file generated from c yc zc, and each intermediate object file is xo yo zo. In (4), "ld" is a loader command, which instructs the creation of the executable file a.out using some object files shown after "ld". Note that "-o" specifies the output file name, and the files specified by the "ld" argument are combined in the specified order. (5) is the intermediate object xo
The source file xc
To compile to create an intermediate object xo. Incidentally, "cc" indicates a C language compile command, $ (OPT) is a variable part, and is replaced by the option value "-c" specified in (2). (6) is the intermediate object yo
The source file yc
Compiles to create the intermediate object yo. (7) indicates the procedure for creating the intermediate object zo. It preprocesses the source file zc, passes the processing result to the next compilation body cc1 connected by the pipe "Pipe", and the compilation body cc1 Indicates that compile processing is performed to create an assembler code file, the processing result is passed to the next assembler connected by a pipe "|", and assembler as creates an intermediate object file zo from the assembler code file. .

【0035】ステップ2:手順ファイル21及び処理情
報24が入力されると、手順ファイル解析部13aはま
ず、該手順ファイルの内容を解析して以下に示すコンパ
イルコマンド cc -c x.c (8) cc -c y.c (9) cpp z.c |cc1 -0| as > z.o (10) ld z.o x.o y.o -o a.out (11) を生成する。ここでコンパイルコマンド(11)は(8),(9),
(10)の処理を終了後に実行するものである。
Step 2: When the procedure file 21 and the processing information 24 are input, the procedure file analysis section 13a first analyzes the contents of the procedure file and compiles the following compile command cc -c xc (8) cc- c yc (9) cpp zc | cc1 -0 | as> zo (10) ld zo xo yo -o a.out (11) is generated. Here, the compile command (11) is (8), (9),
It is executed after the processing of (10) is completed.

【0036】ファイルの依存性の記述より、(8),(9),(1
0)のコマンドは並列実行が可能であるので、この3つに
ついて、コマンド、ファイルサイズ、実行モードを実行
処理テーブル13cの起動処理欄13c-2、ファイルサイ
ズ欄13c-4、実行モード欄13c-5に記入する(図13参
照)。この場合、(10)はパイプにより接続されているか
ら、換言すればパイプライン処理されるものであるか
ら、パイプ"|"で区切られている各ステージのコマンド
を分離して起動処理欄13c-2等に記入する。ついで、
(8),(9),(10)の処理終了後に実行される(11)の処理につ
いて、コマンド、実行モードを起動処理欄13c-2、実行
モード欄13c-5に記入する。尚、ファイルサイズ欄13c-4
には、処理情報24により指定された各コマンド(8),
(9),(10)の処理対象ファイル x.c、 y.c、 z.c のサイ
ズが記入され、実行モード欄13c-5には"self"、"pipe(g
-n)"、"gang"のいずれかがが記入される。実行モード"s
elf"は独立して実行可能なことを意味し、実行モード"p
ipe"はパイプライン処理を意味し、gはグループ、nはパ
イプの実行順序を示し、グループgが同じ処理は同時に
実行される。実行モード"gang"は括弧内のシーケンス番
号の処理が終了してから実行することを意味している。
尚、「実行履歴」は後述するように履歴情報管理部13
bに問い合わせることにより得られる。この履歴情報が
なかった場合には、処理割り当てのスケジューリングは
ファイルサイズに基づいて行われる。又、P.IDは対応す
る処理が起動された時のプロセスIDを示す。
From the file dependency description, (8), (9), (1
Since the command (0) can be executed in parallel, the command, file size, and execution mode for these three are specified in the start processing column 13c-2, file size column 13c-4, and execution mode column 13c- of the execution processing table 13c. Fill in 5 (see Figure 13). In this case, since (10) is connected by a pipe, in other words, pipeline processing is performed, the command of each stage delimited by the pipe "|" is separated and the start processing column 13c- Fill in the 2nd class. Then,
Regarding the process of (11) executed after the processes of (8), (9), and (10) are completed, the command and the execution mode are entered in the startup process column 13c-2 and the execution mode column 13c-5. In addition, the file size column 13c-4
Contains each command (8) specified by the processing information 24,
The sizes of the files xc, yc, and zc to be processed in (9) and (10) are entered, and "self" and "pipe (g
-n) "or" gang "is entered. Run mode" s
elf "means that it can be run independently, run mode" p
"ipe" means pipeline processing, g is a group, n is the execution order of pipes, the same processing of group g is executed at the same time. Execution mode "gang" ends the processing of the sequence number in parentheses. It means to execute afterwards.
The “execution history” is the history information management unit 13 as described later.
Obtained by inquiring b. If this history information does not exist, scheduling of process allocation is performed based on the file size. P.ID indicates the process ID when the corresponding process is activated.

【0037】ステップ3:ついで、手順ファイル解析部
13aは履歴情報管理部13bに実行履歴情報を要求す
る。履歴情報管理部13bは要求された「処理」に応じた
実行履歴を処理手順実行履歴ファイル22から読み出
し、図14に示す実行履歴テーブルを作成して手順ファ
イル解析部13aに渡す。尚、シーケンス番号1、2、
6の処理については実行履歴はなく、シーケンス番号
3,4,6のパイプライン処理については、予め測定等
により処理能力の比(単位時間当りの処理量)が10
0,20,40として得られているものとする。処理時
間を実行履歴とする場合にはT:60(実行時間60
秒)のように実行履歴テーブルが作成される。手順ファ
イル解析部13aは入力された実行履歴テーブルを参照
して各実行履歴情報を実行処理テーブル13cの対応す
る実行履歴欄13c-3に埋め込む。これにより、図15に
示す実行処理テーブル13cが作成される。
Step 3: Next, the procedure file analysis unit 13a requests the history information management unit 13b for execution history information. The history information management unit 13b reads the execution history corresponding to the requested “processing” from the processing procedure execution history file 22, creates the execution history table shown in FIG. 14, and passes it to the procedure file analysis unit 13a. In addition, sequence numbers 1, 2,
There is no execution history for the processing of No. 6, and for the pipeline processing of sequence numbers 3, 4, and 6, the processing capacity ratio (processing amount per unit time) is 10 in advance by measurement or the like.
It shall be obtained as 0, 20, 40. When the processing time is used as the execution history, T: 60 (execution time 60
Second), an execution history table is created. The procedure file analysis unit 13a refers to the input execution history table and embeds each execution history information in the corresponding execution history column 13c-3 of the execution processing table 13c. As a result, the execution processing table 13c shown in FIG. 15 is created.

【0038】ステップ4:以上と並行して、ホスト情報
管理部13dは分散ホストテーブル13eの内容を周期
的に更新しており、現時刻において分散ホストテーブル
13eは図16に示す内容となっている。尚、分散ホス
トテーブル13eは、ホストNO.欄13e-1,ホストネー
ム欄13e-2、ユーザ欄13e-3、CPU利用率欄13e-4、CPU
負荷欄13e-5、CPU速度欄13e-6を有している。図16
では、ホスト4は30%のCPU利用率であり、他のホ
ストは0%のCPU利用率であるとしている。
Step 4: In parallel with the above, the host information management section 13d periodically updates the contents of the distributed host table 13e, and the distributed host table 13e has the contents shown in FIG. 16 at the current time. . It should be noted that the distributed host table 13e is stored in the host NO. Column 13e-1, host name column 13e-2, user column 13e-3, CPU utilization column 13e-4, CPU
It has a load column 13e-5 and a CPU speed column 13e-6. FIG.
Then, it is assumed that the host 4 has a CPU usage rate of 30% and the other hosts have a CPU usage rate of 0%.

【0039】ステップ5:実行処理テーブル13cが作
成されると、処理割り当て部13gは、実行処理テーブ
ル13c、分散ホストテーブル13eのデータを用いて
各処理をホストに割り当てる。尚、(10)のパイプライン
処理については、ステージ毎に処理を分散する。まず、
処理量としてファイルのサイズを利用し、各処理(シー
ケンス番号1〜6の処理)を処理量の大きな順にソーテ
ィングする(ステップ5a)。これにより、図17に示
すように各処理は並び変えられる。
Step 5: When the execution process table 13c is created, the process allocation unit 13g allocates each process to the host using the data of the execution process table 13c and the distributed host table 13e. Regarding the pipeline processing of (10), the processing is distributed for each stage. First,
The size of the file is used as the amount of processing, and each process (the process of sequence numbers 1 to 6) is sorted in descending order of the amount of processing (step 5a). As a result, the processes are rearranged as shown in FIG.

【0040】ついで、処理割り当て部13gは内蔵する
各ホストと積算処理量の対応テーブル(図18)を参照
して積算処理量が最も小さなホストを求め、最も大きな
処理量の処理(Seq 2)を割り当てる。尚、初期時、全て
のホストの積算処理量は0であるから、積算処理量に基
づいて割り当てをせず、最もCPU速度が早くてCPU
負荷の小さいホストに割り当てる。換言すれば、(b)式
の実効CPU速度を各ホスト毎に求め、最も実効CPU
速度が大きなホストに処理Seq 2を割り当てる。この場
合、ホスト1〜ホスト5の実効CPU速度は 「1」,
「1」,「1」,「1.4」,「2」となるからホスト
5に割り当てる(ステップ5b)。
Next, the process allocation unit 13g refers to the built-in host and the integrated processing amount correspondence table (FIG. 18), finds the host with the smallest integrated processing amount, and executes the process with the largest processing amount (Seq 2). assign. In the initial stage, since the integrated processing amount of all hosts is 0, allocation is not performed based on the integrated processing amount, and the CPU speed is the fastest and the CPU
Assign to a host with a light load. In other words, the effective CPU speed of equation (b) is calculated for each host, and the most effective CPU speed is calculated.
Assign processing Seq 2 to the host with higher speed. In this case, the effective CPU speed of host 1 to host 5 is "1",
Since it becomes "1", "1", "1.4", "2", it is assigned to the host 5 (step 5b).

【0041】しかる後、ホスト5の積算処理量を更新す
る。すなわち、ファイル200KBを実効CPU速度2
で除算した値100KBを現積算処理量(初期値は0)
に加算してホスト5の積算処理量として積算処理量テー
ブルに記入する(図18(b)、ステップ5c)。つい
で、割り当てが終了したか判断し(ステップ5d)、終
了してなければ次に大きな処理(Seq 4)を同様に所定の
ホストに割り当てる。すなわち、ホスト1〜4のうち、
実効CPU速度が最も大きなホスト4に処理(Seq 4)を
割り当て、その積算処理量を更新する(図18(c))。
以後、同様にSeq 5,Seq 3,Seq 1の各処理がそれぞれホ
スト2,ホスト1,ホスト3に割り当てられ、積算処理
量が更新されて図18(d)に示すようになる。
Thereafter, the integrated processing amount of the host 5 is updated. That is, the file 200 KB is converted into the effective CPU speed 2
The value 100 KB divided by is the current integrated processing amount (initial value is 0)
Is added to the sum and is entered in the integrated throughput table as the integrated throughput of the host 5 (FIG. 18B, step 5c). Then, it is judged whether the allocation is completed (step 5d), and if not completed, the next largest process (Seq 4) is similarly allocated to the predetermined host. That is, of the hosts 1-4
The processing (Seq 4) is assigned to the host 4 having the highest effective CPU speed, and the integrated processing amount is updated (FIG. 18 (c)).
Thereafter, similarly, the respective processes of Seq 5, Seq 3, and Seq 1 are assigned to the host 2, host 1, and host 3, respectively, and the integrated processing amount is updated, as shown in FIG. 18 (d).

【0042】最後にSeq 6の処理を積算処理量が最も小
さなホスト(2以上存在する場合には実効CPU速度の
大きなホスト)に割り当てる。この場合、ホスト1とホ
スト3とホスト5が積算処理量が最も小さいが、ホスト
5の実効CPU速度の方が早いため、Seq 6の処理をホ
スト5に割り当て、割り当て処理を終了する。 ステップ6:以上のステップ5により処理の割り当てが
終了すれば、図19に示すホストと処理の対応を示すホ
スト・実行処理マッピングテーブル13hを作成する。
Finally, the process of Seq 6 is assigned to the host with the smallest cumulative processing amount (the host with the high effective CPU speed when there are two or more). In this case, the accumulated processing amount of the host 1, the host 3, and the host 5 is the smallest, but since the effective CPU speed of the host 5 is faster, the process of Seq 6 is assigned to the host 5, and the assignment process is ended. Step 6: When the process allocation is completed by the above step 5, the host / execution process mapping table 13h showing the correspondence between the host and the process shown in FIG. 19 is created.

【0043】ステップ7:ホスト・実行処理マッピング
テーブル13hの作成が完了すれば、処理起動・実行監
視部13iは、Seq 1〜Seq 5の処理を対応するホストに
指示して並列的に実行させる。このうち、Seq 3,Seq 4,
Seq 5はパイプによって順に接続されて実行される。
又、処理起動・実行監視部13iはSeq 1〜Seq 5の全処
理が終了した後、ホスト5に処理Seq 6を指示して実行
させる。
Step 7: When the creation of the host / execution process mapping table 13h is completed, the process activation / execution monitoring unit 13i instructs the corresponding hosts to execute the processes of Seq 1 to Seq 5 in parallel. Of these, Seq 3, Seq 4,
Seq 5 is connected and executed by a pipe in order.
Further, the process activation / execution monitoring unit 13i instructs the host 5 to execute the process Seq 6 after the completion of all the processes Seq 1 to Seq 5.

【0044】ステップ8:処理起動・実行監視部13i
は実際の処理に要する時間(処理時間)を監視する。す
なわち、ホストに処理開始を指示した時刻からホストよ
り処理終了が通知される時刻までの経過時間を監視し、
該経過時間を処理時間とする。そして、該処理時間に実
効CPU速度を乗算して実効履歴を計算し、該実効履歴
を履歴情報管理部13bに通知する。例えば、Seq 1の
実行に10秒、Seq 2の実行に11秒、Seq 4の実行に9
秒かかったとすると、Seq 1を実行するホスト3の実効
CPU速度は1であるから10秒(T:10)をSeq 1
の処理の実効履歴とする。又、Seq 2を実行するホスト
5の実効CPU速度は2であるから22(=11×2)
秒をSeq 2の処理の実効履歴とする。更に、Seq 4を実行
するホスト4の実効CPU速度は1.4であるから1
2.6(=1.4×9)秒をSeq 4の処理の実効履歴と
する。また、Seq 3〜Seq 5はパイプライン処理であり、
処理速度Pは5:1:2の関係があるから、Seq 3の実
行履歴は2.52(=12.6/5)秒となり、Seq 5
の実行履歴は6.3秒となる。
Step 8: Process start / execution monitoring unit 13i
Monitors the time required for actual processing (processing time). That is, the elapsed time from the time when the host is instructed to start processing to the time when the host notifies the end of processing is monitored,
The elapsed time is defined as the processing time. Then, the processing time is multiplied by the effective CPU speed to calculate the effective history, and the effective history is notified to the history information management unit 13b. For example, 10 seconds to execute Seq 1, 11 seconds to execute Seq 2, and 9 seconds to execute Seq 4.
If it takes 2 seconds, the effective CPU speed of the host 3 that executes Seq 1 is 1, so 10 seconds (T: 10)
This is the effective history of the process. Also, since the effective CPU speed of the host 5 that executes Seq 2 is 2, it is 22 (= 11 × 2).
Let seconds be the effective history of Seq 2 processing. Furthermore, since the effective CPU speed of host 4 executing Seq 4 is 1.4, 1
The effective history of Seq 4 processing is 2.6 (= 1.4 × 9) seconds. Also, Seq 3 to Seq 5 are pipeline processing,
Since the processing speed P has a relationship of 5: 1: 2, the execution history of Seq 3 is 2.52 (= 12.6 / 5) seconds, and Seq 5
Execution history is 6.3 seconds.

【0045】ステップ9:履歴情報管理部13bが通知
された実行履歴を処理手順実行履歴ファイル22に登録
すれば、コンパイル分散処理は終了する。図20は新た
に作成された実行履歴テーブルである。以後ファイルサ
イズによらず、処理時間Tに基づいて処理を並べて順次
ホストに割り当てる。図21は以上のコンパイル分散処
理の全体の流れ図であり、各ブロックに付したステップ
番号は文中のステップ番号に対応している。以上のコン
パイルの分散処理に際しては、のアルゴリズムに従っ
て、処理割り当てを行ったが、適宜〜のアルゴリズ
ムを採用して分散処理することができる。
Step 9: If the notified execution history is registered in the processing procedure execution history file 22 by the history information management unit 13b, the compilation distribution processing ends. FIG. 20 shows a newly created execution history table. Thereafter, the processing is arranged based on the processing time T regardless of the file size, and is sequentially assigned to the host. FIG. 21 is a flow chart of the entire compilation distribution processing described above, and the step numbers given to the respective blocks correspond to the step numbers in the sentence. In the distributed processing of the above compilation, the processing allocation was performed according to the algorithm of, but the distributed processing can be performed by appropriately adopting the following algorithms.

【0046】(b) 状態収集制御ローカルリソースマネージャLM ・構成 図22は計算機の状態を監視し、状態データをドメイン
リソースマネージャDM(図3参照)へ送信するローカ
ルリソースマネージャLMの構成図である。41はホス
トの状態、すなわち資源(CPU、メモリ、ディスク)
の利用率を周期的にホストより獲得する資源情報獲得部
である。以後、ホスト状態としてはCPUの利用率ηに
着目して説明する。42は獲得した現在の利用率と過去
の利用率、例えば過去10回の平均値あるいは1つ前の
利用率を比較する負荷状態検出部である。43は状態履
歴管理部であり、負荷状態検出部42より入力される利
用率η、その他のデータを曜日、時刻に対応させて記憶
する資源状態蓄積バッファ43aと、各データの統計処
理を行う統計処理部43bと、統計データファイル44
の入出力を行うファイル入出力部43cを備えている。
(B) State Collection Control Local Resource Manager LM / Configuration FIG. 22 is a configuration diagram of the local resource manager LM that monitors the state of the computer and sends the state data to the domain resource manager DM (see FIG. 3). 41 is the state of the host, that is, resources (CPU, memory, disk)
It is a resource information acquisition unit that periodically acquires the utilization rate of the resource from the host. Hereinafter, the host state will be described focusing on the CPU utilization rate η. Reference numeral 42 is a load state detection unit that compares the acquired current utilization rate with the past utilization rate, for example, the average value of the past 10 times or the utilization rate of the previous one. A state history management unit 43 stores a resource state accumulation buffer 43a that stores the utilization rate η and other data input from the load state detection unit 42 in association with the day of the week and time, and statistics for performing statistical processing of each data. Processing unit 43b and statistical data file 44
The file input / output unit 43c for inputting / outputting

【0047】資源状態蓄積バッファ43aには図23
(a)に示すように、曜日43a-1、時刻43a-2に対応させ
て、利用率(η)43a-3、計算機がダウンする確率(P
d)43a-4、計算機の安定度(Sa)43a-5、残サービス時間
(Ts)43a-6、短期的及び長期的予測情報43a-7,43a-8、
データの有効時間(Te)43a-9等の状態データが記憶され
る。利用率以外の状態データは、後述する制御部45が
演算して記憶する。資源状態蓄積バッファ43aには
又、図23(b)に示すように、ホストのハードウェア情
報、すなわち、CPU速度、CPUの種類、搭載メモリ
量等も記憶される。統計処理部43bは資源状態蓄積バ
ッファの各欄におけるデータについて、平均値、総和、
サンプル数、標準偏差などの値を計算し、これら統計デ
ータと各状態データをまとめて統計データファイル44
としてディスク等に格納する。45は制御部であり、負
荷状態検出部42による比較結果等に基づいて計算機の
安定度Sa、データ有効時間Te、予測情報等の状態デー
タを演算すると共に、状態データの送信制御を行う。計
算機の安定度Saとデータの有効時間Teは例えば、以下
のように演算する。
FIG. 23 shows the resource status accumulation buffer 43a.
As shown in (a), the usage rate (η) 43a-3 and the probability of the computer going down (P
d) 43a-4, computer stability (Sa) 43a-5, remaining service time (Ts) 43a-6, short-term and long-term forecast information 43a-7, 43a-8,
State data such as the valid time (Te) 43a-9 of the data is stored. State data other than the utilization rate is calculated and stored by the control unit 45 described later. As shown in FIG. 23B, the resource status accumulation buffer 43a also stores host hardware information, that is, CPU speed, CPU type, installed memory amount, and the like. The statistical processing unit 43b uses the average value, the sum, and the data in each column of the resource status accumulation buffer.
Values such as the number of samples and standard deviation are calculated, and these statistical data and each state data are put together and statistical data file 44
As a disk. Reference numeral 45 denotes a control unit, which calculates the state data such as the stability Sa of the computer, the data valid time Te, and the prediction information based on the comparison result by the load state detection unit 42 and controls the transmission of the state data. The stability Sa of the computer and the effective time Te of the data are calculated as follows, for example.

【0048】安定度Saの初期値を50、データ有効時
間Teの初期値を2秒とする。又、安定度は0〜100
の値をとり、有効時間は2秒〜300秒の値を取るもの
とし、演算により、これらの範囲を越える値は最小値、
最大値に変更される。 もし、利用率の変動が1%以内の場合には、現在の安
定度に10加算し(Sa+10→Sa)、また現在の有効
時間に5を加算する(Te+5→Te)。 変動が1〜2%の場合には計算機の負荷は安定してい
るから、Sa+5→Sa、Te+2→Teにより増加する。 変動が2〜5%であれば、安定度、有効時間を変えな
い。 変動が5〜7%の場合には、計算機の負荷はやや不安
定であるから、安定度及び有効時間をSa−2→Sa、T
e−1→Teにより減少する。 変動が7〜10%の場合には、計算機の負荷は不安定
であるから、安定度及びデータ有効時間を初期値にす
る。 変動が10〜20%の場合には、Sa−20→Saと
し、また、有効時間を初期値にする。 変動が20%以上の場合には、0→Saとすると共
に、有効時間を初期値にし、状態データをドメインリソ
ースマネージャDMに送信するように指示する。 20%以上の変動が数回続いた場合には、状態データ
のドメインリソースマネージャDMへの送信を停止し、
データ送信を中断するメッセージをドメインリソースマ
ネージャDMに送るよう指示する。尚、利用率の変動値
が一定値以上か否かにより安定度や有効時間を変更する
こともできる。
The stability Sa has an initial value of 50, and the data valid time Te has an initial value of 2 seconds. Also, the stability is 0-100
, And the effective time takes a value of 2 to 300 seconds. By calculation, the value exceeding these ranges is the minimum value,
It is changed to the maximum value. If the variation of the utilization rate is within 1%, 10 is added to the current stability (Sa + 10 → Sa), and 5 is added to the current valid time (Te + 5 → Te). When the fluctuation is 1 to 2%, the load of the computer is stable, and therefore increases by Sa + 5 → Sa and Te + 2 → Te. If the fluctuation is 2 to 5%, the stability and the effective time are not changed. When the fluctuation is 5 to 7%, the load of the computer is a little unstable, so the stability and the effective time are changed from Sa-2 to Sa, T.
It decreases with e-1 → Te. When the fluctuation is 7 to 10%, the load on the computer is unstable, so the stability and the data valid time are set to the initial values. When the fluctuation is 10 to 20%, Sa-20 → Sa and the effective time is set to the initial value. When the fluctuation is 20% or more, 0 → Sa is set, the effective time is set to the initial value, and the state data is instructed to be transmitted to the domain resource manager DM. When the fluctuation of 20% or more continues for several times, the transmission of the state data to the domain resource manager DM is stopped,
Instruct the domain resource manager DM to send a message to suspend data transmission. The stability and the effective time can be changed depending on whether or not the variation value of the utilization rate is a certain value or more.

【0049】ホストのダウンする確率Pdは統計情報よ
り計算する。例えば、その時間にホストがダウンしてい
た回数を求め、測定した日数で除算することにより得ら
れる。残サービス時間Tsは現時刻からダウンする確率
Pdが10%以上になるまでの時間であり、過去の履歴
情報を用いて演算する。短期的あるいは長期的予測情報
は現時刻から短い時間帯(例えば5分以内)あるいは長
い時間帯(例えば30分以内)における利用率の予測値
であり、履歴情報より計算する。46は制御部45の指
示によりドメインリソースマネージャDMへ転送する状
態データ等を保持する送信情報バッファであり、送信す
べきデータは図24に示すように、ホスト名、利用率
η、ホストの安定度Sa、ホストがダウンする確率P
d、残サービス時間Ts、短期的及び長期的予測情報、
データの有効時間(実際には求めた有効時間に転送遅延
を吸収するために1秒を加えた時間)Te、状態ID、
ハードウェア情報である。この場合、利用率ηが計算機
の状態データであり、安定度、データの有効時間、ダウ
ンする確率、残サービス時間は状態データの信頼度を示
すデータである。
The probability Pd of the host going down is calculated from the statistical information. For example, it can be obtained by obtaining the number of times the host is down at that time and dividing by the measured number of days. The remaining service time Ts is the time until the probability Pd of going down from the current time to 10% or more, and is calculated using past history information. The short-term or long-term prediction information is a predicted value of the usage rate in a short time period (for example, within 5 minutes) or a long time period (for example, within 30 minutes) from the current time, and is calculated from the history information. Reference numeral 46 is a transmission information buffer that holds state data and the like to be transferred to the domain resource manager DM according to an instruction from the control unit 45. The data to be transmitted is, as shown in FIG. Sa, probability P of host going down
d, remaining service time Ts, short-term and long-term forecast information,
Data valid time (actually the calculated valid time plus 1 second to absorb the transfer delay) Te, state ID,
This is hardware information. In this case, the utilization rate η is the state data of the computer, and the stability, the valid time of the data, the probability of downtime, and the remaining service time are data indicating the reliability of the state data.

【0050】47はドメインリソースマネージャDMへ
送出するメッセージ(以後パケットともいう)を作成す
るメッセージ作成部、48はドメインリソースマネージ
ャDM、エージェントAGT、クライアントCLTとメ
ッセージの授受を行う通信制御部、49はメッセージ
(パケット)を処理するパケットドリブンユニット(Pa
cket Driven unit)である。パケットドリブンユニット
49は、通信制御部48を介してメッセージを受信する
と、図25に示すように、該メッセージを分析する(ス
テップ49a)。そして、メッセージがエージェントへ
の要求であればメッセージパケットを組み立ててエージ
ェントへ送出し(ステップ49b,49b′)、ドメイ
ンリソースマネージャDMへの要求であればメッセージ
パケットを組み立てて該DMへ送出し(ステップ49
c,49c′)、クライアントへの要求であればメッセ
ージパケットを組み立てて該クライアントへ送信する
(ステップ49d,49d′)。
Reference numeral 47 is a message creating section for creating a message (hereinafter also referred to as a packet) to be sent to the domain resource manager DM, 48 is a communication control section for exchanging messages with the domain resource manager DM, agent AGT, client CLT, and 49 is Packet-driven unit (Pa
cket Driven unit). Upon receiving the message via the communication control unit 48, the packet driven unit 49 analyzes the message as shown in FIG. 25 (step 49a). If the message is a request to the agent, a message packet is assembled and sent to the agent (steps 49b and 49b '), and if it is a request to the domain resource manager DM, a message packet is assembled and sent to the DM (step 49b, 49b'). 49
c, 49c '), if it is a request to the client, a message packet is assembled and transmitted to the client (steps 49d, 49d').

【0051】・制御部の処理フロー 図26は制御部45の処理フロー図である。制御部45
は負荷状態検出部42より利用率及び変動データを受信
すると(ステップ45a)、状態変化を調べる(ステッ
プ45b)。利用率の変動が小さい場合には、安定度S
a及びデータの有効時間Teを増大し(ステップ45
c)、利用率の変動が大きい場合には安定度Sa及びデ
ータの有効時間Teを減少する(ステップ45d)。
尚、有効時間Teの初期値は2秒であり、これが最初の
状態データ転送時刻T0となる。ついで、ホストがダウ
ンする確率や残サービス時間等を算出し(ステップ45
e)、状態データ転送時刻になったかチェックし(ステ
ップ45f)、なっていなければ、ホストがダウンする
確率は10%以上か調べ(ステップ45g)、10%以
下であれば初めに戻り、以降の処理を繰り返す。一方、
状態データ転送時刻になっていれば、あるいはホストが
ダウンしている確率が10%以上であれば、制御部45
はその時の状態データ(利用率)、安定度、有効時間T
e等をドメインリソースマネージャDMへ送信する(ス
テップ45h)。ついで、状態データ転送時刻T0をそ
の時の有効時間とし(Te→To、ステップ45i)、初
めに戻り以後の処理を繰り返す。
Process Flow of Control Unit FIG. 26 is a process flow diagram of the control unit 45. Control unit 45
When the utilization rate and the fluctuation data are received from the load state detection unit 42 (step 45a), the state change is checked (step 45b). When the fluctuation of the utilization rate is small, the stability S
a and the effective time Te of the data are increased (step 45
c) If the variation of the utilization rate is large, the stability Sa and the effective time Te of the data are decreased (step 45d).
The initial value of the effective time Te is 2 seconds, which is the first state data transfer time T 0 . Then, the probability of the host going down, the remaining service time, etc. are calculated (step 45).
e), it is checked whether the state data transfer time has come (step 45f), and if not, it is checked whether the probability of the host going down is 10% or more (step 45g), and if 10% or less, the process returns to the beginning and the following steps are performed. Repeat the process. on the other hand,
If the state data transfer time has come, or if the probability that the host is down is 10% or more, the control unit 45
Is the state data (utilization rate) at that time, stability, effective time T
Send e, etc. to the domain resource manager DM (step 45h). Then, the state data transfer time T 0 is set as the effective time at that time (Te → To, step 45i), and the process is returned to the beginning and the subsequent processes are repeated.

【0052】ステップ45bで状態変動が20%以上の
急変の場合には、該急変が数回連続したかチェックし
(ステップ45j)、連続していない場合には、0→S
aとすると共に、有効時間Teを初期値にし(ステップ
45k)、状態データ等をドメインリソースマネージャ
DMに送信すると共に、To=Teとして初めに戻り以降
の処理を繰り返す。状態変動が20%以上の急変が連続
した場合には、状態データのドメインリソースマネージ
ャDMへの送信を停止し、急変によりデータ送信を中断
する旨のメッセージをドメインリソースマネージャDM
に送る(ステップ45m)。この場合、データ送信を中
断する旨のメッセージは有効時間の初期値間隔で送り、
急変状態でなくなるとステップ45a以降の処理を再開
する。
If the state change is a sudden change of 20% or more in step 45b, it is checked whether the rapid change is continuous several times (step 45j), and if it is not continuous, 0 → S.
At the same time, the effective time Te is set to the initial value (step 45k), state data and the like are transmitted to the domain resource manager DM, and To = Te is set to the beginning and the subsequent processing is repeated. When the rapid change of 20% or more in a row occurs, the transmission of the state data to the domain resource manager DM is stopped, and a message to the effect that the data transmission is interrupted due to the sudden change is issued to the domain resource manager DM.
To (step 45m). In this case, the message to suspend the data transmission is sent at the initial value interval of the effective time,
When the sudden change state disappears, the processes after step 45a are restarted.

【0053】尚、特殊な状態が発生している場合には状
態データを送信しない。例えば、CPU利用率が設定
値、例えば80%以上になって他の計算機のために処理
を遠隔実行できない場合には状態データの送信を行わな
い。この場合、ドメインリソースマネージャDMは必要
に応じて直接計算機に状態を問い合わせる。又、計算機
が既にあるクライアントから依頼された処理を遠隔実行
中の場合にも、状態データの送信をせず、遠隔処理終了
後に状態データを送信する。更に、遠隔実行中に状態デ
ータを送信する場合には、全体の利用率より遠隔処理の
利用率を差し引いた値を真の利用率とする。このように
すれば、遠隔実行の処理が終了した際の正しい利用率の
予測が可能となる。以上により、状態が安定している計
算機については、単位時間あたりの送信データ数が減少
する。又、状態データを収集するドメインリソースマネ
ージャDMでは、状態データと共に送られてくるホスト
の安定度Sa、データの有効時間Te、予測情報を利用
することにより、頻繁にデータ送信する場合と同じ程度
の制度で計算機の状態を把握できる。
When a special state occurs, the state data is not transmitted. For example, if the CPU usage rate becomes a set value, for example 80% or more, and the processing cannot be executed remotely for another computer, the status data is not transmitted. In this case, the domain resource manager DM directly inquires the computer of the status as necessary. Further, even when the computer is already remotely executing the process requested by the client, the state data is not transmitted, and the state data is transmitted after the remote process is completed. Further, when the status data is transmitted during remote execution, the value obtained by subtracting the remote processing usage rate from the overall usage rate is taken as the true usage rate. By doing this, it is possible to correctly predict the utilization rate when the remote execution process is completed. As described above, the number of pieces of transmission data per unit time decreases for a computer whose state is stable. In addition, the domain resource manager DM that collects the state data uses the stability Sa of the host, the effective time Te of the data, and the prediction information that are sent together with the state data. The system allows you to grasp the status of the computer.

【0054】ドメインリソースマネージャDM ・構成 図27は各計算機の状態データを収集管理すると共に、
クライアントの計算機利用要求に対して利用可能計算機
を決定するドメインリソースマネージャDMの構成図で
ある。51は各計算機のローカルリソースマネージャL
Mから送られてくるホスト状態データを記憶するホスト
状態記憶部、52はホスト状態記憶部の内容を管理する
ホスト状態管理部、53はエージェントAGT(図3)
より送られてくるクライアントの資源利用状況を示す情
報を記憶する資源利用情報記憶部である。資源利用情報
は、クライアントホスト名、利用資源名、利用量、利用
時間等が含まれている。54は資源利用管理部、55は
クライアントからの計算機利用要求により、ホスト状態
及びクライアントの資源利用情報を考慮してクライアン
トが利用できる計算機を決定する資源割り当てスケジュ
ーラ、56は各計算機のローカルリソースマネージャL
Mとメッセージの授受を行う通信制御部、57はパケッ
トドリブンユニットである。受信メッセージとしては、
ローカルリソースマネージャLMからのホスト状態メッ
セージMS1(図24参照)、エージェントAGTから
の資源利用情報メッセージMS2、クライアントCLT
からの資源利用要求メッセージMS3がある。資源利用
要求メッセージMS3は図28(a)に示すように、宛
先、資源割り当て要求、資源の種類(例えばCPU)、
必要とする量(CPUの数)、ホスト名、及び接続ポー
ト名を含んでいる。
Domain Resource Manager DM / Configuration FIG. 27 collects and manages the status data of each computer,
It is a block diagram of the domain resource manager DM which determines an available computer with respect to the computer use request of a client. 51 is a local resource manager L of each computer
A host state storage unit that stores the host state data sent from M, 52 is a host state management unit that manages the contents of the host state storage unit, and 53 is an agent AGT (FIG. 3).
It is a resource use information storage unit that stores information sent from the client indicating the resource use status of the client. The resource usage information includes a client host name, a used resource name, a usage amount, a usage time, and the like. Reference numeral 54 is a resource use management unit, 55 is a resource allocation scheduler that determines a computer that can be used by a client in consideration of a host state and client resource use information in response to a computer use request from a client, and 56 is a local resource manager L of each computer.
A communication control unit 57 for exchanging messages with M is a packet driven unit. As a received message,
A host status message MS1 (see FIG. 24) from the local resource manager LM, a resource utilization information message MS2 from the agent AGT, and a client CLT.
From the resource use request message MS3. As shown in FIG. 28A, the resource use request message MS3 includes a destination, a resource allocation request, a resource type (for example, CPU),
It includes the required quantity (number of CPUs), host name, and connection port name.

【0055】・ドメインリソースマネージャDMの処理 図29はドメインリソースマネージャDMの全体の処理
フロー図である。パケットドリブンユニット57は通信
制御部56を介してローカルリソースマネージャLMか
らメッセージを受信すれば、該メッセージを分析する。
受信メッセージがホスト状態メッセージMS1ならば、
パケットドリブンユニット57は該メッセージをホスト
状態管理部52に渡し、ホスト状態管理部52はホスト
状態データをホスト状態記憶部51に記憶する(ステッ
プ50a)。又、受信メッセージがエージェントAGT
よりの資源利用情報メッセージMS2であれば、パケッ
トドリブンユニット57は該メッセージを資源利用管理
部54に渡し、資源利用管理部54はクライアント毎の
資源利用情報を資源利用情報記憶部53に登録する(ス
テップ50b)。更に、受信メッセージがクライアント
CLTからの計算機の資源利用要求メッセージMS3で
あれば、該メッセージを資源割り当てスケジューラ55
に渡す。資源割り当てスケジューラ55は資源利用要求
メッセージMS3及びホスト状態、クライアントの資源
利用情報を参照して利用可能な計算機を決定し、該計算
機のエージェントAGTに接続要求メッセージMS4を
送信する。接続要求メッセージMS4は図28(b)に示
すように、宛先、AGT接続要求、資源の種類、ホスト
名、ポート番号を含んでいる。
Process of Domain Resource Manager DM FIG. 29 is an overall process flow diagram of the domain resource manager DM. When the packet driven unit 57 receives a message from the local resource manager LM via the communication control unit 56, it analyzes the message.
If the received message is the host status message MS1,
The packet driven unit 57 passes the message to the host status management unit 52, and the host status management unit 52 stores the host status data in the host status storage unit 51 (step 50a). In addition, the received message is the agent AGT.
If the resource usage information message is MS2, the packet driven unit 57 passes the message to the resource usage management unit 54, and the resource usage management unit 54 registers the resource usage information for each client in the resource usage information storage unit 53 ( Step 50b). Further, if the received message is the computer resource use request message MS3 from the client CLT, the message is allocated to the resource allocation scheduler 55.
Pass to. The resource allocation scheduler 55 refers to the resource use request message MS3, the host status, and the resource use information of the client to determine an available computer, and sends a connection request message MS4 to the agent AGT of the computer. As shown in FIG. 28B, the connection request message MS4 includes a destination, an AGT connection request, a resource type, a host name, and a port number.

【0056】・ホスト状態管理部の処理 図30はホスト状態管理部52の処理フロー図であり、
1つのホスト状態に着目した例である。ホスト状態管理
部52はホスト状態メッセ−ジMS1をパケットドリブ
ンユニット57より受信すれば、ホスト名に対応させて
ホスト状態データ(図24参照)をホスト状態記憶部5
1に記憶する(ステップ52a、52b)。ついで、所
定時間毎にホスト状態データに含まれるデータの有効時
間Teを減少し(ステップ52c)、該有効時間Teが
0になったかチェックする(ステップ52d)。Te=
0になっていなければ、ステップ52aに戻り、ホスト
状態メッセ−ジを受信してなければ、有効時間を減少す
る。Te=0となる前に、新たなホスト状態メッセ−ジ
を受信すれば、旧ホスト状態データを、受信した新たな
ホスト状態データで更新して上記処理を繰り返す。計算
機が正常に動作していれば、Te=0となる前に、ロ−
カルリソ−スマネージャLMより新たなホスト状態デー
タが送られてくる。一方、有効時間Te=0になれば、
計算機はダウンしたものとして、新しいホスト状態デー
タが送られてくるまで該計算機を分散処理の対象から外
す。すなわち、クライアントから計算機の利用要求があ
っても該計算機を割り当てないようにする(ステップ5
2e)。
Processing of Host Status Management Unit FIG. 30 is a processing flow chart of the host status management unit 52.
This is an example focusing on one host state. When the host status management unit 52 receives the host status message MS1 from the packet driven unit 57, the host status storage unit 5 stores the host status data (see FIG. 24) in association with the host name.
1 (steps 52a and 52b). Then, the valid time Te of the data contained in the host status data is reduced every predetermined time (step 52c), and it is checked whether the valid time Te has become 0 (step 52d). Te =
If it is not 0, the process returns to step 52a, and if the host status message is not received, the effective time is reduced. If a new host status message is received before Te = 0, the old host status data is updated with the new host status data received and the above processing is repeated. If the computer is operating normally, before Te = 0, the
New host status data is sent from the resource manager LM. On the other hand, if the effective time Te = 0,
Assuming that the computer is down, the computer is excluded from the distributed processing targets until new host status data is sent. That is, even if a client requests to use a computer, the computer is not assigned (step 5).
2e).

【0057】・資源割り当てスケジューラの処理 図31は資源割り当てスケジューラ55の処理フロー図
である。資源割り当てスケジューラ55は計算機資源の
利用要求メッセ−ジMS3をパケットドリブンユニット
57より受信すれば、利用率の最も小さな計算機を求
め、利用可能計算機とする(ステップ55a,55b,
55d)。この場合、2以上の計算機が求まれば(ステ
ップ55c)、安定度、CPU速度、ホストがダウンす
る確率、将来の利用率の予測値、残サービス時間を考慮
して利用可能計算機を決定する(ステップ55e)。例
えば、これらを変数とする評価関数を用意し、関数値が
最大の計算機を利用可能計算機として決定する。尚、安
定度が大きく、CPU速度が早く、ダウンする確率が小
さく、将来の予測利用率が小さく、残サービス時間が長
いもの程、関数値が大きくなるように関数を決定する。
ついで、クライアントから要求された数の計算機が決定
されたかチェックし(ステップ55f)、決定されてい
なければステップ55bに戻り、同様の処理を行う。要
求された数の計算機が決定されれば、利用可能計算機の
エージェントに接続要求メッセージMS4を送信して、
計算機資源の割り当て処理を終了する。尚、複数のクラ
イアントから利用要求が同時に発生した場合には、クラ
イアント毎の資源利用情報に基づいて、計算機の割り当
てスケジュールを決定し、各クライアントに計算機資源
を割り当てる。
Process of Resource Allocation Scheduler FIG. 31 is a process flow chart of the resource allocation scheduler 55. When the resource allocation scheduler 55 receives the computer resource use request message MS3 from the packet driven unit 57, the resource allocation scheduler 55 finds the computer with the smallest utilization rate and sets it as the available computer (steps 55a, 55b,
55d). In this case, if two or more computers are obtained (step 55c), the available computer is determined in consideration of the stability, the CPU speed, the probability of the host going down, the predicted value of the future utilization rate, and the remaining service time ( Step 55e). For example, an evaluation function having these as variables is prepared, and the computer having the largest function value is determined as the available computer. The function is determined such that the larger the stability, the faster the CPU speed, the smaller the probability of down, the smaller the predicted utilization rate in the future, and the longer the remaining service time, the larger the function value.
Then, it is checked whether the number of computers requested by the client has been determined (step 55f). If not, the process returns to step 55b and the same processing is performed. Once the requested number of computers has been determined, send a connection request message MS4 to the agents of the available computers,
The computer resource allocation processing ends. When the usage requests are simultaneously issued from a plurality of clients, the computer allocation schedule is determined based on the resource usage information for each client, and the computer resources are allocated to each client.

【0058】(d) クライアントよりの資源利用要求メッ
セージの発生制御クライアントの構成 図32はクライアントの構成図であり、図11と同一部
分には同一符号を付している。13aは手順ファイル2
1の内容を解析して処理コマンドを生成すると共に、処
理情報24を参照して該処理コマンドなどの処理とファ
イルの関係及びファイルサイズを出力する手順ファイル
解析部、13cは各処理コマンドとその処理量に関する
データ等を蓄える処理テーブル、13eは利用可能計算
機より送信された資源利用トークンに含まれるホスト情
報(利用率、安定度、ハードウェア情報等)を記憶する
ホスト情報記憶部、13gは利用可能計算機に処理を割
り当てる処理割り当て部、13jは処理コマンドに基づ
いて資源利用要求メッセージ(図28(a)参照)を作成
して送出する資源要求部、13mは通信制御部であり、
エージェントとの間に確立したコネクションが切断した
ことを検出するコネクション切断検出機構13nを有し
ている。13pは資源利用情報記憶部であり、図33に
示すように、処理分散のために利用したホストの名前、
ポート番号、利用資源名、利用量、利用時間、利用量の
統計データ等をエージェントに対応させて記憶してい
る。13qはローカルリソースマネージャLMやエージ
ェントAGTから受信したメッセージを解析するパケッ
トドリブンユニットである。
(D) Generation control of resource utilization request message from client Configuration of client FIG. 32 is a configuration diagram of the client. The same parts as those in FIG. 11 are designated by the same reference numerals. 13a is a procedure file 2
The procedure file analysis unit 13c analyzes the contents of No. 1 to generate a processing command, and outputs the relationship between the processing such as the processing command and the file and the file size by referring to the processing information 24. A processing table for storing data related to the amount, 13e is a host information storage unit for storing host information (utilization rate, stability, hardware information, etc.) included in the resource use token transmitted from the available computer, and 13g is available A process allocation unit that allocates a process to a computer, 13j is a resource request unit that creates and sends a resource use request message (see FIG. 28 (a)) based on a process command, and 13m is a communication control unit.
It has a connection disconnection detection mechanism 13n that detects that the connection established with the agent has been disconnected. 13p is a resource use information storage unit, and as shown in FIG. 33, the name of the host used for processing distribution,
The port number, the used resource name, the used amount, the used time, the statistical data of the used amount, etc. are stored in association with the agent. 13q is a packet driven unit that analyzes a message received from the local resource manager LM or the agent AGT.

【0059】コネクション切断検出機構13nは以下の
手法によりコネクション切断を検出できる。すなわち、
該当するポートに書き込んだ時エラーになったことに
よりコネクション切断を検出する。または、コネクシ
ョン確立時に、KEEPALIVE (UNIX) のオプションを設定
し、コネクション切断時にOSから発生する割込みによ
りコネクション切断を検出する。または、計算機がダ
ウンする前に送られてくる切断する旨のメッセージを受
信してコネクション切断を検出する、等の手法によりコ
ネクションの切断を検出する。
The disconnection detecting mechanism 13n can detect the disconnection by the following method. That is,
The connection disconnection is detected because an error occurred when writing to the corresponding port. Alternatively, the KEEPALIVE (UNIX) option is set when the connection is established, and the disconnection is detected by the interrupt generated from the OS when the connection is disconnected. Alternatively, the disconnection of the connection is detected by a method of detecting the disconnection of the connection by receiving a message of disconnection sent before the computer goes down.

【0060】クライアントの動作 手順ファイル解析部13aは手順ファイル21の内容を
解析して処理コマンドを生成すると共に、処理情報24
を参照して該処理コマンドとファイルの関係及びファイ
ルのサイズを出力して処理テーブル13cに格納する。
資源要求部13jは処理テーブルに記憶された処理手順
に基づいて分散処理のために必要な資源量(計算機数)
を決定し、資源利用要求メッセージMS3を作成し、ロ
ーカルリソースマネージャLMを介してドメインリソー
スマネージャDMに送信する(図27参照)。ドメイン
リソースマネージャDMは前述のように利用可能計算機
を決定し、該利用可能計算機のエージェントに接続要求
メッセージMS4を送信する。接続要求メッセージを受
信した計算機のエージェントAGTは、後述するよう
に、クライアントCLTとの間でコネクションを確立
し、しかる後、計算機資源の排他的利用を許可する資
源利用トークンをクライアントCLTに送信する。この
資源利用トークンは図34に示すように、トークンI
D、資源の状態(CPU利用率)、利用可能な資源量、
資源の安定度、資源の利用制限時間、ハードウェア情報
(CPU速度)、トークンの有効時間等を含んでいる。
The operation procedure file analysis unit 13a of the client analyzes the contents of the procedure file 21 to generate a processing command, and at the same time, the processing information 24
The relationship between the processing command and the file and the size of the file are output by referring to the above, and are stored in the processing table 13c.
The resource requesting unit 13j determines the amount of resources (the number of computers) required for distributed processing based on the processing procedure stored in the processing table.
To generate a resource use request message MS3 and send it to the domain resource manager DM via the local resource manager LM (see FIG. 27). The domain resource manager DM determines the available computer as described above, and sends the connection request message MS4 to the agent of the available computer. The computer agent AGT that has received the connection request message establishes a connection with the client CLT as described later, and thereafter sends a resource use token that permits exclusive use of computer resources to the client CLT. This resource use token is token I as shown in FIG.
D, resource status (CPU usage rate), available resource amount,
It includes resource stability, resource usage time limit, hardware information (CPU speed), token valid time, and the like.

【0061】パケットドリブンユニット13qはエージ
ェントAGTより資源利用トークンを受信すれば、該ト
ークンに含まれるホスト情報をホスト情報記憶部13e
に格納すると共に、エージェントAGTに対応させて記
憶してある資源利用情報を更新する。又、パケットドリ
ブンユニット13qは処理割り当て部13gに処理割り
当て制御の実行を指示する。これにより、処理割り当て
部13gは、(a)欄で説明した分散制御により処理を利
用可能計算機に分散する。パケットドリブンユニット1
3qはエージェントAGTより、資源利用終了メッセー
ジを受信すれば、該エージェントAGTに対応するホス
ト情報をホスト情報記憶部13eより抹消する。又、パ
ケットドリブンユニット13qはコネクション切断検出
機構13nによりコネクション切断が検出されると、該
コネクション切断を計算機のダウンあるいは強制利用拒
否とみなして、コネクション切断したエージェントAG
Tに対応するホスト情報をホスト情報記憶部13eより
抹消する。以後、資源割り当て部13gは該計算機を除
いて処理の分散を行い、又、資源要求部13jは必要に
応じて資源の再獲得を行う。
When the packet driven unit 13q receives the resource use token from the agent AGT, the host information contained in the token is stored in the host information storage unit 13e.
And the resource utilization information stored in association with the agent AGT is updated. Further, the packet driven unit 13q instructs the process allocation unit 13g to execute the process allocation control. As a result, the processing allocation unit 13g distributes the processing to the available computers by the distributed control described in section (a). Packet driven unit 1
Upon receiving the resource use end message from the agent AGT, 3q deletes the host information corresponding to the agent AGT from the host information storage unit 13e. When the connection disconnection detection mechanism 13n detects the connection disconnection, the packet driven unit 13q regards the connection disconnection as computer down or forced use refusal, and disconnects the agent AG.
The host information corresponding to T is deleted from the host information storage unit 13e. After that, the resource allocation unit 13g distributes the processing excluding the computer, and the resource request unit 13j reacquires the resource as needed.

【0062】(e) 計算機の排他的割り当て制御 クライアントCLTがドメインリソースマネージャDM
により決定された利用可能計算機に実際に処理を依頼で
きるようにするために、各計算機のエージェントAGT
より利用許可を受ける必要がある。エージェントの構成 図35はエージェントAGTの構成図である。61は計
算機資源の状態(CPU利用率)、利用可能な資源量、
資源の安定度等を記憶する資源利用状態記憶部、62は
クライアント毎に資源利用状況を示すデータを記憶する
資源利用情報記憶部である。クライアント毎の資源利用
情報は図36に示すように、クライアントのホスト名、
接続ポート番号、ユーザ、利用資源名、利用量、利用時
間、利用量の統計データを含んでいる。63はローカル
リソースマネージャLMから送られてくる自計算機の資
源利用状態(ホスト状態)を記憶部61に登録する資源
利用状態管理部、64は複数のクライアントへの資源割
り当て制御、コネクション確立制御、資源利用トークン
(図34参照)の送出制御を実行する資源スケジュー
ラ、65は資源利用トークン記憶部、66は通信制御
部、67はトークンチェックやクライアントからの処理
コマンドの実行制御を行う資源利用制御部、68はパケ
ットドリブンユニット、69はクライアントCLTとの
間でコネクションの接続/切断を制御するコネクション
制御部である。
(E) Exclusive allocation control of computer CLT is the domain resource manager DM
In order to be able to actually request processing to the available computers determined by
It is necessary to obtain a permission to use more. Agent Configuration FIG. 35 is a configuration diagram of the agent AGT. 61 is the state of computer resources (CPU usage rate), the amount of available resources,
A resource utilization state storage unit for storing the stability of resources and the like, and a resource utilization information storage unit 62 for storing data indicating the resource utilization state for each client. As shown in FIG. 36, the resource usage information for each client is the host name of the client,
It includes connection port number, user, resource name, usage amount, usage time, statistical data of usage amount. Reference numeral 63 is a resource usage status management unit that registers the resource usage status (host status) of the local computer sent from the local resource manager LM in the storage unit 61, and 64 is resource allocation control to a plurality of clients, connection establishment control, resource A resource scheduler that executes transmission control of usage tokens (see FIG. 34), 65 is a resource usage token storage unit, 66 is a communication control unit, 67 is a resource usage control unit that performs token check and execution control of processing commands from the client, Reference numeral 68 is a packet driven unit, and 69 is a connection control unit for controlling connection / disconnection of the connection with the client CLT.

【0063】トークンによる利用許可制御 ドメインリソースマネージャDMは前述のようにクライ
アントCLTからの資源利用要求に対して利用可能計算
機を決定し、各利用可能計算機のエージェントAGTに
接続要求メッセージ(図28(b)参照)を送信する。各エ
ージェントAGTのパケットドリブンユニット68は該
メッセージを通信制御部66を介して受信すると資源ス
ケジューラ64とコネクション制御部69に送る。これ
により、コネクション制御部69はUNIXにおけるTCP
/IPプロトコルに従って、前記接続要求メッセージで
指定されたホスト名、ポート番号を用いてクライアント
との間にコネクションを設定する。ついで、資源スケジ
ューラ64は、資源利用状態(自計算機の状態)やクラ
イアントの資源利用状況を考慮して資源を割り当てるク
ライアントを決定し、資源利用トークンを作成して該ク
ライアントに送る。この時、資源スケジューラ64は、
資源利用トークンの内容をトークンIDに対応させて資
源利用トークン格納部65に記憶する。又、資源スケジ
ューラ64はクライアントの資源利用情報記憶部62の
内容を更新する。
The token-based permission control domain resource manager DM determines the available computers in response to the resource use request from the client CLT as described above, and sends the connection request message to the agent AGT of each available computer (see FIG. 28 (b). ) See) is sent. When the packet driven unit 68 of each agent AGT receives the message via the communication control unit 66, it sends it to the resource scheduler 64 and the connection control unit 69. As a result, the connection control unit 69 uses TCP in UNIX.
According to the / IP protocol, a connection is set up with the client using the host name and port number specified in the connection request message. Next, the resource scheduler 64 determines a client to which the resource is allocated in consideration of the resource utilization state (state of the own computer) and the resource utilization state of the client, creates a resource utilization token, and sends it to the client. At this time, the resource scheduler 64
The content of the resource use token is stored in the resource use token storage unit 65 in association with the token ID. Further, the resource scheduler 64 updates the contents of the resource utilization information storage unit 62 of the client.

【0064】資源スケジューラ64は、クライアントが
複数存在する場合には、クライアントの資源利用状況を
考慮して資源利用量、利用時間が少ないクライアントに
順番に資源を割り当て、あるいはラウンドロビンで順番
に資源を割り当て、あるいは交互に利用許可するように
資源利用トークンを送出する。このようにすることによ
り、複数のクライアントが同時に資源要求を行っても、
エージェントAGTは、一方のクライアントのみに資源
利用トークンを送出することにより、他方のクライアン
トを待たせておくことができる。クライアントCLTは
資源利用トークンを受信すれば、利用可能計算機に処理
を分散し、図37に示すようにトークンIDと処理コマ
ンド列を有する資源利用メッセージ(処理依頼メッセー
ジ)MS5をエージェントAGTに送る。パケットドリ
ブンユニット68は資源利用メッセージMS5を受信す
ると、該メッセージを資源利用制御部67に渡す。メッ
セージが入力されると資源利用制御部67は資源利用状
態記憶部61より現在の資源利用状態を読み出すと共
に、トークンIDをキーワードとして前記資源利用トー
クンの内容をトークン格納部65から読み出し、両者を
比較する。トークン送出時に比べて資源利用メッセージ
MS5の受信時において、資源状態が相当量変化してい
る場合には、資源スケジューラ64はクライアントCL
Tへ資源利用メッセージをキャンセルする旨の通知をす
ると共に、新たな資源利用トークンを送出する。あるい
は、資源スケジューラ64は処理遅延を通知するメッセ
ージをクライアントCLTへ送信し、計算機資源が空く
までその利用を遅らせる。
When there are a plurality of clients, the resource scheduler 64 considers the resource utilization status of the clients and allocates the resources to the clients in order of the resource utilization amount and the utilization time in a short order, or in the round-robin sequence. The resource use token is sent so that the allocation or the use is alternately permitted. By doing this, even if multiple clients make resource requests at the same time,
The agent AGT can make the other client wait by sending the resource use token to only one client. When the client CLT receives the resource use token, the process is distributed to the available computers and the resource use message (process request message) MS5 having the token ID and the process command string is sent to the agent AGT as shown in FIG. When the packet driven unit 68 receives the resource use message MS5, it transfers the message to the resource use control unit 67. When the message is input, the resource use control unit 67 reads the current resource use state from the resource use state storage unit 61, reads the content of the resource use token from the token storage unit 65 using the token ID as a keyword, and compares the two. To do. When the resource status changes considerably when the resource use message MS5 is received compared to when the token is sent, the resource scheduler 64 uses the client CL.
Notify T to cancel the resource use message and send a new resource use token. Alternatively, the resource scheduler 64 sends a message notifying the processing delay to the client CLT and delays its use until the computer resources become available.

【0065】一方、資源状態が変化してなければ、資源
利用制御部67は処理コマンド列を抽出して実行し、実
行結果をクライアントに送る。この場合、コネクション
制御部69はコマンド列の実行結果などを出力するため
にクライアントCLTとの接続を確立する。資源利用制
御部67は資源利用トークンに含まれるトークンの有効
時間内に資源利用メッセージMS5を受信したか監視し
ており、有効時間内に該メッセージを受信しない場合に
は、送出した資源利用トークンを無効にし、次のクライ
アントにトークンを送出するよう資源スケジューラ64
に指示する。又、資源利用制御部67はトークンで指定
した利用時間が経過した時、クライアントが所定時間計
算機を利用しなかった時、及びクライアントからトーク
ンの返却メッセージを受信した時、コネクションを切断
して資源スケジューラ64に次のクライアントへ資源利
用トークンを送出するよう指示する。
On the other hand, if the resource state has not changed, the resource use control unit 67 extracts and executes the processing command string and sends the execution result to the client. In this case, the connection control unit 69 establishes a connection with the client CLT in order to output the execution result of the command sequence and the like. The resource use control unit 67 monitors whether the resource use message MS5 is received within the valid time of the token included in the resource use token. If the resource use message MS5 is not received within the valid time, the transmitted resource use token is checked. Resource scheduler 64 to invalidate and send the token to the next client
Instruct. The resource use control unit 67 disconnects the resource scheduler when the usage time designated by the token has elapsed, when the client has not used the computer for a predetermined time, and when a token return message has been received from the client. 64 is instructed to send the resource use token to the next client.

【0066】その他の制御 パケットドリブンユニット68はドメインリソースマネ
ージャDMよりクライアントの資源利用状況の通知要求
があった場合には、資源スケジューラ64に通知し、資
源スケジューラ64はドメインリソースマネージャDM
へクライアントの資源利用状況メッセージを送信する。
又、パケットドリブンユニット68は自分のローカルリ
ソースユニットLMより資源利用状態メッセージを受信
すれば、資源利用状態管理部63に通知し、記憶部61
の内容を更新させる。
The other control packet driven unit 68 notifies the resource scheduler 64 when there is a request from the domain resource manager DM to notify the resource utilization status of the client, and the resource scheduler 64 notifies the domain resource manager DM.
Send a client resource usage status message to.
When the packet driven unit 68 receives a resource usage status message from its own local resource unit LM, it notifies the resource usage status management unit 63 and the storage unit 61.
Update the contents of.

【0067】変形例 以上では、ドメインリソースマネージャDMがクライア
ントCLTの要求に応じて利用可能な計算機を決定する
場合であるが、ドメインリソースマネージャDMにクラ
イアントの機能を持たせ、各計算機の状態データを収集
管理すると共に、各計算機に処理を分散して実行させる
ように構成することもできる。又、以上では計算機のC
PU利用率に着目して説明したが、メモリやディスク等
の分散利用にも適用できるものである。以上、本発明を
実施例により説明したが、本発明は請求の範囲に記載し
た本発明の主旨に従い種々の変形が可能であり、本発明
はこれらを排除するものではない。
Modified Example In the above, the case where the domain resource manager DM decides the available computer in response to the request from the client CLT, the domain resource manager DM is made to have the function of the client and the state data of each computer In addition to collecting and managing, it is also possible to configure each computer to execute the processing in a distributed manner. Also, the above is the computer C
Although the description has been made focusing on the PU utilization rate, it can be applied to the distributed use of the memory, the disk, and the like. Although the present invention has been described above with reference to the embodiments, the present invention can be variously modified according to the gist of the present invention described in the claims, and the present invention does not exclude these.

【0068】[0068]

【発明の効果】以上本発明によれば、少なくとも1つの
計算機に処理分散用のスケジューラを設け、分散すべき
処理の処理量が既知の場合、スケジューラは処理量の大
きいものから順に処理を積算処理量(初期値は0)が少
ない計算機に割り当てると共に、割り当てた処理の処理
量を積算処理量に加算することにより該計算機の積算処
理量を更新し、以後、順次同様の方法で処理を計算機に
割り当てるように構成したから、各計算機の処理量を均
一にでき、各計算機の処理の終了時間をほぼ同時刻にで
きる。すなわち、計算機システムの効率を向上でき、処
理結果を早く得ることができる。又、本発明によれば、
各処理を実際に実行することにより得られる処理量を履
歴情報として蓄積しておき、該履歴情報を参照して各処
理の処理量を得るように構成したから、正しい処理量を
求めることができ、各計算機の処理量の均一度を更に高
めることができ、計算機システムの効率を向上できる。
As described above, according to the present invention, a scheduler for processing distribution is provided in at least one computer, and when the processing amount of the processing to be distributed is known, the scheduler integrates the processing in descending order of the processing amount. The computer allocates a small amount (initial value is 0) to the computer and updates the integrated processing amount of the computer by adding the allocated processing amount to the integrated processing amount. Since the allocation is made, the processing amount of each computer can be made uniform, and the processing end time of each computer can be made almost the same time. That is, the efficiency of the computer system can be improved and the processing result can be obtained quickly. Further, according to the present invention,
Since the processing amount obtained by actually executing each process is stored as history information and the processing amount of each process is obtained by referring to the history information, the correct processing amount can be obtained. The uniformity of the throughput of each computer can be further increased, and the efficiency of the computer system can be improved.

【0069】更に、本発明によれば、処理量を単位時間
当りの処理量としたから、CPUの利用率を全体で均一
にでき、処理速度が異なる複数の処理を効率良く複数の
計算機で並列に実行できる。又、本発明によれば、処理
するファイルサイズや処理時間等で処理量を表現するよ
うにしたから、分散処理に際して所定の値を処理量とし
て選択使用できる。更に、本発明によれば、処理量を計
算機のCPU速度で除算した値を積算処理量に加算して
該積算処理量を更新し、この積算処理量に基づいて処理
の分散を行うように構成したから、各計算機の処理速度
の差を考慮した均一な分散処理ができ、ますますシステ
ムの効率を向上できる。又、この場合、計算機の負荷に
基づいてCPU速度を補正するように構成したから、更
に処理の均一度を高めることができる。又、本発明によ
れば、ネットワークに接続された複数の計算機に処理を
分散し、あるいは計算機資源の要求元であるクライアン
トに対して1以上の計算機を割り当てる場合、各計算機
は、資源利用率等の状態データに該状態データの信頼度
を示すデータを付加して、計算機資源の分散処理を行う
計算機(サーバ)に送信し、該サーバはこれらデータに
基づいて処理を計算機に分散し、あるいはクライアント
をして所定の計算機の利用を可能にするように構成した
から、信頼度を用いることにより少ない通信で、しかも
正確に各計算機資源の状態を管理でき、効率的な計算機
資源の割り当てが可能となる。
Further, according to the present invention, since the processing amount is set to the processing amount per unit time, the CPU utilization rate can be made uniform as a whole, and a plurality of processings having different processing speeds can be efficiently parallelized by a plurality of computers. Can be executed. Further, according to the present invention, since the processing amount is expressed by the file size to be processed, the processing time, etc., a predetermined value can be selected and used as the processing amount in the distributed processing. Further, according to the present invention, a value obtained by dividing the processing amount by the CPU speed of the computer is added to the integrated processing amount to update the integrated processing amount, and the processing is distributed based on the integrated processing amount. Therefore, evenly distributed processing can be performed in consideration of the difference in processing speed of each computer, and the efficiency of the system can be further improved. Further, in this case, since the CPU speed is configured to be corrected based on the load of the computer, the uniformity of processing can be further increased. Further, according to the present invention, when processing is distributed to a plurality of computers connected to a network, or when one or more computers are assigned to a client that is a request source of computer resources, each computer is assigned a resource utilization rate or the like. The data indicating the reliability of the state data is added to the state data of and the data is transmitted to the computer (server) that performs the distributed processing of computer resources, and the server distributes the processing to the computers based on these data, or the client. Since it is configured to enable the use of a predetermined computer by using reliability, it is possible to manage the state of each computer resource accurately by using reliability, and it is possible to allocate computer resources efficiently. Become.

【0070】更に、本発明によれば、各計算機は状態変
動の度合いが小さい場合には信頼度を増大し、状態変動
の度合いが大きい場合には前記信頼度を減少し、又、該
信頼度が大きい時状態データの送信間隔を長くし、信頼
度が小さい時状態データの送信間隔を短くするように構
成したから、少ない通信で、しかも、正確に各計算機資
源の状態を管理でき、効率的な計算機資源の割り当てが
可能となる。又、本発明によれば、計算機のハードウェ
ア情報を状態データに付加してサーバに送信し、サーバ
は各計算機の動作状態、信頼度、ハードウェア情報に基
づいて処理を計算機資源に分散し、あるいはクライアン
トに所定の計算機を割り当てるように構成したから、計
算機の能力に応じた分散処理が可能となり、システムの
効率を向上できる。
Further, according to the present invention, each computer increases the reliability when the degree of the state change is small, decreases the reliability when the degree of the state change is large, and reduces the reliability. Is configured so that the transmission interval of the state data is long when it is large, and the transmission interval of the state data is short when the reliability is small, it is possible to manage the state of each computer resource accurately with less communication, and it is efficient. It is possible to allocate various computer resources. Further, according to the present invention, the hardware information of the computer is added to the state data and transmitted to the server, and the server distributes the processing to the computer resources based on the operating state of each computer, the reliability, and the hardware information, Alternatively, since a predetermined computer is assigned to the client, distributed processing according to the capacity of the computer becomes possible, and the efficiency of the system can be improved.

【0071】更に、本発明によれば、排他的に計算機資
源を利用させるトークンを送出する資源利用許可機構
(エージェント)を計算機に設け、エージェントは計算
機資源の利用を希望する所定のクライアントとの間にコ
ネクションを設定し、しかる後、資源利用トークンを送
信して該クライアントに計算機資源の排他的割り当てを
行うように構成したから、複数の計算機資源を複数のク
ライアントに多重割り当てすることなく、順番に、効率
的に割り当てることができる。又、本発明によれば、エ
ージェントはクライアントより処理依頼メッセージを受
信した時の計算機資源の状態とトークン送出時の計算機
資源の状態を比較し、状態変化が発生している場合に
は、処理依頼メッセージを受け付けないように構成した
から、状態が変化する複数の計算機資源を複数のクライ
アントに効率的に割り当てることができる。更に、本発
明によれば、クライアントはコネクション切断を検出し
た時、コネクション切断した計算機資源を除いて分散処
理を行うように構成したから、計算機資源のダウンや計
算機資源による一方的な利用拒否に対応することができ
る。
Further, according to the present invention, the computer is provided with a resource use permission mechanism (agent) for exclusively transmitting a token for making the computer resource available, and the agent communicates with a predetermined client who desires to use the computer resource. The connection is set to the client, and after that, the resource utilization token is transmitted to exclusively allocate the computer resource to the client, so that the plurality of computer resources are sequentially allocated to the plurality of clients without being multi-allocated. , Can be efficiently allocated. Further, according to the present invention, the agent compares the state of the computer resource when the processing request message is received from the client with the state of the computer resource when the token is sent out, and if the state change occurs, requests the processing. Since the configuration is such that the message is not accepted, it is possible to efficiently allocate a plurality of computer resources whose states change to a plurality of clients. Further, according to the present invention, when the client detects disconnection, it is configured to perform the distributed processing excluding the disconnected computer resource, so that it is possible to cope with the computer resource being down or unilateral use refusal due to the computer resource. can do.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の原理説明図である。FIG. 1 is a diagram illustrating the first principle of the present invention.

【図2】本発明の第2の原理説明図である。FIG. 2 is a diagram illustrating a second principle of the present invention.

【図3】本発明の全体構成図である。FIG. 3 is an overall configuration diagram of the present invention.

【図4】計算機の状態収集説明図である。FIG. 4 is an explanatory diagram of state collection of a computer.

【図5】クライアントよりの計算機利用要求説明図であ
る。
FIG. 5 is an explanatory diagram of a computer use request from a client.

【図6】計算機資源利用許可説明図(その1)である。FIG. 6 is an explanatory diagram of a computer resource use permission (No. 1).

【図7】計算機資源利用許可説明図(その2)である。FIG. 7 is an explanatory diagram of a computer resource use permission (No. 2).

【図8】本発明の実施例構成図(分散処理)である。FIG. 8 is a block diagram of an embodiment of the present invention (distributed processing).

【図9】計算機システムの構成図である。FIG. 9 is a configuration diagram of a computer system.

【図10】コンパイル装置の構成図である。FIG. 10 is a configuration diagram of a compiling device.

【図11】スケジューラの構成図である。FIG. 11 is a configuration diagram of a scheduler.

【図12】実行処理テーブルの構成図である。FIG. 12 is a configuration diagram of an execution processing table.

【図13】コンパイル処理における処理実行テーブルの
第1の説明図である。
FIG. 13 is a first explanatory diagram of a process execution table in a compile process.

【図14】実行履歴テーブル説明図である。FIG. 14 is an explanatory diagram of an execution history table.

【図15】コンパイル処理における処理実行テーブルの
第2の説明図である。
FIG. 15 is a second explanatory diagram of a process execution table in the compile process.

【図16】分散ホストテーブルの説明図である。FIG. 16 is an explanatory diagram of a distributed host table.

【図17】ソーティング説明図である。FIG. 17 is an explanatory diagram of sorting.

【図18】積算処置量テーブル説明図である。FIG. 18 is an explanatory diagram of an integrated treatment amount table.

【図19】ホスト・実行処理マッピングテーブル説明図
である。
FIG. 19 is an explanatory diagram of a host / execution process mapping table.

【図20】処理実行後の実行履歴テーブル説明図であ
る。
FIG. 20 is an explanatory diagram of an execution history table after execution of processing.

【図21】コンパイルの分散処理の流れ図であるFIG. 21 is a flow chart of distributed processing of compilation.

【図22】ローカルリソースマネージャLMの構成図で
ある。
FIG. 22 is a configuration diagram of a local resource manager LM.

【図23】資源状態蓄積バッファの内容説明図である。FIG. 23 is an explanatory diagram of contents of a resource status accumulation buffer.

【図24】ドメインリソースマネージャDMへの送信デ
ータの説明図である。
FIG. 24 is an explanatory diagram of transmission data to the domain resource manager DM.

【図25】パケットドリブンユニットの動作説明図であ
る。
FIG. 25 is an operation explanatory diagram of the packet driven unit.

【図26】ローカルリソースマネージャLMの処理フロ
ー図である。
FIG. 26 is a processing flowchart of a local resource manager LM.

【図27】ドメインリソースマネージャDMの構成図で
ある。
FIG. 27 is a configuration diagram of a domain resource manager DM.

【図28】メッセージの説明図である。FIG. 28 is an explanatory diagram of a message.

【図29】ドメインリソースマネージャの全体の処理フ
ロー図である。
FIG. 29 is an overall processing flow diagram of a domain resource manager.

【図30】ホスト状態管理部の処理フロー図である。FIG. 30 is a processing flowchart of a host status management unit.

【図31】資源割り当てスケジューラの処理フロー図で
ある。
FIG. 31 is a process flow diagram of a resource allocation scheduler.

【図32】クライアントの構成図である。FIG. 32 is a configuration diagram of a client.

【図33】資源利用情報の説明図である。FIG. 33 is an explanatory diagram of resource usage information.

【図34】資源利用トークンの内容説明である。FIG. 34 is a description of the contents of a resource use token.

【図35】エージェントの構成図である。FIG. 35 is a configuration diagram of an agent.

【図36】クライアント毎の資源利用情報説明図であ
る。
FIG. 36 is an explanatory diagram of resource usage information for each client.

【図37】資源利用メッセージの説明図である。FIG. 37 is an explanatory diagram of a resource use message.

【符号の説明】[Explanation of symbols]

11・・実行処理群 13・・処理割り当て装置(スケジューラ) 30・・計算機(CPU)群 31〜36・・計算機 31a〜36a・・ローカルリソースマネージャ 31b,32b・・クライアント 32c・・ドメインリソースマネージャ 31d〜36d・・資源利用許可機構(エージェント) 11 ... Execution process group 13 ... Process allocation device (scheduler) 30 ... Computer (CPU) group 31-36 ... Computers 31a-36a ... Local resource manager 31b, 32b ... Client 32c ... Domain resource manager 31d ~ 36d ... Resource usage permission mechanism (agent)

Claims (27)

【特許請求の範囲】[Claims] 【請求項1】 ネットワークに接続された複数の計算機
に処理を分散する計算機資源分散方法において、 少なくとも1つの計算機に処理分散用のスケジューラを
設け、 分散すべき処理の処理量が既知の場合、スケジューラは
処理量の大きいものから順に積算処理量が少ない計算機
に割り当てると共に、 該積算処理量に割り当てた処理の処理量を加算すること
により計算機の積算処理量を更新し、 順次、各処理を計算機に割り当てることを特徴とする計
算機資源分散方法。
1. A computer resource distribution method for distributing processing to a plurality of computers connected to a network, wherein a scheduler for processing distribution is provided in at least one computer, and when the processing amount of the processing to be distributed is known, the scheduler Is assigned to a computer with a small cumulative processing amount in order from the largest processing amount, and the cumulative processing amount of the computer is updated by adding the processing amount of the processing assigned to the cumulative processing amount, and each processing is sequentially transferred to the computer. A computer resource distribution method characterized by allocating.
【請求項2】 処理を実際に実行することにより得られ
た処理量を履歴情報として蓄積しておき、該履歴情報を
用いて各処理の処理量を求めることを特徴とする請求項
1記載の計算機資源分散方法。
2. The process amount obtained by actually executing the process is accumulated as history information, and the process amount of each process is obtained using the history information. Computer resource distribution method.
【請求項3】 前記処理量は処理時間あるいは単位時間
当りの処理量あるいはファイル数あるいはファイルサイ
ズであることを特徴とする請求項1または請求項2記載
の計算機資源分散方法。
3. The computer resource distribution method according to claim 1, wherein the processing amount is a processing time, a processing amount per unit time, the number of files, or a file size.
【請求項4】 処理量を計算機のCPU速度で除算した
値を積算処理量に加算することにより積算処理量を更新
し、 該積算処理量に基づいて処理の分散を行うことを特徴と
する請求項1または請求項2記載の計算機資源分散方
法。
4. The integrated processing amount is updated by adding a value obtained by dividing the processed amount by the CPU speed of the computer to the integrated processing amount, and the processing is distributed based on the integrated processing amount. The computer resource distribution method according to claim 1 or 2.
【請求項5】 計算機の利用率に基づいて前記計算機の
CPU速度を補正することを特徴とする請求項6記載の
計算機資源分散方法。
5. The computer resource distribution method according to claim 6, wherein the CPU speed of the computer is corrected based on the utilization rate of the computer.
【請求項6】 積算処理量が同一であれば、CPU速度
が大きい計算機に処理を割り当てる請求項1記載の計算
機の資源分散方法。
6. The computer resource distribution method according to claim 1, wherein if the accumulated processing amounts are the same, the processing is assigned to the computer having a high CPU speed.
【請求項7】 ネットワークに接続された複数の計算機
に処理を分散し、あるいは計算機資源の要求元であるク
ライアントに対して1以上の計算機資源を割り当てる計
算機資源分散方法において、 各計算機は、計算機資源の状態を示す状態データに該状
態データの信頼度を示すデータを付加して、計算機資源
の分散処理を行う計算機(サーバ)に送信し、 該サーバはこれらデータに基づいて処理を計算機に分散
し、あるいはクライアントに所定の計算機を割り当てる
ことを特徴とする計算機資源分散方法。
7. A computer resource distribution method in which processing is distributed to a plurality of computers connected to a network, or one or more computer resources are allocated to a client who is a requester of the computer resources. The data indicating the degree of reliability of the state data is added to the state data indicating the state of and the data is transmitted to the computer (server) that performs the distributed processing of computer resources, and the server distributes the processing to the computers based on these data. Alternatively, a computer resource distribution method characterized by allocating a predetermined computer to a client.
【請求項8】 前記信頼度は、計算機資源の状態変動の
度合いを示す安定度あるいはデータの有効時間あるいは
計算機資源の残りサービス時間あるいは将来の状態変動
の予測情報である請求項7記載の計算機資源分散方法。
8. The computer resource according to claim 7, wherein the reliability is stability indicating the degree of state fluctuation of the computer resource, valid time of data, remaining service time of the computer resource, or prediction information of future state fluctuation. Dispersion method.
【請求項9】 各計算機は状態変動の度合いが小さい場
合には前記信頼度を増大し、状態変動の度合いが大きい
場合には前記信頼度を減少し、 また、該信頼度が大きい時状態データの送信間隔を長く
し、信頼度が小さい時状態データの送信間隔を短くする
ことを特徴とする請求項7記載の計算機資源分散方法。
9. Each computer increases the reliability when the degree of state change is small, decreases the reliability when the degree of state change is large, and when the degree of state change is large, state data 8. The computer resource distribution method according to claim 7, wherein the transmission interval of the state data is shortened, and the transmission interval of the state data when the reliability is low is shortened.
【請求項10】 サーバは状態データ受信時からの時間
経過に従って信頼度を減少させることを特徴とする請求
項9記載の計算機資源分散方法。
10. The computer resource distribution method according to claim 9, wherein the server decreases the reliability as time passes after the status data is received.
【請求項11】 資源利用率が設定値を越えた計算機あ
るいは分散処理を実行中の計算機は状態データをサーバ
に送信しないことを特徴とする請求項7記載の計算機資
源分散方法。
11. The computer resource distribution method according to claim 7, wherein a computer whose resource utilization rate exceeds a set value or a computer which is executing distributed processing does not transmit the status data to the server.
【請求項12】 各計算機は過去の状態データの履歴に
基づいて計算機がダウンするまでの残サービス時間ある
いは将来の状態変動を予測することを特徴とする請求項
9記載の計算機資源分散方法。
12. The computer resource distribution method according to claim 9, wherein each computer predicts a remaining service time until the computer goes down or a future state change based on a history of past state data.
【請求項13】 各計算機は全体の利用率から分散処理
に係わる利用率を差し引いた利用率を状態データとして
サーバに転送することを特徴とする請求項7記載の計算
機資源分散方法。
13. The computer resource distribution method according to claim 7, wherein each computer transfers the utilization rate obtained by subtracting the utilization rate related to the distributed processing from the overall utilization rate to the server as status data.
【請求項14】 計算機のハードウェア情報を状態デー
タに付加してサーバに送信し、 サーバは各計算機の状態、信頼度、ハードウェア情報に
基づいて処理を計算機資源に分散し、あるいはクライア
ントに所定の計算機資源を割り当てることを特徴とする
請求項7記載の計算機資源分散方法。
14. Hardware information of a computer is added to status data and transmitted to a server, and the server distributes processing to computer resources based on the status, reliability, and hardware information of each computer, or predetermined by a client. 8. The computer resource distribution method according to claim 7, wherein the computer resources are allocated.
【請求項15】 クライアントに割り当てられた計算機
は、該計算機の状態データをクライアントに送信し、 クライアントは該状態データを参照して処理を複数の計
算機に分散することを特徴とする請求項7記載の計算機
資源分散方法。
15. A computer assigned to a client transmits status data of the computer to the client, and the client refers to the status data and distributes processing to a plurality of computers. Computer resource distribution method.
【請求項16】 ネットワークに接続された複数の計算
機に処理を分散する計算機資源分散方法において、 排他的に計算機資源を利用させるトークンを送出する資
源利用許可部(エージェント)を計算機に設け、 エージェントは計算機資源の利用を希望する所定のクラ
イアントとの間にコネクションを設定し、 しかる後、クライアントに資源利用トークンを送信して
該クライアントに計算機資源の排他的利用を許可するこ
とを特徴とする計算機資源分散方法。
16. In a computer resource distribution method for distributing processing to a plurality of computers connected to a network, a resource use permission unit (agent) for transmitting a token for exclusively using computer resources is provided in the computer, and the agent is A computer resource characterized by setting a connection with a predetermined client who desires to use the computer resource, and then transmitting a resource use token to the client to permit the client to exclusively use the computer resource. Dispersion method.
【請求項17】 複数のクライアントが計算機資源の利
用を希望している時、エージェントは各クライアントと
の間にコネクションを設定すると共に、 所定の1つのクライアントに資源利用トークンを送出し
て該クライアントに計算機資源を排他的に利用させ、 該クライアントによる計算機資源の利用終了により次の
クライアントに資源利用トークンを送出して計算機資源
を排他的に利用させることを特徴とする請求項16記載
の計算機資源分散方法。
17. When a plurality of clients desire to use a computer resource, the agent sets up a connection with each client and sends a resource use token to one predetermined client to send to the client. 17. The computer resource distribution according to claim 16, wherein the computer resource is exclusively used, and when the use of the computer resource by the client is completed, a resource use token is sent to the next client to exclusively use the computer resource. Method.
【請求項18】 クライアントは複数のエージェントか
ら割り当てられた各計算機に処理を分散することを特徴
とする請求項16記載の計算機資源分散方法。
18. The computer resource distribution method according to claim 16, wherein the client distributes the processing to the computers allocated by the plurality of agents.
【請求項19】 前記資源利用トークンに、資源状態、
利用可能な資源量、資源の安定度、資源の利用制限時間
の少なくとも1つの項目を付加し、クライアントは付加
項目を考慮して複数の計算機に処理を分散することを特
徴とする請求項16記載の計算機資源分散方法。
19. The resource usage token includes a resource status,
17. The method according to claim 16, wherein at least one item of available resource amount, resource stability, and resource use time limit is added, and the client distributes the processing to a plurality of computers in consideration of the added item. Computer resource distribution method.
【請求項20】 エージェントは前記資源利用トークン
に含まれる資源状態を保持し、 クライアントより分散処理のための処理依頼メッセージ
を受信した時の計算機資源の状態と前記保持してあるト
ークン送出時の計算機資源の状態を比較し、 状態変化が発生している場合には、処理依頼メッセージ
を受け付けないことを特徴とする請求項18記載の計算
機資源分散方法。
20. The agent holds the resource status included in the resource use token, the status of the computer resource when the processing request message for distributed processing is received from the client, and the held computer when the token is sent out. 19. The computer resource distribution method according to claim 18, wherein the resource status is compared, and if the status change occurs, the processing request message is not accepted.
【請求項21】 エージェントは状態変化が発生してい
る場合には、クライアントに処理遅延を通知することを
特徴とする請求項20記載の計算機資源分散方法。
21. The computer resource distribution method according to claim 20, wherein the agent notifies the client of a processing delay when a state change has occurred.
【請求項22】 エージェントは状態変化が発生してい
る場合には、クライアントからの処理依頼メッセージを
キャンセルし、新たな資源利用トークンをクライアント
に送ることを特徴とする請求項20記載の計算機資源分
散方法。
22. The computer resource distribution according to claim 20, wherein the agent cancels the processing request message from the client and sends a new resource utilization token to the client when the status has changed. Method.
【請求項23】 クライアントはエージェントとのコネ
クションの切断を検出する機構を備え、 コネクション切断が検出された時、該エージェントに応
じた計算機資源を除いて処理の分散を行うことを特徴と
する請求項18記載の計算機資源分散方法。
23. The client is provided with a mechanism for detecting disconnection of a connection with an agent, and when the disconnection is detected, the processing is distributed excluding computer resources corresponding to the agent. 18. The computer resource distribution method described in 18.
【請求項24】 ネットワークに接続された複数の計算
機に処理を分散する計算機資源分散システムにおいて、 利用可能な複数の計算機に処理を分散するクライアント
と、 各計算機の状態を収集すると共に、クライアントからの
計算機利用要求があった時、各計算機の状態に基づいて
利用可能な計算機をクライアントに割り当てるサーバ
と、 各計算機に設けられ、計算機の状態を監視し、前記サー
バに状態データを送信するリソ−スマネージャと、 各計算機に設けられ、計算機資源を排他的に利用させる
トークンをクライアントに送信する資源利用許可部(エ
ージェント)を備え、 クライアントに割り当てられた計算機のエージェントは
トークンをクライアントに送り、しかる後、クライアン
トは各利用計算機に処理を分散する計算機資源分散処理
システム。
24. In a computer resource distribution system that distributes processing to a plurality of computers connected to a network, a client that distributes processing to a plurality of available computers, and the status of each computer are collected and A server that allocates available computers to clients based on the state of each computer when a computer use request is made, and a resource that is provided in each computer, monitors the state of the computer, and sends state data to the server. It is equipped with a manager and a resource use permission unit (agent) that is provided in each computer and sends a token that exclusively uses computer resources to the client. The computer agent assigned to the client sends the token to the client, and then , The client is a computer resource that distributes the processing to each computer Distributed processing system.
【請求項25】 リソースマネージャは状態データと共
にその信頼度を示すデータを送信し、サーバはこれらの
データに基づいて計算機をクライアントに割り当てる請
求項24記載の計算機資源分散処理システム。
25. The computer resource distributed processing system according to claim 24, wherein the resource manager transmits data indicating the reliability together with the state data, and the server allocates the computer to the client based on these data.
【請求項26】 クライアントは、分散すべき処理の処
理量が既知の場合、処理量の大きいものから順に積算処
理量が少ない計算機に割り当てると共に、該積算処理量
に割り当てた処理の処理量を加算することにより計算機
の積算処理量を更新し、順次、各処理を計算機に割り当
てることを特徴とする計算機資源分散システム。
26. When the processing amount of the processing to be distributed is known, the client allocates the processing amount from the largest processing amount to the computer having the smallest cumulative processing amount, and adds the processing amount of the processing allocated to the cumulative processing amount. A computer resource distribution system characterized in that the integrated processing amount of the computer is updated by doing so, and each processing is sequentially assigned to the computer.
【請求項27】 クライアントに割り当てられた計算機
のエージェントは、該計算機の状態データ及びハ−ドウ
ェア情報をクライアントに送信し、クライアントは該状
態データ及びハ−ドウェア情報を参照して処理を複数の
計算機に分散することを特徴とする請求項26記載の計
算機資源分散システム。
27. The agent of the computer assigned to the client sends the status data and the hardware information of the computer to the client, and the client refers to the status data and the hardware information to perform the processing on a plurality of computers. 27. The computer resource distribution system according to claim 26, wherein
JP5047790A 1992-03-19 1993-03-09 Computer resource distribution method and system Withdrawn JPH0612392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5047790A JPH0612392A (en) 1992-03-19 1993-03-09 Computer resource distribution method and system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6377192 1992-03-19
JP4-63771 1992-03-19
JP5047790A JPH0612392A (en) 1992-03-19 1993-03-09 Computer resource distribution method and system

Publications (1)

Publication Number Publication Date
JPH0612392A true JPH0612392A (en) 1994-01-21

Family

ID=26387958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5047790A Withdrawn JPH0612392A (en) 1992-03-19 1993-03-09 Computer resource distribution method and system

Country Status (1)

Country Link
JP (1) JPH0612392A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195007A (en) * 1998-01-07 1999-07-21 Sanyo Electric Co Ltd Distributed processing system/method
US5936642A (en) * 1996-03-29 1999-08-10 Shinko Electric Industries, Co., Ltd. Parallel graphic processing system using a network
US5987226A (en) * 1996-03-28 1999-11-16 Fuji Xerox Co., Ltd. Printing system and method
US6008822A (en) * 1996-03-19 1999-12-28 Shinko Electric Industries, Co., Ltd. Parallel graphic processing system using a network
JP2005241310A (en) * 2004-02-24 2005-09-08 Nagoya Electric Works Co Ltd Appearance inspection apparatus, appearance inspection method, and appearance inspection program
JP2006065460A (en) * 2004-08-25 2006-03-09 Seiko Epson Corp Allocation of load when image processing is executed in parallel
WO2007023726A1 (en) * 2005-08-22 2007-03-01 Ns Solutions Corporation Information processing system
JP2008146503A (en) * 2006-12-12 2008-06-26 Sony Computer Entertainment Inc Distributed processing method, operating system, and multiprocessor system
WO2010001736A1 (en) * 2008-07-04 2010-01-07 日本電気株式会社 Multiprocessor system, multithread processing method, and program
JP2012226468A (en) * 2011-04-18 2012-11-15 Fujitsu Ltd Analysis processor, analysis processing program and analysis processing method
JP2015231110A (en) * 2014-06-04 2015-12-21 日本電信電話株式会社 CPU allocation apparatus and method, and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6008822A (en) * 1996-03-19 1999-12-28 Shinko Electric Industries, Co., Ltd. Parallel graphic processing system using a network
US5987226A (en) * 1996-03-28 1999-11-16 Fuji Xerox Co., Ltd. Printing system and method
US5936642A (en) * 1996-03-29 1999-08-10 Shinko Electric Industries, Co., Ltd. Parallel graphic processing system using a network
JPH11195007A (en) * 1998-01-07 1999-07-21 Sanyo Electric Co Ltd Distributed processing system/method
JP2005241310A (en) * 2004-02-24 2005-09-08 Nagoya Electric Works Co Ltd Appearance inspection apparatus, appearance inspection method, and appearance inspection program
JP2006065460A (en) * 2004-08-25 2006-03-09 Seiko Epson Corp Allocation of load when image processing is executed in parallel
GB2443136B (en) * 2005-08-22 2011-04-13 Ns Solutions Corp Information processing system
GB2443136A (en) * 2005-08-22 2008-04-23 Ns Solutions Corp Information processing system
JPWO2007023726A1 (en) * 2005-08-22 2009-02-26 新日鉄ソリューションズ株式会社 Information processing system
JP2010287255A (en) * 2005-08-22 2010-12-24 Ns Solutions Corp Information processing apparatus and information processing system
WO2007023726A1 (en) * 2005-08-22 2007-03-01 Ns Solutions Corporation Information processing system
US8607236B2 (en) 2005-08-22 2013-12-10 Ns Solutions Corporation Information processing system
JP2008146503A (en) * 2006-12-12 2008-06-26 Sony Computer Entertainment Inc Distributed processing method, operating system, and multiprocessor system
WO2010001736A1 (en) * 2008-07-04 2010-01-07 日本電気株式会社 Multiprocessor system, multithread processing method, and program
US8615762B2 (en) 2008-07-04 2013-12-24 Nec Corporation Multiprocessor system, multiple threads processing method and program
JP5510322B2 (en) * 2008-07-04 2014-06-04 日本電気株式会社 Multiprocessor system, multithread processing method, and program
JP2012226468A (en) * 2011-04-18 2012-11-15 Fujitsu Ltd Analysis processor, analysis processing program and analysis processing method
JP2015231110A (en) * 2014-06-04 2015-12-21 日本電信電話株式会社 CPU allocation apparatus and method, and program

Similar Documents

Publication Publication Date Title
US5522070A (en) Computer resource distributing method and system for distributing a multiplicity of processes to a plurality of computers connected in a network
US5870604A (en) Job execution processor changing method and system, for load distribution among processors
US8219997B2 (en) Execution the job that is divided into job tasks based on the estimated completion time
US7734676B2 (en) Method for controlling the number of servers in a hierarchical resource environment
JP4028674B2 (en) Method and apparatus for controlling the number of servers in a multi-system cluster
US7415496B2 (en) Method for dividing computations
JP4294879B2 (en) Transaction processing system having service level control mechanism and program therefor
US6895472B2 (en) System and method for caching results
JP2006048680A (en) System and method for operating load balancers for multiple instance applications
US20220318071A1 (en) Load balancing method and related device
JPH0844576A (en) Dynamic workload balancing
JP2004062911A (en) System for managing allocation of computer resource
JP2001084195A (en) Network management system with event control means
KR20130115553A (en) Two-level resource management method and appratus for dynamic resource management
JPH0612392A (en) Computer resource distribution method and system
US20090013209A1 (en) Apparatus for connection management and the method therefor
US20070256078A1 (en) Resource reservation system, method and program product used in distributed cluster environments
JP2000029856A (en) Task allocating method, data processing system, client data processing node, and machine readable storage medium
KR20220000592A (en) Method and device of dynamic resource allocation for container-based applications for iot edge computing infrastructure
CN112882827B (en) Method, electronic device and computer program product for load balancing
JPH05216842A (en) Resources managing device
JPH0628323A (en) Process execution control method
KR100738004B1 (en) Hybrid Peer To Peer Network Intelligent Distributed Compiler System and Method thereof, and Computer Readable Recording Medium on which a Program therefor is recorded
US6912586B1 (en) Apparatus for journaling during software deployment and method therefor
JP7359222B2 (en) Communication management device and communication management method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000509