JPH08127476A - Method of detecting number of waiting passenger for elevator - Google Patents
Method of detecting number of waiting passenger for elevatorInfo
- Publication number
- JPH08127476A JPH08127476A JP7262765A JP26276595A JPH08127476A JP H08127476 A JPH08127476 A JP H08127476A JP 7262765 A JP7262765 A JP 7262765A JP 26276595 A JP26276595 A JP 26276595A JP H08127476 A JPH08127476 A JP H08127476A
- Authority
- JP
- Japan
- Prior art keywords
- head
- pixels
- difference
- image
- passengers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 132
- 230000008569 process Effects 0.000 claims abstract description 92
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000004364 calculation method Methods 0.000 claims description 26
- 238000012360 testing method Methods 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 12
- 230000000116 mitigating effect Effects 0.000 claims description 8
- 230000010354 integration Effects 0.000 claims description 2
- 238000012790 confirmation Methods 0.000 abstract 2
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 102000003712 Complement factor B Human genes 0.000 description 1
- 108090000056 Complement factor B Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B1/00—Control systems of elevators in general
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B1/00—Control systems of elevators in general
- B66B1/34—Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Indicating And Signalling Devices For Elevators (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、エレベータの管理
制御システムにおける待機乗客数の検出方法に係り、詳
しくは、映像処理システムを用いてエレベータに乗るた
め待機している乗客数を正確に検出し得るエレベータの
待機乗客数の検出方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting the number of waiting passengers in an elevator management control system, and more particularly, to a method for accurately detecting the number of waiting passengers to get on an elevator using an image processing system. The present invention relates to a method for detecting the number of waiting passengers of an elevator to be obtained.
【0002】[0002]
【従来の技術及び発明が解決しようとする課題】エレベ
ータの群管理制御システムに係るコンピューター関連技
術に関するハードウェア及びソフトウェア産業の急速な
発展により高度な群管理制御が可能になった。前記群管
理制御システムの核心は、使用者がエレベータを利用す
るために乗降口で呼びボタンを押す場合、併設されたエ
レベータのうちで最適の状態にあるエレベータをその呼
びに応ずるように割当することである。このような最適
なエレベータを割当るアルゴリズムを具現するためには
多数の要素が必要であるが、その中でも一番中心的な要
素は交通量を予測することである。言い換えれば、乗降
口から呼びの発生した該当層にエレベータが到着するま
での間に乗り降りする乗客数に対する予測の正確性が割
当アルゴリズムの信頼度を決定するといえる。2. Description of the Related Art The rapid development of the hardware and software industries related to computer-related technology related to elevator group management control systems has enabled advanced group management control. The core of the group management control system is that when a user presses a call button at an entrance / exit to use an elevator, an elevator that is in an optimal state among the attached elevators is assigned to respond to the call. It is. To implement such an algorithm for allocating an optimal elevator, a number of factors are required, and the most central factor among them is to predict the traffic volume. In other words, it can be said that the accuracy of the prediction for the number of passengers getting on and off from the entrance / exit until the elevator arrives at the relevant layer where the call is generated determines the reliability of the allocation algorithm.
【0003】前記交通量の予測のためには、建物の各層
でエレベータに乗るため乗降口に待機している乗客数を
検出する必要がある。該待機乗客数の検出方法は大別し
て次の二つに分類される。その一つは既存の採集した情
報に基づく通計的方法によるもので、別の一つは映像処
理技術を用いたビジョンシステムを利用したものであ
る。In order to predict the traffic volume, it is necessary to detect the number of passengers waiting at the entrance / exit for boarding the elevator at each floor of the building. The method of detecting the number of waiting passengers is roughly classified into the following two methods. One is based on the existing accounting method based on the collected information, and the other is based on a vision system using image processing technology.
【0004】図5は従来の技術に係る通計的方法を利用
した待機乗客数の検出装置を示すブロック図である。図
5において、検出装置は使用者がエレベータを利用する
ときに各層で乗り降りした乗客数を示すデータを発生す
るデータ発生部100と、データ発生部100から発生
されたデータの学習要否及び学習程度を決定するための
基準値を発生する学習基準値発生部101と、学習基準
値発生部101から発生された学習要否及び学習程度に
ついての基準値に従い、データ発生部100から発生さ
れた乗り降りした乗客の情報に変形を加えるデータ学習
部102と、データ学習部102で変形された乗り降り
した乗客数についてのデータを貯蔵する交通流データベ
ース部103と、任意の乗降口から呼びが発生すると交
通流データベース部103に貯蔵された情報を用い、該
当の乗降口の呼びに応答してエレベータが到着するまで
の各層のエレベータに乗り降りする乗客数の予測分布を
示す交通流を演算する交通流予測部104から構成され
ている。FIG. 5 is a block diagram showing an apparatus for detecting the number of waiting passengers using a conventional method. In FIG. 5, the detection device includes a data generation unit 100 that generates data indicating the number of passengers getting on and off at each layer when a user uses the elevator, learning necessity and learning degree of the data generated from the data generation unit 100. According to the learning reference value generation unit 101 that generates a reference value for determining, and the reference value for the learning necessity and the degree of learning that is generated from the learning reference value generation unit 101, the data generation unit 100 is used to get on and off. A data learning unit 102 that modifies passenger information, a traffic flow database unit 103 that stores data on the number of passengers who have been modified by the data learning unit 102, and a traffic flow database when a call occurs from an arbitrary entrance / exit Using the information stored in the section 103, the elevators of each layer until the elevator arrives in response to the call at the relevant entrance / exit And a traffic flow prediction unit 104 for calculating a traffic flow indicating the predictive distribution of the number of passengers getting on or off the motor.
【0005】このように構成した従来の通計的方法を利
用した待機乗客数の検出装置においては、先ず、使用者
がエレベータを利用すると、データ発生部100では建
物の各層で乗り降りした乗客数を示すデータを発生して
データ学習部102に出力する。データ学習部102は
学習基準値発生部101の学習基準値テーブルから提供
される基準値情報を読み取って学習要否及び学習程度を
決定し、その決定された学習要否及び学習程度に従い、
データ発生部100から発生された乗り降りした乗客数
についての情報に変形を加え、各層別に乗り降りした乗
客数を交通流データベース部103に出力する。このよ
うな交通流データを蓄えた状態で任意の乗降口から呼び
が発生すると、交通流予測部104は交通流データベー
ス部103に貯蔵された乗り降りした乗客数についての
情報を用い、該当乗降口の呼びに応答してエレベータが
到着するまでの各層でエレベータに乗り降りする乗客数
の分布を演算し交通流を予測する。In the conventional apparatus for detecting the number of passengers on standby using the total accounting method, first, when a user uses an elevator, the data generator 100 calculates the number of passengers who got on and off at each floor of the building. The generated data is output to the data learning unit 102. The data learning unit 102 reads the reference value information provided from the learning reference value table of the learning reference value generation unit 101 to determine the necessity of learning and the degree of learning, and according to the determined necessity of learning and the degree of learning,
Information about the number of passengers getting on and off generated from the data generating unit 100 is modified, and the number of passengers getting on and off for each layer is output to the traffic flow database unit 103. When a call is generated from an arbitrary entrance in a state where such traffic flow data is stored, the traffic flow prediction unit 104 uses the information on the number of getting on and off the passengers stored in the traffic flow database unit 103, and The distribution of the number of passengers getting on and off the elevator at each layer until the elevator arrives in response to the call is calculated to predict the traffic flow.
【0006】ところで、使用者がエレベータを利用する
ため乗降口に設置された押しボタンを押す場合、該当乗
降口の呼びに最適のエレベータを割当するためには、そ
の該当層にエレベータが到着するまでの間に各層で実際
に乗り降りする乗客数の分布を示す交通流を予め予測す
るべきである。しかしながら、前述した従来の通計適法
方を利用した待機乗客数の検出方法では、前記交通流の
予測は以前に収集した情報に基づいた通計的情報を用い
て行われるため、現実の即刻的な交通変化を反映するこ
とができない。また、予測されたデータの正確度が劣っ
て信頼性が低下するという問題があった。[0006] When a user presses a push button installed at a doorway to use an elevator, in order to allocate an optimal elevator to the call of the doorway, it is necessary to wait until the elevator arrives at the corresponding floor. The traffic flow indicating the distribution of the number of passengers who actually get on and off at each layer during the period should be predicted in advance. However, according to the conventional method for detecting the number of waiting passengers using the legal total accounting method described above, since the prediction of the traffic flow is performed using the total information based on the information collected previously, the actual instantaneous Traffic changes cannot be reflected. Further, there is a problem that the accuracy of the predicted data is inferior and the reliability is reduced.
【0007】そこで、実際の交通流の予測と正確度の向
上を図るのため、次に示すように映像処理によるビジョ
ンシステムを用いて待機乗客数を検出する方法が使用さ
れている。図6は従来のビジョンシステムを利用した待
機乗客数の検出方法を利用した検出装置の構成を示した
ブロック図である。図6において、検出装置は、各層の
乗降口に設置され待機中の乗客撮影する複数のカメラか
らなるカメラ群200と、カメラ群200が撮影した信
号を映像情報に変換し通信バス205に伝送するカメラ
制御部201と、カメラ制御部201から伝送された映
像情報を用い乗り降りする乗客数を演算するプログラム
が貯蔵されたプログラムROM202と、プログラムR
OM202のプログラムに従い前記映像情報を演算処理
し乗り降りした乗客数を求め、それら求められた乗り降
りした乗客数を示すデータを通信バス205に伝送する
中央処理装置203と、該中央処理装置203で求めた
乗客数を示すデータとカメラ群200の位置に関する情
報とを貯蔵するデータRAM204と、から構成されて
いる。Therefore, in order to improve the accuracy and the prediction of the actual traffic flow, a method of detecting the number of waiting passengers using a vision system based on image processing is used as shown below. FIG. 6 is a block diagram showing a configuration of a detection device using a conventional method of detecting the number of waiting passengers using a vision system. In FIG. 6, the detection device is provided at the entrance of each layer and includes a camera group 200 composed of a plurality of cameras for photographing a waiting passenger, and converts a signal captured by the camera group 200 into video information and transmits the video information to the communication bus 205. A camera control unit 201, a program ROM 202 storing a program for calculating the number of passengers getting on and off using the video information transmitted from the camera control unit 201, and a program R
According to the program of the OM 202, the video information is arithmetically processed to determine the number of passengers who got on and off, and the central processing unit 203 for transmitting data indicating the obtained number of passengers getting on and off to the communication bus 205, and the central processing unit 203 The data RAM 204 stores data indicating the number of passengers and information on the position of the camera group 200.
【0008】図7は、図6の中央処理装置203で行わ
れる待機乗客数の検出過程を示すフローチャートであ
る。図において、カメラ群200により撮影された映像
情報が通信バス205を介して中央処理装置に入力され
ると、データRAM204に貯蔵されたカメラ群200
の位置に関する情報、即ち、カメラの高さ及び距離等を
用いて前記映像情報を分析する入力映像の分析過程と、
それら分析された映像情報において明度が所定の臨界値
以上の画素を削除する臨界値の比較過程と、該臨界値の
比較過程で残った映像の各画素の明度差に基づく明るさ
に関する情報を、撮影された被写体間の距離に関する情
報に変換し、この距離情報を用いて映像の領域を分割又
は統合する分配モード試験(Partition Mo
de Test:PMT)分割過程と、該統合又は分割
された領域に撮影された被写体の形状が人間の頭の形状
にどのくらい近似であるかを計算する頭確信度演算過程
と、それら計算された頭確信度のうちで所定値以上の領
域をカウントする領域数の演算過程と、求められた領域
数を乗客数として決定する乗客数の検出過程と、からな
る。FIG. 7 is a flowchart showing a process of detecting the number of waiting passengers performed by the central processing unit 203 of FIG. In the figure, when video information captured by the camera group 200 is input to the central processing unit via the communication bus 205, the camera group 200 stored in the data RAM 204
Information on the position, i.e., an input image analysis process of analyzing the image information using the height and distance of the camera,
In the analyzed image information, a threshold value comparison process of deleting pixels whose brightness is equal to or greater than a predetermined threshold value, and information about brightness based on the brightness difference of each pixel of the image remaining in the threshold value comparison process, A distribution mode test (Partition Mo) that converts information about the distance between captured objects and divides or integrates the image area using this distance information
de Test: PMT) division process, head confidence calculation process for calculating how similar the shape of the subject photographed in the integrated or divided region is to the shape of a human head, and the calculated head The method includes a process of calculating the number of regions that counts a region having a certain value or more in the certainty factor, and a process of detecting the number of passengers that determines the obtained number of regions as the number of passengers.
【0009】このような過程からなる従来のビジョンシ
ステムを用いた待機乗客数の検出方法では、先ず、使用
者がエレベータを利用するため乗降口に設置された呼び
ボタンを押すと、各層の乗降口に設置されたカメラから
なるカメラ群200は各層の乗降口に待機している乗客
を撮影した信号をカメラ制御部201に出力する。カメ
ラ制御部201は各層のカメラにより撮影された信号を
映像信号に変換して通信バス205を介して中央処理装
置203に出力する。中央処理装置203は通信バス2
05を介して入力されたカメラ制御部201の映像信号
を図7のフローチャートに従い分析し、現在各層で待機
中である乗客数を検出する。In the method of detecting the number of waiting passengers using the conventional vision system having such a process, first, when the user presses a call button installed at the entrance to use the elevator, the entrance of each layer is entered. A camera group 200 composed of cameras installed in the respective sections outputs signals to the camera control section 201, which capture images of the passengers waiting at the entrances of the respective layers. The camera control unit 201 converts a signal captured by a camera of each layer into a video signal, and outputs the video signal to the central processing unit 203 via the communication bus 205. The central processing unit 203 is the communication bus 2
The video signal of the camera control unit 201 input via 05 is analyzed according to the flowchart of FIG. 7, and the number of passengers currently waiting in each layer is detected.
【0010】即ち、通信バス205を介して映像信号が
中央処理装置203に入力されると、中央処理装置20
3はデータRAM204に貯蔵された各カメラ位置に関
する情報、即ち、各層の乗降口に設置されたカメラの高
さ及び撮影距離等に関する情報を読み取り、これを基に
して前記映像信号を分析する。そして、該分析された映
像信号の各画素の明度を臨界値と比較し、明度が臨界値
以上の画素、即ち、乗客の頭の部分の以外が撮影された
画素を対象から削除する。このように臨界値以上の画素
が削除されると分配モード試験分割過程によって明度差
に基づく明るさに関する情報を撮影された被写体間の距
離に関する情報に変換し、変換された距離情報を用いて
領域を統合又は分割する。That is, when a video signal is input to the central processing unit 203 via the communication bus 205, the central processing unit 20
Reference numeral 3 reads information on the position of each camera stored in the data RAM 204, that is, information on the height and shooting distance of a camera installed at the entrance of each layer, and analyzes the video signal based on the information. Then, the brightness of each pixel of the analyzed video signal is compared with a critical value, and the pixels having the brightness equal to or higher than the critical value, that is, the pixels other than the passenger's head are photographed are deleted from the target. When the pixels having the threshold value or more are deleted, the information on the brightness based on the brightness difference is converted into the information on the distance between the photographed subjects by the distribution mode test division process, and the area is converted using the converted distance information. Is integrated or divided.
【0011】一層詳しく説明すると、先ず、前記距離情
報M(A,B)は、 M(A,B)=|I(A)−I(B)| により求める。ただし、I(A)は映像信号のA領域の
明度、I(B)は映像信号の前記A領域と隣接したB領
域の明度である。上式より求めた距離情報M(A,B)
の値が小さい、即ち、明度差が少ない場合は二つの領域
に撮影された被写体の距離が近いと判断して、二つの領
域(A,B)を統合し、また、距離情報M(A,B)の
値が大きい、即ち、明度差が大きい場合は二つの領域に
撮影された被写体の距離が遠いと判断して、二つの領域
(A,B)を分割する。このような過程を反覆して行う
と映像信号の明るさに関する情報を距離に関する情報に
変換されて映像が複数の領域に区別され、この区別され
た領域は次の頭確信度の演算過程へ移る。More specifically, first, the distance information M (A, B) is obtained by the following equation: M (A, B) = | I (A) -I (B) | Here, I (A) is the brightness of the area A of the video signal, and I (B) is the brightness of the area B adjacent to the area A of the video signal. Distance information M (A, B) obtained from the above equation
Is small, that is, when the difference in lightness is small, it is determined that the distance between the subjects photographed in the two areas is short, the two areas (A, B) are integrated, and the distance information M (A, When the value of B) is large, that is, when the brightness difference is large, it is determined that the distance between the subjects photographed in the two regions is long, and the two regions (A, B) are divided. When this process is repeated, the information about the brightness of the video signal is converted into information about the distance, and the video is divided into a plurality of regions. The distinguished region is shifted to the next head confidence calculation process. .
【0012】頭確信度の演算過程においては、髪の毛の
部分と肌(顔)の部分との明るさの差及び円い頭の形状
を用いて、前記求められた各領域に撮影された被写体が
頭の部分にどのくらい近似しているかの程度を示す頭確
信度を計算する。次いで、領域数の演算過程では、前記
頭確信度の演算過程で求めた各領域の頭確信度のうちで
所定値以上である領域だけカウントする。乗客数の検出
過程では前記領域数の演算過程でカウントした領域数を
乗客数として判定する。即ち、例えば、頭確信度の所定
値以上の領域が二つである場合は乗客数が2名であると
判定する。In the process of calculating the head certainty factor, the subject photographed in each of the obtained areas is determined using the difference in brightness between the hair part and the skin (face) part and the shape of the round head. A head certainty factor indicating how close the head is is calculated. Next, in the calculation process of the number of regions, only the region having a predetermined value or more among the head reliability of each region obtained in the calculation process of the head reliability is counted. In the process of detecting the number of passengers, the number of regions counted in the process of calculating the number of regions is determined as the number of passengers. That is, for example, when there are two regions where the head certainty is equal to or more than the predetermined value, it is determined that the number of passengers is two.
【0013】しかしながら、このような従来のビジョン
システムを用いた待機乗客数の検出装置においては、カ
メラが乗降口の中央上部に設置され乗降口を撮影するこ
とが望ましいのであるが、例えば、乗降口の高さが低い
ために乗降口の中央上部で待機乗客を撮影することが不
可能であり、このため、カメラは乗降口の左側或いは右
側の上部に設置され、乗降口に待機している乗客の側面
だけを撮影するような場合がある。このような場合には
待機乗客の頭の部分が重畳して撮影される可能性があ
り、この重畳が発生した場合には検出した乗客数に誤差
が発生し正確な乗客数を検出し得ないという問題点があ
った。However, in such a conventional apparatus for detecting the number of passengers on standby using a vision system, it is desirable that a camera be installed at the upper center of the entrance and take a picture of the entrance and exit. Due to the low height of the passenger, it is not possible to photograph the waiting passenger at the upper center of the entrance, and therefore, the camera is installed on the upper left or right side of the entrance and the passenger waiting at the entrance There are cases where only the side of the camera is shot. In such a case, there is a possibility that a part of the head of the waiting passenger is superimposed and photographed, and when this superimposition occurs, an error occurs in the detected number of passengers and the accurate number of passengers cannot be detected. There was a problem.
【0014】又、映像信号の明るさに関する情報だけに
基づいて乗客数を検出するため、明るさの基準値の変化
によって検出の正確性が左右され、誤差発生の確立が高
くなるという問題点があった。そこで、本発明は、所定
の乗降口でカメラにより撮影された入力映像と、予め前
記乗降口に乗客のいないとき撮影された参照映像との差
異である差異映像を求め、前記入力映像と差異映像とを
演算対象として待機乗客数を検出するエレベータの待機
乗客数の検出方法を提供することを目的とする。Further, since the number of passengers is detected based only on the information regarding the brightness of the video signal, the accuracy of the detection is affected by the change in the reference value of the brightness, and the probability of occurrence of errors increases. there were. Therefore, the present invention obtains a difference image which is a difference between an input image photographed by a camera at a predetermined entrance and a reference image photographed beforehand when there is no passenger at the entrance, and calculates the difference image between the input image and the difference image. It is an object of the present invention to provide a method for detecting the number of waiting passengers of an elevator, which detects the number of waiting passengers by using the above as a calculation target.
【0015】又、本発明は、入力映像中の頭確信度の高
い領域が占める画素数を計算し、該計算された画素数
と、カメラの位置及び人間の身体構造に基づく幾何学的
モデリングを用いて演算される前記領域に撮影され得る
被写体の頭の占める画素数とによって、待機乗客数を正
確に検出し得るエレベータの待機乗客数の検出方法を提
供することをその目的とする。Further, the present invention calculates the number of pixels occupied by an area having a high degree of head certainty in an input video, and performs geometric modeling based on the calculated number of pixels, the position of a camera, and a human body structure. It is an object of the present invention to provide a method for detecting the number of waiting passengers of an elevator, which can accurately detect the number of waiting passengers based on the number of pixels occupied by the head of a subject which can be photographed in the area calculated using the number of waiting passengers.
【0016】[0016]
【課題を解決するための手段】このため、請求項1に係
る発明では、映像処理システムを用いたエレベータの待
機乗客数の検出方法であって、所定の乗降口に設置した
カメラにより撮影された入力映像と、予め前記乗降口に
待機乗客のいないとき撮影された参照映像とに基づい
て、前記入力映像と前記参照映像との差異を示す差異映
像を求める映像比較過程と、前記入力映像及び前記差異
映像の明るさの差異に関する情報より、前記入力映像の
隣接する画素に撮影された被写体の距離に関する情報を
求め、該距離情報により入力映像の領域を分割及び統合
する分配モード試験分割過程と、該分配モード試験分配
過程で分割及び統合された領域について所定の身体の部
位に対する確信度を求め、該確信度に基づいて頭確信度
を演算する頭確信度の演算過程と、前記頭確信度が所定
値以上である領域をカウントし、該カウントされた領域
数を待機乗客数として判定する領域数の演算過程と、を
含んでなることを特徴とする。According to the first aspect of the present invention, there is provided a method for detecting the number of waiting passengers of an elevator using a video processing system, wherein the number of passengers is determined by a camera installed at a predetermined entrance. An input image, based on a reference image captured when there is no waiting passenger at the entrance / exit in advance, a video comparing step of obtaining a difference image indicating a difference between the input image and the reference image; and A distribution mode test division process of obtaining information on a distance of a subject photographed at an adjacent pixel of the input image from information on a difference in brightness of the difference image, and dividing and integrating an area of the input image with the distance information; A head confidence that calculates a certainty for a predetermined body part with respect to the area divided and integrated in the distribution mode test distribution process, and calculates a head certainty based on the certainty And operation process, the head confidence counts the area is a predetermined value or more, characterized in that the number is the count area comprising an arithmetic process number of areas determines the waiting passengers.
【0017】請求項2に係る発明では、請求項1に係る
発明において、前記映像比較過程は、所定の乗降口に待
機乗客のいるときに撮影した入力映像と、前記乗降口に
待機乗客のいないときに撮影した参照映像との同一位置
における明るさの差異を絶対値として求めることを特徴
とする。請求項3に係る発明では、請求項1又は2に係
る発明において、前記分配モード試験分割過程は、前記
入力映像の隣接する二つの画素の明るさの差異を絶対値
として求める第1段階と、前記隣接する二つの画素と同
一位置における前記差異映像の明るさの差異を絶対値と
して求める第2段階と、前記第1段階及び第2段階で求
めた値により前記距離情報を示す値を求める第3段階
と、該距離情報を示す値を所定値と比較する第4段階
と、該比較結果について、前記距離情報の示す値が前記
所定値より小さいとき前記隣接する二つの画素を同一の
領域に統合し、前記距離情報の示すが前記所定値より大
きいとき前記隣接する二つの画素を異なる領域に分割す
る第5段階と、からなることを特徴とする。According to a second aspect of the present invention, in the first aspect of the present invention, the image comparing step includes: an input image photographed when a standby passenger is present at a predetermined entrance; and no standby passenger at the entrance. It is characterized in that a difference in brightness at the same position as a reference image that is sometimes taken is obtained as an absolute value. In the invention according to claim 3, in the invention according to claim 1 or 2, the distribution mode test division step includes: a first step of calculating, as an absolute value, a difference in brightness between two adjacent pixels of the input image; A second step of obtaining, as an absolute value, a difference in brightness of the difference image at the same position as the two adjacent pixels, and a second step of obtaining a value indicating the distance information from the values obtained in the first and second steps. Three steps, a fourth step of comparing the value indicating the distance information with a predetermined value, and regarding the comparison result, when the value indicated by the distance information is smaller than the predetermined value, the two adjacent pixels are placed in the same area. And integrating the adjacent two pixels into different areas when the distance information indicates greater than the predetermined value.
【0018】請求項4に係る発明では、請求項3に係る
発明において、前記第3段階は、前記入力映像の前記隣
接する二つの画素をP1,P2とし、該画素の明るさを
I(P1),I(P2)で表し、前記入力映像の画素P
1,P2と同一位置にある前記差異映像の画素の明るさ
をDI(P1),DI(P2)で表し、前記入力映像の
画素間の明るさの差と前記差異映像の画素間の明るさの
差とを調節するための係数をαとして、前記距離情報を
示す値を次式、 α|I(P1)−I(P2)|+(1−α)|DI(P
1)−DI(P2)| により求めることを特徴とする。In the invention according to claim 4, in the invention according to claim 3, in the third step, the two adjacent pixels of the input image are P1 and P2, and the brightness of the pixel is I (P1 ), I (P2), and the pixel P of the input image
1, the brightness of the pixels of the difference image at the same position as P2 is represented by DI (P1), DI (P2), and the difference between the brightness of the pixels of the input image and the brightness of the pixels of the difference image The value indicating the distance information is represented by the following equation: α | I (P1) −I (P2) | + (1−α) | DI (P
1) -DI (P2) |
【0019】請求項5に係る発明では、請求項1〜4に
係る発明において、前記頭確信度の演算過程は、前記分
配モード試験分割過程で得られた分割及び統合した領域
について、髪の毛確信度を求める段階と、該髪の毛確信
度を持つ領域に隣接し該領域の下方に位置する領域につ
いて顔確信度を求める段階と、前記髪の毛確信度を持つ
領域と顔確信度を持つ領域とを頭確信度を持つ領域と
し、該頭確信度を持つ領域の頭確信度を前記髪の毛確信
度と前記顔確信度とを合算して求める段階と、前記頭確
信度を持つ領域を除外した領域について体確信度を求め
る段階と、からなることを特徴とする。[0019] In the invention according to claim 5 is the invention according to claims 1 to 4, the operation process of the head confidence in split and integration resulting in the distribution mode test division process area
For, the position and determining a hair confidence, below the region adjacent to the region with a hair confidence of該髪region Nitsu
And a step of obtaining a face certainty factor, and a region having the head certainty factor and a region having the hair certainty factor and a region having the face certainty factor, and the head certainty factor of the region having the head certainty factor is the hair certainty factor. It is characterized by comprising a step of summing up the face certainty factor and a step of obtaining a body certainty factor for a region excluding a region having the head certainty factor.
【0020】請求項6に係る発明では、請求項5に係る
発明において、前記頭確信度の演算過程で求めた頭確信
度の高い領域を頭とし、該領域の下方に位置する領域を
体と仮定して、前記頭確信度を増加させるファジー緩和
過程を含んでなることを特徴とする。請求項7に係る発
明では、映像処理システムを用いたエレベータの待機乗
客数の検出方法であって、所定の乗降口に設置したカメ
ラにより撮影された入力映像と、予め前記乗降口に待機
乗客のいないとき撮影された参照映像とに基づいて、前
記入力映像と前記参照映像との差異を示す差異映像を求
める映像比較過程と、前記入力映像及び前記差異映像の
明るさの差異に関する情報より、前記入力映像の隣接す
る画素に撮影された被写体の距離に関する情報を求め、
該距離情報により入力映像の領域を分割及び統合する分
配モード試験分割過程と、該分配モード試験分配過程で
分割及び統合された領域について所定の身体の部位に対
する確信度を求め、該確信度に基づいて頭確信度を演算
する頭確信度の演算過程と、前記カメラの位置及び人間
の身体構造に基づく幾何学的モデリングによって、前記
領域に撮影され得る被写体の頭の占める画素数と体の占
める画素数とを算出する幾何学的特徴の抽出課程と、該
幾何学的特徴の抽出過程で得られた前記体の占める画素
数に基づき、前記頭確信度の演算過程で得られた前記頭
確信度が所定値以下の領域を除去する体除去過程と、該
体除去過程で除去されずに残った前記領域に含まれる画
素数と、前記幾何学的特徴の抽出過程で算出した前記頭
の占める画素数とを比較して乗客数を検出する画素数の
演算過程と、を含んでなることを特徴とする。According to a sixth aspect of the present invention, in the invention according to the fifth aspect, an area having a high head certainty obtained in the head reliability calculation process is defined as a head, and an area located below the area is defined as a body. Assuming that the method includes a fuzzy mitigation process for increasing the head certainty factor. The invention according to claim 7 is a method for detecting the number of waiting passengers of an elevator using an image processing system, comprising: an input image photographed by a camera installed at a predetermined entrance and exit; Based on the reference video taken when not, based on the video comparison process of obtaining a difference video indicating the difference between the input video and the reference video, and information on the difference in brightness between the input video and the difference video, Find information about the distance of the subject photographed in the adjacent pixels of the input video,
Based on the certainty factor, a distribution mode test dividing process for dividing and integrating the region of the input image based on the distance information, and a certainty factor for a predetermined body part in the divided and integrated region in the distribution mode test distribution process are obtained. The number of pixels occupied by the head of the subject and the pixels occupied by the body that can be photographed in the area by the process of calculating the head certainty factor and the geometric modeling based on the position of the camera and the human body structure. And a geometrical feature extraction process for calculating the number of pixels, and the head certainty factor obtained in the head certainty factor calculation process based on the number of pixels occupied by the body obtained in the geometrical feature extraction process. Is a body removal process for removing a region equal to or less than a predetermined value, the number of pixels included in the region left unremoved in the body removal process, and the pixels occupied by the head calculated in the geometric feature extraction process Number and A calculation process of the number of pixels for detecting the number of passengers in comparison, characterized in that it comprises a.
【0021】請求項8に係る発明では、請求項7に係る
発明において、前記画素数の演算過程は、前記体除去過
程で除去されずに残った領域をiで表し、前記残った領
域数をNとし、前記残った領域の画素数をP'(i) とし、
前記幾何学的特徴の抽出過程で算出した頭の占める画素
数をP''(i)として、前記待機乗客数N''を数2に示す次
式、According to an eighth aspect of the present invention, in the invention according to the seventh aspect, in the step of calculating the number of pixels, the area remaining without being removed in the body removing step is represented by i, and the number of remaining areas is represented by i. N, the number of pixels in the remaining area is P ′ (i),
The number of pixels occupied by the head calculated in the process of extracting the geometric features is defined as P '' (i), and the number of standby passengers N '' is expressed by the following equation:
【0022】[0022]
【数2】 [Equation 2]
【0023】により求めることを特徴とする。請求項9
に係る発明では、映像処理システムを用いたエレベータ
の待機乗客数の検出方法であって、所定の乗降口に設置
したカメラにより撮影された入力映像と、予め前記乗降
口に待機乗客のいないとき撮影された参照映像とに基づ
いて、前記入力映像と前記参照映像との差異を示す差異
映像を求める映像比較過程と、前記入力映像及び前記差
異映像の明るさの差異に関する情報より、前記入力映像
の隣接する画素に撮影された被写体の距離に関する情報
を求め、該距離情報により入力映像の領域を分割及び統
合する分配モード試験分割過程と、前記カメラの位置及
び人間の身体構造に基づく幾何学的モデリングによっ
て、前記領域に撮影され得る被写体の頭の占める画素数
と体の占める画素数とを算出する幾何学的特徴の抽出課
程と、前記分配モード試験分配過程で分割及び統合され
た領域について所定の身体の部位に対する確信度を求
め、該確信度に基づいて頭確信度を演算する頭確信度の
演算過程と、該頭確信度が所定値以上である領域を計数
する領域数の演算過程と、前記幾何学的特徴の抽出過程
で得られた前記体の占める画素数に基づき、前記頭確信
度の演算過程で得られた前記頭確信度が所定値以下であ
る領域を除去する体除去過程と、該体除去過程で除去さ
れずに残った領域に含まれる画素数と、前記幾何学的特
徴の抽出過程で算出した頭の占める画素数とを比較する
画素数の演算過程と、該画素数演算過程で得れらた結果
と前記領域数演算過程で得られた結果とから、最終の乗
客数を抽出する乗客数の抽出過程と、を含んでなること
を特徴とする。It is characterized by the following. Claim 9
In the invention according to claim 1, there is provided a method for detecting the number of waiting passengers of an elevator using an image processing system, wherein an input image taken by a camera installed at a predetermined entrance and exit and an image taken when there are no waiting passengers at the entrance and exit in advance. The image comparison process for obtaining a difference image showing the difference between the input image and the reference image based on the reference image that has been input, and information on the difference in brightness between the input image and the difference image based on the information about the difference in brightness between the input image and the difference image. A distribution mode test division process of obtaining information about the distance of an object photographed in adjacent pixels, dividing and integrating an area of an input image based on the distance information, and geometric modeling based on the position of the camera and the human body structure. The geometric feature extraction process for calculating the number of pixels occupied by the head and the number of pixels occupied by the body of the subject that can be photographed in the area, and the distribution mode. Calculating a certainty factor for a predetermined body part with respect to the region divided and integrated in the test distribution process, and calculating a head certainty factor based on the certainty factor; The head confidence obtained in the head confidence calculation process is calculated based on the number of pixels occupied by the body obtained in the step of calculating the number of regions, and the number of pixels occupied by the body obtained in the step of extracting the geometric feature. A body removal process of removing an area that is equal to or less than a predetermined value, the number of pixels included in a region remaining without being removed in the body removal process, and the number of pixels occupied by the head calculated in the extraction process of the geometric feature. And a step of extracting the number of passengers for extracting the final number of passengers from the result obtained in the pixel number calculation step and the result obtained in the area number calculation step. It is characterized by comprising.
【0024】請求項10に係る発明では、請求項9に係
る発明において、前記乗客数の検出過程は、前記領域数
の演算過程で求めた結果をN’とし、前記画素数の演算
過程で求めた結果をN''とし、所定の加重値をβとし
て、前記最終の乗客数を、βN’+(1−β)N''によ
り求めることを特徴とする。In the invention according to claim 10, in the invention according to claim 9, in the process of detecting the number of passengers, the result obtained in the process of calculating the number of areas is N ′, and is obtained in the process of calculating the number of pixels. It is characterized in that the final number of passengers is obtained by βN ′ + (1−β) N ″, where N ″ is the result and β is a predetermined weight value.
【0025】[0025]
【発明の実施の形態】以下、添付された図面を参照して
本発明の実施の形態を詳述する。図1は、本発明の実施
形態に係る映像処理システムを用いたエレベータの待機
乗客数の検出方法を説明するための概略フローチャート
であり、図2は、図1のエレベータの待機乗客数の検出
方法を利用した検出装置の構成を示すブロック図であ
る。BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a schematic flowchart for explaining a method of detecting the number of waiting passengers of an elevator using the video processing system according to the embodiment of the present invention, and FIG. 2 is a method of detecting the number of waiting passengers of the elevator of FIG. FIG. 2 is a block diagram illustrating a configuration of a detection device that utilizes the above.
【0026】図2において、検出装置は、各層の乗降口
の所定位置に設置され待機乗客数を撮影する複数のカメ
ラが包含されたカメラ群300と、カメラ群300でそ
れぞれ撮影された信号を選択し出力するカメラ選択部3
01と、カメラ選択部301で選択された信号を映像信
号に変換して待機乗客数を検出し、それらの映像信号や
検出結果をケーブルテレビジョンモニター、結果表示
部、及び群管理制御システムに伝送する中央処理装置を
含むビジョンシステム302と、から構成される。In FIG. 2, the detection device selects a camera group 300 which is installed at a predetermined position at the entrance of each layer and includes a plurality of cameras for photographing the number of waiting passengers, and a signal photographed by the camera group 300. Output camera selection unit 3
01 and the signal selected by the camera selection unit 301 are converted into video signals to detect the number of waiting passengers, and the video signals and the detection results are transmitted to the cable television monitor, the result display unit, and the group management control system. And a vision system 302 including a central processing unit.
【0027】先ず、請求項1〜6に記載の発明に係る第
1の実施形態について説明する。図1において、第1の
実施形態の待機乗客数の検出方法は、各層の乗降口で待
機している乗客を撮影した入力映像を取り入れる入力映
像取り入れ過程S1と、該当の乗降口に待機乗客のいな
いときに予め撮影された参照映像を取り入れる参照映像
取り入れ過程S2と、前記入力映像と参照映像との差異
から差異映像を求める映像比較過程S3と、映像比較過
程S3で得られた差異映像及び入力映像を用い、入力映
像の明るさに関する情報から撮影された被写体の距離に
関する情報に変換し、入力映像の領域を前記距離情報に
より分割又は統合する分配モード試験分割過程S4と、
分配モード試験分割過程S4で求めた各領域に対して、
各領域の広さ、縦×横の比率、及び明暗差等に基づいて
体、顔、頭、及び髪の毛の身体部位の確信度を求め、頭
確信度を演算する頭確信度の演算過程S5と、頭確信度
の演算過程S5により得られた頭確信度を頭及び体の相
関関係を用いて増加させるファジー緩和過程S6と、フ
ァジー緩和過程S6で増加された頭確信度のうちで所定
値以上である領域の個数をカウントする領域数の演算過
程S7と、からなる。First, a first embodiment according to the first to sixth aspects of the present invention will be described. In FIG. 1, the method for detecting the number of waiting passengers according to the first embodiment includes an input image capturing step S1 for capturing an input image of a passenger waiting at an entrance / exit of each layer; A reference image taken in advance when there is no reference image, a reference image importing step S2, a video comparing step S3 for obtaining a difference image from a difference between the input image and the reference image, and a difference image and an input obtained in the video comparing step S3. A distribution mode test division step S4 of converting the information on the brightness of the input image into information on the distance of the photographed subject using the image, and dividing or integrating the area of the input image by the distance information;
For each region obtained in the distribution mode test division process S4,
A head confidence factor calculation process S5 for calculating the confidence factor of the body, face, head, and body parts of the hair based on the size of each region, the ratio of length × width, the difference in brightness and the like, and calculating the head confidence factor. A fuzzy relaxation process S6 for increasing the head confidence obtained by the head confidence calculation process S5 by using the correlation between the head and the body, and a head confidence increased by the fuzzy relaxation process S6. The number of regions is calculated by calculating the number of regions S7.
【0028】このような過程からなる第1の実施形態の
作用及び効果を説明する。先ず、使用者がエレベータを
利用するため乗降口でボタンを押すと、各層の乗降口に
設置された複数のカメラからなるカメラ群300は各層
の乗降口に待機している乗客を撮影した信号をカメラ選
択部301に出力する。カメラ選択部301は、カメラ
群300が待機乗客を実際に撮影した映像信号を選択
し、通信バスを介して中央処理装置を具備したビジョン
システム302に伝送する。ビジョンシステム302は
実際に撮影した待機乗客の入力映像を通信バスを介して
取り入れ、又、該当の乗降口に乗客のいないときに予め
撮影された参照映像をカメラ選択部301を介して取り
入れる。ここで、待機乗客数を撮影した入力映像と参照
映像とは同一場所で撮影された映像信号である。このよ
うに参照映像と入力映像とが得られると、ビジョンシス
テム302は図1の概略フローチャート及びその詳細を
示す図4のフローチャートに従う方法により待機乗客数
を検出する。The operation and effect of the first embodiment having such a process will be described. First, when the user presses a button at the entrance to use the elevator, a camera group 300 including a plurality of cameras installed at the entrance of each layer transmits a signal photographing a passenger waiting at the entrance of each layer. Output to the camera selection unit 301. The camera selection unit 301 selects a video signal obtained by the camera group 300 actually photographing a waiting passenger, and transmits the video signal to a vision system 302 including a central processing unit via a communication bus. The vision system 302 takes in, via a communication bus, an input image of a standby passenger actually taken, and takes in, via a camera selection unit 301, a reference image taken in advance when there is no passenger at the corresponding entrance. Here, the input video image of the number of waiting passengers and the reference video image are video signals captured at the same place. When the reference image and the input image are obtained in this manner, the vision system 302 detects the number of waiting passengers by a method according to the schematic flowchart of FIG. 1 and the flowchart of FIG.
【0029】以下、例を挙げて詳細に説明する。先ず、
ビジョンシステム302は映像の背景から人を区分する
ため、図3に示すように、入力映像と参照映像の差異映
像を同一位置の画素の明度差の絶対値として求める。こ
のように差異映像を求める際に明度差の絶対値を使用し
てその絶対値の大きさを基に背景から人を区分するた
め、入力映像の背景部分が以前より暗くなったか或いは
明るくなったかに関する情報は無視し得る。このこと
は、人が建物に比べ暗く撮影されることを考慮すると、
暗くなったか或いは明るくなったかの差異のみに基づい
て人を区分する場合には、入力映像の背景が参照映像の
背景と比較して暗くなったときに入力映像の背景部分を
誤って人と検出してしまうことがあるが、明度差の絶対
値の大きさを基に人を検出すれば誤ることがないためで
ある。従って、本発明では明度差の絶対値の大きさを区
別し、特にその絶対値が大きい、即ち、一層暗くなる差
異情報を中心に利用する。A detailed description will be given below with reference to examples. First,
As shown in FIG. 3, the vision system 302 determines a difference image between the input image and the reference image as an absolute value of a brightness difference between pixels at the same position, as shown in FIG. In this way, when the difference image is calculated, the absolute value of the brightness difference is used and the person is divided from the background based on the magnitude of the absolute value. Therefore, whether the background portion of the input image is darker or brighter than before. Information about can be ignored. This means that people are photographed darker than buildings,
In the case of classifying people based only on the difference between dark and bright, when the background of the input video becomes darker than the background of the reference video, the background portion of the input video is erroneously detected as a human. However, if a person is detected based on the magnitude of the absolute value of the brightness difference, there is no mistake. Therefore, in the present invention, the magnitude of the absolute value of the brightness difference is distinguished, and particularly, difference information having a large absolute value, that is, darker, is used mainly.
【0030】次いで、差異映像が求められると、分配モ
ード試験分割過程S4では入力映像と差異情報とを用
い、入力映像の領域を分割又は統合する。即ち、図3の
一例に示すような入力映像の隣接する二つの画素P1,
P2の明るさの差異A’を絶対値として求める。即ち、
入力映像で隣接した二つの画素P1,P2の明るさの差
異A’を|I(P1)−I(P2)|により求める。た
だし、I(P1)は入力映像での画素P1の明るさで、
I(P2)は画素P2の明るさである。Next, when the difference image is obtained, in the distribution mode test division step S4, the input image region is divided or integrated using the input image and the difference information. That is, two adjacent pixels P1 of the input image as shown in the example of FIG.
The brightness difference A'of P2 is obtained as an absolute value. That is,
The difference A ′ in brightness between two pixels P1 and P2 adjacent to each other in the input image is obtained by | I (P1) −I (P2) |. Where I (P1) is the brightness of pixel P1 in the input video,
I (P2) is the brightness of the pixel P2.
【0031】このように、入力映像の画素の明るさの差
異A’が求められると、上記差異映像における隣接する
二つの画素の明るさの差異B’を絶対値として求める。
即ち、差異映像として求めた、入力映像の画素P1及び
参照映像の画素P1間の明るさの差DI(P1)と、入
力映像の画素P2及び参照映像間の画素P2間の明るさ
の差異DI(P2)との差異B’を絶対値として求め
る。言い換えれば、同一場所の画素における入力映像と
参照映像の明度差において、隣接する画素の明度差DI
(P1),DI(P2)の差異B’を|DI(P1)−
DI(P2)|により求める。In this way, when the brightness difference A ′ between the pixels of the input image is obtained, the brightness difference B ′ between two adjacent pixels in the difference image is obtained as an absolute value.
That is, the brightness difference DI (P1) between the pixel P1 of the input image and the pixel P1 of the reference image, and the brightness difference DI between the pixel P2 of the input image and the pixel P2 between the reference images, which are obtained as the difference images. The difference B ′ from (P2) is obtained as an absolute value. In other words, in the brightness difference between the input image and the reference image at the pixel at the same location, the brightness difference DI
(P1), the difference B 'between DI (P2) and | DI (P1)-
DI (P2) |
【0032】このように入力映像における画素間の明る
さの差異A’と、差異映像における画素間の明るさの差
異B’とが求められると、これらを利用して二つの画素
に撮影された被写体間の距離に関する情報を示す値M
(P1,P2)を求める。ここで、距離情報M(P1,
P2)は、 M(P1,P2)=α|I(P1)−I(P2)|+
(1−α)|DI(P1)−DI(P2)| により求める。ただし、αは入力映像における画素間の
明るさの差異、及び差異映像における画素間の明るさの
差異の重要度を調節するための係数である。When the brightness difference A 'between the pixels in the input image and the brightness difference B' between the pixels in the difference image are obtained, the two pixels are photographed by using these. Value M indicating information on distance between subjects
(P1, P2) is obtained. Here, the distance information M (P1,
P2) is given by M (P1, P2) = α | I (P1) −I (P2) | +
(1−α) | DI (P1) −DI (P2) | Here, α is a coefficient for adjusting the difference in brightness between pixels in the input image and the importance of the difference in brightness between pixels in the difference image.
【0033】このようにして、距離情報M(P1,P
2)が求められると、その距離情報は所定の距離情報と
比較され、二つの画素領域が分割又は統合される。即
ち、M(P1,P2)の値が所定の距離情報より大き
い、つまり、入力映像の二つの画素P1,P2間の明度
差が大きいと、二つの画素P1,P2に撮影された被写
体の距離は遠いと判断され、それぞれ別の領域と認識さ
れて分割される。反対にM(P1,P2)の値が所定の
距離情報より小さい、つまり、二つの画素P1,P2間
の明度差が少ないと、二つの画素P1,P2に撮影され
た被写体の距離は近いと判断され、同一の領域と認識さ
れて統合される。このような過程が入力映像の全ての画
素に適用され、結果的に図3の下段に示す第1〜第6領
域A1〜A6を得て、次の頭確信度演算過程S5へ移
る。As described above, the distance information M (P1, P
When 2) is obtained, the distance information is compared with predetermined distance information, and the two pixel regions are divided or integrated. That is, when the value of M (P1, P2) is larger than the predetermined distance information, that is, when the difference in brightness between the two pixels P1 and P2 of the input image is large, the distance between the objects captured by the two pixels P1 and P2 is large. Are judged to be distant, and they are recognized as different areas and divided. On the contrary, if the value of M (P1, P2) is smaller than the predetermined distance information, that is, if the difference in brightness between the two pixels P1 and P2 is small, the distance between the objects photographed in the two pixels P1 and P2 is close. Judged, recognized as the same area, and integrated. This process is applied to all the pixels of the input image. As a result, the first to sixth regions A1 to A6 shown in the lower part of FIG. 3 are obtained, and the process proceeds to the next head certainty calculating process S5.
【0034】頭確信度の演算過程S5においては、図3
に示すように、分配モード試験分割過程S4で得られた
全ての領域A1〜A6に対して髪の毛確信度A、顔確信
度B、頭確信度C、及び体確信度Dを求める。ここで、
図3及び図4を参照して具体的に説明する。頭確信度の
演算過程S5においては、分配モード試験分割過程S4
で得られた第1〜第6領域A1〜A6に対して各領域の
広さ、縦×横の比率、及び明暗の差等を用い、先ず、髪
の毛確信度Aを求める。例えば、図3の第1、第2領域
A1,A2は髪の毛確信度Aが高いとする。そして、前
記第1、第2領域A1,A2に隣接しその下方に位置す
る領域の顔確信度Bを計算する。図3の第3、第4領域
A3,A4は顔確信度Bが高いとする。このように髪の
毛確信度A及び顔確信度Bを求めた後、毛確信度A及び
顔確信度Bの高い領域を頭確信度が高い領域とし、それ
ら髪の毛確信度Aと顔確信度Bとを合算して頭確信度C
を求める。即ち、第1、第3領域A1,A3及び第2、
第4領域A2,A4からそれぞれ頭確信度Cを求める。
次いで、頭確信度Cが求められると、体確信度Dを求め
る。例えば、第3,第4領域A3,A4に隣接し、その
下方に位置する第5、第6領域A5,A6は体確信度D
が高いとする。このように全ての領域に対して頭確信度
の演算過程S5が完了すると、それらをファジー緩和過
程S6に提供する。In the head confidence calculation process S5, FIG.
As shown in (5), the hair confidence A, the face confidence B, the head confidence C, and the body confidence D are obtained for all the areas A1 to A6 obtained in the distribution mode test division step S4. here,
This will be specifically described with reference to FIGS. In the head confidence calculation step S5, the distribution mode test division step S4
First, the hair credibility A is determined using the width of each area, the ratio of height to width, the difference between light and dark, and the like with respect to the first to sixth areas A1 to A6 obtained in the above. For example, it is assumed that the first and second areas A1 and A2 in FIG. Then, the face certainty factor B of the area adjacent to and below the first and second areas A1 and A2 is calculated. It is assumed that the third and fourth regions A3 and A4 in FIG. After obtaining the hair credibility A and the face credibility B in this manner, an area having a high hair credibility A and a face credibility B is defined as a high head credibility area, and the hair credibility A and the face credibility B are determined. Summed head confidence C
Ask for. That is, the first and third regions A1, A3 and the second,
A head certainty factor C is obtained from each of the fourth regions A2 and A4.
Next, when the head certainty C is obtained, the body certainty D is obtained. For example, the fifth and sixth regions A5 and A6 that are adjacent to and below the third and fourth regions A3 and A4 have the body certainty D
Is high. When the head confidence factor calculation process S5 is completed for all the regions in this way, they are provided to a fuzzy mitigation process S6.
【0035】ファジー緩和過程S6においては、頭確信
度の演算過程S5で得られた第1〜第6領域A1〜A6
についての頭確信度Cを増大させる。即ち、頭確信度の
演算過程S5で求めた頭確信度Cの高い第1、第3領域
A1,A3及び第2、第4領域A2,A4を頭とし、該
領域と隣接しその下方に位置する第5、第6領域A5,
A6を体と仮定した後、頭と体の相関関係を用い前記第
5、第6領域A5,A6が体であるという確信度D’を
求める。このように求められた体確信度D’が高いと第
1、第3領域A1,A3及び第2、第4領域A2,A4
の頭確信度を再び演算して増加させる。次いで、全ての
領域に対してファジー緩和過程S6が完了すると体の除
去過程S9及び領域数の演算過程S7へ移る。In the fuzzy mitigation step S6, the first to sixth areas A1 to A6 obtained in the head confidence calculation step S5.
Increase the head confidence C of. That is, the first and third areas A1 and A3 and the second and fourth areas A2 and A4 having high head certainty C obtained in the head certainty calculating step S5 are set as heads, and are located adjacent to and below the areas. Fifth and sixth areas A5
After assuming that A6 is a body, a certainty factor D ′ that the fifth and sixth regions A5 and A6 are bodies is obtained using the correlation between the head and the body. When the body certainty factor D ′ thus obtained is high, the first and third regions A1 and A3 and the second and fourth regions A2 and A4 are
Is again calculated and increased. Next, when the fuzzy mitigation process S6 is completed for all the regions, the process proceeds to the body removing process S9 and the region number calculating process S7.
【0036】領域数の演算過程S7においては、ファジ
ー緩和過程S6で求められた頭確信度Cが所定値以上で
ある領域をカウントし、領域数N’とする。そして、こ
の求められた領域数N’を用いて乗客数を検出する。例
えば、領域数N’が2であると乗客数は2名として検出
される。このように乗客数が検出されると、ビジョンシ
ステム302の中央処理装置はその結果を結果表示部、
ケーブルテレビジョン、及び群管理制御システムに伝送
する。In the step S7 of calculating the number of regions, the regions in which the degree of head certainty C obtained in the fuzzy mitigation process S6 is equal to or larger than a predetermined value are counted and set as the number of regions N '. Then, the number of passengers is detected using the obtained number of areas N '. For example, when the number of areas N ′ is 2, the number of passengers is detected as 2 persons. When the number of passengers is detected in this way, the central processing unit of the vision system 302 displays the result in the result display unit,
Transmission to cable television and group management control system.
【0037】次に、請求項7、8に記載の発明に係る第
2の実施形態について説明する。第2の実施形態と第1
の実施形態とが異なる過程は、第1の実施形態のS6の
過程の後に、S7の過程の代わりにS8〜S10の過程
が加わった点である。従って、第2の実施形態のS1〜
S6の過程は第1の実施形態と同一であるので説明を省
略する。尚、ハードウエア構成は図2と同じである。Next, a second embodiment according to the present invention will be described. Second embodiment and first
The process different from the first embodiment is that steps S8 to S10 are added instead of the step S7 after the step S6 of the first embodiment. Therefore, S1 of the second embodiment
Since the process of S6 is the same as that of the first embodiment, the description is omitted. The hardware configuration is the same as in FIG.
【0038】図1において、ファジー緩和過程S6の
後、カメラの位置、距離、及び人間の大きさ等に基づく
幾何学的モデリングによって、分配モード試験分割過程
S4で求めた各領域に撮影され得る被写体の頭の占める
画素数と体の占める画素数とを算出する幾何学的特徴の
抽出過程S8と、前記ファジー緩和過程S6で得られた
情報と幾何学的特徴の抽出過程から得られた情報とを用
いて入力映像の体が撮影された部分を除去する体除去過
程S9と、体除去過程S9で除去されずに残った領域の
画素数と幾何学的特徴の抽出過程S8で得られた頭の占
める画素数とを比較する画素数の演算過程S10と、か
らなる。In FIG. 1, after the fuzzy mitigation process S6, a subject that can be photographed in each area obtained in the distribution mode test division process S4 by geometric modeling based on the position, distance, size of a person, etc. of the camera. The geometric feature extraction step S8 for calculating the number of pixels occupied by the head and the number of pixels occupied by the body, and the information obtained in the fuzzy mitigation step S6 and the information obtained from the geometric feature extraction step. The body removal step S9 for removing the portion of the input video where the body was photographed, and the head number obtained in the step S8 for extracting the number of pixels and the geometrical features of the region left unremoved in the body removal step S9. And calculating the number of pixels to be compared with the number of pixels occupied by.
【0039】第2の実施形態の作用及び効果は、第1の
実施形態の作用及び効果に加えて、待機乗客数の検出を
より正確にするため、幾何学的特徴の抽出過程S8にお
いて人間の大きさ及びカメラの位置に基づく幾何学的モ
デリングを用いて、第1〜第6領域A1〜A6に撮影さ
れ得る被写体の頭の占める画素数P”と体の占める画素
数とを演算し体の除去過程S9に提供する。The operation and effect of the second embodiment is, in addition to the operation and effect of the first embodiment, in order to make the detection of the number of waiting passengers more accurate, in the geometric feature extraction step S8, The geometrical modeling based on the size and the position of the camera is used to calculate the number of pixels P ″ occupied by the head of the subject and the number of pixels occupied by the body of the subject that can be photographed in the first to sixth areas A1 to A6. The removal process S9 is provided.
【0040】体の除去過程S9においては幾何学的特徴
の抽出過程S8から提供された体の占める画素数に基づ
いて、ファジー緩和過程S6で求められた頭確信度Cが
所定値以上である第1、第3領域A1,A3及び第2、
第4領域A2,A4を除いた全ての領域、即ち体に該当
する第5、第6領域A5,A6を除去する。画素数の演
算過程S10においては、体の除去過程S9で除去され
ずに残っている領域即ち、頭に該当する第1、第3領域
A1,A3及び第2、第4領域A2,A4に属する画素
数P’を計算する。次いで、該画素数P’と幾何学的特
徴の抽出過程S8で求めた頭の画素数P''とを除算した
値を各領域について合計した数3に示すような結果値
N''を得る。In the body removal step S9, based on the number of pixels occupied by the body provided in the geometric feature extraction step S8, the head certainty C obtained in the fuzzy relaxation step S6 is equal to or larger than a predetermined value. 1, third regions A1, A3 and second,
All regions except the fourth regions A2 and A4, that is, the fifth and sixth regions A5 and A6 corresponding to the body are removed. In the process S10 of calculating the number of pixels, the regions that remain without being removed in the body removing process S9 belong to the first and third regions A1 and A3 and the second and fourth regions A2 and A4 corresponding to the head. The number of pixels P ′ is calculated. Then, a result value N ″ is obtained as shown in Expression 3 which is obtained by summing the values obtained by dividing the number of pixels P ′ and the number of head pixels P ″ obtained in the geometric feature extraction step S8 for each area. .
【0041】[0041]
【数3】 (Equation 3)
【0042】ここで、Nは除去されずに残っている領域
の個数である。このようにすると、例えば、頭が重畳し
て、映像に現れる頭の画素数が70である場合、従来で
はこれが一人として認められたが、結果値N''を用いる
と幾何学的特徴の抽出過程S8において演算された幾何
学的モデリングによる頭の部分の画素数、例えば、画素
数50を用いて、結果値N''を1.4名として計算する
ことにより、検出された乗客数がより正確になる。Here, N is the number of regions remaining without being removed. By doing so, for example, when the number of pixels of the head appearing in the image is 70 due to the overlapping of the head, this is conventionally recognized as one person, but using the result value N ″, the extraction of geometric features is performed. By calculating the result value N ″ as 1.4 persons by using the number of pixels of the head portion by the geometrical modeling calculated in step S8, for example, the number of pixels of 50, the number of detected passengers is further increased. Be accurate.
【0043】次に、請求項9、10に記載の発明に係る
第3の実施形態について説明する。第3の実施形態と第
1、2の実施形態とが異なる過程は、第1の実施形態の
S7の過程及び第2の実施形態のS10の過程の後にS
11の過程が加わった点である。従って、第3の実施形
態のS1〜S10の過程は第1、2の実施形態と同一で
あるので説明を省略する。尚、ハードウエア構成は図2
と同じである。Next, a third embodiment according to the invention described in claims 9 and 10 will be described. The process in which the third embodiment is different from the first and second embodiments is that the process of S7 of the first embodiment and the process of S10 of the second embodiment are performed after S7.
This is the point where 11 processes have been added. Therefore, steps S1 to S10 of the third embodiment are the same as those of the first and second embodiments, and a description thereof will be omitted. The hardware configuration is shown in Figure 2.
Is the same as
【0044】図1において、第3の実施形態は、S1〜
S10の過程の後に、画素数の演算過程S10で得られ
た比較結果と領域数の演算過程S7で得られた領域数と
を用い乗客数を検出する乗客数検出過程S11からな
る。第3の実施形態の作用及び効果は、第1、2の実施
形態の作用及び効果に加えて、待機乗客数をより一層正
確に検出するため乗客数の検出過程S11では領域数の
演算過程S7で得られた頭確信度Cの高い領域数N’と
画素数の演算過程S10で得られた結果値N''とを下記
の式に適用して最終の乗客数を検出する。In FIG. 1, in the third embodiment, S1.
After the step S10, a passenger number detection step S11 is performed to detect the number of passengers using the comparison result obtained in the pixel number calculation step S10 and the area number obtained in the area number calculation step S7. The operation and effect of the third embodiment are the same as the operation and effect of the first and second embodiments. In addition, in order to detect the number of waiting passengers more accurately, in the passenger number detection step S11, the number of areas is calculated S7. The number N 'of regions having a high head certainty C obtained in the above and the result value N''obtained in the process S10 of calculating the number of pixels are applied to the following equation to detect the final number of passengers.
【0045】(乗客数)=βN’+(1−β)N” ここで、βは人の身長の中間である加重値である。この
ようにより一層正確な乗客数が検出されると、ビジョン
システム302の中央処理装置はその結果を結果表示
部、ケーブルテレビジョン、及び群管理制御システムに
伝送する。(Number of passengers) = βN ′ + (1−β) N ”where β is a weight value that is intermediate between the heights of the humans. If a more accurate number of passengers is detected in this way, the vision becomes The central processing unit of the system 302 transmits the result to the result display unit, the cable television, and the group management control system.
【0046】尚、図1のビジョンシステム302では前
記の利用された所定値(α値、β値、カメラ常数等)が
調整可能になるように使用者インターフェースを提供す
る。Note that the vision system 302 of FIG. 1 provides a user interface so that the used predetermined values (α value, β value, camera constant, etc.) can be adjusted.
【0047】[0047]
【発明の効果】以上説明したように、請求項1による発
明によれば、入力映像と参照映像との差による差異映像
を用い頭確信度を求め、より正確に待機乗客数を検出し
得る効果がある。請求項2〜6に係る発明によれば、請
求項1に係る発明の作用を効率良く奏することができ
る。As described above, according to the first aspect of the present invention, the head reliability is obtained by using the difference image due to the difference between the input image and the reference image, and the number of waiting passengers can be more accurately detected. There is. According to the inventions according to the second to sixth aspects, the function of the invention according to the first aspect can be efficiently achieved.
【0048】請求項7に係る発明によれば、頭確信度が
所定値以上の領域の画素数を幾何学的モデリング過程か
ら抽出した画素数で除算して、待機乗客数が重畳して現
れる場合においても正確に乗客数を検出することができ
る。請求項8に係る発明によれば、請求項7に係る発明
の作用を効率よく奏することができる。According to the seventh aspect of the present invention, when the number of pixels in an area where the head confidence is equal to or greater than a predetermined value is divided by the number of pixels extracted from the geometric modeling process, and the number of waiting passengers appears in a superimposed manner. , The number of passengers can be accurately detected. According to the invention of claim 8, the action of the invention of claim 7 can be efficiently exhibited.
【0049】請求項9に係る発明によれば、領域数演算
過程から得た値と画素数の演算から得た値とを合算し
て、最終の乗客数を一層正確に検出することができる。
請求項10に係る発明によれば、請求項9に係る発明の
作用を効率よく奏することができる。According to the ninth aspect of the present invention, the final number of passengers can be detected more accurately by summing the value obtained from the area number calculation process and the value obtained from the pixel number calculation.
According to the invention of claim 10, the action of the invention of claim 9 can be efficiently exhibited.
【図1】本発明の実施形態に係るビジョンシステムを用
いたエレベータの待機乗客数の検出方法の動作を説明す
るための概略フローチャートである。FIG. 1 is a schematic flowchart illustrating an operation of a method for detecting the number of waiting passengers of an elevator using a vision system according to an embodiment of the present invention.
【図2】同上実施形態に係る待機乗客数の検出方法を利
用した検出装置の構成を示したブロック図である。FIG. 2 is a block diagram showing a configuration of a detection device using the method for detecting the number of waiting passengers according to the embodiment.
【図3】分配モード試験分割過程を簡略に説明した図面
である。FIG. 3 is a diagram schematically illustrating a distribution mode test division process.
【図4】図1の動作を詳しく示したフローチャートであ
る。FIG. 4 is a flowchart showing the operation of FIG. 1 in detail.
【図5】従来の通計的方法を用いたエレベータの待機乗
客数の検出装置の構成を示したブロック図である。FIG. 5 is a block diagram showing a configuration of an apparatus for detecting the number of waiting passengers of an elevator using a conventional accounting method.
【図6】従来のビジョンシステムを用いたエレベータの
待機乗客数の検出装置の構成を示したブロック図であ
る。FIG. 6 is a block diagram showing a configuration of an apparatus for detecting the number of waiting passengers of an elevator using a conventional vision system.
【図7】図6の中央処理装置における待機乗客数を抽出
する過程を示した順序図である。7 is a flowchart showing a process of extracting the number of waiting passengers in the central processing unit of FIG.
300 カメラ群 301 カメラ選択部 302 ビジョンシステム 300 camera group 301 camera selection unit 302 vision system
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06M 11/00 D ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G06M 11/00 D
Claims (10)
機乗客数の検出方法であって、 所定の乗降口に設置したカメラにより撮影された入力映
像と、予め前記乗降口に待機乗客のいないとき撮影され
た参照映像とに基づいて、前記入力映像と前記参照映像
との差異を示す差異映像を求める映像比較過程と、 前記入力映像及び前記差異映像の明るさの差異に関する
情報より、前記入力映像の隣接する画素に撮影された被
写体の距離に関する情報を求め、該距離情報により入力
映像の領域を分割及び統合する分配モード試験分割過程
と、 該分配モード試験分配過程で分割及び統合された領域に
ついて所定の身体の部位に対する確信度を求め、該確信
度に基づいて頭確信度を演算する頭確信度の演算過程
と、 前記頭確信度が所定値以上である領域をカウントし、該
カウントされた領域数を待機乗客数として判定する領域
数の演算過程と、を含んでなることを特徴とするエレベ
ータの待機乗客数の検出方法。1. A method of detecting the number of waiting passengers in an elevator using an image processing system, comprising: an input image taken by a camera installed at a predetermined entrance and exit; and an image taken when there are no waiting passengers at the entrance and exit in advance. An image comparison process for obtaining a difference image showing a difference between the input image and the reference image based on the reference image, and information on a difference in brightness between the input image and the difference image, Information about the distance of the object photographed in adjacent pixels is obtained, and the distribution mode test division process of dividing and integrating the region of the input image based on the distance information and the region divided and integrated in the distribution mode test distribution process are determined. Of the certainty factor with respect to the body part of the human body, and the calculation process of the certainty factor based on the certainty factor; Counting the number of areas and calculating the number of areas as the number of waiting passengers. The method for detecting the number of waiting passengers of an elevator, comprising:
乗客のいるときに撮影した入力映像と、前記乗降口に待
機乗客のいないときに撮影した参照映像との同一位置に
おける明るさの差異を絶対値として求めることを特徴と
する請求項1記載のエレベータの待機乗客数の検出方
法。2. The image comparing step comprises the steps of: determining the brightness at the same position between an input image captured when a standby passenger is at a predetermined entrance and a reference image captured when no standby passenger is at the entrance. 2. The method according to claim 1, wherein the difference is obtained as an absolute value.
映像の隣接する二つの画素の明るさの差異を絶対値とし
て求める第1段階と、 前記隣接する二つの画素と同一位置における前記差異映
像の明るさの差異を絶対値として求める第2段階と、 前記第1段階及び第2段階で求めた値により前記距離情
報を示す値を求める第3段階と、 該距離情報を示す値を所定値と比較する第4段階と、 該比較結果について、前記距離情報の示す値が前記所定
値より小さいとき前記隣接する二つの画素を同一の領域
に統合し、前記距離情報の示すが前記所定値より大きい
とき前記隣接する二つの画素を異なる領域に分割する第
5段階と、からなることを特徴とする請求項1又は2記
載のエレベータの待機乗客数の検出方法。3. The distribution mode test division step includes: a first step of determining a difference in brightness between two adjacent pixels of the input image as an absolute value; and the difference image at the same position as the two adjacent pixels. A second step of obtaining a difference in brightness as an absolute value, a third step of obtaining a value indicating the distance information from the values obtained in the first step and the second step, and a value indicating the distance information being a predetermined value. And a fourth step of comparing the two pixels adjacent to each other into the same area when the value indicated by the distance information is smaller than the predetermined value, and indicating that the distance information indicates that the value is smaller than the predetermined value. 3. The method according to claim 1, further comprising: a fifth step of dividing the two adjacent pixels into different areas when the number is large.
する二つの画素をP1,P2とし、該画素の明るさをI
(P1),I(P2)で表し、前記入力映像の画素P
1,P2と同一位置にある前記差異映像の画素の明るさ
をDI(P1),DI(P2)で表し、前記入力映像の
画素間の明るさの差と前記差異映像の画素間の明るさの
差とを調節するための係数をαとして、前記距離情報を
示す値を次式、 α|I(P1)−I(P2)|+(1−α)|DI(P
1)−DI(P2)| により求めることを特徴とする請求項3記載のエレベー
タの待機乗客数の検出方法。4. In the third step, the two adjacent pixels of the input image are set to P1 and P2, and the brightness of the pixels is set to I1.
(P1), I (P2), and the pixel P of the input image
1, the brightness of the pixels of the difference image at the same position as P2 is represented by DI (P1), DI (P2), and the difference between the brightness of the pixels of the input image and the brightness of the pixels of the difference image The value indicating the distance information is represented by the following equation: α | I (P1) −I (P2) | + (1−α) | DI (P
The method for detecting the number of waiting passengers of an elevator according to claim 3, wherein the method is obtained by: 1) -DI (P2) |
ド試験分割過程で得られた分割及び統合した領域につい
て、髪の毛確信度を求める段階と、 該髪の毛確信度を持つ領域に隣接し該領域の下方に位置
する領域について顔確信度を求める段階と、 前記髪の毛確信度を持つ領域と顔確信度を持つ領域とを
頭確信度を持つ領域とし、該頭確信度を持つ領域の頭確
信度を前記髪の毛確信度と前記顔確信度とを合算して求
める段階と、 前記頭確信度を持つ領域を除外した領域について体確信
度を求める段階と、からなることを特徴とする請求項1
〜4のいずれか1つに記載のエレベータの待機乗客数の
検出方法。5. The head confidence calculation step includes: obtaining a hair confidence for the divided and integrated region obtained in the distribution mode test division; and adjoining the region having the hair confidence. Obtaining a face certainty factor for an area located below the area; and setting the area having the hair certainty factor and the area having the face certainty factor as a region having the head certainty factor, and the head certainty of the region having the head certainty factor. 2. The method according to claim 1, further comprising: obtaining a degree of hair by adding the hair certainty degree and the face certainty degree; and obtaining a body certainty degree in an area excluding the area having the head certainty degree. 3.
The method for detecting the number of waiting passengers of an elevator according to any one of the above-mentioned items.
の高い領域を頭とし、該領域の下方に位置する領域を体
と仮定して、前記頭確信度を増加させるファジー緩和過
程を含んでなることを特徴とする請求項5記載のエレベ
ータの待機乗客数の検出方法。6. A fuzzy mitigation process for increasing the head certainty, assuming that a region having a high head certainty determined in the calculation process of the head certainty is a head and a region located below the region is a body. 6. The method for detecting the number of waiting passengers of an elevator according to claim 5, comprising:
機乗客数の検出方法であって、 所定の乗降口に設置したカメラにより撮影された入力映
像と、予め前記乗降口に待機乗客のいないとき撮影され
た参照映像とに基づいて、前記入力映像と前記参照映像
との差異を示す差異映像を求める映像比較過程と、 前記入力映像及び前記差異映像の明るさの差異に関する
情報より、前記入力映像の隣接する画素に撮影された被
写体の距離に関する情報を求め、該距離情報により入力
映像の領域を分割及び統合する分配モード試験分割過程
と、 該分配モード試験分配過程で分割及び統合された領域に
ついて所定の身体の部位に対する確信度を求め、該確信
度に基づいて頭確信度を演算する頭確信度の演算過程
と、 前記カメラの位置及び人間の身体構造に基づく幾何学的
モデリングによって、前記領域に撮影され得る被写体の
頭の占める画素数と体の占める画素数とを算出する幾何
学的特徴の抽出課程と、 該幾何学的特徴の抽出過程で得られた前記体の占める画
素数に基づき、前記頭確信度の演算過程で得られた前記
頭確信度が所定値以下の領域を除去する体除去過程と、 該体除去過程で除去されずに残った前記領域に含まれる
画素数と、前記幾何学的特徴の抽出過程で算出した前記
頭の占める画素数とを比較して乗客数を検出する画素数
の演算過程と、を含んでなることを特徴とするエレベー
タの待機乗客数検出方法。7. A method for detecting the number of waiting passengers of an elevator using an image processing system, comprising: an input image captured by a camera installed at a predetermined entrance and exit; A video comparing step of obtaining a difference video indicating a difference between the input video and the reference video, based on the reference video, and information on a difference in brightness between the input video and the difference video. A distribution mode test division step of obtaining information relating to a distance of a subject photographed in an adjacent pixel, and dividing and integrating an area of an input image based on the distance information; and a predetermined division and integration area in the distribution mode test distribution step. Calculating a head certainty factor based on the certainty factor for the body part, and calculating a head certainty factor based on the certainty factor; and a position of the camera and a human body structure. A geometric feature extraction process for calculating the number of pixels occupied by the head of the subject and the number of pixels occupied by the body that can be photographed in the region, and A body removal step of removing a region in which the head confidence obtained in the head confidence calculation step is equal to or less than a predetermined value based on the number of pixels occupied by the body, and remaining without being removed in the body removal. And calculating the number of pixels for detecting the number of passengers by comparing the number of pixels included in the area with the number of pixels occupied by the head calculated in the step of extracting the geometric feature. A method for detecting the number of waiting passengers of an elevator.
で除去されずに残った領域をiで表し、前記残った領域
数をNとし、前記残った領域の画素数をP'(i) とし、前
記幾何学的特徴の抽出過程で算出した頭の占める画素数
をP''(i)として、前記待機乗客数N''を数1に示す次
式、 【数1】 により求めることを特徴とする請求項7記載のエレベー
タの待機乗客数の検出方法。8. In the process of calculating the number of pixels, the region remaining without being removed in the body removing process is represented by i, the number of remaining regions is N, and the number of pixels of the remaining regions is P ′ ( i), the number of pixels occupied by the head calculated in the geometric feature extraction process is P ″ (i), and the number N ″ of waiting passengers is expressed by the following equation: The method for detecting the number of waiting passengers of an elevator according to claim 7, wherein
機乗客数の検出方法であって、 所定の乗降口に設置したカメラにより撮影された入力映
像と、予め前記乗降口に待機乗客のいないとき撮影され
た参照映像とに基づいて、前記入力映像と前記参照映像
との差異を示す差異映像を求める映像比較過程と、 前記入力映像及び前記差異映像の明るさの差異に関する
情報より、前記入力映像の隣接する画素に撮影された被
写体の距離に関する情報を求め、該距離情報により入力
映像の領域を分割及び統合する分配モード試験分割過程
と、 前記カメラの位置及び人間の身体構造に基づく幾何学的
モデリングによって、前記領域に撮影され得る被写体の
頭の占める画素数と体の占める画素数とを算出する幾何
学的特徴の抽出課程と、 前記分配モード試験分配過程で分割及び統合された領域
について所定の身体の部位に対する確信度を求め、該確
信度に基づいて頭確信度を演算する頭確信度の演算過程
と、 該頭確信度が所定値以上である領域を計数する領域数の
演算過程と、 前記幾何学的特徴の抽出過程で得られた前記体の占める
画素数に基づき、前記頭確信度の演算過程で得られた前
記頭確信度が所定値以下である領域を除去する体除去過
程と、 該体除去過程で除去されずに残った領域に含まれる画素
数と、前記幾何学的特徴の抽出過程で算出した頭の占め
る画素数とを比較する画素数の演算過程と、 該画素数演算過程で得れらた結果と前記領域数演算過程
で得られた結果とから、最終の乗客数を抽出する乗客数
の抽出過程と、を含んでなることを特徴とするエレベー
タの特徴乗客数の検出方法。9. A method of detecting the number of waiting passengers in an elevator using an image processing system, comprising: an input image taken by a camera installed at a predetermined entrance and exit; and an image taken when there are no waiting passengers at the entrance and exit beforehand. An image comparison process of obtaining a difference image showing a difference between the input image and the reference image based on the reference image, and information on a difference in brightness between the input image and the difference image, A distribution mode test division process of obtaining information on the distance of the object photographed in adjacent pixels, dividing and integrating the area of the input image based on the distance information, and geometric modeling based on the position of the camera and the human body structure. A geometric feature extraction process for calculating the number of pixels occupied by the head of the subject and the number of pixels occupied by the body that can be photographed in the region according to Calculating a head certainty for a predetermined body part with respect to the region divided and integrated in the test distribution process, and calculating a head certainty based on the certainty; The head confidence obtained in the head confidence calculation based on the number of pixels occupied by the body obtained in the geometric feature extraction process, A body removal process of removing an area that is equal to or less than a predetermined value, a number of pixels included in a region that is not removed in the body removal process, and a number of pixels occupied by the head calculated in the extraction process of the geometric feature. And a step of extracting the number of passengers for extracting a final number of passengers from a result obtained in the pixel number calculating step and a result obtained in the area number calculating step. Elevator features characterized by comprising Detection method.
演算過程で求めた結果をN’とし、前記画素数の演算過
程で求めた結果をN''とし、所定の加重値をβとして、
前記最終の乗客数を、βN’+(1−β)N''により求
めることを特徴とする請求項9記載のエレベータの待機
乗客数の検出方法。10. In the step of detecting the number of passengers, the result obtained in the process of calculating the number of areas is N ′, the result obtained in the process of calculating the number of pixels is N ″, and a predetermined weight is β. As
The method according to claim 9, wherein the final number of passengers is obtained by βN ′ + (1−β) N ″.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019940025907A KR960013086B1 (en) | 1994-10-10 | 1994-10-10 | How to detect waiting passengers in an elevator |
KR25907/1994 | 1994-10-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08127476A true JPH08127476A (en) | 1996-05-21 |
JP2599701B2 JP2599701B2 (en) | 1997-04-16 |
Family
ID=19394792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7262765A Expired - Lifetime JP2599701B2 (en) | 1994-10-10 | 1995-10-11 | Elevator Standby Passenger Number Detection Method |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2599701B2 (en) |
KR (1) | KR960013086B1 (en) |
CN (1) | CN1047358C (en) |
GB (1) | GB2294114B (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11286377A (en) * | 1998-03-31 | 1999-10-19 | Ntt Power And Building Facilities Inc | Elevator control method and device |
US7483548B2 (en) | 2002-11-08 | 2009-01-27 | Minolta Co., Ltd. | Method for detecting object formed of regions from image |
JP2009143722A (en) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Corp | Person tracking apparatus, person tracking method and person tracking program |
WO2016110866A1 (en) * | 2015-01-07 | 2016-07-14 | Sai Narayanan Hari | Intelligent elevator management system using image processing |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4275344B2 (en) * | 2002-01-22 | 2009-06-10 | 富士フイルム株式会社 | Imaging apparatus, imaging method, and program |
KR100749889B1 (en) * | 2005-07-04 | 2007-08-16 | 정제창 | Audience counting system and its operation method |
DE102006000495A1 (en) * | 2006-09-28 | 2008-04-03 | Vis-à-pix GmbH | Automated equipment management system for control of controllable equipment of system, has automated image based recorder unit, and processing unit that is connected with recorder unit and controlled device |
CN100462295C (en) * | 2006-09-29 | 2009-02-18 | 浙江工业大学 | Group control elevator intelligent dispatching device based on image recognition technology |
CN101723208B (en) * | 2009-04-02 | 2012-08-08 | 浙江大学 | Method and system for optimal lift allocation in commercial and residential multifunctional building |
KR101220333B1 (en) * | 2010-05-13 | 2013-01-09 | 엘지이노텍 주식회사 | Apparatus and method for controlling elevator |
JP5177461B2 (en) * | 2011-07-11 | 2013-04-03 | オプテックス株式会社 | Traffic monitoring device |
CN105224992A (en) * | 2014-05-28 | 2016-01-06 | 国际商业机器公司 | To waiting for the method and system predicted of ridership and evaluation method and system |
JP6339518B2 (en) * | 2015-03-31 | 2018-06-06 | 株式会社日立製作所 | Installation number calculation device and calculation method of destination floor registration device |
JP6963464B2 (en) * | 2017-10-30 | 2021-11-10 | 株式会社日立製作所 | Elevator boarding / alighting number estimation device, boarding / alighting number estimation method and boarding / alighting number estimation program |
CN113135478B (en) * | 2021-05-08 | 2023-03-21 | 上海三菱电梯有限公司 | Elevator internal visitor permission management method, readable storage medium and computer equipment |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07106839B2 (en) * | 1989-03-20 | 1995-11-15 | 株式会社日立製作所 | Elevator control system |
KR100204101B1 (en) * | 1990-03-02 | 1999-06-15 | 가나이 쓰도무 | Image processing device |
JPH0578048A (en) * | 1991-09-19 | 1993-03-30 | Hitachi Ltd | Detecting device for waiting passenger in elevator hall |
-
1994
- 1994-10-10 KR KR1019940025907A patent/KR960013086B1/en not_active IP Right Cessation
-
1995
- 1995-10-09 GB GB9520604A patent/GB2294114B/en not_active Expired - Fee Related
- 1995-10-10 CN CN95119104A patent/CN1047358C/en not_active Expired - Fee Related
- 1995-10-11 JP JP7262765A patent/JP2599701B2/en not_active Expired - Lifetime
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11286377A (en) * | 1998-03-31 | 1999-10-19 | Ntt Power And Building Facilities Inc | Elevator control method and device |
US7483548B2 (en) | 2002-11-08 | 2009-01-27 | Minolta Co., Ltd. | Method for detecting object formed of regions from image |
JP2009143722A (en) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Corp | Person tracking apparatus, person tracking method and person tracking program |
WO2016110866A1 (en) * | 2015-01-07 | 2016-07-14 | Sai Narayanan Hari | Intelligent elevator management system using image processing |
Also Published As
Publication number | Publication date |
---|---|
CN1047358C (en) | 1999-12-15 |
GB2294114A (en) | 1996-04-17 |
KR960013086B1 (en) | 1996-09-30 |
CN1132718A (en) | 1996-10-09 |
GB9520604D0 (en) | 1995-12-13 |
GB2294114B (en) | 1999-05-05 |
JP2599701B2 (en) | 1997-04-16 |
KR960013967A (en) | 1996-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2599701B2 (en) | Elevator Standby Passenger Number Detection Method | |
KR101337060B1 (en) | Imaging processing device and imaging processing method | |
KR100936108B1 (en) | Object Detection Device and Object Detection Device of Elevator | |
EP0989517B1 (en) | Determining the position of eyes through detection of flashlight reflection and correcting defects in a captured frame | |
EP1526477B1 (en) | Image processing apparatus | |
EP0919184A1 (en) | Region-of-interest setting apparatus for respiration monitoring and a respiration monotoring system | |
US20130195364A1 (en) | Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus | |
JP6779410B2 (en) | Video analyzer, video analysis method, and program | |
CN108629230B (en) | People counting method and device and elevator dispatching method and system | |
JP2009143722A (en) | Person tracking apparatus, person tracking method and person tracking program | |
EP2662827A1 (en) | Video analysis | |
CN109110603B (en) | Elevator and escalator | |
CN104973471B (en) | Group management elevator device | |
JP6991737B2 (en) | Information processing equipment, information processing methods and programs | |
JPH11282999A (en) | Moving object measurement device | |
JP4883415B2 (en) | Monitoring device and program | |
JP2019029747A (en) | Image surveillance system | |
CN108460319B (en) | Abnormal face detection method and device | |
CN112561967A (en) | Control method and device for vehicle door lock | |
JP6920944B2 (en) | Object detector | |
JPH07187535A (en) | Traffic flow survey equipment | |
JP6028972B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2000053361A (en) | Passenger monitoring device for man conveyor | |
JP5618594B2 (en) | Face image matching device | |
KR101355206B1 (en) | A count system of coming and going using image analysis and method thereof |