[go: up one dir, main page]

JP6139729B1 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6139729B1
JP6139729B1 JP2016052168A JP2016052168A JP6139729B1 JP 6139729 B1 JP6139729 B1 JP 6139729B1 JP 2016052168 A JP2016052168 A JP 2016052168A JP 2016052168 A JP2016052168 A JP 2016052168A JP 6139729 B1 JP6139729 B1 JP 6139729B1
Authority
JP
Japan
Prior art keywords
door
image
car
motion
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016052168A
Other languages
Japanese (ja)
Other versions
JP2017165541A (en
Inventor
亮 大坪
亮 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Elevator and Building Systems Corp
Original Assignee
Toshiba Elevator Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Elevator Co Ltd filed Critical Toshiba Elevator Co Ltd
Priority to JP2016052168A priority Critical patent/JP6139729B1/en
Application granted granted Critical
Publication of JP6139729B1 publication Critical patent/JP6139729B1/en
Publication of JP2017165541A publication Critical patent/JP2017165541A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Elevator Door Apparatuses (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人物だけでなく、細い紐状の物体もリアルタイムで検出すること。
【解決手段】一実施形態に係る画像処理装置は、第1画像取得手段、第1動き検出手段、第2画像取得手段、第2動き検出手段及び信号出力手段を備えている。第2画像取得手段は、カメラによって連続的に撮影された複数枚の画像に関し、ドア周辺のエリアだけが映された複数枚の第2画像を取得する。第2動き検出手段は、取得された複数枚の第2画像をブロック単位で比較して、ドア周辺のエリア内の物体の動きを検出する。信号出力手段は、第1動き検出手段及び第2動き検出手段のうちの少なくとも一方によって動きありのブロックが検出された場合に、乗りかごのドアを戸開させるための戸開指示信号を、乗りかごのドアの戸開閉を制御するかご制御装置に出力する。
【選択図】図1
To detect not only a person but also a thin string-like object in real time.
An image processing apparatus according to an embodiment includes first image acquisition means, first motion detection means, second image acquisition means, second motion detection means, and signal output means. The second image acquisition means acquires a plurality of second images in which only the area around the door is shown with respect to the plurality of images continuously captured by the camera. The second motion detection means compares the plurality of acquired second images in units of blocks, and detects the motion of the object in the area around the door. The signal output means outputs a door opening instruction signal for opening the door of the car when at least one of the first movement detecting means and the second movement detecting means detects a block with movement. Outputs to the car control device that controls the door opening and closing of the car door.
[Selection] Figure 1

Description

本発明の実施形態は、画像処理装置に関する。   Embodiments described herein relate generally to an image processing apparatus.

近年、エレベータのかごドアに人や物が挟まれるのを防ぐために、様々な技術が考案されている。例えば、カメラを用いてエレベータに向かって移動している利用者を検出し、当該エレベータのドアの戸開時間を延長する技術が考案されている。また、カメラを用いて乗場にいる利用者を検出し、当該利用者からエレベータまでの距離に基づいて当該エレベータのドアの開閉制御を行う技術も考案されている。   In recent years, various techniques have been devised to prevent people and objects from being caught in elevator car doors. For example, a technique has been devised that detects a user moving toward an elevator using a camera and extends the door opening time of the elevator door. In addition, a technique has been devised that detects a user at a landing using a camera and controls opening / closing of the elevator door based on the distance from the user to the elevator.

このような技術においては、利用者をリアルタイムで検出する必要があるので、解析処理が高速に実行される。このため、検出精度を若干下げて、高速な解析処理が実現されている。   In such a technique, since it is necessary to detect a user in real time, an analysis process is performed at high speed. For this reason, the detection accuracy is slightly lowered, and high-speed analysis processing is realized.

特開2008−273709号公報JP 2008-273709 A

しかしながら、上記した技術では、人物などある程度の大きさを有するものであれば精度良く検出することができるが、検出精度を下げているため、例えばペットを繋ぐ紐など、細い紐状の物体を精度良く検出することができないという不都合がある。   However, the above-described technique can detect a person having a certain size such as a person with high accuracy. However, since the detection accuracy is lowered, for example, a thin string-like object such as a string connecting pets is accurately detected. There is an inconvenience that it cannot be detected well.

この不都合によれば、エレベータのドアに細い紐状の物体が挟まりそうな場合であっても、当該細い紐状の物体を検出することができずにエレベータのドアがそのまま戸閉してしまう可能性があり、重大な事故が発生してしまう恐れがある。   According to this inconvenience, even if a thin string-like object is likely to be caught in the elevator door, the elevator door can be closed as it is without being able to detect the thin string-like object. There is a risk of serious accidents.

本発明が解決しようとする課題は、人物だけでなく、細い紐状の物体もリアルタイムで検出可能な画像処理装置を提供することである。   The problem to be solved by the present invention is to provide an image processing apparatus capable of detecting not only a person but also a thin string-like object in real time.

一実施形態に係る画像処理装置は、第1画像取得手段、第1動き検出手段、第2画像取得手段、第2動き検出手段及び信号出力手段を備えている。前記第1画像取得手段は、乗りかごのドアの戸開閉中にカメラによって連続的に撮影された複数枚の画像に関し、撮影時よりも解像度の低い複数枚の第1画像を取得する。前記第1動き検出手段は、前記第1画像取得手段によって取得された複数枚の第1画像をブロック単位で比較して、乗場にいる人物の動きを検出する。前記第2画像取得手段は、前記カメラによって連続的に撮影された複数枚の画像に関し、ドア周辺のエリアだけが映された複数枚の第2画像を取得する。前記第2動き検出手段は、前記第2画像取得手段によって取得された複数枚の第2画像をブロック単位で比較して、前記ドア周辺のエリア内の物体の動きを検出する。前記信号出力手段は、前記第1動き検出手段及び前記第2動き検出手段のうちの少なくとも一方によって動きありのブロックが検出された場合に、前記乗りかごのドアを戸開させるための戸開指示信号を、前記乗りかごのドアの戸開閉を制御するかご制御装置に出力する。前記第2画像は、前記第1画像よりも解像度が高い。 An image processing apparatus according to an embodiment includes first image acquisition means, first motion detection means, second image acquisition means, second motion detection means, and signal output means. The first image acquisition means acquires a plurality of first images having a resolution lower than that at the time of shooting, regarding the plurality of images continuously shot by the camera while the door of the car door is opened and closed. The first motion detection means detects a motion of a person on the landing by comparing a plurality of first images acquired by the first image acquisition means in units of blocks. The second image acquisition means acquires a plurality of second images in which only the area around the door is shown with respect to the plurality of images continuously captured by the camera. The second motion detection means detects a motion of an object in an area around the door by comparing a plurality of second images acquired by the second image acquisition means in block units. The signal output means is a door opening instruction for opening the door of the car when a block with movement is detected by at least one of the first movement detection means and the second movement detection means. A signal is output to a car control device that controls the opening and closing of the door of the car. The second image has a higher resolution than the first image.

図1は一実施形態に係る画像処理装置を含むエレベータの利用者検出システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an elevator user detection system including an image processing apparatus according to an embodiment. 図2は同実施形態におけるドア周辺エリアを説明するための図である。FIG. 2 is a view for explaining a door peripheral area in the embodiment. 図3は同実施形態におけるドア周辺エリアの時間的な変化について説明するための図である。FIG. 3 is a diagram for explaining temporal changes in the door peripheral area in the embodiment. 図4は同実施形態に関し、図2とは異なるドア周辺エリアを説明するための図である。FIG. 4 is a view for explaining a door peripheral area different from FIG. 2 in the embodiment. 図5は同実施形態におけるカメラによって撮影された画像の一例を示す図である。FIG. 5 is a view showing an example of an image taken by the camera in the embodiment. 図6は同実施形態における画像をブロック単位で区切った状態を示す図である。FIG. 6 is a view showing a state in which the image in the embodiment is divided into blocks. 図7は同実施形態における実空間での検出エリアを説明するための図である。FIG. 7 is a diagram for explaining a detection area in real space in the embodiment. 図8は同実施形態における実空間での座標系を説明するための図である。FIG. 8 is a diagram for explaining a coordinate system in the real space in the embodiment. 図9は同実施形態における画像比較による動き検出を説明するための図であり、時間tで撮影された画像の一部を模式的に示す図である。FIG. 9 is a diagram for explaining motion detection by image comparison in the embodiment, and is a diagram schematically showing a part of an image taken at time t. 図10は同実施形態における画像比較による動き検出を説明するための図であり、時間t+1で撮影された画像の一部を模式的に示す図である。FIG. 10 is a diagram for explaining motion detection by image comparison in the embodiment, and schematically shows a part of an image taken at time t + 1. 図11は同実施形態における利用者検出処理の手順の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a procedure of user detection processing in the embodiment. 図12は同実施形態における動き検出処理の手順の一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of a procedure of motion detection processing in the embodiment. 図13は同実施形態における位置推定処理の手順の一例を示すフローチャートである。FIG. 13 is a flowchart showing an example of the procedure of position estimation processing in the embodiment. 図14は同実施形態における乗車意思推定処理の手順の一例を示すフローチャートである。FIG. 14 is a flowchart showing an example of a procedure for boarding intention estimation processing in the embodiment. 図15は同実施形態における乗車意思ありの足元位置の変化状態を示す図である。FIG. 15 is a diagram showing a change state of the foot position with the intention to board in the embodiment. 図16は同実施形態における紐状物体検出処理の手順の一例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of a string-like object detection process procedure according to the embodiment.

以下、図面を参照して実施形態を説明する。
図1は、一実施形態に係る画像処理装置を含むエレベータの利用者検出システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of an elevator user detection system including an image processing apparatus according to an embodiment. Note that, here, a single car will be described as an example, but a plurality of cars have the same configuration.

乗りかご11の出入口上部にカメラ12が設置されている。具体的には、カメラ12は、乗りかご11の出入口上部を覆う幕板11aの中にレンズ部分を乗場15側に向けて設置されている。カメラ12は、例えば車載カメラなどの小型の監視用カメラであり、広角レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続撮影可能である。乗りかご11が各階に到着して戸開したときに、乗場15の状態を乗りかご11内のかごドア13付近の状態を含めて撮影する。   A camera 12 is installed above the entrance of the car 11. Specifically, the camera 12 is installed in a curtain plate 11 a covering the upper part of the entrance / exit of the car 11 with the lens portion facing the landing 15. The camera 12 is a small surveillance camera such as an in-vehicle camera, and has a wide-angle lens and can continuously shoot images of several frames (for example, 30 frames / second) per second. When the car 11 arrives at each floor and opens, the state of the landing 15 is photographed including the state near the car door 13 in the car 11.

このときの撮影範囲はL1+L2に設定されている(L1≫L2)。L1は乗場15側の撮影範囲であり、かごドア13から乗場15に向けて例えば3mである。L2は乗りかご11側の撮影範囲であり、かごドア13からかご背面に向けて例えば50cmである。なお、L1,L2は奥行き方向の範囲であり、幅方向(奥行き方向と直交する方向)の範囲については少なくとも乗りかご11の横幅より大きいものとする。   The shooting range at this time is set to L1 + L2 (L1 >> L2). L <b> 1 is a shooting range on the landing 15 side and is, for example, 3 m from the car door 13 toward the landing 15. L2 is a photographing range on the car 11 side, and is, for example, 50 cm from the car door 13 toward the back of the car. L1 and L2 are ranges in the depth direction, and the range in the width direction (direction orthogonal to the depth direction) is at least larger than the lateral width of the car 11.

なお、各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明においては、かごドア13を戸開しているときには乗場ドア14も戸開しており、かごドア13を戸閉しているときには乗場ドア14も戸閉しているものとする。   In the landing 15 on each floor, a landing door 14 is installed at the arrival entrance of the car 11 so as to be freely opened and closed. The landing door 14 opens and closes by engaging with the car door 13 when the car 11 arrives. The power source (door motor) is on the car 11 side, and the landing door 14 simply opens and closes following the car door 13. In the following description, it is assumed that when the car door 13 is opened, the landing door 14 is also opened, and when the car door 13 is closed, the landing door 14 is also closed.

カメラ12によって撮影された各画像(映像)は、画像前処理装置20によって前処理が施された後に、画像処理装置30によってリアルタイムに解析処理される。なお、図1では、便宜的に、画像前処理装置20と画像処理装置30とを乗りかご11から取り出して示しているが、実際には画像前処理装置20と画像処理装置30とはカメラ12と共に幕板11aの中に収納されている。また、図1では、画像前処理装置20と画像処理装置30とを別々のものとして示しているが、画像前処理装置20の機能が画像処理装置30に搭載されていても良い。   Each image (video) captured by the camera 12 is subjected to preprocessing by the image preprocessing device 20 and then analyzed in real time by the image processing device 30. In FIG. 1, for convenience, the image preprocessing device 20 and the image processing device 30 are taken out from the car 11, but actually, the image preprocessing device 20 and the image processing device 30 are the cameras 12. At the same time, it is housed in the curtain 11a. In FIG. 1, the image preprocessing device 20 and the image processing device 30 are illustrated as separate units, but the functions of the image preprocessing device 20 may be mounted on the image processing device 30.

画像前処理装置20には、解像度低下処理部21及びドア周辺画像抽出部22が備えられている。解像度低下処理部21は、カメラ12によって撮影された各画像(撮影画像)の解像度を低下させ、低解像度の画像を生成する。撮影画像の解像度を低下させる方法としては、例えば、撮影画像を構成する画素を間引く方法がある。生成された低解像度の画像は画像処理装置30に送られる。このように画像の解像度を低下させることで、画像サイズ(画像の容量)を小さくすることができ、画像処理装置30での解析処理を高速(リアルタイム)に実行することができるようになる。   The image preprocessing apparatus 20 includes a resolution reduction processing unit 21 and a door peripheral image extraction unit 22. The resolution reduction processing unit 21 reduces the resolution of each image (captured image) captured by the camera 12 and generates a low-resolution image. As a method for reducing the resolution of the captured image, for example, there is a method of thinning out pixels constituting the captured image. The generated low resolution image is sent to the image processing apparatus 30. By reducing the resolution of the image in this way, the image size (image capacity) can be reduced, and the analysis processing in the image processing apparatus 30 can be executed at high speed (in real time).

ドア周辺画像生成部22は、かごドア13の戸閉を開始すると、カメラ12によって撮影された各画像からドア周辺エリアを抽出し、当該抽出されたドア周辺エリアだけが映された画像(以下、ドア周辺画像と表記する)を解像度を低下させずに生成する。生成されたドア周辺画像は画像処理装置30に送られる。   When the door peripheral image generation unit 22 starts to close the car door 13, the door peripheral image generation unit 22 extracts the door peripheral area from each image captured by the camera 12, and an image (hereinafter, referred to as the extracted door peripheral area) is displayed. (Denoted as a door peripheral image) without reducing the resolution. The generated door peripheral image is sent to the image processing device 30.

ドア周辺エリアE0とは、図2に示すように、かごドア13の両先端部付近の所定のエリアを指す。詳しくは、ドア周辺エリアE0は、かごドア13の両先端部からかごドア13の戸閉方向に対して任意の距離M1(但し、距離M1はかごドア13の開口幅よりも短い距離であるものとする)を有し、例えば100mmに設定されている。また、ドア周辺エリアE0の奥行き方向(かごドア13の戸閉方向と直交する方向)の距離M2は、例えば、かごドア13の乗りかご11側のドア面から乗場ドア14の乗場15側のドア面までの距離(ドアの厚み)より大きな値に設定される。   As shown in FIG. 2, the door peripheral area E <b> 0 indicates a predetermined area near both ends of the car door 13. Specifically, the door peripheral area E0 is an arbitrary distance M1 from both ends of the car door 13 to the door closing direction of the car door 13 (however, the distance M1 is a distance shorter than the opening width of the car door 13). For example, 100 mm. The distance M2 in the depth direction of the door peripheral area E0 (the direction orthogonal to the door closing direction of the car door 13) is, for example, the door on the platform 15 side of the landing door 14 from the door surface on the car 11 side of the car door 13. It is set to a value larger than the distance to the surface (door thickness).

ドア周辺エリアE0は、上記したように、かごドア13の両先端部からかごドア13の戸閉方向に対して任意の距離M1を有しているので、かごドア13の戸閉と共に変化する。具体的には、ドア周辺エリアE0は図3(a)乃至図3(d)に示すように変化する。まず、かごドア13の戸閉が開始されると、ドア周辺エリアE0は、図3(a)に示すように、かごドア13の両先端部付近にそれぞれ設定される。その後、かごドア13の戸閉が進むにつれて、2つのドア周辺エリアE0は図3(b)に示すように互いに近づいていき、さらにかごドア13の戸閉が進むと、これらドア周辺エリアE0は図3(c)に示すように重畳する(つまり、ドア周辺エリアE0は徐々に小さくなる)。最終的に、かごドア13が戸閉し終わると、ドア周辺エリアE0は図3(d)に示すように無くなる。   As described above, the door peripheral area E0 has an arbitrary distance M1 from both ends of the car door 13 with respect to the door closing direction of the car door 13, and thus changes with the door closing of the car door 13. Specifically, the door peripheral area E0 changes as shown in FIGS. 3 (a) to 3 (d). First, when the door closing of the car door 13 is started, the door peripheral area E0 is set in the vicinity of both ends of the car door 13 as shown in FIG. Thereafter, as the door closing of the car door 13 proceeds, the two door peripheral areas E0 approach each other as shown in FIG. 3B, and when the door closing of the car door 13 further proceeds, these door peripheral areas E0 As shown in FIG. 3C, they are superimposed (that is, the door peripheral area E0 is gradually reduced). Finally, when the car door 13 is closed, the door peripheral area E0 disappears as shown in FIG.

なお、ここでは、ドア周辺エリアE0が、図2に示すように、かごドア13の戸閉方向にM1の距離を有し、奥行き方向にM2の距離を有する矩形のエリアである場合を想定しているが、これに限定されず、ドア周辺エリアE0には、乗りかご11内の一部がさらに含まれていても良い。具体的には、ドア周辺エリアE0は図4に示すようにL字型であっても良い。このようにドア周辺エリアE0をL字型にすることで、後述する紐状物体検出部33において実行される検出処理での検出範囲を広げることができると共に、実空間における高さを考慮した検出処理を実行することができるようになる。但し、低解像度でない画像を利用した紐状物体検出部33での検出処理は処理負荷が大きいため、ドア周辺エリアE0に含める乗りかご11内の一部は、当該検出処理の処理速度に影響を及ぼさない程度の大きさであるものとする。   Here, it is assumed that the door peripheral area E0 is a rectangular area having a distance of M1 in the door closing direction of the car door 13 and a distance of M2 in the depth direction as shown in FIG. However, the present invention is not limited to this, and the door peripheral area E0 may further include a part of the car 11. Specifically, the door peripheral area E0 may be L-shaped as shown in FIG. In this way, by making the door peripheral area E0 L-shaped, the detection range in the detection process executed by the string-like object detection unit 33 described later can be expanded, and detection in consideration of the height in the real space The process can be executed. However, since the detection processing by the string-like object detection unit 33 using an image having a low resolution has a large processing load, a part of the car 11 included in the door peripheral area E0 affects the processing speed of the detection processing. It is assumed that the size does not reach.

また、ドア周辺エリアE0には、カメラ12近傍に設けられる光源から光が照射されても良い。これによれば、後述する紐状物体検出部33において実行される検出処理の精度(紐状の物体を検出する精度)を高めることができる。   The door peripheral area E0 may be irradiated with light from a light source provided in the vicinity of the camera 12. According to this, the accuracy of detection processing (accuracy for detecting a string-like object) executed in the string-like object detection unit 33 described later can be improved.

画像処理装置30には、記憶部31、利用者検出部32及び紐状物体検出部33が備えられている。記憶部31は、画像前処理装置20から送られた低解像度の各画像と、各ドア周辺画像とを逐次記憶すると共に、利用者検出部32及び紐状物体検出部33の処理に必要なデータを一時的に保持しておくためのバッファエリアを有する。   The image processing apparatus 30 includes a storage unit 31, a user detection unit 32, and a string object detection unit 33. The storage unit 31 sequentially stores low-resolution images and door peripheral images sent from the image preprocessing device 20 and data necessary for processing by the user detection unit 32 and the string-like object detection unit 33. Has a buffer area for temporarily storing.

利用者検出部32は、画像前処理装置20から送られてくる低解像度の各画像の中でかごドア13に最も近い人・物の動きに着目して乗車意思のある利用者の有無を検出(判定)する。この利用者検出部32を機能的に分けると、動き検出部32a、位置推定部32b、乗車意思推定部32cで構成される。   The user detection unit 32 detects the presence / absence of a user who intends to get on the vehicle by paying attention to the movement of the person / thing closest to the car door 13 among the low-resolution images sent from the image preprocessing device 20. (judge. If this user detection part 32 is divided functionally, it will be comprised by the motion detection part 32a, the position estimation part 32b, and the boarding intention estimation part 32c.

動き検出部32aは、低解像度の各画像の輝度をブロック単位で比較して人・物の動きを検出する。ここで言う「人・物の動き」とは、乗場15の人物や車椅子などの移動体の動きのことである。なお、本実施形態においては、画像の輝度に着目して人・物の動きを検出するが、人・物の動きを検出する方法はこれに限定されず、例えば、画像の明度や彩度を利用して、人・物の動きが検出されても良い。   The motion detection unit 32a detects the motion of a person / thing by comparing the luminance of each low-resolution image in units of blocks. The “movement of a person / thing” here refers to the movement of a person on the hall 15 or a moving body such as a wheelchair. In the present embodiment, the movement of a person / thing is detected by paying attention to the luminance of the image. However, the method for detecting the movement of the person / thing is not limited to this. The movement of a person / thing may be detected by using it.

位置推定部32bは、動き検出部32aによって低解像度の各画像毎に検出された動きありのブロックの中からかごドア13に最も近いブロックを抽出し、当該ブロックにおけるかごドア13の中心(ドア間口の中心)から乗場方向の座標位置を利用者の位置(足元位置)として推定する。   The position estimation unit 32b extracts the block closest to the car door 13 from the blocks with motion detected for each low-resolution image by the motion detection unit 32a, and the center of the car door 13 in the block (the door opening) The coordinate position in the hall direction is estimated as the user's position (foot position).

乗車意思推定部32cは、位置推定部32bによって推定された位置の時系列変化に基づいて当該利用者の乗車意思の有無を判定する。   The boarding intention estimation unit 32c determines whether or not the user has a boarding intention based on the time series change of the position estimated by the position estimation unit 32b.

紐状物体検出部33は、画像前処理装置20から送られてくる各ドア周辺画像の中の細かな物の動きに着目して、かごドア13に挟まれる可能性がある物体(例えばペットを繋ぐ紐などの紐状の物体)の有無を検出(判定)する。ここで言う「細かな物の動き」とは、かごドア13に挟まれる可能性のある紐状の物体の揺れ(動き)のことである。   The string-like object detection unit 33 pays attention to the movement of small objects in each door peripheral image sent from the image preprocessing device 20, and an object (for example, a pet) that may be pinched by the car door 13. The presence or absence of a string-like object such as a string to be connected is detected (determined). The “movement of a fine object” referred to here is a swaying (movement) of a string-like object that may be pinched by the car door 13.

かご制御装置40は、図示しないエレベータ制御装置に接続され、このエレベータ制御装置との間で乗場呼び・かご呼びなどの各種信号を送受信する。なお、「乗場呼び」とは、各階の乗場15に設置された図示しない乗場呼び釦の操作によって登録される呼びの信号のことであり、登録階と行先方向の情報を含む。「かご呼び」とは、乗りかご11のかご室内に設けられた図示しない行先呼び釦の操作によって登録される呼びの信号のことであり、行先階の情報を含む。   The car control device 40 is connected to an elevator control device (not shown), and transmits and receives various signals such as hall calls and car calls to and from the elevator control device. The “call to hall” is a call signal registered by operating a hall call button (not shown) installed at the hall 15 on each floor, and includes information on the registered floor and the destination direction. The “car call” is a call signal registered by operating a destination call button (not shown) provided in the car room of the car 11, and includes information on the destination floor.

また、かご制御装置40は、戸開閉制御部41を備える。戸開閉制御部41は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部41は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。但し、かごドア13の戸開閉中に画像処理装置30の利用者検出部32によって乗車意思のある人物が検出された場合、または、かごドア13の戸閉中に画像処理装置30の紐状物体検出部33によって紐状の物体が検出された場合には、戸開閉制御部41は、かごドア13の戸閉動作を禁止して戸開状態を維持する、または、戸閉途中のかごドア13を再度戸開(リオープン)する。   In addition, the car control device 40 includes a door opening / closing control unit 41. The door opening / closing control unit 41 controls the door opening / closing of the car door 13 when the car 11 arrives at the landing 15. Specifically, the door opening / closing control unit 41 opens the car door 13 when the car 11 arrives at the landing 15 and closes the door after a predetermined time. However, when a person who intends to get on is detected by the user detection unit 32 of the image processing device 30 while the car door 13 is opened and closed, or when the car door 13 is closed, the string-like object of the image processing device 30 is used. When a string-like object is detected by the detection unit 33, the door opening / closing control unit 41 prohibits the door closing operation of the car door 13 and maintains the door open state, or the car door 13 in the middle of the door closing. Is opened again.

図5は、カメラ12によって撮影された画像の一例を示す図である。図中のE1は位置推定領域、yは利用者の足元位置が検出されたY座標を示している。図6は、記憶部31に記憶される画像(低解像度の画像、ドア周辺画像)をブロック単位で区切った状態を示す図である。なお、画像を一辺Wblockの格子状に区切ったものを「ブロック」と呼ぶ。但し、1ブロックに含まれる画素数は一定であるものとする。つまり、低解像度の画像よりも解像度が高いドア周辺画像を格子状に区切ることによって得られるブロックの一辺Wblockは、低解像度の画像を格子状に区切ることによって得られるブロックの一辺Wblockよりも短くなる。 FIG. 5 is a diagram illustrating an example of an image photographed by the camera 12. E1 position estimation region in the figure, y n denotes the Y coordinate of the foot position of the user is detected. FIG. 6 is a diagram illustrating a state in which images (low-resolution images, door peripheral images) stored in the storage unit 31 are divided in units of blocks. An image obtained by dividing an image into a grid of one side W block is called a “block”. However, the number of pixels included in one block is assumed to be constant. That is, one side W block of a block obtained by dividing a door peripheral image having a higher resolution than that of a low resolution image in a grid pattern is larger than one side W block of a block obtained by dividing a low resolution image in a grid pattern. Shorter.

利用者検出部32では、図6に示すように、記憶部31に記憶される低解像度の画像を所定サイズのブロックに区切り、人・物の動きがあるブロックを検出し、その動きありのブロックを追うことで乗車意思のある利用者か否かを判断している。同様に、紐状物体検出部33においても、図6に示すように、記憶部31に記憶されるドア周辺画像を所定サイズのブロックに区切り、細かな物の動きがあるブロックを検出し、かごドア13に挟まれる可能性のある物体の有無を判断している。   As shown in FIG. 6, the user detection unit 32 divides the low-resolution image stored in the storage unit 31 into blocks of a predetermined size, detects blocks with movement of people and objects, and blocks with the movement It is determined whether or not the user is willing to board. Similarly, in the string-like object detection unit 33, as shown in FIG. 6, the door peripheral image stored in the storage unit 31 is divided into blocks of a predetermined size, and a block with a small movement is detected. The presence / absence of an object that may be pinched by the door 13 is determined.

なお、図6の例では、ブロックの縦横の長さが同じであるが、縦と横の長さが異なっていても良い。また、画像全域にわたってブロックを均一な大きさとしても良いし、例えば画像上部ほど縦(Y方向)の長さを短くするなどの不均一な大きさにしても良い。これらにより、後に推定する足元位置をより高い分解能或いは実空間での均一な分解能で求めることができる(画像上で均一に区切ると、実空間ではかごドア13から遠い方ほど疎な分解能となる)。   In the example of FIG. 6, the vertical and horizontal lengths of the blocks are the same, but the vertical and horizontal lengths may be different. Further, the blocks may be uniform in size over the entire image, or may be non-uniform in size, such as shortening the length in the vertical direction (Y direction) toward the top of the image. Thus, the foot position estimated later can be obtained with a higher resolution or a uniform resolution in the real space (if it is divided uniformly on the image, the farther away from the car door 13 is, the smaller the resolution is in the real space). .

図7は実空間での検出エリアを説明するための図であって、図8は実空間での座標系を説明するための図である。   FIG. 7 is a diagram for explaining a detection area in the real space, and FIG. 8 is a diagram for explaining a coordinate system in the real space.

低解像度の画像から乗車意思のある利用者の動きを検出するため、まず、ブロック毎に動き検出エリアを設定しておく。具体的には、図7に示すように、少なくとも位置推定エリアE1と乗車意思推定エリアE2を設定しておく。位置推定エリアE1は、乗場15からかごドア13に向かってくる利用者の身体の一部、具体的には利用者の足元位置を推定するエリアである。乗車意思推定エリアE2は、位置推定エリアE1で検知された利用者に乗車意思があるか否かを推定するエリアである。なお、乗車意思推定エリアE2は、上記位置推定エリアE1に含まれ、利用者の足元位置を推定するエリアでもある。すなわち、乗車意思推定エリアE2では、利用者の足元位置を推定すると共に当該利用者の乗車意思を推定する。   In order to detect the movement of a user who intends to get on the board from a low-resolution image, first, a movement detection area is set for each block. Specifically, as shown in FIG. 7, at least a position estimation area E1 and a boarding intention estimation area E2 are set. The position estimation area E1 is an area for estimating a part of the user's body coming from the landing 15 toward the car door 13, specifically the position of the user's feet. The boarding intention estimation area E2 is an area for estimating whether or not the user detected in the position estimation area E1 has a boarding intention. The boarding intention estimation area E2 is included in the position estimation area E1 and is an area for estimating the user's foot position. That is, in the boarding intention estimation area E2, the user's stepping position is estimated and the user's boarding intention is estimated.

実空間において、位置推定エリアE1はかごドア13の中心から乗場方向に向かってL3の距離を有し、例えば2mに設定されている(L3≦乗場側の撮影範囲L1)。位置推定エリアE1の横幅W1は、かごドア13の横幅W0以上の距離に設定されている。乗車意思推定エリアE2はかごドア13の中心から乗場方向に向かってL4の距離を有し、例えば1mに設定されている(L4≦L3)。乗車意思推定エリアE2の横幅W2は、かごドア13の横幅W0と略同じ距離に設定されている。   In the real space, the position estimation area E1 has a distance L3 from the center of the car door 13 toward the landing, and is set to 2 m, for example (L3 ≦ shooting range L1 on the landing side). The lateral width W1 of the position estimation area E1 is set to a distance equal to or greater than the lateral width W0 of the car door 13. The boarding intention estimation area E2 has a distance L4 from the center of the car door 13 toward the boarding direction, and is set to 1 m, for example (L4 ≦ L3). The lateral width W2 of the boarding intention estimation area E2 is set to be approximately the same distance as the lateral width W0 of the car door 13.

なお、乗車意思推定エリアE2の横幅W2はW0よりも横幅が大きくても良い。また、乗車意思推定エリアE2は実空間で長方形ではなく、三方枠の死角を除く台形であっても良い。   The lateral width W2 of the boarding intention estimation area E2 may be larger than W0. Further, the boarding intention estimation area E2 may be a trapezoid excluding a blind spot in a three-sided frame instead of a rectangle in real space.

ここで、図8に示すように、カメラ12は、乗りかご11の出入口に設けられたかごドア13と水平の方向をX軸、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸、乗りかご11の高さ方向をZ軸とした画像を撮影する。このカメラ12によって撮影された各画像(低解像度の画像、ドア周辺画像)において、図7に示した位置推定エリアE1及び乗車意思推定エリアE2の部分をブロック単位で比較することで、かごドア13の中心から乗場15の方向、つまりY軸方向に移動中の利用者の足元位置の動きを検出する。   Here, as shown in FIG. 8, the camera 12 has a horizontal direction with respect to the car door 13 provided at the entrance of the car 11 in the X axis, and from the center of the car door 13 to the landing 15 (with respect to the car door 13). The vertical direction) is taken as the Y axis, and the height direction of the car 11 is taken as the Z axis. In each image (low-resolution image, door peripheral image) photographed by the camera 12, the portion of the position estimation area E1 and the boarding intention estimation area E2 shown in FIG. The movement of the foot position of the user moving in the direction of the hall 15 from the center of the vehicle, that is, the Y-axis direction is detected.

この様子を図9及び図10に示す。
図9及び図10は画像比較による動き検出を説明するための図である。図9は時間tで撮影された画像の一部、図10は時間t+1で撮影された画像の一部を模式的に示している。
This is shown in FIGS.
9 and 10 are diagrams for explaining motion detection by image comparison. FIG. 9 schematically shows a part of an image taken at time t, and FIG. 10 schematically shows a part of an image taken at time t + 1.

図中のP1,P2は撮影画像上で動きありとして検出された利用者の画像部分であり、実際には画像比較により動きありとして検出されたブロックの集合体である。画像部分P1,P2の中でかごドア13に最も近い動きありのブロックBxを抽出し、そのブロックBxのY座標を追うことで乗車意思の有無を判定する。この場合、Y軸方向に点線で示すような等距離線(かごドア13と平行な等間隔の水平線)を引けば、ブロックBxとかごドア13とのY軸方向の距離が分かる。   P1 and P2 in the figure are user image portions detected as having motion on the photographed image, and are actually a collection of blocks detected as having motion by image comparison. A block Bx having a motion closest to the car door 13 is extracted from the image portions P1 and P2, and the presence or absence of a ride is determined by following the Y coordinate of the block Bx. In this case, the distance in the Y-axis direction between the block Bx and the car door 13 can be determined by drawing equidistant lines (horizontal lines at equal intervals parallel to the car door 13) as indicated by dotted lines in the Y-axis direction.

図9及び図10の例では、かごドア13に最も近い動きありのブロックBxの検出位置がy→yn−1に変化しており、利用者がかごドア13に近づいてくることがわかる。 In the example of FIGS. 9 and 10, the detection position of the block Bx of the most close motion to the car door 13 is changed to y n → y n-1, it can be seen that the user approaches the car door 13 .

次に、図11のフローチャートを参照して、利用者検出部32で実行される利用者検出処理の手順について詳しく説明する。
乗りかご11のかごドア13が全戸開の状態から所定の時間が経過すると(または、乗りかご11内に設けられた図示しない戸閉釦が押下されると)、戸開閉制御部41によって戸閉動作が開始される(ステップS1)。このとき、カメラ12の撮影動作はかごドア13の戸開時から継続的に行われている。画像前処理装置20の解像度低下処理部21は、このカメラ12によって連続的に撮影された画像を取得し、これら画像に対して解像度を低下させる処理を実行する。これにより、カメラ12によって撮影された画像よりも解像度の低い画像が生成される(ステップS2)。画像処理装置30は、画像前処理装置20によって生成された低解像度の画像を取得し、これら画像を記憶部31に逐次記憶しながら(ステップS3)、利用者検出処理をリアルタイムで実行する(ステップS4)。
Next, the procedure of the user detection process executed by the user detection unit 32 will be described in detail with reference to the flowchart of FIG.
When a predetermined time elapses after the car door 13 of the car 11 is fully open (or when a door closing button (not shown) provided in the car 11 is pressed), the door opening / closing control unit 41 closes the door. The operation is started (step S1). At this time, the photographing operation of the camera 12 is continuously performed from when the car door 13 is opened. The resolution reduction processing unit 21 of the image preprocessing device 20 acquires images continuously captured by the camera 12 and executes a process for reducing the resolution of these images. As a result, an image having a lower resolution than the image captured by the camera 12 is generated (step S2). The image processing device 30 acquires the low-resolution images generated by the image preprocessing device 20, and sequentially stores these images in the storage unit 31 (step S3), and executes the user detection process in real time (step S3). S4).

利用者検出処理は、画像処理装置30に備えられた利用者検出部32によって実行される。この利用者検出処理は、動き検出処理(ステップS4a)、位置推定処理(ステップS4b)、乗車意思推定処理(ステップS4c)に分けられる。   The user detection process is executed by a user detection unit 32 provided in the image processing apparatus 30. This user detection process is divided into a motion detection process (step S4a), a position estimation process (step S4b), and a boarding intention estimation process (step S4c).

(a)動き検出処理
図12は上記ステップS4aの動き検出処理の手順を示すフローチャートである。この動き検出処理は、利用者検出部32の構成要素の1つである動き検出部32aで実行される。ここでは、人・物の動きを検出するために、画像の輝度が利用される場合を想定して説明する。
(A) Motion Detection Process FIG. 12 is a flowchart showing the procedure of the motion detection process in step S4a. This motion detection process is executed by the motion detection unit 32a which is one of the components of the user detection unit 32. Here, the case where the luminance of an image is used to detect the movement of a person / thing will be described.

動き検出部32aは、記憶部31に記憶された低解像度の各画像を1枚ずつ読み出し、各画像を格子状に区切り、これにより得られるブロック毎の平均輝度値を算出する(ステップA1)。その際、動き検出部32aは、初期値として、時系列的に最初の画像から算出されたブロック毎の平均輝度値を記憶部31内の図示しないバッファエリアに保持しておくものとする(ステップA2)。   The motion detection unit 32a reads out each low-resolution image stored in the storage unit 31 one by one, divides each image into a grid, and calculates an average luminance value for each block obtained thereby (step A1). At this time, the motion detection unit 32a holds, as an initial value, an average luminance value for each block calculated from the first image in time series in a buffer area (not shown) in the storage unit 31 (Step S31). A2).

2枚目以降の低解像度の画像が読み出されると、動き検出部32aは、現在の画像のブロック毎の平均輝度値と、バッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較する(ステップA3)。その結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、動き検出部32aは、当該ブロックを動きありのブロックとして判定する(ステップA4)。   When the second and subsequent low-resolution images are read, the motion detection unit 32a reads the average luminance value for each block of the current image and the average luminance value for each block of the previous image held in the buffer area. Are compared (step A3). As a result, when there is a block having a luminance difference equal to or larger than a preset value in the current image, the motion detection unit 32a determines the block as a block with motion (step A4).

現在の画像に対する動きの有無を判定すると、動き検出部32aは、当該画像のブロック毎の平均輝度値を次の画像との比較用として上記バッファエリアに保持する(ステップA5)。   When determining the presence or absence of motion for the current image, the motion detection unit 32a holds the average luminance value for each block of the image in the buffer area for comparison with the next image (step A5).

以降同様にして、動き検出部32aは、記憶部31に記憶された低解像度の画像の輝度値を時系列順にブロック単位で比較しながら動きの有無を判定することを繰り返す。   Thereafter, in the same manner, the motion detection unit 32a repeatedly determines the presence or absence of motion while comparing the luminance values of the low resolution images stored in the storage unit 31 in block units in time series.

(b)位置推定処理
図13は上記ステップS4bの位置推定処理の手順を示すフローチャートである。この位置推定処理は、利用者検出部32の構成要素の1つである位置推定部32bで実行される。
(B) Position estimation process FIG. 13 is a flowchart showing the procedure of the position estimation process in step S4b. This position estimation process is executed by the position estimation unit 32b which is one of the components of the user detection unit 32.

位置推定部32bは、動き検出部32aの検出結果に基づいて現在の画像の中で動きありのブロックをチェックする(ステップB1)。その結果、図7に示した位置推定エリアE1内に動きありのブロックが存在した場合、利用者検出部32は、その動きありのブロックのうち、かごドア13に最も近いブロックを抽出する(ステップB2)。   The position estimation unit 32b checks a block with motion in the current image based on the detection result of the motion detection unit 32a (step B1). As a result, when there is a block with movement in the position estimation area E1 shown in FIG. 7, the user detection unit 32 extracts a block closest to the car door 13 from among the blocks with movement (step) B2).

ここで、図1に示したように、カメラ12は乗りかご11の出入口上部に乗場15に向けて設置されている。したがって、利用者が乗場15からかごドア13に向かっていた場合には、その利用者の右または左の足元の部分が撮影画像の一番手前、つまりかごドア13側のブロックに映っている可能性が高い。そこで、位置推定部32bは、かごドア13に最も近い動きありのブロックのY座標(かごドア13の中心から乗場15方向の座標)を利用者の足元位置のデータとして求め、記憶部31内の図示しないバッファエリアに保持する(ステップB3)。   Here, as shown in FIG. 1, the camera 12 is installed at the upper part of the entrance / exit of the car 11 toward the landing 15. Therefore, when the user is heading from the landing 15 toward the car door 13, the right or left foot portion of the user may be reflected in the foreground of the captured image, that is, in the block on the car door 13 side. High nature. Therefore, the position estimation unit 32b obtains the Y coordinate (the coordinate in the direction of the landing 15 from the center of the car door 13) of the block with the movement closest to the car door 13 as data of the user's foot position, and stores it in the storage unit 31. It is held in a buffer area (not shown) (step B3).

以降同様にして、位置推定部32bは、各画像毎にかごドア13に最も近い動きありのブロックのY座標を利用者の足元位置のデータとして求め、上記バッファエリアに保持していく。なお、このような足元位置の推定処理は、位置推定エリアE1内だけでなく、乗車意思推定エリアE2内でも同様に行われている。   In the same manner, the position estimation unit 32b obtains the Y coordinate of the block with the movement closest to the car door 13 for each image as data of the user's foot position, and holds it in the buffer area. Note that such a foot position estimation process is performed not only in the position estimation area E1 but also in the boarding intention estimation area E2.

(c)乗車意思推定処理
図14は上記ステップS4cの乗車意思推定処理を示すフローチャートである。この乗車意思推定処理は、利用者検出部32の構成要素の1つである乗車意思推定部32cで実行される。
(C) Ride intention estimation process FIG. 14 is a flowchart showing the ride intention estimation process in step S4c. This boarding intention estimation process is executed by the boarding intention estimation unit 32c, which is one of the components of the user detection unit 32.

乗車意思推定部32cは、記憶部31内の図示しないバッファエリアに保持された各画像の利用者の足元位置のデータを平滑化する(ステップC1)。なお、平滑化の方法としては、例えば平均値フィルタやカルマンフィルタなどの一般的に知られている方法を用いるものとし、ここではその詳しい説明を省略する。   The boarding intention estimation unit 32c smoothes the user's foot position data of each image held in a buffer area (not shown) in the storage unit 31 (step C1). As a smoothing method, for example, a generally known method such as an average value filter or a Kalman filter is used, and detailed description thereof is omitted here.

足元位置のデータを平滑化したとき、変化量が所定値以上のデータが存在した場合(ステップC2のYES)、乗車意思推定部32cは、そのデータを外れ値として除外する(ステップC3)。なお、上記所定値は、利用者の標準的な歩行速度と撮影画像のフレームレートによって決められている。また、足元位置のデータを平滑化する前に外れ値を見つけて除外しておいても良い。   When the data at the foot position is smoothed and there is data whose change amount is equal to or greater than the predetermined value (YES in step C2), the boarding intention estimation unit 32c excludes the data as an outlier (step C3). The predetermined value is determined by the standard walking speed of the user and the frame rate of the captured image. Further, outliers may be found and excluded before smoothing the data at the foot position.

図15に足元位置の変化状態を示す。横軸が時間、縦軸が位置(Y座標値)を示している。利用者が乗場15からかごドア13に向かって歩いてくる場合、時間経過に伴い、利用者の足元位置のY座標値が徐々に小さくなる。   FIG. 15 shows a change state of the foot position. The horizontal axis indicates time, and the vertical axis indicates the position (Y coordinate value). When the user walks from the landing 15 toward the car door 13, the Y coordinate value of the user's foot position gradually decreases with time.

なお、例えば車椅子などの移動体であれば点線で示すような直線的なデータ変化になるが、利用者の場合には左右の足元が交互に検出されるので、実線のように湾曲したデータ変化になる。また、検出結果に何らかのノイズが入り込むと、瞬間的な足元位置の変化量が大きくなる。このような変化量の大きい足元位置のデータは外れ値として除外しておく。   For example, in the case of a moving body such as a wheelchair, the data changes linearly as shown by a dotted line, but in the case of a user, the left and right feet are detected alternately, so the data change curved as shown by a solid line become. Further, when some noise enters the detection result, the amount of instantaneous change in the foot position increases. Such foot position data having a large change amount is excluded as an outlier.

ここで、乗車意思推定部32cは、図7に示した乗車意思推定エリアE2内の足元位置の動き(データ変化)を確認する(ステップC4)。その結果、乗車意思推定エリアE2内でY軸方向へかごドア13に向かっている利用者の足元位置の動き(データ変化)を確認できた場合には(ステップC5のYES)、乗車意思推定部32cは、当該利用者に乗車意思ありと判断する(ステップC6)。   Here, the boarding intention estimation part 32c confirms the motion (data change) of the foot position in the boarding intention estimation area E2 shown in FIG. 7 (step C4). As a result, if the movement (data change) of the user's foot position toward the car door 13 in the Y-axis direction in the boarding intention estimation area E2 can be confirmed (YES in step C5), the boarding intention estimation unit 32c determines that the user has an intention to board (step C6).

一方、乗車意思推定エリアE2内でY軸方向にかごドア13に向かっている利用者の足元位置の動きを確認できなかった場合には(ステップC5のNO)、乗車意思推定部32cは、当該利用者に乗車意思なしと判断する(ステップC7)。   On the other hand, when the movement of the user's foot position toward the car door 13 in the Y-axis direction within the boarding intention estimation area E2 cannot be confirmed (NO in step C5), the boarding intention estimation unit 32c It is determined that the user does not intend to board (step C7).

このように、かごドア13に最も近い動きありのブロックを利用者の足元位置とみなし、その足元位置のY軸方向の時間的な変化を追跡することで利用者の乗車意思の有無を推定することができる。   In this way, the block with the movement closest to the car door 13 is regarded as the user's foot position, and the presence / absence of the user's intention to board is estimated by tracking the temporal change of the foot position in the Y-axis direction. be able to.

図11に戻って、乗車意思ありの利用者が検出されると(ステップS5のYES)、画像処理装置30からかご制御装置40に対して戸開指示信号が出力される。かご制御装置40の戸開閉制御部41は、戸閉中に戸開指示信号を受信すると、かごドア13の戸閉動作を中断して再度戸開動作(リオープン)を行う(ステップS6)。   Returning to FIG. 11, when a user with an intention to board is detected (YES in step S <b> 5), a door opening instruction signal is output from the image processing device 30 to the car control device 40. When the door opening / closing control unit 41 of the car control device 40 receives the door opening instruction signal during door closing, the door opening / closing operation of the car door 13 is interrupted and the door opening operation (reopening) is performed again (step S6).

以降は、戸開閉制御部41によって再度戸閉動作が開始される度に、上記ステップS1の処理に戻って、同様の処理が繰り返し実行される。   Thereafter, each time the door closing operation is started again by the door opening / closing control unit 41, the process returns to step S1 and the same process is repeatedly executed.

次に、図16のフローチャートを参照して、紐状物体検出部33で実行される紐状物体検出処理の手順について詳しく説明する。この紐状物体検出処理は、図11に示す利用者検出処理と並行して実行される。また、上述した動き検出処理と同様に、本処理においても、かごドア13に挟まれる可能性のある物体を検出するために、画像の輝度が利用される場合を想定して説明する。   Next, a string-like object detection process executed by the string-like object detection unit 33 will be described in detail with reference to the flowchart of FIG. This string-like object detection process is executed in parallel with the user detection process shown in FIG. Similarly to the motion detection process described above, this process will be described on the assumption that the brightness of the image is used to detect an object that may be pinched by the car door 13.

乗りかご11のかごドア13が全戸開の状態から所定の時間が経過すると(または、乗りかご11内に設けられた図示しない戸閉釦が押下されると)、戸開閉制御部41によって戸閉動作が開始される(ステップS11)。このとき、カメラ12の撮影動作はかごドア13の戸開時から継続的に行われている。画像前処理装置20のドア周辺画像生成部22は、このカメラ12によって連続的に撮影された画像を取得し、これら画像からドア周辺エリアE0を抽出する。これにより、ドア周辺エリアE0だけが映された(高解像度の)ドア周辺画像が生成される(ステップS12)。画像処理装置30は、画像前処理装置20によって生成された(高解像度の)ドア周辺画像を取得し、これら画像を記憶部31に逐次記憶しながら(ステップS13)、紐状物体検出処理をリアルタイムで実行する。   When a predetermined time elapses after the car door 13 of the car 11 is fully open (or when a door closing button (not shown) provided in the car 11 is pressed), the door opening / closing control unit 41 closes the door. The operation is started (step S11). At this time, the photographing operation of the camera 12 is continuously performed from when the car door 13 is opened. The door peripheral image generation unit 22 of the image preprocessing device 20 acquires images continuously captured by the camera 12, and extracts the door peripheral area E0 from these images. As a result, a door peripheral image (high resolution) in which only the door peripheral area E0 is shown is generated (step S12). The image processing apparatus 30 acquires (high-resolution) door peripheral images generated by the image preprocessing apparatus 20, and sequentially stores these images in the storage unit 31 (step S13), while performing string object detection processing in real time. Run with.

画像処理装置30内の紐状物体検出部33は、記憶部31に記憶されたドア周辺画像を1枚ずつ読み出し、各ドア周辺画像を格子状に区切り、これにより得られるブロック毎の平均輝度値を算出する(ステップS14)。その際、紐状物体検出部33は、初期値として、時系列的に最初の画像から算出されたブロック毎の平均輝度値を記憶部31内の図示しないバッファエリアに保持しておくものとする(ステップS15)。   The string-like object detection unit 33 in the image processing device 30 reads the door peripheral images stored in the storage unit 31 one by one, divides each door peripheral image into a grid, and the average luminance value for each block obtained thereby Is calculated (step S14). At that time, the string-like object detection unit 33 holds, as an initial value, an average luminance value for each block calculated from the first image in time series in a buffer area (not shown) in the storage unit 31. (Step S15).

2枚目以降のドア周辺画像が読み出されると、紐状物体検出部33は、現在の画像のブロック毎の平均輝度値と、上記バッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較することで、かごドア13に挟まれる可能性のある物体が存在するか否かを判定する(ステップS16)。詳しくは、比較の結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、紐状物体検出部33は、当該ブロックを動きありのブロックとして判定し、かごドア13に挟まれる可能性のある物体が存在すると判定する。つまり、かごドア13に挟まれる可能性のある物体が検出される。   When the second and subsequent door peripheral images are read, the string-like object detection unit 33 reads the average luminance value for each block of the current image and the average for each block of the previous image held in the buffer area. By comparing with the luminance value, it is determined whether or not there is an object that may be pinched by the car door 13 (step S16). Specifically, if there is a block having a luminance difference equal to or greater than a preset value in the current image as a result of the comparison, the string-like object detection unit 33 determines the block as a block with motion. It is determined that there is an object that may be caught between the car doors 13. That is, an object that can be caught between the car doors 13 is detected.

かごドア13に挟まれる可能性のある物体が検出されると(ステップS16のYES)、画像処理装置30からかご制御装置40に対して戸開指示信号が出力される。かご制御装置40の戸開閉制御部41は、戸閉中に戸開指示信号を受信すると、かごドア13の戸閉動作を中断して再度戸開動作(リオープン)を行う(ステップS17)。   When an object that may be caught by the car door 13 is detected (YES in step S16), a door opening instruction signal is output from the image processing device 30 to the car control device 40. When the door opening / closing control unit 41 of the car control device 40 receives the door opening instruction signal while the door is closed, the door closing operation of the car door 13 is interrupted and the door opening operation (reopening) is performed again (step S17).

以降は、戸開閉制御部41によって再度戸閉動作が開始される度に、上記ステップS11の処理に戻って、同様の処理が繰り返し実行される。   Thereafter, every time the door closing operation is started again by the door opening / closing control unit 41, the process returns to step S11 and the same process is repeatedly executed.

以上説明した一実施形態によれば、画像処理装置30は、低解像度の画像を用いて乗場15にいる人物を検出するための利用者検出処理を実行する一方で、解像度を低下させずにドア周辺エリアE0だけが映されたドア周辺画像を用いてかごドア13に挟まれる可能性のある物体を検出するための紐状物体検出処理を実行する構成を備えている。この構成によれば、エリアをドア周辺エリアE0に限定した上で、紐状の物体を検出可能な高解像度の画像を利用しているので、処理負荷が軽く、人物だけでなく、細い紐状の物体もリアルタイムで検出することができる。   According to the embodiment described above, the image processing apparatus 30 performs the user detection process for detecting the person at the hall 15 using the low-resolution image, but does not reduce the resolution. A string-like object detection process for detecting an object that may be caught by the car door 13 using a door peripheral image in which only the peripheral area E0 is shown is provided. According to this configuration, since the area is limited to the door peripheral area E0 and a high-resolution image that can detect a string-like object is used, the processing load is light and not only a person but also a thin string-like shape is used. This object can also be detected in real time.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

11…乗りかご、12…カメラ、13…かごドア、14…乗場ドア、15…乗場、20…画像前処理装置、21…解像度低下処理部、22…ドア周辺画像生成部、30…画像処理装置、31…記憶部、32…利用者検出部、32a…動き検出部、32b…位置推定部、32c…乗車意志推定部、33…紐状物体検出部、40…かご制御装置、41…戸開閉制御部、E0…ドア周辺エリア、E1…利用者位置推定エリア、E2…乗車意思推定エリア。   DESCRIPTION OF SYMBOLS 11 ... Car, 12 ... Camera, 13 ... Car door, 14 ... Landing door, 15 ... Landing place, 20 ... Image pre-processing apparatus, 21 ... Resolution reduction processing part, 22 ... Door periphery image generation part, 30 ... Image processing apparatus , 31, storage unit, 32, user detection unit, 32 a, motion detection unit, 32 b, position estimation unit, 32 c, ride intention estimation unit, 33, string object detection unit, 40, car control device, 41, door open / close Control unit, E0 ... door peripheral area, E1 ... user position estimation area, E2 ... boarding intention estimation area.

Claims (4)

乗りかごのドアの戸開閉中にカメラによって連続的に撮影された複数枚の画像に関し、撮影時よりも解像度の低い複数枚の第1画像を取得する第1画像取得手段と、
前記第1画像取得手段によって取得された複数枚の第1画像をブロック単位で比較して、乗場にいる人物の動きを検出する第1動き検出手段と、
前記カメラによって連続的に撮影された複数枚の画像に関し、ドア周辺のエリアだけが映された複数枚の第2画像を取得する第2画像取得手段と、
前記第2画像取得手段によって取得された複数枚の第2画像をブロック単位で比較して、前記ドア周辺のエリア内の物体の動きを検出する第2動き検出手段と、
前記第1動き検出手段及び前記第2動き検出手段のうちの少なくとも一方によって動きありのブロックが検出された場合に、前記乗りかごのドアを戸開させるための戸開指示信号を、前記乗りかごのドアの戸開閉を制御するかご制御装置に出力する信号出力手段と
を具備し、
前記第2画像は、前記第1画像よりも解像度が高いことを特徴とする画像処理装置。
First image acquisition means for acquiring a plurality of first images having a resolution lower than that at the time of shooting, with respect to the plurality of images continuously shot by the camera while the door of the car door is opened and closed;
A first motion detecting means for comparing a plurality of first images acquired by the first image acquiring means in units of blocks and detecting a motion of a person on the landing;
Second image acquisition means for acquiring a plurality of second images in which only the area around the door is displayed with respect to the plurality of images continuously captured by the camera;
A second motion detection means for comparing a plurality of second images acquired by the second image acquisition means in block units and detecting a motion of an object in the area around the door;
When a block with motion is detected by at least one of the first motion detection means and the second motion detection means, a door opening instruction signal for opening the door of the car is sent to the car Signal output means for outputting to the car control device for controlling the opening and closing of the door of the door ,
The image processing apparatus according to claim 1, wherein the second image has a higher resolution than the first image .
前記第2画像取得手段は、
前記乗りかごのドアの戸閉中に撮影された複数枚の画像に関し、前記ドア周辺のエリアだけが映された複数枚の第2画像を取得することを特徴とする請求項1に記載の画像処理装置。
The second image acquisition means includes
2. The image according to claim 1, wherein a plurality of second images in which only an area around the door is displayed are acquired with respect to a plurality of images taken while the door of the car door is closed. Processing equipment.
前記ドア周辺のエリアは、前記乗りかごのドアの戸閉方向に対して当該ドアの開口幅より短い距離を有し、当該戸閉方向に対して当該ドアの厚みより長い距離を有していることを特徴とする請求項1に記載の画像処理装置。   The area around the door has a distance shorter than the opening width of the door with respect to the door closing direction of the car door, and has a distance longer than the thickness of the door with respect to the door closing direction. The image processing apparatus according to claim 1. 前記第1動き検出手段によって検出された動きありのブロックの中から前記乗りかごのドアに最も近いブロックを前記各第1画像毎に抽出し、当該ブロックにおける当該ドアの中心から前記乗場方向の座標位置を人物の位置として推定する位置推定手段と、
前記位置推定手段によって推定された人物の位置の時系列変化に基づいて、当該人物の乗車意思の有無を推定する乗車意思推定手段と
をさらに具備し、
前記信号出力手段は、
前記乗車意思推定手段によって乗車意思が有ると推定された人物が前記乗場にいる場合、または前記第2動き検出手段によって動きありのブロックが検出された場合に、前記戸開指示信号を前記かご制御装置に出力することを特徴とする請求項1に記載の画像処理装置。
The block closest to the door of the car is extracted for each first image from the blocks with motion detected by the first motion detection means, and the coordinates of the landing direction from the center of the door in the block Position estimation means for estimating the position as the position of a person;
Boarding intention estimating means for estimating the presence or absence of the person's boarding intention based on a time-series change in the position of the person estimated by the position estimating means; and
The signal output means includes
When the person estimated to have boarding intention by the boarding intention estimation means is at the landing, or when a block with motion is detected by the second movement detection means, the door opening instruction signal is controlled by the car. The image processing apparatus according to claim 1, wherein the image processing apparatus outputs the image to an apparatus.
JP2016052168A 2016-03-16 2016-03-16 Image processing device Active JP6139729B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016052168A JP6139729B1 (en) 2016-03-16 2016-03-16 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016052168A JP6139729B1 (en) 2016-03-16 2016-03-16 Image processing device

Publications (2)

Publication Number Publication Date
JP6139729B1 true JP6139729B1 (en) 2017-05-31
JP2017165541A JP2017165541A (en) 2017-09-21

Family

ID=58794365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016052168A Active JP6139729B1 (en) 2016-03-16 2016-03-16 Image processing device

Country Status (1)

Country Link
JP (1) JP6139729B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112340577A (en) * 2019-08-09 2021-02-09 东芝电梯株式会社 User detection system for elevator
CN115196455A (en) * 2022-06-30 2022-10-18 青岛海尔空调电子有限公司 An elevator control method, elevator, and computer-readable storage medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6558762B1 (en) * 2018-07-31 2019-08-14 東芝エレベータ株式会社 Elevator and elevator control method
JP6922951B2 (en) * 2019-08-09 2021-08-18 フジテック株式会社 Image processing device and image processing method
JP6828112B1 (en) * 2019-09-18 2021-02-10 東芝エレベータ株式会社 Elevator user detection system
JP7358606B1 (en) 2022-12-19 2023-10-10 東芝エレベータ株式会社 elevator system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102036899B (en) * 2008-05-22 2013-10-23 奥蒂斯电梯公司 Video-based system and method of elevator door detection
JP2011093702A (en) * 2009-11-02 2011-05-12 Toshiba Elevator Co Ltd Object caught-in detecting system of elevator

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112340577A (en) * 2019-08-09 2021-02-09 东芝电梯株式会社 User detection system for elevator
CN112340577B (en) * 2019-08-09 2022-11-08 东芝电梯株式会社 User detection system for elevator
CN115196455A (en) * 2022-06-30 2022-10-18 青岛海尔空调电子有限公司 An elevator control method, elevator, and computer-readable storage medium

Also Published As

Publication number Publication date
JP2017165541A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6092433B1 (en) Elevator boarding detection system
JP6377797B1 (en) Elevator boarding detection system
JP6139729B1 (en) Image processing device
JP6068694B1 (en) Elevator boarding detection system
JP5969147B1 (en) Elevator boarding detection system
JP6377796B1 (en) Elevator boarding detection system
JP6657167B2 (en) User detection system
JP6317004B1 (en) Elevator system
JP6242966B1 (en) Elevator control system
JP6377795B1 (en) Elevator boarding detection system
JP6271776B1 (en) Elevator boarding detection system
JP2018090351A (en) Elevator system
JP2018158842A (en) Image analyzer and elevator system
JP2018047993A (en) User detection system for elevator
JP7187629B1 (en) Elevator user detection system
JP7711268B1 (en) Elevator System
JP7358606B1 (en) elevator system
JP7375137B1 (en) Elevator user detection system
HK1259469B (en) Elevator boarding detection system
HK1259469A1 (en) Elevator boarding detection system
HK40084195A (en) Elevator passenger detection system
HK1238230B (en) Riding detection system of elevator
HK1238230A1 (en) Riding detection system of elevator
HK1252953B (en) Elevator system
JP2021046282A (en) Elevator user detection system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R150 Certificate of patent or registration of utility model

Ref document number: 6139729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150