JP6139729B1 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP6139729B1 JP6139729B1 JP2016052168A JP2016052168A JP6139729B1 JP 6139729 B1 JP6139729 B1 JP 6139729B1 JP 2016052168 A JP2016052168 A JP 2016052168A JP 2016052168 A JP2016052168 A JP 2016052168A JP 6139729 B1 JP6139729 B1 JP 6139729B1
- Authority
- JP
- Japan
- Prior art keywords
- door
- image
- car
- motion
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Elevator Door Apparatuses (AREA)
- Image Analysis (AREA)
Abstract
【課題】人物だけでなく、細い紐状の物体もリアルタイムで検出すること。
【解決手段】一実施形態に係る画像処理装置は、第1画像取得手段、第1動き検出手段、第2画像取得手段、第2動き検出手段及び信号出力手段を備えている。第2画像取得手段は、カメラによって連続的に撮影された複数枚の画像に関し、ドア周辺のエリアだけが映された複数枚の第2画像を取得する。第2動き検出手段は、取得された複数枚の第2画像をブロック単位で比較して、ドア周辺のエリア内の物体の動きを検出する。信号出力手段は、第1動き検出手段及び第2動き検出手段のうちの少なくとも一方によって動きありのブロックが検出された場合に、乗りかごのドアを戸開させるための戸開指示信号を、乗りかごのドアの戸開閉を制御するかご制御装置に出力する。
【選択図】図1To detect not only a person but also a thin string-like object in real time.
An image processing apparatus according to an embodiment includes first image acquisition means, first motion detection means, second image acquisition means, second motion detection means, and signal output means. The second image acquisition means acquires a plurality of second images in which only the area around the door is shown with respect to the plurality of images continuously captured by the camera. The second motion detection means compares the plurality of acquired second images in units of blocks, and detects the motion of the object in the area around the door. The signal output means outputs a door opening instruction signal for opening the door of the car when at least one of the first movement detecting means and the second movement detecting means detects a block with movement. Outputs to the car control device that controls the door opening and closing of the car door.
[Selection] Figure 1
Description
本発明の実施形態は、画像処理装置に関する。 Embodiments described herein relate generally to an image processing apparatus.
近年、エレベータのかごドアに人や物が挟まれるのを防ぐために、様々な技術が考案されている。例えば、カメラを用いてエレベータに向かって移動している利用者を検出し、当該エレベータのドアの戸開時間を延長する技術が考案されている。また、カメラを用いて乗場にいる利用者を検出し、当該利用者からエレベータまでの距離に基づいて当該エレベータのドアの開閉制御を行う技術も考案されている。 In recent years, various techniques have been devised to prevent people and objects from being caught in elevator car doors. For example, a technique has been devised that detects a user moving toward an elevator using a camera and extends the door opening time of the elevator door. In addition, a technique has been devised that detects a user at a landing using a camera and controls opening / closing of the elevator door based on the distance from the user to the elevator.
このような技術においては、利用者をリアルタイムで検出する必要があるので、解析処理が高速に実行される。このため、検出精度を若干下げて、高速な解析処理が実現されている。 In such a technique, since it is necessary to detect a user in real time, an analysis process is performed at high speed. For this reason, the detection accuracy is slightly lowered, and high-speed analysis processing is realized.
しかしながら、上記した技術では、人物などある程度の大きさを有するものであれば精度良く検出することができるが、検出精度を下げているため、例えばペットを繋ぐ紐など、細い紐状の物体を精度良く検出することができないという不都合がある。 However, the above-described technique can detect a person having a certain size such as a person with high accuracy. However, since the detection accuracy is lowered, for example, a thin string-like object such as a string connecting pets is accurately detected. There is an inconvenience that it cannot be detected well.
この不都合によれば、エレベータのドアに細い紐状の物体が挟まりそうな場合であっても、当該細い紐状の物体を検出することができずにエレベータのドアがそのまま戸閉してしまう可能性があり、重大な事故が発生してしまう恐れがある。 According to this inconvenience, even if a thin string-like object is likely to be caught in the elevator door, the elevator door can be closed as it is without being able to detect the thin string-like object. There is a risk of serious accidents.
本発明が解決しようとする課題は、人物だけでなく、細い紐状の物体もリアルタイムで検出可能な画像処理装置を提供することである。 The problem to be solved by the present invention is to provide an image processing apparatus capable of detecting not only a person but also a thin string-like object in real time.
一実施形態に係る画像処理装置は、第1画像取得手段、第1動き検出手段、第2画像取得手段、第2動き検出手段及び信号出力手段を備えている。前記第1画像取得手段は、乗りかごのドアの戸開閉中にカメラによって連続的に撮影された複数枚の画像に関し、撮影時よりも解像度の低い複数枚の第1画像を取得する。前記第1動き検出手段は、前記第1画像取得手段によって取得された複数枚の第1画像をブロック単位で比較して、乗場にいる人物の動きを検出する。前記第2画像取得手段は、前記カメラによって連続的に撮影された複数枚の画像に関し、ドア周辺のエリアだけが映された複数枚の第2画像を取得する。前記第2動き検出手段は、前記第2画像取得手段によって取得された複数枚の第2画像をブロック単位で比較して、前記ドア周辺のエリア内の物体の動きを検出する。前記信号出力手段は、前記第1動き検出手段及び前記第2動き検出手段のうちの少なくとも一方によって動きありのブロックが検出された場合に、前記乗りかごのドアを戸開させるための戸開指示信号を、前記乗りかごのドアの戸開閉を制御するかご制御装置に出力する。前記第2画像は、前記第1画像よりも解像度が高い。 An image processing apparatus according to an embodiment includes first image acquisition means, first motion detection means, second image acquisition means, second motion detection means, and signal output means. The first image acquisition means acquires a plurality of first images having a resolution lower than that at the time of shooting, regarding the plurality of images continuously shot by the camera while the door of the car door is opened and closed. The first motion detection means detects a motion of a person on the landing by comparing a plurality of first images acquired by the first image acquisition means in units of blocks. The second image acquisition means acquires a plurality of second images in which only the area around the door is shown with respect to the plurality of images continuously captured by the camera. The second motion detection means detects a motion of an object in an area around the door by comparing a plurality of second images acquired by the second image acquisition means in block units. The signal output means is a door opening instruction for opening the door of the car when a block with movement is detected by at least one of the first movement detection means and the second movement detection means. A signal is output to a car control device that controls the opening and closing of the door of the car. The second image has a higher resolution than the first image.
以下、図面を参照して実施形態を説明する。
図1は、一実施形態に係る画像処理装置を含むエレベータの利用者検出システムの構成を示す図である。なお、ここでは、1台の乗りかごを例にして説明するが、複数台の乗りかごでも同様の構成である。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of an elevator user detection system including an image processing apparatus according to an embodiment. Note that, here, a single car will be described as an example, but a plurality of cars have the same configuration.
乗りかご11の出入口上部にカメラ12が設置されている。具体的には、カメラ12は、乗りかご11の出入口上部を覆う幕板11aの中にレンズ部分を乗場15側に向けて設置されている。カメラ12は、例えば車載カメラなどの小型の監視用カメラであり、広角レンズを有し、1秒間に数コマ(例えば30コマ/秒)の画像を連続撮影可能である。乗りかご11が各階に到着して戸開したときに、乗場15の状態を乗りかご11内のかごドア13付近の状態を含めて撮影する。
A
このときの撮影範囲はL1+L2に設定されている(L1≫L2)。L1は乗場15側の撮影範囲であり、かごドア13から乗場15に向けて例えば3mである。L2は乗りかご11側の撮影範囲であり、かごドア13からかご背面に向けて例えば50cmである。なお、L1,L2は奥行き方向の範囲であり、幅方向(奥行き方向と直交する方向)の範囲については少なくとも乗りかご11の横幅より大きいものとする。
The shooting range at this time is set to L1 + L2 (L1 >> L2). L <b> 1 is a shooting range on the
なお、各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明においては、かごドア13を戸開しているときには乗場ドア14も戸開しており、かごドア13を戸閉しているときには乗場ドア14も戸閉しているものとする。
In the
カメラ12によって撮影された各画像(映像)は、画像前処理装置20によって前処理が施された後に、画像処理装置30によってリアルタイムに解析処理される。なお、図1では、便宜的に、画像前処理装置20と画像処理装置30とを乗りかご11から取り出して示しているが、実際には画像前処理装置20と画像処理装置30とはカメラ12と共に幕板11aの中に収納されている。また、図1では、画像前処理装置20と画像処理装置30とを別々のものとして示しているが、画像前処理装置20の機能が画像処理装置30に搭載されていても良い。
Each image (video) captured by the
画像前処理装置20には、解像度低下処理部21及びドア周辺画像抽出部22が備えられている。解像度低下処理部21は、カメラ12によって撮影された各画像(撮影画像)の解像度を低下させ、低解像度の画像を生成する。撮影画像の解像度を低下させる方法としては、例えば、撮影画像を構成する画素を間引く方法がある。生成された低解像度の画像は画像処理装置30に送られる。このように画像の解像度を低下させることで、画像サイズ(画像の容量)を小さくすることができ、画像処理装置30での解析処理を高速(リアルタイム)に実行することができるようになる。
The image preprocessing
ドア周辺画像生成部22は、かごドア13の戸閉を開始すると、カメラ12によって撮影された各画像からドア周辺エリアを抽出し、当該抽出されたドア周辺エリアだけが映された画像(以下、ドア周辺画像と表記する)を解像度を低下させずに生成する。生成されたドア周辺画像は画像処理装置30に送られる。
When the door peripheral
ドア周辺エリアE0とは、図2に示すように、かごドア13の両先端部付近の所定のエリアを指す。詳しくは、ドア周辺エリアE0は、かごドア13の両先端部からかごドア13の戸閉方向に対して任意の距離M1(但し、距離M1はかごドア13の開口幅よりも短い距離であるものとする)を有し、例えば100mmに設定されている。また、ドア周辺エリアE0の奥行き方向(かごドア13の戸閉方向と直交する方向)の距離M2は、例えば、かごドア13の乗りかご11側のドア面から乗場ドア14の乗場15側のドア面までの距離(ドアの厚み)より大きな値に設定される。
As shown in FIG. 2, the door peripheral area E <b> 0 indicates a predetermined area near both ends of the
ドア周辺エリアE0は、上記したように、かごドア13の両先端部からかごドア13の戸閉方向に対して任意の距離M1を有しているので、かごドア13の戸閉と共に変化する。具体的には、ドア周辺エリアE0は図3(a)乃至図3(d)に示すように変化する。まず、かごドア13の戸閉が開始されると、ドア周辺エリアE0は、図3(a)に示すように、かごドア13の両先端部付近にそれぞれ設定される。その後、かごドア13の戸閉が進むにつれて、2つのドア周辺エリアE0は図3(b)に示すように互いに近づいていき、さらにかごドア13の戸閉が進むと、これらドア周辺エリアE0は図3(c)に示すように重畳する(つまり、ドア周辺エリアE0は徐々に小さくなる)。最終的に、かごドア13が戸閉し終わると、ドア周辺エリアE0は図3(d)に示すように無くなる。
As described above, the door peripheral area E0 has an arbitrary distance M1 from both ends of the
なお、ここでは、ドア周辺エリアE0が、図2に示すように、かごドア13の戸閉方向にM1の距離を有し、奥行き方向にM2の距離を有する矩形のエリアである場合を想定しているが、これに限定されず、ドア周辺エリアE0には、乗りかご11内の一部がさらに含まれていても良い。具体的には、ドア周辺エリアE0は図4に示すようにL字型であっても良い。このようにドア周辺エリアE0をL字型にすることで、後述する紐状物体検出部33において実行される検出処理での検出範囲を広げることができると共に、実空間における高さを考慮した検出処理を実行することができるようになる。但し、低解像度でない画像を利用した紐状物体検出部33での検出処理は処理負荷が大きいため、ドア周辺エリアE0に含める乗りかご11内の一部は、当該検出処理の処理速度に影響を及ぼさない程度の大きさであるものとする。
Here, it is assumed that the door peripheral area E0 is a rectangular area having a distance of M1 in the door closing direction of the
また、ドア周辺エリアE0には、カメラ12近傍に設けられる光源から光が照射されても良い。これによれば、後述する紐状物体検出部33において実行される検出処理の精度(紐状の物体を検出する精度)を高めることができる。
The door peripheral area E0 may be irradiated with light from a light source provided in the vicinity of the
画像処理装置30には、記憶部31、利用者検出部32及び紐状物体検出部33が備えられている。記憶部31は、画像前処理装置20から送られた低解像度の各画像と、各ドア周辺画像とを逐次記憶すると共に、利用者検出部32及び紐状物体検出部33の処理に必要なデータを一時的に保持しておくためのバッファエリアを有する。
The
利用者検出部32は、画像前処理装置20から送られてくる低解像度の各画像の中でかごドア13に最も近い人・物の動きに着目して乗車意思のある利用者の有無を検出(判定)する。この利用者検出部32を機能的に分けると、動き検出部32a、位置推定部32b、乗車意思推定部32cで構成される。
The
動き検出部32aは、低解像度の各画像の輝度をブロック単位で比較して人・物の動きを検出する。ここで言う「人・物の動き」とは、乗場15の人物や車椅子などの移動体の動きのことである。なお、本実施形態においては、画像の輝度に着目して人・物の動きを検出するが、人・物の動きを検出する方法はこれに限定されず、例えば、画像の明度や彩度を利用して、人・物の動きが検出されても良い。
The
位置推定部32bは、動き検出部32aによって低解像度の各画像毎に検出された動きありのブロックの中からかごドア13に最も近いブロックを抽出し、当該ブロックにおけるかごドア13の中心(ドア間口の中心)から乗場方向の座標位置を利用者の位置(足元位置)として推定する。
The position estimation unit 32b extracts the block closest to the
乗車意思推定部32cは、位置推定部32bによって推定された位置の時系列変化に基づいて当該利用者の乗車意思の有無を判定する。 The boarding intention estimation unit 32c determines whether or not the user has a boarding intention based on the time series change of the position estimated by the position estimation unit 32b.
紐状物体検出部33は、画像前処理装置20から送られてくる各ドア周辺画像の中の細かな物の動きに着目して、かごドア13に挟まれる可能性がある物体(例えばペットを繋ぐ紐などの紐状の物体)の有無を検出(判定)する。ここで言う「細かな物の動き」とは、かごドア13に挟まれる可能性のある紐状の物体の揺れ(動き)のことである。
The string-like
かご制御装置40は、図示しないエレベータ制御装置に接続され、このエレベータ制御装置との間で乗場呼び・かご呼びなどの各種信号を送受信する。なお、「乗場呼び」とは、各階の乗場15に設置された図示しない乗場呼び釦の操作によって登録される呼びの信号のことであり、登録階と行先方向の情報を含む。「かご呼び」とは、乗りかご11のかご室内に設けられた図示しない行先呼び釦の操作によって登録される呼びの信号のことであり、行先階の情報を含む。
The car control device 40 is connected to an elevator control device (not shown), and transmits and receives various signals such as hall calls and car calls to and from the elevator control device. The “call to hall” is a call signal registered by operating a hall call button (not shown) installed at the
また、かご制御装置40は、戸開閉制御部41を備える。戸開閉制御部41は、乗りかご11が乗場15に到着したときのかごドア13の戸開閉を制御する。詳しくは、戸開閉制御部41は、乗りかご11が乗場15に到着したときにかごドア13を戸開し、所定時間経過後に戸閉する。但し、かごドア13の戸開閉中に画像処理装置30の利用者検出部32によって乗車意思のある人物が検出された場合、または、かごドア13の戸閉中に画像処理装置30の紐状物体検出部33によって紐状の物体が検出された場合には、戸開閉制御部41は、かごドア13の戸閉動作を禁止して戸開状態を維持する、または、戸閉途中のかごドア13を再度戸開(リオープン)する。
In addition, the car control device 40 includes a door opening /
図5は、カメラ12によって撮影された画像の一例を示す図である。図中のE1は位置推定領域、ynは利用者の足元位置が検出されたY座標を示している。図6は、記憶部31に記憶される画像(低解像度の画像、ドア周辺画像)をブロック単位で区切った状態を示す図である。なお、画像を一辺Wblockの格子状に区切ったものを「ブロック」と呼ぶ。但し、1ブロックに含まれる画素数は一定であるものとする。つまり、低解像度の画像よりも解像度が高いドア周辺画像を格子状に区切ることによって得られるブロックの一辺Wblockは、低解像度の画像を格子状に区切ることによって得られるブロックの一辺Wblockよりも短くなる。
FIG. 5 is a diagram illustrating an example of an image photographed by the
利用者検出部32では、図6に示すように、記憶部31に記憶される低解像度の画像を所定サイズのブロックに区切り、人・物の動きがあるブロックを検出し、その動きありのブロックを追うことで乗車意思のある利用者か否かを判断している。同様に、紐状物体検出部33においても、図6に示すように、記憶部31に記憶されるドア周辺画像を所定サイズのブロックに区切り、細かな物の動きがあるブロックを検出し、かごドア13に挟まれる可能性のある物体の有無を判断している。
As shown in FIG. 6, the
なお、図6の例では、ブロックの縦横の長さが同じであるが、縦と横の長さが異なっていても良い。また、画像全域にわたってブロックを均一な大きさとしても良いし、例えば画像上部ほど縦(Y方向)の長さを短くするなどの不均一な大きさにしても良い。これらにより、後に推定する足元位置をより高い分解能或いは実空間での均一な分解能で求めることができる(画像上で均一に区切ると、実空間ではかごドア13から遠い方ほど疎な分解能となる)。
In the example of FIG. 6, the vertical and horizontal lengths of the blocks are the same, but the vertical and horizontal lengths may be different. Further, the blocks may be uniform in size over the entire image, or may be non-uniform in size, such as shortening the length in the vertical direction (Y direction) toward the top of the image. Thus, the foot position estimated later can be obtained with a higher resolution or a uniform resolution in the real space (if it is divided uniformly on the image, the farther away from the
図7は実空間での検出エリアを説明するための図であって、図8は実空間での座標系を説明するための図である。 FIG. 7 is a diagram for explaining a detection area in the real space, and FIG. 8 is a diagram for explaining a coordinate system in the real space.
低解像度の画像から乗車意思のある利用者の動きを検出するため、まず、ブロック毎に動き検出エリアを設定しておく。具体的には、図7に示すように、少なくとも位置推定エリアE1と乗車意思推定エリアE2を設定しておく。位置推定エリアE1は、乗場15からかごドア13に向かってくる利用者の身体の一部、具体的には利用者の足元位置を推定するエリアである。乗車意思推定エリアE2は、位置推定エリアE1で検知された利用者に乗車意思があるか否かを推定するエリアである。なお、乗車意思推定エリアE2は、上記位置推定エリアE1に含まれ、利用者の足元位置を推定するエリアでもある。すなわち、乗車意思推定エリアE2では、利用者の足元位置を推定すると共に当該利用者の乗車意思を推定する。
In order to detect the movement of a user who intends to get on the board from a low-resolution image, first, a movement detection area is set for each block. Specifically, as shown in FIG. 7, at least a position estimation area E1 and a boarding intention estimation area E2 are set. The position estimation area E1 is an area for estimating a part of the user's body coming from the landing 15 toward the
実空間において、位置推定エリアE1はかごドア13の中心から乗場方向に向かってL3の距離を有し、例えば2mに設定されている(L3≦乗場側の撮影範囲L1)。位置推定エリアE1の横幅W1は、かごドア13の横幅W0以上の距離に設定されている。乗車意思推定エリアE2はかごドア13の中心から乗場方向に向かってL4の距離を有し、例えば1mに設定されている(L4≦L3)。乗車意思推定エリアE2の横幅W2は、かごドア13の横幅W0と略同じ距離に設定されている。
In the real space, the position estimation area E1 has a distance L3 from the center of the
なお、乗車意思推定エリアE2の横幅W2はW0よりも横幅が大きくても良い。また、乗車意思推定エリアE2は実空間で長方形ではなく、三方枠の死角を除く台形であっても良い。 The lateral width W2 of the boarding intention estimation area E2 may be larger than W0. Further, the boarding intention estimation area E2 may be a trapezoid excluding a blind spot in a three-sided frame instead of a rectangle in real space.
ここで、図8に示すように、カメラ12は、乗りかご11の出入口に設けられたかごドア13と水平の方向をX軸、かごドア13の中心から乗場15の方向(かごドア13に対して垂直の方向)をY軸、乗りかご11の高さ方向をZ軸とした画像を撮影する。このカメラ12によって撮影された各画像(低解像度の画像、ドア周辺画像)において、図7に示した位置推定エリアE1及び乗車意思推定エリアE2の部分をブロック単位で比較することで、かごドア13の中心から乗場15の方向、つまりY軸方向に移動中の利用者の足元位置の動きを検出する。
Here, as shown in FIG. 8, the
この様子を図9及び図10に示す。
図9及び図10は画像比較による動き検出を説明するための図である。図9は時間tで撮影された画像の一部、図10は時間t+1で撮影された画像の一部を模式的に示している。
This is shown in FIGS.
9 and 10 are diagrams for explaining motion detection by image comparison. FIG. 9 schematically shows a part of an image taken at time t, and FIG. 10 schematically shows a part of an image taken at
図中のP1,P2は撮影画像上で動きありとして検出された利用者の画像部分であり、実際には画像比較により動きありとして検出されたブロックの集合体である。画像部分P1,P2の中でかごドア13に最も近い動きありのブロックBxを抽出し、そのブロックBxのY座標を追うことで乗車意思の有無を判定する。この場合、Y軸方向に点線で示すような等距離線(かごドア13と平行な等間隔の水平線)を引けば、ブロックBxとかごドア13とのY軸方向の距離が分かる。
P1 and P2 in the figure are user image portions detected as having motion on the photographed image, and are actually a collection of blocks detected as having motion by image comparison. A block Bx having a motion closest to the
図9及び図10の例では、かごドア13に最も近い動きありのブロックBxの検出位置がyn→yn−1に変化しており、利用者がかごドア13に近づいてくることがわかる。
In the example of FIGS. 9 and 10, the detection position of the block Bx of the most close motion to the
次に、図11のフローチャートを参照して、利用者検出部32で実行される利用者検出処理の手順について詳しく説明する。
乗りかご11のかごドア13が全戸開の状態から所定の時間が経過すると(または、乗りかご11内に設けられた図示しない戸閉釦が押下されると)、戸開閉制御部41によって戸閉動作が開始される(ステップS1)。このとき、カメラ12の撮影動作はかごドア13の戸開時から継続的に行われている。画像前処理装置20の解像度低下処理部21は、このカメラ12によって連続的に撮影された画像を取得し、これら画像に対して解像度を低下させる処理を実行する。これにより、カメラ12によって撮影された画像よりも解像度の低い画像が生成される(ステップS2)。画像処理装置30は、画像前処理装置20によって生成された低解像度の画像を取得し、これら画像を記憶部31に逐次記憶しながら(ステップS3)、利用者検出処理をリアルタイムで実行する(ステップS4)。
Next, the procedure of the user detection process executed by the
When a predetermined time elapses after the
利用者検出処理は、画像処理装置30に備えられた利用者検出部32によって実行される。この利用者検出処理は、動き検出処理(ステップS4a)、位置推定処理(ステップS4b)、乗車意思推定処理(ステップS4c)に分けられる。
The user detection process is executed by a
(a)動き検出処理
図12は上記ステップS4aの動き検出処理の手順を示すフローチャートである。この動き検出処理は、利用者検出部32の構成要素の1つである動き検出部32aで実行される。ここでは、人・物の動きを検出するために、画像の輝度が利用される場合を想定して説明する。
(A) Motion Detection Process FIG. 12 is a flowchart showing the procedure of the motion detection process in step S4a. This motion detection process is executed by the
動き検出部32aは、記憶部31に記憶された低解像度の各画像を1枚ずつ読み出し、各画像を格子状に区切り、これにより得られるブロック毎の平均輝度値を算出する(ステップA1)。その際、動き検出部32aは、初期値として、時系列的に最初の画像から算出されたブロック毎の平均輝度値を記憶部31内の図示しないバッファエリアに保持しておくものとする(ステップA2)。
The
2枚目以降の低解像度の画像が読み出されると、動き検出部32aは、現在の画像のブロック毎の平均輝度値と、バッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較する(ステップA3)。その結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、動き検出部32aは、当該ブロックを動きありのブロックとして判定する(ステップA4)。
When the second and subsequent low-resolution images are read, the
現在の画像に対する動きの有無を判定すると、動き検出部32aは、当該画像のブロック毎の平均輝度値を次の画像との比較用として上記バッファエリアに保持する(ステップA5)。
When determining the presence or absence of motion for the current image, the
以降同様にして、動き検出部32aは、記憶部31に記憶された低解像度の画像の輝度値を時系列順にブロック単位で比較しながら動きの有無を判定することを繰り返す。
Thereafter, in the same manner, the
(b)位置推定処理
図13は上記ステップS4bの位置推定処理の手順を示すフローチャートである。この位置推定処理は、利用者検出部32の構成要素の1つである位置推定部32bで実行される。
(B) Position estimation process FIG. 13 is a flowchart showing the procedure of the position estimation process in step S4b. This position estimation process is executed by the position estimation unit 32b which is one of the components of the
位置推定部32bは、動き検出部32aの検出結果に基づいて現在の画像の中で動きありのブロックをチェックする(ステップB1)。その結果、図7に示した位置推定エリアE1内に動きありのブロックが存在した場合、利用者検出部32は、その動きありのブロックのうち、かごドア13に最も近いブロックを抽出する(ステップB2)。
The position estimation unit 32b checks a block with motion in the current image based on the detection result of the
ここで、図1に示したように、カメラ12は乗りかご11の出入口上部に乗場15に向けて設置されている。したがって、利用者が乗場15からかごドア13に向かっていた場合には、その利用者の右または左の足元の部分が撮影画像の一番手前、つまりかごドア13側のブロックに映っている可能性が高い。そこで、位置推定部32bは、かごドア13に最も近い動きありのブロックのY座標(かごドア13の中心から乗場15方向の座標)を利用者の足元位置のデータとして求め、記憶部31内の図示しないバッファエリアに保持する(ステップB3)。
Here, as shown in FIG. 1, the
以降同様にして、位置推定部32bは、各画像毎にかごドア13に最も近い動きありのブロックのY座標を利用者の足元位置のデータとして求め、上記バッファエリアに保持していく。なお、このような足元位置の推定処理は、位置推定エリアE1内だけでなく、乗車意思推定エリアE2内でも同様に行われている。
In the same manner, the position estimation unit 32b obtains the Y coordinate of the block with the movement closest to the
(c)乗車意思推定処理
図14は上記ステップS4cの乗車意思推定処理を示すフローチャートである。この乗車意思推定処理は、利用者検出部32の構成要素の1つである乗車意思推定部32cで実行される。
(C) Ride intention estimation process FIG. 14 is a flowchart showing the ride intention estimation process in step S4c. This boarding intention estimation process is executed by the boarding intention estimation unit 32c, which is one of the components of the
乗車意思推定部32cは、記憶部31内の図示しないバッファエリアに保持された各画像の利用者の足元位置のデータを平滑化する(ステップC1)。なお、平滑化の方法としては、例えば平均値フィルタやカルマンフィルタなどの一般的に知られている方法を用いるものとし、ここではその詳しい説明を省略する。 The boarding intention estimation unit 32c smoothes the user's foot position data of each image held in a buffer area (not shown) in the storage unit 31 (step C1). As a smoothing method, for example, a generally known method such as an average value filter or a Kalman filter is used, and detailed description thereof is omitted here.
足元位置のデータを平滑化したとき、変化量が所定値以上のデータが存在した場合(ステップC2のYES)、乗車意思推定部32cは、そのデータを外れ値として除外する(ステップC3)。なお、上記所定値は、利用者の標準的な歩行速度と撮影画像のフレームレートによって決められている。また、足元位置のデータを平滑化する前に外れ値を見つけて除外しておいても良い。 When the data at the foot position is smoothed and there is data whose change amount is equal to or greater than the predetermined value (YES in step C2), the boarding intention estimation unit 32c excludes the data as an outlier (step C3). The predetermined value is determined by the standard walking speed of the user and the frame rate of the captured image. Further, outliers may be found and excluded before smoothing the data at the foot position.
図15に足元位置の変化状態を示す。横軸が時間、縦軸が位置(Y座標値)を示している。利用者が乗場15からかごドア13に向かって歩いてくる場合、時間経過に伴い、利用者の足元位置のY座標値が徐々に小さくなる。
FIG. 15 shows a change state of the foot position. The horizontal axis indicates time, and the vertical axis indicates the position (Y coordinate value). When the user walks from the landing 15 toward the
なお、例えば車椅子などの移動体であれば点線で示すような直線的なデータ変化になるが、利用者の場合には左右の足元が交互に検出されるので、実線のように湾曲したデータ変化になる。また、検出結果に何らかのノイズが入り込むと、瞬間的な足元位置の変化量が大きくなる。このような変化量の大きい足元位置のデータは外れ値として除外しておく。 For example, in the case of a moving body such as a wheelchair, the data changes linearly as shown by a dotted line, but in the case of a user, the left and right feet are detected alternately, so the data change curved as shown by a solid line become. Further, when some noise enters the detection result, the amount of instantaneous change in the foot position increases. Such foot position data having a large change amount is excluded as an outlier.
ここで、乗車意思推定部32cは、図7に示した乗車意思推定エリアE2内の足元位置の動き(データ変化)を確認する(ステップC4)。その結果、乗車意思推定エリアE2内でY軸方向へかごドア13に向かっている利用者の足元位置の動き(データ変化)を確認できた場合には(ステップC5のYES)、乗車意思推定部32cは、当該利用者に乗車意思ありと判断する(ステップC6)。
Here, the boarding intention estimation part 32c confirms the motion (data change) of the foot position in the boarding intention estimation area E2 shown in FIG. 7 (step C4). As a result, if the movement (data change) of the user's foot position toward the
一方、乗車意思推定エリアE2内でY軸方向にかごドア13に向かっている利用者の足元位置の動きを確認できなかった場合には(ステップC5のNO)、乗車意思推定部32cは、当該利用者に乗車意思なしと判断する(ステップC7)。
On the other hand, when the movement of the user's foot position toward the
このように、かごドア13に最も近い動きありのブロックを利用者の足元位置とみなし、その足元位置のY軸方向の時間的な変化を追跡することで利用者の乗車意思の有無を推定することができる。
In this way, the block with the movement closest to the
図11に戻って、乗車意思ありの利用者が検出されると(ステップS5のYES)、画像処理装置30からかご制御装置40に対して戸開指示信号が出力される。かご制御装置40の戸開閉制御部41は、戸閉中に戸開指示信号を受信すると、かごドア13の戸閉動作を中断して再度戸開動作(リオープン)を行う(ステップS6)。
Returning to FIG. 11, when a user with an intention to board is detected (YES in step S <b> 5), a door opening instruction signal is output from the
以降は、戸開閉制御部41によって再度戸閉動作が開始される度に、上記ステップS1の処理に戻って、同様の処理が繰り返し実行される。
Thereafter, each time the door closing operation is started again by the door opening /
次に、図16のフローチャートを参照して、紐状物体検出部33で実行される紐状物体検出処理の手順について詳しく説明する。この紐状物体検出処理は、図11に示す利用者検出処理と並行して実行される。また、上述した動き検出処理と同様に、本処理においても、かごドア13に挟まれる可能性のある物体を検出するために、画像の輝度が利用される場合を想定して説明する。
Next, a string-like object detection process executed by the string-like
乗りかご11のかごドア13が全戸開の状態から所定の時間が経過すると(または、乗りかご11内に設けられた図示しない戸閉釦が押下されると)、戸開閉制御部41によって戸閉動作が開始される(ステップS11)。このとき、カメラ12の撮影動作はかごドア13の戸開時から継続的に行われている。画像前処理装置20のドア周辺画像生成部22は、このカメラ12によって連続的に撮影された画像を取得し、これら画像からドア周辺エリアE0を抽出する。これにより、ドア周辺エリアE0だけが映された(高解像度の)ドア周辺画像が生成される(ステップS12)。画像処理装置30は、画像前処理装置20によって生成された(高解像度の)ドア周辺画像を取得し、これら画像を記憶部31に逐次記憶しながら(ステップS13)、紐状物体検出処理をリアルタイムで実行する。
When a predetermined time elapses after the
画像処理装置30内の紐状物体検出部33は、記憶部31に記憶されたドア周辺画像を1枚ずつ読み出し、各ドア周辺画像を格子状に区切り、これにより得られるブロック毎の平均輝度値を算出する(ステップS14)。その際、紐状物体検出部33は、初期値として、時系列的に最初の画像から算出されたブロック毎の平均輝度値を記憶部31内の図示しないバッファエリアに保持しておくものとする(ステップS15)。
The string-like
2枚目以降のドア周辺画像が読み出されると、紐状物体検出部33は、現在の画像のブロック毎の平均輝度値と、上記バッファエリアに保持された1つ前の画像のブロック毎の平均輝度値とを比較することで、かごドア13に挟まれる可能性のある物体が存在するか否かを判定する(ステップS16)。詳しくは、比較の結果、現在の画像の中で予め設定された値以上の輝度差を有するブロックが存在した場合には、紐状物体検出部33は、当該ブロックを動きありのブロックとして判定し、かごドア13に挟まれる可能性のある物体が存在すると判定する。つまり、かごドア13に挟まれる可能性のある物体が検出される。
When the second and subsequent door peripheral images are read, the string-like
かごドア13に挟まれる可能性のある物体が検出されると(ステップS16のYES)、画像処理装置30からかご制御装置40に対して戸開指示信号が出力される。かご制御装置40の戸開閉制御部41は、戸閉中に戸開指示信号を受信すると、かごドア13の戸閉動作を中断して再度戸開動作(リオープン)を行う(ステップS17)。
When an object that may be caught by the
以降は、戸開閉制御部41によって再度戸閉動作が開始される度に、上記ステップS11の処理に戻って、同様の処理が繰り返し実行される。
Thereafter, every time the door closing operation is started again by the door opening /
以上説明した一実施形態によれば、画像処理装置30は、低解像度の画像を用いて乗場15にいる人物を検出するための利用者検出処理を実行する一方で、解像度を低下させずにドア周辺エリアE0だけが映されたドア周辺画像を用いてかごドア13に挟まれる可能性のある物体を検出するための紐状物体検出処理を実行する構成を備えている。この構成によれば、エリアをドア周辺エリアE0に限定した上で、紐状の物体を検出可能な高解像度の画像を利用しているので、処理負荷が軽く、人物だけでなく、細い紐状の物体もリアルタイムで検出することができる。
According to the embodiment described above, the
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
11…乗りかご、12…カメラ、13…かごドア、14…乗場ドア、15…乗場、20…画像前処理装置、21…解像度低下処理部、22…ドア周辺画像生成部、30…画像処理装置、31…記憶部、32…利用者検出部、32a…動き検出部、32b…位置推定部、32c…乗車意志推定部、33…紐状物体検出部、40…かご制御装置、41…戸開閉制御部、E0…ドア周辺エリア、E1…利用者位置推定エリア、E2…乗車意思推定エリア。
DESCRIPTION OF
Claims (4)
前記第1画像取得手段によって取得された複数枚の第1画像をブロック単位で比較して、乗場にいる人物の動きを検出する第1動き検出手段と、
前記カメラによって連続的に撮影された複数枚の画像に関し、ドア周辺のエリアだけが映された複数枚の第2画像を取得する第2画像取得手段と、
前記第2画像取得手段によって取得された複数枚の第2画像をブロック単位で比較して、前記ドア周辺のエリア内の物体の動きを検出する第2動き検出手段と、
前記第1動き検出手段及び前記第2動き検出手段のうちの少なくとも一方によって動きありのブロックが検出された場合に、前記乗りかごのドアを戸開させるための戸開指示信号を、前記乗りかごのドアの戸開閉を制御するかご制御装置に出力する信号出力手段と
を具備し、
前記第2画像は、前記第1画像よりも解像度が高いことを特徴とする画像処理装置。 First image acquisition means for acquiring a plurality of first images having a resolution lower than that at the time of shooting, with respect to the plurality of images continuously shot by the camera while the door of the car door is opened and closed;
A first motion detecting means for comparing a plurality of first images acquired by the first image acquiring means in units of blocks and detecting a motion of a person on the landing;
Second image acquisition means for acquiring a plurality of second images in which only the area around the door is displayed with respect to the plurality of images continuously captured by the camera;
A second motion detection means for comparing a plurality of second images acquired by the second image acquisition means in block units and detecting a motion of an object in the area around the door;
When a block with motion is detected by at least one of the first motion detection means and the second motion detection means, a door opening instruction signal for opening the door of the car is sent to the car Signal output means for outputting to the car control device for controlling the opening and closing of the door of the door ,
The image processing apparatus according to claim 1, wherein the second image has a higher resolution than the first image .
前記乗りかごのドアの戸閉中に撮影された複数枚の画像に関し、前記ドア周辺のエリアだけが映された複数枚の第2画像を取得することを特徴とする請求項1に記載の画像処理装置。 The second image acquisition means includes
2. The image according to claim 1, wherein a plurality of second images in which only an area around the door is displayed are acquired with respect to a plurality of images taken while the door of the car door is closed. Processing equipment.
前記位置推定手段によって推定された人物の位置の時系列変化に基づいて、当該人物の乗車意思の有無を推定する乗車意思推定手段と
をさらに具備し、
前記信号出力手段は、
前記乗車意思推定手段によって乗車意思が有ると推定された人物が前記乗場にいる場合、または前記第2動き検出手段によって動きありのブロックが検出された場合に、前記戸開指示信号を前記かご制御装置に出力することを特徴とする請求項1に記載の画像処理装置。 The block closest to the door of the car is extracted for each first image from the blocks with motion detected by the first motion detection means, and the coordinates of the landing direction from the center of the door in the block Position estimation means for estimating the position as the position of a person;
Boarding intention estimating means for estimating the presence or absence of the person's boarding intention based on a time-series change in the position of the person estimated by the position estimating means; and
The signal output means includes
When the person estimated to have boarding intention by the boarding intention estimation means is at the landing, or when a block with motion is detected by the second movement detection means, the door opening instruction signal is controlled by the car. The image processing apparatus according to claim 1, wherein the image processing apparatus outputs the image to an apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016052168A JP6139729B1 (en) | 2016-03-16 | 2016-03-16 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016052168A JP6139729B1 (en) | 2016-03-16 | 2016-03-16 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6139729B1 true JP6139729B1 (en) | 2017-05-31 |
JP2017165541A JP2017165541A (en) | 2017-09-21 |
Family
ID=58794365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016052168A Active JP6139729B1 (en) | 2016-03-16 | 2016-03-16 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6139729B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112340577A (en) * | 2019-08-09 | 2021-02-09 | 东芝电梯株式会社 | User detection system for elevator |
CN115196455A (en) * | 2022-06-30 | 2022-10-18 | 青岛海尔空调电子有限公司 | An elevator control method, elevator, and computer-readable storage medium |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6558762B1 (en) * | 2018-07-31 | 2019-08-14 | 東芝エレベータ株式会社 | Elevator and elevator control method |
JP6922951B2 (en) * | 2019-08-09 | 2021-08-18 | フジテック株式会社 | Image processing device and image processing method |
JP6828112B1 (en) * | 2019-09-18 | 2021-02-10 | 東芝エレベータ株式会社 | Elevator user detection system |
JP7358606B1 (en) | 2022-12-19 | 2023-10-10 | 東芝エレベータ株式会社 | elevator system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102036899B (en) * | 2008-05-22 | 2013-10-23 | 奥蒂斯电梯公司 | Video-based system and method of elevator door detection |
JP2011093702A (en) * | 2009-11-02 | 2011-05-12 | Toshiba Elevator Co Ltd | Object caught-in detecting system of elevator |
-
2016
- 2016-03-16 JP JP2016052168A patent/JP6139729B1/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112340577A (en) * | 2019-08-09 | 2021-02-09 | 东芝电梯株式会社 | User detection system for elevator |
CN112340577B (en) * | 2019-08-09 | 2022-11-08 | 东芝电梯株式会社 | User detection system for elevator |
CN115196455A (en) * | 2022-06-30 | 2022-10-18 | 青岛海尔空调电子有限公司 | An elevator control method, elevator, and computer-readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2017165541A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6092433B1 (en) | Elevator boarding detection system | |
JP6377797B1 (en) | Elevator boarding detection system | |
JP6139729B1 (en) | Image processing device | |
JP6068694B1 (en) | Elevator boarding detection system | |
JP5969147B1 (en) | Elevator boarding detection system | |
JP6377796B1 (en) | Elevator boarding detection system | |
JP6657167B2 (en) | User detection system | |
JP6317004B1 (en) | Elevator system | |
JP6242966B1 (en) | Elevator control system | |
JP6377795B1 (en) | Elevator boarding detection system | |
JP6271776B1 (en) | Elevator boarding detection system | |
JP2018090351A (en) | Elevator system | |
JP2018158842A (en) | Image analyzer and elevator system | |
JP2018047993A (en) | User detection system for elevator | |
JP7187629B1 (en) | Elevator user detection system | |
JP7711268B1 (en) | Elevator System | |
JP7358606B1 (en) | elevator system | |
JP7375137B1 (en) | Elevator user detection system | |
HK1259469B (en) | Elevator boarding detection system | |
HK1259469A1 (en) | Elevator boarding detection system | |
HK40084195A (en) | Elevator passenger detection system | |
HK1238230B (en) | Riding detection system of elevator | |
HK1238230A1 (en) | Riding detection system of elevator | |
HK1252953B (en) | Elevator system | |
JP2021046282A (en) | Elevator user detection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6139729 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |