[go: up one dir, main page]

JP2015219712A - Same object detection device, same object detection method, and same object detection program - Google Patents

Same object detection device, same object detection method, and same object detection program Download PDF

Info

Publication number
JP2015219712A
JP2015219712A JP2014102635A JP2014102635A JP2015219712A JP 2015219712 A JP2015219712 A JP 2015219712A JP 2014102635 A JP2014102635 A JP 2014102635A JP 2014102635 A JP2014102635 A JP 2014102635A JP 2015219712 A JP2015219712 A JP 2015219712A
Authority
JP
Japan
Prior art keywords
person
determination
same
color information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014102635A
Other languages
Japanese (ja)
Other versions
JP6308011B2 (en
Inventor
健太郎 辻
Kentaro Tsuji
健太郎 辻
明燮 鄭
Mingbian Zheng
明燮 鄭
馬場 孝之
Takayuki Baba
孝之 馬場
上原 祐介
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014102635A priority Critical patent/JP6308011B2/en
Publication of JP2015219712A publication Critical patent/JP2015219712A/en
Application granted granted Critical
Publication of JP6308011B2 publication Critical patent/JP6308011B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】同一人物の誤検出を抑える同一対象検出装置を提供する。【解決手段】時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部420と、第1の判断対象と第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での色情報の変化がいずれかの領域と比べて大きい領域に、いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、第1の判断対象と第2の判断対象が同一か否かを判断する同異判断部470と、を有する同一対象検出装置400である。【選択図】図2An identical object detection device that suppresses erroneous detection of the same person is provided. A target detection unit for detecting a first determination target and a second determination target from a first captured image captured in time series and a second captured image captured in time series; When the first determination target and the second determination target are each divided into a plurality of areas, and the color information of the corresponding areas is compared, the change of the color information in the time series of the comparison areas Whether the first determination target and the second determination target are the same by using a second weighting factor that is smaller than the first weighting factor used for any one of the regions larger than that region The same object detection device 400 having a difference determination unit 470 for determining whether or not. [Selection] Figure 2

Description

本件は、同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムに関する。   This case relates to the same object detection device, the same object detection method, and the same object detection program.

監視範囲が重複しない複数のカメラによる映像を利用して、同一人物を検出するシステムが知られている(例えば特許文献1〜5参照)。例えば、映像から取得した画像を複数の領域に分割し、色ヒストグラムを利用して各領域の特徴量を抽出することで、映像に含まれる人物の姿勢の変化に依存せずに、対象人物を検索する技術がある(例えば特許文献6参照)。   A system for detecting the same person using images from a plurality of cameras whose monitoring ranges do not overlap is known (see, for example, Patent Documents 1 to 5). For example, an image acquired from a video is divided into a plurality of regions, and feature quantities of each region are extracted using a color histogram, so that the target person can be identified without depending on the change in the posture of the person included in the video. There is a technique for searching (see, for example, Patent Document 6).

特開2005−202938号公報JP 2005-202938 A 特開2007−11696号公報JP 2007-11696 A 特開平11−96364号公報Japanese Patent Laid-Open No. 11-96364 特開2005−250692号公報Japanese Patent Laid-Open No. 2005-250692 特開2009−231921号公報JP 2009-231921 A 特開2011−18238号公報JP 2011-18238 A

しかしながら、上述した技術では各領域内における姿勢の変化には依存しないものの、領域を跨って姿勢が変化した場合には、対象人物の検索精度が低下する。この場合、同一人物を異なる人物として検出するおそれがある。   However, although the above-described technique does not depend on changes in posture within each region, if the posture changes across regions, the target person search accuracy decreases. In this case, the same person may be detected as a different person.

そこで、1つの側面では、本件は、同一人物の誤検出を抑える同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムを提供することを目的とする。   Therefore, in one aspect, an object of the present invention is to provide an identical object detection device, an identical object detection method, and an identical object detection program that suppress erroneous detection of the same person.

本明細書に開示の同一対象検出装置は、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、を有する同一対象検出装置である。   The same object detection device disclosed in the present specification determines a first determination object and a second determination object from each of a first captured image captured in time series and a second captured image captured in time series. When the object detection unit to detect, the first determination object, and the second determination object are each divided into a plurality of areas and the color information of the corresponding areas is compared, The second weighting factor smaller than the first weighting factor used for any one of the regions is used for a region where the change in the color information in the series is larger than any one of the regions, And the same determination unit that determines whether or not the second determination target is the same.

本明細書に開示の同一対象検出方法は、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータが実行する同一対象検出方法である。   The same target detection method disclosed in this specification is configured to determine a first determination target and a second determination target from each of a first captured image captured in time series and a second captured image captured in time series. When the first judgment object and the second judgment object are each divided into a plurality of areas and the color information of the corresponding areas is compared, the time series of the areas to be compared is detected. By using a second weighting factor that is smaller than the first weighting factor used for any one of the regions in a region where the change in color information is larger than any one of the regions, the first determination target The same object detection method in which the computer executes a process of determining whether or not the second determination objects are the same.

本明細書に開示の同一対象検出プログラムは、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータに実行させるための同一対象検出プログラムである。   The same target detection program disclosed in the present specification is configured to determine a first determination target and a second determination target from each of a first captured image captured in time series and a second captured image captured in time series. When the first judgment object and the second judgment object are each divided into a plurality of areas and the color information of the corresponding areas is compared, the time series of the areas to be compared is detected. By using a second weighting factor that is smaller than the first weighting factor used for any one of the regions in a region where the change in color information is larger than any one of the regions, the first determination target It is the same object detection program for making a computer perform a process which judges whether the said 2nd judgment object is the same.

本明細書に開示の同一人物の誤検出を抑える同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムによれば、同一対象の誤検出を抑えることができる。   According to the same object detection device, the same object detection method, and the same object detection program that suppress erroneous detection of the same person disclosed in this specification, erroneous detection of the same object can be suppressed.

図1は、同一対象検出システムの一例を説明するための図である。FIG. 1 is a diagram for explaining an example of the same object detection system. 図2は、同一対象検出装置のブロック図の一例である。FIG. 2 is an example of a block diagram of the same object detection apparatus. 図3は、同一対象検出装置のハードウェア構成の一例である。FIG. 3 is an example of a hardware configuration of the same object detection apparatus. 図4は、同一対象検出装置で実行される人物情報登録処理の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of person information registration processing executed by the same target detection apparatus. 図5は、色テーブルの一例である。FIG. 5 is an example of a color table. 図6は、人物画像の姿勢の変化の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of a change in posture of a person image. 図7は、人物画像の向きの一例を説明するための図である。FIG. 7 is a diagram for explaining an example of the orientation of a person image. 図8は、重み係数が登録された色テーブルの一例である。FIG. 8 is an example of a color table in which weighting factors are registered. 図9は、人物テーブルの一例である。FIG. 9 is an example of a person table. 図10は、色テーブル更新処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the color table update process. 図11は、同一対象検出装置で実行される対応付け処理の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the association process executed by the same target detection apparatus. 図12は、類似度算出処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of similarity calculation processing. 図13は、類似度算出処理の一例を説明するための図である。FIG. 13 is a diagram for explaining an example of similarity calculation processing.

以下、本件を実施するための形態について図面を参照して説明する。   Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings.

図1は、同一対象検出システムSの一例を説明するための図である。図1に示すように、同一対象検出システムSは、複数の撮像装置100,200,300と同一対象検出装置400を含んでいる。   FIG. 1 is a diagram for explaining an example of the same object detection system S. As shown in FIG. 1, the same target detection system S includes a plurality of imaging devices 100, 200, 300 and the same target detection device 400.

撮像装置100,200,300は、それぞれ自己の撮像範囲内を撮像する。撮像装置100,200,300としては、例えばビデオカメラといった動画像や映像を撮像する装置がある。各撮像装置100,200,300は、人物Mが通る通路の壁や天井に撮像範囲が重複しないように設けられている。したがって、図1では、撮像装置100は、壁に掛けられた時計10を含む撮像範囲内を撮像する。撮像装置200は、壁に掛けられた絵画20を含む撮像範囲内を撮像する。ここで、鞄Bを所持する人物Mが撮像装置100の撮像範囲内に入ると、鞄Bを所持する人物Mと時計10を含む映像が撮像装置100に入力される。映像の一部にはある時刻における瞬間的な撮像画像30が含まれる。また、人物Mが撮像装置100の撮像範囲内から直進移動して通路を左折し、撮像装置200の撮像範囲内に入ると、人物Mと絵画20を含む映像が撮像装置200に入力される。映像の一部には別の時刻における瞬間的な撮像画像31が含まれる。撮像装置100は連続して撮像しているため、撮像画像30を含む時系列の撮像画像が映像として撮像装置100に入力される。撮像装置200についても同様である。   The imaging devices 100, 200, and 300 each take an image within its own imaging range. Examples of the imaging devices 100, 200, and 300 include devices that capture moving images and videos such as video cameras. Each imaging device 100, 200, 300 is provided so that the imaging range does not overlap with the wall or ceiling of the passage through which the person M passes. Accordingly, in FIG. 1, the imaging device 100 captures an image within the imaging range including the clock 10 hung on the wall. The imaging device 200 captures an image within the imaging range including the painting 20 hung on the wall. Here, when the person M holding the bag B enters the imaging range of the imaging device 100, an image including the person M holding the bag B and the clock 10 is input to the imaging device 100. A part of the video includes an instantaneous captured image 30 at a certain time. In addition, when the person M moves straight from the imaging range of the imaging apparatus 100 and turns left in the passage, and enters the imaging range of the imaging apparatus 200, an image including the person M and the painting 20 is input to the imaging apparatus 200. Part of the video includes an instantaneous captured image 31 at another time. Since the imaging device 100 continuously captures images, a time-series captured image including the captured image 30 is input to the imaging device 100 as a video. The same applies to the imaging apparatus 200.

同一対象検出装置400は、各撮像装置100,200,300と接続されている。同一対象検出装置400としては例えばサーバ装置がある。同一対象検出装置400は、撮像装置100,200,300に入力された各映像を取得して、いずれかの映像に含まれる人物と別の映像に含まれる人物が同一か否かを判断する。尚、同一対象検出装置400による判断対象は人物に限定されず、例えば体の一部を動かして姿勢を変えながら移動する動物やロボットといった移動体であってもよい。   The same object detection device 400 is connected to each imaging device 100, 200, 300. An example of the same object detection device 400 is a server device. The same target detection device 400 acquires each video input to the imaging devices 100, 200, and 300, and determines whether a person included in one of the videos is the same as a person included in another video. Note that the determination target by the same target detection device 400 is not limited to a person, but may be a moving body such as an animal or a robot that moves while moving a part of the body and changes its posture.

次に、図2を参照して、上述した同一対象検出装置400の概略的な機能構成を説明する。   Next, with reference to FIG. 2, a schematic functional configuration of the above-described same object detection device 400 will be described.

図2は、同一対象検出装置400のブロック図の一例である。
図2に示すように、同一対象検出装置400は、映像取得部410、対象検出部420、色情報生成部430、情報登録部440及び情報記憶部450を含んでいる。また、同一対象検出装置400は、情報抽出部460、同異判断部470及び情報更新部480を含んでいる。尚、情報記憶部450は、同一対象検出装置400の外部にあってもよい。
FIG. 2 is an example of a block diagram of the same object detection device 400.
As shown in FIG. 2, the same target detection device 400 includes a video acquisition unit 410, a target detection unit 420, a color information generation unit 430, an information registration unit 440, and an information storage unit 450. Further, the same target detection device 400 includes an information extraction unit 460, a difference determination unit 470, and an information update unit 480. Note that the information storage unit 450 may be outside the same object detection device 400.

映像取得部410は、撮像装置100,200,300に入力された映像を取得する。映像取得部410は、取得した映像を1フレーム毎に画像に変換する。これにより、撮像装置100や撮像装置200による時系列な複数の画像(撮像画像)が生成される。映像取得部410は、時系列な複数の画像を対象検出部420に出力する。
対象検出部420は、時系列な複数の画像から判断対象としての人物を画像毎に検出する。これにより、時刻の経過に従って姿勢が変化する複数の人物が検出される。対象検出部420は、複数の人物を検出した後、時間的に連続した画像間で同一人物を追跡する。対象検出部420は、追跡した人物を色情報生成部430に出力する。
The video acquisition unit 410 acquires video input to the imaging devices 100, 200, and 300. The video acquisition unit 410 converts the acquired video into an image for each frame. Thereby, a plurality of time-series images (captured images) by the imaging device 100 and the imaging device 200 are generated. The video acquisition unit 410 outputs a plurality of time-series images to the target detection unit 420.
The target detection unit 420 detects a person as a determination target for each image from a plurality of time-series images. Thereby, a plurality of persons whose postures change with the passage of time are detected. After detecting a plurality of persons, the target detection unit 420 tracks the same person between temporally continuous images. The target detection unit 420 outputs the tracked person to the color information generation unit 430.

色情報生成部430は、対象検出部420により追跡された人物から色情報を抽出する。色情報生成部430は、抽出した色情報を利用して色テーブルを更新することにより色テーブルを生成する。色情報生成部430は、生成した色テーブルを情報登録部440に出力する。
情報登録部440は、色テーブルにより特徴付けられる人物の人物特徴量を人物情報に含め、その人物情報を情報記憶部450に登録する。この結果、情報記憶部450には人物情報が記憶される。
The color information generation unit 430 extracts color information from the person tracked by the target detection unit 420. The color information generation unit 430 generates a color table by updating the color table using the extracted color information. The color information generation unit 430 outputs the generated color table to the information registration unit 440.
The information registration unit 440 includes the person feature amount of the person characterized by the color table in the person information, and registers the person information in the information storage unit 450. As a result, the personal information is stored in the information storage unit 450.

情報抽出部460は、情報記憶部450から比較元の人物情報と比較先の人物情報を抽出する。情報抽出部460は、抽出した比較元の人物情報と比較先の人物情報を同異判断部470に出力する。
同異判断部470は、比較元の人物情報を比較先の人物情報と比較して人物情報が同一であるか否かを判断する。同異判断部470は、判断結果を情報更新部480に出力する。
The information extraction unit 460 extracts the comparison source person information and the comparison destination person information from the information storage unit 450. The information extraction unit 460 outputs the extracted comparison source person information and comparison target person information to the difference determination unit 470.
The difference determination unit 470 compares the person information of the comparison source with the person information of the comparison destination and determines whether or not the person information is the same. The difference determination unit 470 outputs the determination result to the information update unit 480.

情報更新部480は、判断結果に応じて情報記憶部450に記憶された比較元の人物情報を更新する。例えば、情報更新部480は、比較元の人物情報と比較先の人物情報が同一であると判断された場合には、比較先の人物情報に付与されたラベルと同じラベルを比較元の人物情報に付与する。逆に、情報更新部480は、比較元の人物情報と比較先の人物情報が異なると判断された場合には、比較先の人物情報に付与されたラベルと異なるラベルを比較元の人物情報に付与する。これにより、情報記憶部450には、様々なラベルが付与された人物情報が記憶される。例えば2つの人物情報に同じラベルが付与されていれば、それぞれの人物情報により特定される人物は同一の人物である判断することができる。   The information update unit 480 updates the comparison source personal information stored in the information storage unit 450 according to the determination result. For example, if it is determined that the comparison-source person information and the comparison-destination person information are the same, the information update unit 480 uses the same label as the label assigned to the comparison-destination person information. To grant. Conversely, if the information update unit 480 determines that the comparison-source person information and the comparison-destination person information are different, the information update unit 480 uses a label different from the label assigned to the comparison-destination person information as the comparison-source person information. Give. As a result, the information storage unit 450 stores personal information with various labels. For example, if the same label is given to two pieces of person information, it can be determined that the persons specified by the pieces of person information are the same person.

次に、図3を参照して、同一対象検出装置400のハードウェア構成について説明する。   Next, the hardware configuration of the same object detection device 400 will be described with reference to FIG.

図3は、同一対象検出装置400のハードウェア構成の一例である。
図3に示すように、同一対象検出装置400は、少なくともCentral Processing Unit(CPU)400A、Random Access Memory(RAM)400B、Read Only Memory(ROM)400C及びネットワークI/F(インタフェース)400Dを含んでいる。同一対象検出装置400は、必要に応じて、Hard Disk Drive(HDD)400E、入力I/F400F、出力I/F400G、入出力I/F400H、ドライブ装置400Iの少なくとも1つを含んでいてもよい。CPU400A,・・・,ドライブ装置400Iは、内部バス400Jによって互いに接続されている。少なくともCPU400AとRAM400Bとが協働することによってコンピュータが実現される。
FIG. 3 is an example of a hardware configuration of the same object detection device 400.
As shown in FIG. 3, the same object detection device 400 includes at least a central processing unit (CPU) 400A, a random access memory (RAM) 400B, a read only memory (ROM) 400C, and a network I / F (interface) 400D. Yes. The same object detection device 400 may include at least one of a hard disk drive (HDD) 400E, an input I / F 400F, an output I / F 400G, an input / output I / F 400H, and a drive device 400I as necessary. The CPU 400A,..., The drive device 400I are connected to each other by an internal bus 400J. At least the CPU 400A and the RAM 400B cooperate to realize a computer.

入力I/F400Fには、入力装置510が接続される。入力装置510としては、例えばキーボードやマウスなどがある。
出力I/F400Gには、表示装置520が接続される。表示装置520としては、例えば液晶ディスプレイがある。
入出力I/F400Hには、半導体メモリ530が接続される。半導体メモリ530としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F400Hは、半導体メモリ530に記憶されたプログラムやデータを読み取る。
入力I/F400F及び入出力I/F400Hは、例えばUSBポートを備えている。出力I/F400Gは、例えばディスプレイポートを備えている。
An input device 510 is connected to the input I / F 400F. Examples of the input device 510 include a keyboard and a mouse.
A display device 520 is connected to the output I / F 400G. An example of the display device 520 is a liquid crystal display.
A semiconductor memory 530 is connected to the input / output I / F 400H. Examples of the semiconductor memory 530 include a universal serial bus (USB) memory and a flash memory. The input / output I / F 400H reads a program and data stored in the semiconductor memory 530.
The input I / F 400F and the input / output I / F 400H include, for example, a USB port. The output I / F 400G includes a display port, for example.

ドライブ装置400Iには、可搬型記録媒体540が挿入される。可搬型記録媒体540としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置400Iは、可搬型記録媒体540に記録されたプログラムやデータを読み込む。
ネットワークI/F400Dは、例えばポートとPhysical Layer Chip(PHYチップ)とを備えている。同一対象検出装置400は、ネットワークI/F400Dを介してネットワークと接続される。
A portable recording medium 540 is inserted into the drive device 400I. Examples of the portable recording medium 540 include a removable disk such as a Compact Disc (CD) -ROM and a Digital Versatile Disc (DVD). The drive device 400I reads a program and data recorded on the portable recording medium 540.
The network I / F 400D includes, for example, a port and a physical layer chip (PHY chip). The same object detection device 400 is connected to a network via a network I / F 400D.

上述したRAM400Bには、ROM400CやHDD400Eに記憶されたプログラムがCPU400Aによって格納される。RAM400Bには、可搬型記録媒体540に記録されたプログラムがCPU400Aによって格納される。格納されたプログラムをCPU400Aが実行することにより、後述する各種の動作が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。   In the RAM 400B described above, the program stored in the ROM 400C or the HDD 400E is stored by the CPU 400A. In the RAM 400B, the program recorded on the portable recording medium 540 is stored by the CPU 400A. When the stored program is executed by the CPU 400A, various operations described later are executed. In addition, what is necessary is just to make a program according to the flowchart mentioned later.

次に、図4乃至図9を参照して、同一対象検出装置400の動作について説明する。   Next, the operation of the same object detection device 400 will be described with reference to FIGS.

図4は、同一対象検出装置400で実行される人物情報登録処理の一例を示すフローチャートである。図5は、色テーブルの一例である。図6は、人物画像の姿勢の変化の一例を説明するための図である。図7は、人物画像の向きの一例を説明するための図である。図8は、重み係数が登録された色テーブルの一例である。図9は、人物テーブルの一例である。   FIG. 4 is a flowchart illustrating an example of person information registration processing executed by the same target detection device 400. FIG. 5 is an example of a color table. FIG. 6 is a diagram for explaining an example of a change in posture of a person image. FIG. 7 is a diagram for explaining an example of the orientation of a person image. FIG. 8 is an example of a color table in which weighting factors are registered. FIG. 9 is an example of a person table.

まず、映像取得部410は、撮像装置100,200,300のいずれかに入力された映像を取得し、取得した映像を1フレーム毎に画像に変換する(ステップS101)。例えば撮像装置200に入力された映像を取得した場合には、撮像装置200による時系列な複数の画像が生成される。次いで、対象検出部420は、各画像中からそれぞれ人物を検出し、それぞれの人物特徴量を抽出する(ステップS102)。より詳しくは、対象検出部420は、予め定めた検出手法により、時系列な複数の画像から判断対象としての人物を画像毎に検出する。検出手法には、例えば背景差分法、動的2値化法、テンプレートマッチングなどがある(特開2002−157599号公報参照)。対象検出部420は、人物を検出すると、検出した人物の特徴量を表す人物特徴量を抽出する。人物特徴量としては、例えば、検出位置における色や時間的に連続した人物に応じた移動ベクトルなどがある。   First, the video acquisition unit 410 acquires a video input to any of the imaging devices 100, 200, and 300, and converts the acquired video into an image for each frame (step S101). For example, when a video input to the imaging apparatus 200 is acquired, a plurality of time-series images are generated by the imaging apparatus 200. Next, the target detection unit 420 detects a person from each image and extracts each person feature amount (step S102). More specifically, the target detection unit 420 detects a person as a determination target for each image from a plurality of time-series images using a predetermined detection method. As a detection method, for example, there are a background difference method, a dynamic binarization method, template matching, and the like (see JP 2002-157599 A). When the target detection unit 420 detects a person, the target detection unit 420 extracts a person feature amount representing the feature amount of the detected person. Examples of the person feature amount include a color at a detection position and a movement vector corresponding to a person who is temporally continuous.

次いで、対象検出部420は、同一人物を追跡する(ステップS103)。より詳しくは、対象検出部420は、前の画像(処理済の画像)から検出した人物の人物特徴量と現画像(処理中の画像)から検出した人物の人物特徴量を判定基準に基づいて対応付けることにより同一人物を追跡する。この結果、撮像装置100や撮像装置200に入力された各映像内で移動する人物が検出されて追跡される。尚、人物の追跡手法には以下の技術を利用してもよい。追跡対象の形状変化(見え変化)については、色ヒストグラムを用いる手法により追跡できる。物体の移動(動き変化)については、追跡対象の存在する領域を、尤度をもとにサンプリングするパーティクルフィルタを導入した手法により追跡できる(山下隆義、藤吉弘亘、「追跡対象と周辺領域の関係性を利用した協調的な物体追跡」、画像認識シンポジウム(MIRU2011)、pp.56−63、2011年7月参照)。   Next, the target detection unit 420 tracks the same person (step S103). More specifically, the target detection unit 420 is based on the person feature amount detected from the previous image (processed image) and the person feature amount detected from the current image (processed image) based on the determination criterion. The same person is tracked by associating. As a result, a moving person is detected and tracked in each image input to the imaging device 100 or the imaging device 200. The following technique may be used for the person tracking method. The shape change (appearance change) of the tracking target can be tracked by a technique using a color histogram. With regard to the movement (motion change) of an object, the region where the tracking target exists can be tracked by a technique that introduces a particle filter that samples based on the likelihood (Takayoshi Yamashita, Hironobu Fujiyoshi, “ Collaborative Object Tracking Using Relationships ”, Image Recognition Symposium (MIRU2011), pp. 56-63, July 2011).

次いで、色情報生成部430は、色テーブル更新処理を実行する(ステップS104)。色テーブル更新処理は、追跡中の人物から色の特徴を表す色情報を抽出し、抽出した色情報を予めフォーマットが定められた色テーブルに書き込んで更新する処理である。これにより、色情報を含む色テーブルが生成される。色テーブルは、人物の画像を表す人物画像が複数の領域(例えば矩形領域)に分割された場合に、各領域がどのような色を有するかを纏めたテーブルである。領域は画素単位でもよいし複数画素で構成されたものでもよい。色テーブルは、図5に示すように、各領域の位置を表す領域位置、各領域における時刻毎の色情報、及び後述する重み係数を構成要素として含んでいる。領域位置は、図6に示すように、人物画像が複数の領域に分割された場合における各領域の位置を表している。領域位置の先頭(0,0)は左上隅に仮想的に設定されている。例えば、時刻tにおける領域位置(80,10)の色情報欄には、図5に示すように、皮膚の色を表す色情報(220,165,110)が登録されている。色情報は、例えば領域内の代表値やヒストグラムなどで表すことができる。 Next, the color information generation unit 430 executes a color table update process (step S104). The color table update process is a process for extracting color information representing color characteristics from the person being tracked and writing the extracted color information in a color table having a predetermined format for updating. As a result, a color table including color information is generated. The color table is a table that summarizes what colors each region has when a human image representing a human image is divided into a plurality of regions (for example, rectangular regions). The area may be a pixel unit or a plurality of pixels. As shown in FIG. 5, the color table includes, as constituent elements, an area position that represents the position of each area, color information for each time in each area, and a weighting coefficient that will be described later. As shown in FIG. 6, the area position represents the position of each area when the person image is divided into a plurality of areas. The top (0, 0) of the region position is virtually set at the upper left corner. For example, the color information field of the area position (80, 10) at time t 0, as shown in FIG. 5, the color information representing the color of the skin (220,165,110) are registered. The color information can be represented by, for example, a representative value in a region or a histogram.

また、色テーブルは人物の向き毎に定められている。例えば図7に示すように、4方向に人物の向きを分けた場合、右方向を向く0°方向、正面方向を向く90°方向、左方向を向く180°方向及び背面方向を向く270°方向の4つの色テーブルが定められる。上述した図5では0°方向の色テーブルが示されている。尚、このような90°刻みに代えて45°刻みが利用されてもよい。この場合、8つの色テーブルが定められる。色テーブル更新処理の詳細は後述するが、色テーブル更新処理により時刻tにおける色情報を含む色テーブルが人物の向き毎に生成される。 The color table is determined for each direction of the person. For example, as shown in FIG. 7, when the orientation of a person is divided into four directions, the 0 ° direction facing the right direction, the 90 ° direction facing the front direction, the 180 ° direction facing the left direction, and the 270 ° direction facing the back direction. The four color tables are defined. In FIG. 5 described above, a color table in the 0 ° direction is shown. In place of such 90 ° increments, 45 ° increments may be used. In this case, eight color tables are defined. Although details of the color table update process will be described later, a color table including color information at time t 0 is generated for each person's direction by the color table update process.

色情報生成部430は、色テーブル更新処理が終了すると、追跡終了か否かを判断する(ステップS105)。例えば、図1において人物Mが撮像装置200の撮像範囲外へ出た場合、撮像装置200には人物Mが入力されないため、色情報生成部430は追跡終了と判断する(ステップS105:YES)。逆に、人物Mが撮像装置200の撮像範囲外へ出ていない場合、撮像装置200には人物Mが入力されるため、色情報生成部430は追跡終了でないと判断する(ステップS105:NO)。色情報生成部430は追跡終了でないと判断する限り、映像取得部410は映像を取得する。この結果、図5に示すように、時刻t,t,・・・,tの色情報が順に抽出されて色テーブルにおける対応する色情報欄に登録される。 When the color table update process ends, the color information generation unit 430 determines whether or not the tracking ends (step S105). For example, when the person M goes out of the imaging range of the imaging apparatus 200 in FIG. 1, the person M is not input to the imaging apparatus 200, so the color information generation unit 430 determines that the tracking is finished (step S105: YES). On the other hand, when the person M is not out of the imaging range of the imaging apparatus 200, the person M is input to the imaging apparatus 200, and thus the color information generation unit 430 determines that the tracking is not finished (step S105: NO). . As long as the color information generation unit 430 determines that the tracking is not finished, the video acquisition unit 410 acquires the video. As a result, as shown in FIG. 5, the color information at times t 0 , t 1 ,..., T 6 is extracted in order and registered in the corresponding color information column in the color table.

色情報生成部430は追跡終了と判断した場合、次いで、情報登録部440は重み係数を算出する(ステップS106)。重み係数は、互いに異なる色テーブルにおける同じ領域同士を比較して類似度を判断する場合における、類似度の信頼性を表す係数である。重み係数が小さいほど人物画像全体の同異判断に及ぼす影響が小さくなり、人物画像全体の同異判断において同一であると判断され易くなる。重み係数は、各領域における時系列の色情報に基づいて算出される。   If the color information generation unit 430 determines that the tracking is finished, then the information registration unit 440 calculates a weighting coefficient (step S106). The weighting coefficient is a coefficient representing the reliability of the similarity when the similarity is determined by comparing the same regions in different color tables. The smaller the weighting coefficient, the smaller the influence on the difference determination of the entire person image, and the easier it is to determine that they are the same in the difference determination of the entire person image. The weighting coefficient is calculated based on time-series color information in each region.

例えば、図6に示すように、人物Mの顔の一部を含む領域位置(80,10)では、図5に示すように、時刻tから時刻tまで色情報(220,165,110)は変化していない。すなわち、腕の動きにより姿勢が変化しても色情報は変化しにくい領域であり、類似度を求める際に信頼性が高いため、相対的に大きな重み係数を算出する。逆に、図6に示すように、人物Mの脚の一部を含む領域位置(50,100)では、図5に示すように、時刻tから時刻tまで色情報(168,168,168)や色情報(1,63,101)に変化する。すなわち、腕の動きにより鞄Bの位置が変化すると、領域位置(50,100)には、鞄Bの色を表す色情報(168,168,168)と人物Mの被服の色を表す色情報(1,63,101)が現れるため色情報は変化し易い領域であり、類似度を求める際の信頼性が低いため、相対的に小さな重み係数を算出する。人物Mの腕の一部を含む領域位置(40,70)では、図5に示すように、時刻tから時刻tまで色情報(1,63,101)や色情報(60,60,60)に変化するが、腕の動きによる陰の影響を受けているため領域位置(50,100)ほど色情報は変化していない。したがって、領域位置(80,10)に対して算出された重み係数と領域位置(50,100)に対して算出された重み係数の間に属する重み係数が算出される。 For example, as shown in FIG. 6, in the region position (80, 10) including a part of the face of the person M, as shown in FIG. 5, the color information (220, 165, 110) from time t 0 to time t 6 is shown. ) Has not changed. That is, even if the posture changes due to the movement of the arm, the color information is unlikely to change, and since the reliability is high when obtaining the similarity, a relatively large weighting factor is calculated. Conversely, as shown in FIG. 6, the area position including a portion of the legs of the person M (50, 100), as shown in FIG. 5, the color information from the time t 0 to time t 6 (168, 168, 168) and color information (1, 63, 101). That is, when the position of the eyelid B changes due to the movement of the arm, the color information (168, 168, 168) representing the color of the eyelid B and the color information representing the color of the clothing of the person M are displayed at the region position (50, 100). Since (1, 63, 101) appears, the color information is an easily changing region, and since the reliability when obtaining the similarity is low, a relatively small weight coefficient is calculated. In the region position including a portion of the arm of the person M (40, 70), as shown in FIG. 5, the color information from the time t 0 to time t 6 (1,63,101) and color information (60, 60, 60), but the color information does not change as much as the region position (50, 100) because it is affected by the shadow of the arm. Therefore, a weighting factor that belongs between the weighting factor calculated for the region position (80, 10) and the weighting factor calculated for the region position (50, 100) is calculated.

重み係数の具体的な算出方法としては、例えば色情報をRGB軸の3次元グラフ上にプロットして、その色情報の分布や分散を調べて重み係数を算出する方法がある。分布や分散が小さい場合には、姿勢が変化しても色情報はあまり変化しないため、情報登録部440は予め定められた小さな分布に応じた大きな重み係数を算出する。逆に、分布や分散が大きい場合には、姿勢が変化すると様々な色情報が現れ、色情報は大きく変化するため、情報登録部440は予め定められた大きな分布に応じた小さな重み係数を算出する。   As a specific calculation method of the weighting factor, for example, there is a method of plotting color information on a three-dimensional graph of the RGB axis and calculating the weighting factor by examining the distribution and dispersion of the color information. When the distribution or variance is small, the color information does not change much even if the posture changes, and therefore the information registration unit 440 calculates a large weighting factor according to a predetermined small distribution. Conversely, when the distribution or variance is large, various color information appears when the posture changes, and the color information changes greatly. Therefore, the information registration unit 440 calculates a small weighting factor according to a predetermined large distribution. To do.

この結果、図8に示すように、情報登録部440は領域位置(80,10)に対して算出された重み係数「2.0」を色テーブルにおける対応する重み係数欄に登録する。同様に、情報登録部440は領域位置(40,70)に対して算出された重み係数「1.0」を色テーブルにおける対応する重み係数欄に登録する。情報登録部440は領域位置(50,100)に対して算出された重み係数「0.3」を色テーブルにおける対応する重み係数欄に登録する。   As a result, as shown in FIG. 8, the information registration unit 440 registers the weighting factor “2.0” calculated for the region position (80, 10) in the corresponding weighting factor column in the color table. Similarly, the information registration unit 440 registers the weighting factor “1.0” calculated for the region position (40, 70) in the corresponding weighting factor column in the color table. The information registration unit 440 registers the weighting factor “0.3” calculated for the region position (50, 100) in the corresponding weighting factor column in the color table.

情報登録部440は、重み係数を算出すると、次いで、人物情報を登録する(ステップS107)。人物情報は、図9に示すように、人物情報を識別する人物ID、同一人物には同一のラベルが付与される人物ラベル及び人物特徴を含んでいる。人物情報は人物テーブルに登録される。人物IDは、情報記憶部450にカウントアップして付与される番号である。人物IDには文字や記号が含まれていてもよい。人物特徴は、0°方向、90°方向、180°方向及び270°方向の4つの色テーブルを含んでいる。図8では、色テーブルのテーブル名が示されている。尚、人物ID「06」の人物情報は、人物ラベルが付与されていないが、処理対象の人物情報であるため、人物ID「01」〜「05」の人物情報と対応付けが完了していない。後述する対応付け処理により、人物ID「06」の人物情報に適切な人物ラベルが付与される。情報登録部440がステップS107の処理を終了すると、映像取得部410はステップS101の処理を開始する。このように、人物の特徴を表す人物情報が順に情報記憶部450に登録される。   After calculating the weighting factor, the information registration unit 440 then registers person information (step S107). As shown in FIG. 9, the person information includes a person ID for identifying the person information, a person label to which the same person is given the same label, and a person feature. The person information is registered in the person table. The person ID is a number assigned to the information storage unit 450 after being counted up. The person ID may include characters and symbols. The person feature includes four color tables of 0 ° direction, 90 ° direction, 180 ° direction, and 270 ° direction. In FIG. 8, the table name of the color table is shown. Note that the person information of the person ID “06” is not assigned a person label, but is the person information to be processed, so that the association with the person information of the person IDs “01” to “05” has not been completed. . An appropriate person label is assigned to the person information of the person ID “06” by the association process described later. When the information registration unit 440 finishes the process of step S107, the video acquisition unit 410 starts the process of step S101. In this way, personal information representing the characteristics of a person is registered in the information storage unit 450 in order.

次に、図10を参照して、上述した色テーブル更新処理について説明する。   Next, the color table update process described above will be described with reference to FIG.

図10は、色テーブル更新処理の一例を示すフローチャートである。
色情報生成部430は、まず、画像から判断対象としての人物画像を切り出す(ステップS201)。例えば、色情報生成部430は、背景差分処理を利用して画像から人物Mの領域である人物画像と背景を分離する。次いで、色情報生成部430は、人物画像を正規化する(ステップS202)。例えば、色情報生成部430は、頭頂部から靴底までの長さが予め定めた長さになるように人物画像の寸法を変更する。
FIG. 10 is a flowchart illustrating an example of the color table update process.
First, the color information generation unit 430 cuts out a person image as a determination target from the image (step S201). For example, the color information generation unit 430 separates the person image that is the area of the person M and the background from the image using background difference processing. Next, the color information generation unit 430 normalizes the person image (step S202). For example, the color information generation unit 430 changes the size of the person image so that the length from the top of the head to the shoe sole becomes a predetermined length.

次いで、色情報生成部430は、人物の向いている方向を特定する(ステップS203)。例えば、色情報生成部430は、人物画像における人物Mの移動方向や顔の向き、頭部の頭髪と皮膚の割合やこれらの位置関係などを利用して、人物の向きを特定する。特定された人物の向きに最も近い方向の色テーブルが更新対象と色テーブルになる。次いで、色情報生成部430は、方向毎に各領域の色情報を抽出し、色テーブルを更新する(ステップS204)。具体的には、人物画像の中心位置が所定の位置(例えば原点)に配置されるように合わされて、左上の領域から順番に色情報が抽出され、抽出された色情報色テーブルに登録される。これにより、図5に示すように、色テーブルにおける対応する色情報欄に色情報が登録される。   Next, the color information generation unit 430 identifies the direction in which the person is facing (step S203). For example, the color information generation unit 430 specifies the direction of the person using the moving direction and face direction of the person M in the human image, the ratio of head hair and skin, the positional relationship thereof, and the like. The color table in the direction closest to the direction of the identified person becomes the update target and color table. Next, the color information generation unit 430 extracts the color information of each region for each direction, and updates the color table (step S204). Specifically, the center position of the person image is adjusted to be arranged at a predetermined position (for example, the origin), color information is extracted in order from the upper left area, and is registered in the extracted color information color table. . Thereby, as shown in FIG. 5, the color information is registered in the corresponding color information column in the color table.

次に、図11乃至図13を参照して、同一対象検出装置400の動作について説明する。   Next, the operation of the same object detection device 400 will be described with reference to FIGS.

図11は、同一対象検出装置400で実行される対応付け処理の一例を示すフローチャートである。
まず、情報抽出部460は、新たな人物情報が登録されたか否かを判断する(ステップS301)。例えば、情報抽出部460は、情報記憶部450を定期的に監視し、前回と異なる人物情報が登録されているか否かを判断する。情報抽出部460は、新たな人物情報が登録されたと判断した場合(ステップS301:YES)、登録された人物情報を比較元として抽出する(ステップS302)。一方、情報抽出部460は、新たな人物情報が登録されていないと判断した場合(ステップS301:NO)、ステップS301の処理に戻る。
FIG. 11 is a flowchart illustrating an example of the association process executed by the same target detection device 400.
First, the information extraction unit 460 determines whether new person information has been registered (step S301). For example, the information extraction unit 460 periodically monitors the information storage unit 450 and determines whether or not personal information different from the previous time is registered. When the information extraction unit 460 determines that new person information has been registered (step S301: YES), the information extraction unit 460 extracts the registered person information as a comparison source (step S302). On the other hand, when the information extraction unit 460 determines that no new person information is registered (step S301: NO), the information extraction unit 460 returns to the process of step S301.

情報抽出部460は、比較元の人物情報を抽出後、その人物情報と比較する人物情報を比較先として抽出する(ステップS303)。比較先の人物情報は、情報記憶部450に記憶されているすべての人物情報であってもよいし、時間や移動経路といった情報を人物情報に加えて、例えば所定の時間以内に登録された人物情報を比較先として抽出するようにしてもよい。   After extracting the comparison source person information, the information extraction unit 460 extracts the person information to be compared with the person information as a comparison destination (step S303). The person information of the comparison destination may be all the person information stored in the information storage unit 450, or a person registered within a predetermined time, for example, by adding information such as time and travel route to the person information Information may be extracted as a comparison destination.

次いで、同異判断部470は、類似度算出処理を実行する(ステップS304)。詳細は後述するが、類似度算出処理は、比較元の人物情報と比較先の人物情報のいずれか1つとの類似度を算出する処理である。類似度算出処理により、比較元の人物情報と比較先の人物情報のいずれか1つとの類似度が算出される。類似度算出処理が完了すると、次いで、同異判断部470は、全ての比較先との類似度を算出したか否かを判断する(ステップS305)。同異判断部470は、全ての比較先との類似度を算出していないと判断した場合(ステップS305:NO)、再び類似度算出処理を実行する。これにより、比較元の人物情報と比較先の人物情報すべてとの類似度が算出される。   Next, the difference determination unit 470 performs similarity calculation processing (step S304). Although details will be described later, the similarity calculation process is a process of calculating the similarity between any one of the comparison source person information and the comparison target person information. By the similarity calculation process, the similarity between any one of the comparison source person information and the comparison target person information is calculated. When the similarity calculation process is completed, next, the difference determination unit 470 determines whether or not the similarities with all the comparison destinations have been calculated (step S305). When the similarity determination unit 470 determines that the similarity with all the comparison destinations has not been calculated (step S305: NO), the similarity determination process is executed again. As a result, the similarity between the comparison source person information and all of the comparison target person information is calculated.

同異判断部470は、すべての比較先との類似度を算出したと判断した場合(ステップS305:YES)、最大の類似度が所定の閾値以上であるか否かを判断する(ステップS306)。同異判断部470は、最大の類似度が所定の閾値以上であると判断した場合(ステップS306:YES)、情報更新部480は、最大類似度となった人物情報のラベルと同じラベルを比較元の人物情報に書き込む(ステップS307)。すなわち、比較元の人物情報は、最大類似度となった比較先の人物情報と同一人物を表していると判断される。一方、同異判断部470は、最大の類似度が所定の閾値以上でないと判断した場合(ステップS306:NO)、情報更新部480は、新たなラベルを比較元の人物情報に書き込む(ステップS308)。すなわち、比較元の人物情報は、最大類似度となった比較先の人物情報とは別の人物を表していると判断される。情報更新部480がステップS307又はS308の処理を終えると、情報抽出部460はステップS301の処理を実行する。   When the similarity determination unit 470 determines that the similarity with all the comparison destinations has been calculated (step S305: YES), the difference determination unit 470 determines whether the maximum similarity is equal to or greater than a predetermined threshold (step S306). . When the difference determination unit 470 determines that the maximum similarity is equal to or greater than a predetermined threshold (step S306: YES), the information update unit 480 compares the same label with the label of the person information having the maximum similarity. The original person information is written (step S307). That is, it is determined that the person information of the comparison source represents the same person as the person information of the comparison destination having the maximum similarity. On the other hand, when the difference determination unit 470 determines that the maximum similarity is not greater than or equal to the predetermined threshold (step S306: NO), the information update unit 480 writes a new label in the comparison source personal information (step S308). ). That is, it is determined that the comparison source person information represents a person different from the comparison destination person information having the maximum similarity. When the information update unit 480 finishes the process of step S307 or S308, the information extraction unit 460 executes the process of step S301.

次に、図12及び図13を参照して、上述した類似度算出処理について説明する。   Next, the similarity calculation process described above will be described with reference to FIGS.

図12は、類似度算出処理の一例を示すフローチャートである。図13は、類似度算出処理の一例を説明するための図である。
まず、図12に示すように、同異判断部470は、同一方向の色テーブルを取得する(ステップS401)。具体的には、同異判断部470は、比較元の人物情報と比較先の人物情報のそれぞれに含まれる方向毎の色テーブルの中から、いずれか1つの方向を選択し、選択した方向の色テーブルを取得する。図8を参照して説明したように、人物情報には人物の向き毎に異なる複数の色テーブルが含まれているため、同異判断部470はいずれかの色テーブルを選択する。選択する向きに関しては、予め向き毎に優先順位を決めておいて優先順位の高い向きの色テーブルを選択する。尚、同異判断部470は、すべての向きを選択するようにしてもよい。この場合、全ての向きに関して類似度を求めて平均化することで、最終的な類似度が算出される。
FIG. 12 is a flowchart illustrating an example of similarity calculation processing. FIG. 13 is a diagram for explaining an example of similarity calculation processing.
First, as shown in FIG. 12, the difference determination unit 470 acquires a color table in the same direction (step S401). Specifically, the difference determination unit 470 selects one direction from the color tables for each direction included in each of the comparison-source person information and the comparison-destination person information, and selects the selected direction. Get the color table. As described with reference to FIG. 8, since the person information includes a plurality of color tables that differ depending on the orientation of the person, the difference determination unit 470 selects one of the color tables. Regarding the direction to be selected, a priority order is determined in advance for each direction, and a color table having a higher priority order is selected. The difference determination unit 470 may select all directions. In this case, the final similarity is calculated by obtaining and averaging the similarity for all orientations.

同異判断部470は、次いで、各領域の色情報の類似度を領域毎に算出する(ステップS402)。色テーブルは、図8を参照して説明したように、1つの領域に対して時系列な複数の色情報を有しているため、比較方法としては、例えば、全ての色情報の平均値同士を比較して色情報の類似度を求める方法や、全ての色情報の全組み合わせの類似度を求め、その中で最も高い類似度を採用する方法、時系列な複数の色情報同士が類似しているか調べる方向などがある。また、類似度の算出には、例えばRGB空間上の2点のユークリッド距離を利用する方法がある。色情報(R1,G1,B1)と色情報(R2,G2,B2)の2点間のユークリッド距離disは、以下の数式(1)により表される。

Figure 2015219712
Next, the difference determination unit 470 calculates the similarity of the color information of each region for each region (step S402). As described with reference to FIG. 8, the color table has a plurality of time-series color information for one area. As a comparison method, for example, an average value of all color information To obtain the similarity of color information, to obtain the similarity of all combinations of all color information, and to adopt the highest similarity among them, the time series of multiple color information is similar There is a direction to check whether or not. Further, for example, there is a method of using the Euclidean distance between two points in the RGB space for calculating the similarity. The Euclidean distance dis between two points of the color information (R1, G1, B1) and the color information (R2, G2, B2) is expressed by the following formula (1).
Figure 2015219712

ここで、求めて距離を利用して、類似度corは例えば以下の数式(2)のように定義されることで、類似している場合には値「1」に近づき、類似していない場合には値「0」に近づくような値を求めることができる。

Figure 2015219712
Here, when the distance is obtained and the similarity degree cor is defined as in the following formula (2), for example, when it is similar, the value approaches “1” and is not similar A value that approaches the value “0” can be obtained.
Figure 2015219712

同異判断部470は、次いで、重み係数を利用して、全体の類似度を算出する(ステップS403)。具体的には、同異判断部470は、各領域で求めた類似度に、各領域に対応した重み係数をかけて足し合わせ、平均化することで人物画像全体の類似度を求める。例えば、図13に示すように、撮像装置100に基づく比較先である人物ID「01」の色テーブルと、撮像装置200に基づく比較元である人物ID「06」の色テーブルを比較する場合、以下の数式(3)により人物画像全体の類似度cor_allを求めることができる。尚、i,jはそれぞれ領域位置のx,yに対応する。wai,j、wbi,jの一方は比較元の重み係数に対応し、wai,j、wbi,jの他方は比較先の重み係数に対応する。例えば、人物ID「01」と人物ID「06」の類似度cor_allが残りの類似度cor_allと比べて最大であり、人物ID「01」と人物ID「06」の類似度cor_allが所定の閾値以上であれば、図9における人物ID「06」の人物ラベルには「人物A」が登録される。

Figure 2015219712
Next, the difference determination unit 470 calculates the overall similarity using the weighting factor (step S403). Specifically, the difference determination unit 470 adds the weights corresponding to the respective regions to the similarities obtained in the respective regions, adds them, and averages them to obtain the similarity of the whole person image. For example, as illustrated in FIG. 13, when comparing the color table of the person ID “01” that is the comparison destination based on the imaging device 100 and the color table of the person ID “06” that is the comparison source based on the imaging device 200, The similarity cor_all of the whole person image can be obtained by the following formula (3). Note that i and j correspond to x and y of the region position, respectively. One of wa i, j and wb i, j corresponds to the weighting factor of the comparison source, and the other of wa i, j , wb i, j corresponds to the weighting factor of the comparison destination. For example, the similarity cor_all between the person ID “01” and the person ID “06” is the maximum compared to the remaining similarity cor_all, and the similarity cor_all between the person ID “01” and the person ID “06” is equal to or greater than a predetermined threshold. Then, “person A” is registered in the person label of the person ID “06” in FIG.
Figure 2015219712

以上説明したように、本実施形態によれば、判断対象としての人物Mを含む人物画像を複数の領域に分割し、各領域が有する時系列の色情報同士を比べる際、他の領域と比べて変化が大きい領域には類似度の信頼性を表す重み係数を下げて、判断対象同士が同一か否か判断する。これにより、変化が大きい領域では、同異判断に及ぼす影響が小さくなり、人物画像全体の同異判断において同一であると判断され易くなる。したがって、変化が大きい領域に対して類似度の信頼性を表す重み係数を下げない場合と比べて、同一対象の誤検出を抑えることができる。換言すれば、同一対象の検出精度を向上することができる。   As described above, according to the present embodiment, when a person image including the person M as a determination target is divided into a plurality of areas and the time-series color information of each area is compared, it is compared with other areas. Thus, in a region where the change is large, the weighting factor representing the reliability of the similarity is lowered to determine whether the determination targets are the same. Thereby, in the region where the change is large, the influence on the determination of the difference is small, and it is easy to determine that it is the same in the determination of the difference of the whole person image. Therefore, erroneous detection of the same object can be suppressed as compared with the case where the weighting coefficient representing the reliability of the similarity is not lowered for the region where the change is large. In other words, the detection accuracy of the same object can be improved.

特に、大きな姿勢変動にも対応させるために、人物の体全体を含む大きな領域が設定された場合、ヒストグラムによって色情報を表現すると、上半身と下半身の色が逆であることにより異なる人物であっても同一人物と誤って検出されるおそれがある。しかしながら、本実施形態によれば、このような誤った検出を抑えることができる。   In particular, when a large region including the entire body of a person is set to cope with a large posture change, if color information is expressed by a histogram, the person is different because the colors of the upper body and the lower body are opposite. May be mistakenly detected as the same person. However, according to the present embodiment, such erroneous detection can be suppressed.

以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible.

なお、以上の説明に関して更に以下の付記を開示する。
(付記1)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、を有する同一対象検出装置。
(付記2)前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する色情報生成部を有し、前記同異判断部は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする付記1に記載の同一対象検出装置。
(付記3)前記同異判断部は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする付記1又は2に記載の同一対象検出装置。
(付記4)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータが実行する同一対象検出方法。
(付記5)前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する処理を有し、前記判断する処理は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする付記4に記載の同一対象検出方法。
(付記6)前記判断する処理は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする付記4又は5に記載の同一対象検出方法。
(付記7)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータに実行させるための同一対象検出プログラム。
In addition, the following additional notes are disclosed regarding the above description.
(Supplementary Note 1) A target detection unit that detects a first determination target and a second determination target from each of a first captured image captured in time series and a second captured image captured in time series, and When the first determination target and the second determination target are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the change of the color information in the time series of the areas to be compared Using a second weighting factor that is smaller than the first weighting factor used for any one of the regions in a region that is larger than any one of the regions. The same object detection apparatus which has a different judgment part which judges whether a judgment object is the same.
(Additional remark 2) It has the color information generation part which produces | generates the said color information for every moving direction with respect to each moving direction of the said 1st judgment object and the said 2nd judgment object, The said same judgment part is the same The same object detection device as set forth in appendix 1, wherein when comparing the color information in the moving directions of the first and second determinations, it is determined whether or not the first determination object and the second determination object are the same.
(Additional remark 3) The said difference determination part calculates the 1st similarity of the said color information for every area | region, The said 1st weight coefficient corresponding to each area | region or the said 1st similarity for every area | region or The second similarity is calculated by multiplying the second weighting factor and adding them together to calculate the second similarity between the first determination object and the second determination object, and the second similarity is the same. 3. The same object detection apparatus according to appendix 1 or 2, wherein the first determination object and the second determination object are determined to be the same when a determination threshold value is exceeded.
(Supplementary Note 4) A first determination object and a second determination object are detected from each of a first captured image captured in time series and a second captured image captured in time series, and the first determination is performed. When the target and the second determination target are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the change of the color information in the time series of the areas to be compared is any Using the second weighting factor smaller than the first weighting factor used for any one of the regions, the first determination target and the second determination target are the same for the region larger than the region The same object detection method in which a computer executes a process of determining whether or not.
(Additional remark 5) It has the process which produces | generates the said color information for every moving direction with respect to each moving direction of the said 1st judgment object and the said 2nd judgment object, The said judgment process has the same movement direction 5. The same object detection method according to appendix 4, wherein when the color information is compared, it is determined whether or not the first determination object and the second determination object are the same.
(Additional remark 6) The said determination process calculates the 1st similarity of the said color information for every area | region, The said 1st weighting coefficient corresponding to each area | region or the said 1st similarity for every area | region By multiplying and adding the second weighting factor and averaging, the second similarity of the first determination object and the second determination object is calculated, and the second similarity is determined to be the same 6. The method of detecting the same object according to appendix 4 or 5, wherein the first determination object and the second determination object are determined to be the same when the threshold value is equal to or greater than a threshold value.
(Supplementary note 7) A first determination object and a second determination object are detected from each of a first captured image captured in time series and a second captured image captured in time series, and the first determination is performed. When the target and the second determination target are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the change of the color information in the time series of the areas to be compared is any Using the second weighting factor smaller than the first weighting factor used for any one of the regions, the first determination target and the second determination target are the same for the region larger than the region The same object detection program for causing a computer to execute processing for determining whether or not

S 同一対象検出システム
100,200,300 撮像装置
400 同一対象検出装置
420 対象検出部
430 色情報生成部
470 同異判断部
S Same target detection system 100, 200, 300 Imaging device 400 Same target detection device 420 Target detection unit 430 Color information generation unit 470 Difference determination unit

Claims (5)

時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、
を有する同一対象検出装置。
An object detection unit for detecting the first determination object and the second determination object from each of the first captured image captured in time series and the second captured image captured in time series;
When the first determination object and the second determination object are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the color information in the time series of the areas to be compared is compared. Using the second weighting factor that is smaller than the first weighting factor used for any one of the regions in the region where the change is larger than any one of the regions, the first determination target and the second A judgment unit for judging whether or not the judgment targets are the same,
The same object detection device having
前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する色情報生成部を有し、
前記同異判断部は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする請求項1に記載の同一対象検出装置。
A color information generation unit that generates the color information for each movement direction with respect to the movement direction of each of the first determination object and the second determination object;
The difference determination unit, when comparing the color information in the same movement direction, determines whether the first determination object and the second determination object are the same. The same object detection device according to 1.
前記同異判断部は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする請求項1又は2に記載の同一対象検出装置。   The difference determination unit calculates a first similarity between the color information for each region, and the first weight coefficient corresponding to each region or the second weight for the first similarity for each region. By multiplying and adding the weighting factor and averaging, the second similarity between the first determination target and the second determination target is calculated, and the threshold is equal to or higher than the threshold for determining that the second similarity is the same. 3, the same object detection apparatus according to claim 1, wherein the first determination object and the second determination object are determined to be the same. 時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、
処理をコンピュータが実行する同一対象検出方法。
A first determination object and a second determination object are detected from each of the first captured image captured in time series and the second captured image captured in time series;
When the first determination object and the second determination object are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the color information in the time series of the areas to be compared is compared. Using the second weighting factor that is smaller than the first weighting factor used for any one of the regions in the region where the change is larger than any one of the regions, the first determination target and the second To determine whether the subject of judgment is the same,
Same object detection method in which processing is executed by computer.
時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、
処理をコンピュータに実行させるための同一対象検出プログラム。
A first determination object and a second determination object are detected from each of the first captured image captured in time series and the second captured image captured in time series;
When the first determination object and the second determination object are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the color information in the time series of the areas to be compared is compared. Using the second weighting factor that is smaller than the first weighting factor used for any one of the regions in the region where the change is larger than any one of the regions, the first determination target and the second To determine whether the subject of judgment is the same,
The same object detection program for causing a computer to execute processing.
JP2014102635A 2014-05-16 2014-05-16 Same object detection device, same object detection method, and same object detection program Expired - Fee Related JP6308011B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014102635A JP6308011B2 (en) 2014-05-16 2014-05-16 Same object detection device, same object detection method, and same object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014102635A JP6308011B2 (en) 2014-05-16 2014-05-16 Same object detection device, same object detection method, and same object detection program

Publications (2)

Publication Number Publication Date
JP2015219712A true JP2015219712A (en) 2015-12-07
JP6308011B2 JP6308011B2 (en) 2018-04-11

Family

ID=54779028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014102635A Expired - Fee Related JP6308011B2 (en) 2014-05-16 2014-05-16 Same object detection device, same object detection method, and same object detection program

Country Status (1)

Country Link
JP (1) JP6308011B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028784A (en) * 2016-08-17 2018-02-22 富士通株式会社 Movable body group detection program, movable body group detection device, and movable body group detection method
CN113095123A (en) * 2019-12-23 2021-07-09 晶睿通讯股份有限公司 Object recognition method and related monitoring camera equipment
CN115601877A (en) * 2022-10-17 2023-01-13 广东便捷神科技股份有限公司(Cn) An automatic vending machine recognition system and its recognition method based on image processing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087772A (en) * 2001-09-10 2003-03-20 Fujitsu Ltd Image control device
JP2011018238A (en) * 2009-07-09 2011-01-27 Hitachi Ltd Image retrieval system and image retrieval method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087772A (en) * 2001-09-10 2003-03-20 Fujitsu Ltd Image control device
JP2011018238A (en) * 2009-07-09 2011-01-27 Hitachi Ltd Image retrieval system and image retrieval method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028784A (en) * 2016-08-17 2018-02-22 富士通株式会社 Movable body group detection program, movable body group detection device, and movable body group detection method
CN113095123A (en) * 2019-12-23 2021-07-09 晶睿通讯股份有限公司 Object recognition method and related monitoring camera equipment
CN113095123B (en) * 2019-12-23 2024-05-03 晶睿通讯股份有限公司 Object recognition method and related surveillance camera equipment
CN115601877A (en) * 2022-10-17 2023-01-13 广东便捷神科技股份有限公司(Cn) An automatic vending machine recognition system and its recognition method based on image processing

Also Published As

Publication number Publication date
JP6308011B2 (en) 2018-04-11

Similar Documents

Publication Publication Date Title
JP5554984B2 (en) Pattern recognition method and pattern recognition apparatus
US9082013B2 (en) Image recognition device, image recognition method, program, and integrated circuit
TWI505200B (en) Method, system, computer program product and program for determining the location and attributes of an object in a video
US20160260226A1 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
CN107784282A (en) The recognition methods of object properties, apparatus and system
JP6351243B2 (en) Image processing apparatus and image processing method
WO2016085667A1 (en) Fast object tracking framework for sports video recognition
WO2019064375A1 (en) Information processing device, control method, and program
JP2016500885A (en) System and method for merging multiple maps for computer vision based tracking
CN103514432A (en) Method, device and computer program product for extracting facial features
JP6362085B2 (en) Image recognition system, image recognition method and program
JP6331761B2 (en) Determination device, determination method, and determination program
CN112329663B (en) Micro-expression time detection method and device based on face image sequence
JP6500500B2 (en) Image determination apparatus, image determination method, and program
JP2018028784A (en) Movable body group detection program, movable body group detection device, and movable body group detection method
US11182636B2 (en) Method and computing device for adjusting region of interest
JPWO2006025272A1 (en) Video classification device, video classification program, video search device, and video search program
JP6308011B2 (en) Same object detection device, same object detection method, and same object detection program
JP5248236B2 (en) Image processing apparatus and image processing method
JP2021047538A (en) Image processing equipment, image processing methods, and programs
JP2017175466A (en) Video image processing device, video image processing system and control method
CN112560557A (en) People number detection method, face detection device and electronic equipment
JP6795469B2 (en) Gaze area estimator and program
WO2022249278A1 (en) Image processing device, image processing method, and program
WO2022249331A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180226

R150 Certificate of patent or registration of utility model

Ref document number: 6308011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees