JP2015219712A - Same object detection device, same object detection method, and same object detection program - Google Patents
Same object detection device, same object detection method, and same object detection program Download PDFInfo
- Publication number
- JP2015219712A JP2015219712A JP2014102635A JP2014102635A JP2015219712A JP 2015219712 A JP2015219712 A JP 2015219712A JP 2014102635 A JP2014102635 A JP 2014102635A JP 2014102635 A JP2014102635 A JP 2014102635A JP 2015219712 A JP2015219712 A JP 2015219712A
- Authority
- JP
- Japan
- Prior art keywords
- person
- determination
- same
- color information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】同一人物の誤検出を抑える同一対象検出装置を提供する。【解決手段】時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部420と、第1の判断対象と第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での色情報の変化がいずれかの領域と比べて大きい領域に、いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、第1の判断対象と第2の判断対象が同一か否かを判断する同異判断部470と、を有する同一対象検出装置400である。【選択図】図2An identical object detection device that suppresses erroneous detection of the same person is provided. A target detection unit for detecting a first determination target and a second determination target from a first captured image captured in time series and a second captured image captured in time series; When the first determination target and the second determination target are each divided into a plurality of areas, and the color information of the corresponding areas is compared, the change of the color information in the time series of the comparison areas Whether the first determination target and the second determination target are the same by using a second weighting factor that is smaller than the first weighting factor used for any one of the regions larger than that region The same object detection device 400 having a difference determination unit 470 for determining whether or not. [Selection] Figure 2
Description
本件は、同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムに関する。 This case relates to the same object detection device, the same object detection method, and the same object detection program.
監視範囲が重複しない複数のカメラによる映像を利用して、同一人物を検出するシステムが知られている(例えば特許文献1〜5参照)。例えば、映像から取得した画像を複数の領域に分割し、色ヒストグラムを利用して各領域の特徴量を抽出することで、映像に含まれる人物の姿勢の変化に依存せずに、対象人物を検索する技術がある(例えば特許文献6参照)。 A system for detecting the same person using images from a plurality of cameras whose monitoring ranges do not overlap is known (see, for example, Patent Documents 1 to 5). For example, an image acquired from a video is divided into a plurality of regions, and feature quantities of each region are extracted using a color histogram, so that the target person can be identified without depending on the change in the posture of the person included in the video. There is a technique for searching (see, for example, Patent Document 6).
しかしながら、上述した技術では各領域内における姿勢の変化には依存しないものの、領域を跨って姿勢が変化した場合には、対象人物の検索精度が低下する。この場合、同一人物を異なる人物として検出するおそれがある。 However, although the above-described technique does not depend on changes in posture within each region, if the posture changes across regions, the target person search accuracy decreases. In this case, the same person may be detected as a different person.
そこで、1つの側面では、本件は、同一人物の誤検出を抑える同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムを提供することを目的とする。 Therefore, in one aspect, an object of the present invention is to provide an identical object detection device, an identical object detection method, and an identical object detection program that suppress erroneous detection of the same person.
本明細書に開示の同一対象検出装置は、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、を有する同一対象検出装置である。 The same object detection device disclosed in the present specification determines a first determination object and a second determination object from each of a first captured image captured in time series and a second captured image captured in time series. When the object detection unit to detect, the first determination object, and the second determination object are each divided into a plurality of areas and the color information of the corresponding areas is compared, The second weighting factor smaller than the first weighting factor used for any one of the regions is used for a region where the change in the color information in the series is larger than any one of the regions, And the same determination unit that determines whether or not the second determination target is the same.
本明細書に開示の同一対象検出方法は、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータが実行する同一対象検出方法である。 The same target detection method disclosed in this specification is configured to determine a first determination target and a second determination target from each of a first captured image captured in time series and a second captured image captured in time series. When the first judgment object and the second judgment object are each divided into a plurality of areas and the color information of the corresponding areas is compared, the time series of the areas to be compared is detected. By using a second weighting factor that is smaller than the first weighting factor used for any one of the regions in a region where the change in color information is larger than any one of the regions, the first determination target The same object detection method in which the computer executes a process of determining whether or not the second determination objects are the same.
本明細書に開示の同一対象検出プログラムは、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータに実行させるための同一対象検出プログラムである。 The same target detection program disclosed in the present specification is configured to determine a first determination target and a second determination target from each of a first captured image captured in time series and a second captured image captured in time series. When the first judgment object and the second judgment object are each divided into a plurality of areas and the color information of the corresponding areas is compared, the time series of the areas to be compared is detected. By using a second weighting factor that is smaller than the first weighting factor used for any one of the regions in a region where the change in color information is larger than any one of the regions, the first determination target It is the same object detection program for making a computer perform a process which judges whether the said 2nd judgment object is the same.
本明細書に開示の同一人物の誤検出を抑える同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムによれば、同一対象の誤検出を抑えることができる。 According to the same object detection device, the same object detection method, and the same object detection program that suppress erroneous detection of the same person disclosed in this specification, erroneous detection of the same object can be suppressed.
以下、本件を実施するための形態について図面を参照して説明する。 Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings.
図1は、同一対象検出システムSの一例を説明するための図である。図1に示すように、同一対象検出システムSは、複数の撮像装置100,200,300と同一対象検出装置400を含んでいる。
FIG. 1 is a diagram for explaining an example of the same object detection system S. As shown in FIG. 1, the same target detection system S includes a plurality of
撮像装置100,200,300は、それぞれ自己の撮像範囲内を撮像する。撮像装置100,200,300としては、例えばビデオカメラといった動画像や映像を撮像する装置がある。各撮像装置100,200,300は、人物Mが通る通路の壁や天井に撮像範囲が重複しないように設けられている。したがって、図1では、撮像装置100は、壁に掛けられた時計10を含む撮像範囲内を撮像する。撮像装置200は、壁に掛けられた絵画20を含む撮像範囲内を撮像する。ここで、鞄Bを所持する人物Mが撮像装置100の撮像範囲内に入ると、鞄Bを所持する人物Mと時計10を含む映像が撮像装置100に入力される。映像の一部にはある時刻における瞬間的な撮像画像30が含まれる。また、人物Mが撮像装置100の撮像範囲内から直進移動して通路を左折し、撮像装置200の撮像範囲内に入ると、人物Mと絵画20を含む映像が撮像装置200に入力される。映像の一部には別の時刻における瞬間的な撮像画像31が含まれる。撮像装置100は連続して撮像しているため、撮像画像30を含む時系列の撮像画像が映像として撮像装置100に入力される。撮像装置200についても同様である。
The
同一対象検出装置400は、各撮像装置100,200,300と接続されている。同一対象検出装置400としては例えばサーバ装置がある。同一対象検出装置400は、撮像装置100,200,300に入力された各映像を取得して、いずれかの映像に含まれる人物と別の映像に含まれる人物が同一か否かを判断する。尚、同一対象検出装置400による判断対象は人物に限定されず、例えば体の一部を動かして姿勢を変えながら移動する動物やロボットといった移動体であってもよい。
The same
次に、図2を参照して、上述した同一対象検出装置400の概略的な機能構成を説明する。
Next, with reference to FIG. 2, a schematic functional configuration of the above-described same
図2は、同一対象検出装置400のブロック図の一例である。
図2に示すように、同一対象検出装置400は、映像取得部410、対象検出部420、色情報生成部430、情報登録部440及び情報記憶部450を含んでいる。また、同一対象検出装置400は、情報抽出部460、同異判断部470及び情報更新部480を含んでいる。尚、情報記憶部450は、同一対象検出装置400の外部にあってもよい。
FIG. 2 is an example of a block diagram of the same
As shown in FIG. 2, the same
映像取得部410は、撮像装置100,200,300に入力された映像を取得する。映像取得部410は、取得した映像を1フレーム毎に画像に変換する。これにより、撮像装置100や撮像装置200による時系列な複数の画像(撮像画像)が生成される。映像取得部410は、時系列な複数の画像を対象検出部420に出力する。
対象検出部420は、時系列な複数の画像から判断対象としての人物を画像毎に検出する。これにより、時刻の経過に従って姿勢が変化する複数の人物が検出される。対象検出部420は、複数の人物を検出した後、時間的に連続した画像間で同一人物を追跡する。対象検出部420は、追跡した人物を色情報生成部430に出力する。
The
The
色情報生成部430は、対象検出部420により追跡された人物から色情報を抽出する。色情報生成部430は、抽出した色情報を利用して色テーブルを更新することにより色テーブルを生成する。色情報生成部430は、生成した色テーブルを情報登録部440に出力する。
情報登録部440は、色テーブルにより特徴付けられる人物の人物特徴量を人物情報に含め、その人物情報を情報記憶部450に登録する。この結果、情報記憶部450には人物情報が記憶される。
The color
The
情報抽出部460は、情報記憶部450から比較元の人物情報と比較先の人物情報を抽出する。情報抽出部460は、抽出した比較元の人物情報と比較先の人物情報を同異判断部470に出力する。
同異判断部470は、比較元の人物情報を比較先の人物情報と比較して人物情報が同一であるか否かを判断する。同異判断部470は、判断結果を情報更新部480に出力する。
The
The
情報更新部480は、判断結果に応じて情報記憶部450に記憶された比較元の人物情報を更新する。例えば、情報更新部480は、比較元の人物情報と比較先の人物情報が同一であると判断された場合には、比較先の人物情報に付与されたラベルと同じラベルを比較元の人物情報に付与する。逆に、情報更新部480は、比較元の人物情報と比較先の人物情報が異なると判断された場合には、比較先の人物情報に付与されたラベルと異なるラベルを比較元の人物情報に付与する。これにより、情報記憶部450には、様々なラベルが付与された人物情報が記憶される。例えば2つの人物情報に同じラベルが付与されていれば、それぞれの人物情報により特定される人物は同一の人物である判断することができる。
The
次に、図3を参照して、同一対象検出装置400のハードウェア構成について説明する。
Next, the hardware configuration of the same
図3は、同一対象検出装置400のハードウェア構成の一例である。
図3に示すように、同一対象検出装置400は、少なくともCentral Processing Unit(CPU)400A、Random Access Memory(RAM)400B、Read Only Memory(ROM)400C及びネットワークI/F(インタフェース)400Dを含んでいる。同一対象検出装置400は、必要に応じて、Hard Disk Drive(HDD)400E、入力I/F400F、出力I/F400G、入出力I/F400H、ドライブ装置400Iの少なくとも1つを含んでいてもよい。CPU400A,・・・,ドライブ装置400Iは、内部バス400Jによって互いに接続されている。少なくともCPU400AとRAM400Bとが協働することによってコンピュータが実現される。
FIG. 3 is an example of a hardware configuration of the same
As shown in FIG. 3, the same
入力I/F400Fには、入力装置510が接続される。入力装置510としては、例えばキーボードやマウスなどがある。
出力I/F400Gには、表示装置520が接続される。表示装置520としては、例えば液晶ディスプレイがある。
入出力I/F400Hには、半導体メモリ530が接続される。半導体メモリ530としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F400Hは、半導体メモリ530に記憶されたプログラムやデータを読み取る。
入力I/F400F及び入出力I/F400Hは、例えばUSBポートを備えている。出力I/F400Gは、例えばディスプレイポートを備えている。
An
A
A
The input I /
ドライブ装置400Iには、可搬型記録媒体540が挿入される。可搬型記録媒体540としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置400Iは、可搬型記録媒体540に記録されたプログラムやデータを読み込む。
ネットワークI/F400Dは、例えばポートとPhysical Layer Chip(PHYチップ)とを備えている。同一対象検出装置400は、ネットワークI/F400Dを介してネットワークと接続される。
A portable recording medium 540 is inserted into the drive device 400I. Examples of the portable recording medium 540 include a removable disk such as a Compact Disc (CD) -ROM and a Digital Versatile Disc (DVD). The drive device 400I reads a program and data recorded on the portable recording medium 540.
The network I /
上述したRAM400Bには、ROM400CやHDD400Eに記憶されたプログラムがCPU400Aによって格納される。RAM400Bには、可搬型記録媒体540に記録されたプログラムがCPU400Aによって格納される。格納されたプログラムをCPU400Aが実行することにより、後述する各種の動作が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
In the
次に、図4乃至図9を参照して、同一対象検出装置400の動作について説明する。
Next, the operation of the same
図4は、同一対象検出装置400で実行される人物情報登録処理の一例を示すフローチャートである。図5は、色テーブルの一例である。図6は、人物画像の姿勢の変化の一例を説明するための図である。図7は、人物画像の向きの一例を説明するための図である。図8は、重み係数が登録された色テーブルの一例である。図9は、人物テーブルの一例である。
FIG. 4 is a flowchart illustrating an example of person information registration processing executed by the same
まず、映像取得部410は、撮像装置100,200,300のいずれかに入力された映像を取得し、取得した映像を1フレーム毎に画像に変換する(ステップS101)。例えば撮像装置200に入力された映像を取得した場合には、撮像装置200による時系列な複数の画像が生成される。次いで、対象検出部420は、各画像中からそれぞれ人物を検出し、それぞれの人物特徴量を抽出する(ステップS102)。より詳しくは、対象検出部420は、予め定めた検出手法により、時系列な複数の画像から判断対象としての人物を画像毎に検出する。検出手法には、例えば背景差分法、動的2値化法、テンプレートマッチングなどがある(特開2002−157599号公報参照)。対象検出部420は、人物を検出すると、検出した人物の特徴量を表す人物特徴量を抽出する。人物特徴量としては、例えば、検出位置における色や時間的に連続した人物に応じた移動ベクトルなどがある。
First, the
次いで、対象検出部420は、同一人物を追跡する(ステップS103)。より詳しくは、対象検出部420は、前の画像(処理済の画像)から検出した人物の人物特徴量と現画像(処理中の画像)から検出した人物の人物特徴量を判定基準に基づいて対応付けることにより同一人物を追跡する。この結果、撮像装置100や撮像装置200に入力された各映像内で移動する人物が検出されて追跡される。尚、人物の追跡手法には以下の技術を利用してもよい。追跡対象の形状変化(見え変化)については、色ヒストグラムを用いる手法により追跡できる。物体の移動(動き変化)については、追跡対象の存在する領域を、尤度をもとにサンプリングするパーティクルフィルタを導入した手法により追跡できる(山下隆義、藤吉弘亘、「追跡対象と周辺領域の関係性を利用した協調的な物体追跡」、画像認識シンポジウム(MIRU2011)、pp.56−63、2011年7月参照)。
Next, the
次いで、色情報生成部430は、色テーブル更新処理を実行する(ステップS104)。色テーブル更新処理は、追跡中の人物から色の特徴を表す色情報を抽出し、抽出した色情報を予めフォーマットが定められた色テーブルに書き込んで更新する処理である。これにより、色情報を含む色テーブルが生成される。色テーブルは、人物の画像を表す人物画像が複数の領域(例えば矩形領域)に分割された場合に、各領域がどのような色を有するかを纏めたテーブルである。領域は画素単位でもよいし複数画素で構成されたものでもよい。色テーブルは、図5に示すように、各領域の位置を表す領域位置、各領域における時刻毎の色情報、及び後述する重み係数を構成要素として含んでいる。領域位置は、図6に示すように、人物画像が複数の領域に分割された場合における各領域の位置を表している。領域位置の先頭(0,0)は左上隅に仮想的に設定されている。例えば、時刻t0における領域位置(80,10)の色情報欄には、図5に示すように、皮膚の色を表す色情報(220,165,110)が登録されている。色情報は、例えば領域内の代表値やヒストグラムなどで表すことができる。
Next, the color
また、色テーブルは人物の向き毎に定められている。例えば図7に示すように、4方向に人物の向きを分けた場合、右方向を向く0°方向、正面方向を向く90°方向、左方向を向く180°方向及び背面方向を向く270°方向の4つの色テーブルが定められる。上述した図5では0°方向の色テーブルが示されている。尚、このような90°刻みに代えて45°刻みが利用されてもよい。この場合、8つの色テーブルが定められる。色テーブル更新処理の詳細は後述するが、色テーブル更新処理により時刻t0における色情報を含む色テーブルが人物の向き毎に生成される。 The color table is determined for each direction of the person. For example, as shown in FIG. 7, when the orientation of a person is divided into four directions, the 0 ° direction facing the right direction, the 90 ° direction facing the front direction, the 180 ° direction facing the left direction, and the 270 ° direction facing the back direction. The four color tables are defined. In FIG. 5 described above, a color table in the 0 ° direction is shown. In place of such 90 ° increments, 45 ° increments may be used. In this case, eight color tables are defined. Although details of the color table update process will be described later, a color table including color information at time t 0 is generated for each person's direction by the color table update process.
色情報生成部430は、色テーブル更新処理が終了すると、追跡終了か否かを判断する(ステップS105)。例えば、図1において人物Mが撮像装置200の撮像範囲外へ出た場合、撮像装置200には人物Mが入力されないため、色情報生成部430は追跡終了と判断する(ステップS105:YES)。逆に、人物Mが撮像装置200の撮像範囲外へ出ていない場合、撮像装置200には人物Mが入力されるため、色情報生成部430は追跡終了でないと判断する(ステップS105:NO)。色情報生成部430は追跡終了でないと判断する限り、映像取得部410は映像を取得する。この結果、図5に示すように、時刻t0,t1,・・・,t6の色情報が順に抽出されて色テーブルにおける対応する色情報欄に登録される。
When the color table update process ends, the color
色情報生成部430は追跡終了と判断した場合、次いで、情報登録部440は重み係数を算出する(ステップS106)。重み係数は、互いに異なる色テーブルにおける同じ領域同士を比較して類似度を判断する場合における、類似度の信頼性を表す係数である。重み係数が小さいほど人物画像全体の同異判断に及ぼす影響が小さくなり、人物画像全体の同異判断において同一であると判断され易くなる。重み係数は、各領域における時系列の色情報に基づいて算出される。
If the color
例えば、図6に示すように、人物Mの顔の一部を含む領域位置(80,10)では、図5に示すように、時刻t0から時刻t6まで色情報(220,165,110)は変化していない。すなわち、腕の動きにより姿勢が変化しても色情報は変化しにくい領域であり、類似度を求める際に信頼性が高いため、相対的に大きな重み係数を算出する。逆に、図6に示すように、人物Mの脚の一部を含む領域位置(50,100)では、図5に示すように、時刻t0から時刻t6まで色情報(168,168,168)や色情報(1,63,101)に変化する。すなわち、腕の動きにより鞄Bの位置が変化すると、領域位置(50,100)には、鞄Bの色を表す色情報(168,168,168)と人物Mの被服の色を表す色情報(1,63,101)が現れるため色情報は変化し易い領域であり、類似度を求める際の信頼性が低いため、相対的に小さな重み係数を算出する。人物Mの腕の一部を含む領域位置(40,70)では、図5に示すように、時刻t0から時刻t6まで色情報(1,63,101)や色情報(60,60,60)に変化するが、腕の動きによる陰の影響を受けているため領域位置(50,100)ほど色情報は変化していない。したがって、領域位置(80,10)に対して算出された重み係数と領域位置(50,100)に対して算出された重み係数の間に属する重み係数が算出される。 For example, as shown in FIG. 6, in the region position (80, 10) including a part of the face of the person M, as shown in FIG. 5, the color information (220, 165, 110) from time t 0 to time t 6 is shown. ) Has not changed. That is, even if the posture changes due to the movement of the arm, the color information is unlikely to change, and since the reliability is high when obtaining the similarity, a relatively large weighting factor is calculated. Conversely, as shown in FIG. 6, the area position including a portion of the legs of the person M (50, 100), as shown in FIG. 5, the color information from the time t 0 to time t 6 (168, 168, 168) and color information (1, 63, 101). That is, when the position of the eyelid B changes due to the movement of the arm, the color information (168, 168, 168) representing the color of the eyelid B and the color information representing the color of the clothing of the person M are displayed at the region position (50, 100). Since (1, 63, 101) appears, the color information is an easily changing region, and since the reliability when obtaining the similarity is low, a relatively small weight coefficient is calculated. In the region position including a portion of the arm of the person M (40, 70), as shown in FIG. 5, the color information from the time t 0 to time t 6 (1,63,101) and color information (60, 60, 60), but the color information does not change as much as the region position (50, 100) because it is affected by the shadow of the arm. Therefore, a weighting factor that belongs between the weighting factor calculated for the region position (80, 10) and the weighting factor calculated for the region position (50, 100) is calculated.
重み係数の具体的な算出方法としては、例えば色情報をRGB軸の3次元グラフ上にプロットして、その色情報の分布や分散を調べて重み係数を算出する方法がある。分布や分散が小さい場合には、姿勢が変化しても色情報はあまり変化しないため、情報登録部440は予め定められた小さな分布に応じた大きな重み係数を算出する。逆に、分布や分散が大きい場合には、姿勢が変化すると様々な色情報が現れ、色情報は大きく変化するため、情報登録部440は予め定められた大きな分布に応じた小さな重み係数を算出する。
As a specific calculation method of the weighting factor, for example, there is a method of plotting color information on a three-dimensional graph of the RGB axis and calculating the weighting factor by examining the distribution and dispersion of the color information. When the distribution or variance is small, the color information does not change much even if the posture changes, and therefore the
この結果、図8に示すように、情報登録部440は領域位置(80,10)に対して算出された重み係数「2.0」を色テーブルにおける対応する重み係数欄に登録する。同様に、情報登録部440は領域位置(40,70)に対して算出された重み係数「1.0」を色テーブルにおける対応する重み係数欄に登録する。情報登録部440は領域位置(50,100)に対して算出された重み係数「0.3」を色テーブルにおける対応する重み係数欄に登録する。
As a result, as shown in FIG. 8, the
情報登録部440は、重み係数を算出すると、次いで、人物情報を登録する(ステップS107)。人物情報は、図9に示すように、人物情報を識別する人物ID、同一人物には同一のラベルが付与される人物ラベル及び人物特徴を含んでいる。人物情報は人物テーブルに登録される。人物IDは、情報記憶部450にカウントアップして付与される番号である。人物IDには文字や記号が含まれていてもよい。人物特徴は、0°方向、90°方向、180°方向及び270°方向の4つの色テーブルを含んでいる。図8では、色テーブルのテーブル名が示されている。尚、人物ID「06」の人物情報は、人物ラベルが付与されていないが、処理対象の人物情報であるため、人物ID「01」〜「05」の人物情報と対応付けが完了していない。後述する対応付け処理により、人物ID「06」の人物情報に適切な人物ラベルが付与される。情報登録部440がステップS107の処理を終了すると、映像取得部410はステップS101の処理を開始する。このように、人物の特徴を表す人物情報が順に情報記憶部450に登録される。
After calculating the weighting factor, the
次に、図10を参照して、上述した色テーブル更新処理について説明する。 Next, the color table update process described above will be described with reference to FIG.
図10は、色テーブル更新処理の一例を示すフローチャートである。
色情報生成部430は、まず、画像から判断対象としての人物画像を切り出す(ステップS201)。例えば、色情報生成部430は、背景差分処理を利用して画像から人物Mの領域である人物画像と背景を分離する。次いで、色情報生成部430は、人物画像を正規化する(ステップS202)。例えば、色情報生成部430は、頭頂部から靴底までの長さが予め定めた長さになるように人物画像の寸法を変更する。
FIG. 10 is a flowchart illustrating an example of the color table update process.
First, the color
次いで、色情報生成部430は、人物の向いている方向を特定する(ステップS203)。例えば、色情報生成部430は、人物画像における人物Mの移動方向や顔の向き、頭部の頭髪と皮膚の割合やこれらの位置関係などを利用して、人物の向きを特定する。特定された人物の向きに最も近い方向の色テーブルが更新対象と色テーブルになる。次いで、色情報生成部430は、方向毎に各領域の色情報を抽出し、色テーブルを更新する(ステップS204)。具体的には、人物画像の中心位置が所定の位置(例えば原点)に配置されるように合わされて、左上の領域から順番に色情報が抽出され、抽出された色情報色テーブルに登録される。これにより、図5に示すように、色テーブルにおける対応する色情報欄に色情報が登録される。
Next, the color
次に、図11乃至図13を参照して、同一対象検出装置400の動作について説明する。
Next, the operation of the same
図11は、同一対象検出装置400で実行される対応付け処理の一例を示すフローチャートである。
まず、情報抽出部460は、新たな人物情報が登録されたか否かを判断する(ステップS301)。例えば、情報抽出部460は、情報記憶部450を定期的に監視し、前回と異なる人物情報が登録されているか否かを判断する。情報抽出部460は、新たな人物情報が登録されたと判断した場合(ステップS301:YES)、登録された人物情報を比較元として抽出する(ステップS302)。一方、情報抽出部460は、新たな人物情報が登録されていないと判断した場合(ステップS301:NO)、ステップS301の処理に戻る。
FIG. 11 is a flowchart illustrating an example of the association process executed by the same
First, the
情報抽出部460は、比較元の人物情報を抽出後、その人物情報と比較する人物情報を比較先として抽出する(ステップS303)。比較先の人物情報は、情報記憶部450に記憶されているすべての人物情報であってもよいし、時間や移動経路といった情報を人物情報に加えて、例えば所定の時間以内に登録された人物情報を比較先として抽出するようにしてもよい。
After extracting the comparison source person information, the
次いで、同異判断部470は、類似度算出処理を実行する(ステップS304)。詳細は後述するが、類似度算出処理は、比較元の人物情報と比較先の人物情報のいずれか1つとの類似度を算出する処理である。類似度算出処理により、比較元の人物情報と比較先の人物情報のいずれか1つとの類似度が算出される。類似度算出処理が完了すると、次いで、同異判断部470は、全ての比較先との類似度を算出したか否かを判断する(ステップS305)。同異判断部470は、全ての比較先との類似度を算出していないと判断した場合(ステップS305:NO)、再び類似度算出処理を実行する。これにより、比較元の人物情報と比較先の人物情報すべてとの類似度が算出される。
Next, the
同異判断部470は、すべての比較先との類似度を算出したと判断した場合(ステップS305:YES)、最大の類似度が所定の閾値以上であるか否かを判断する(ステップS306)。同異判断部470は、最大の類似度が所定の閾値以上であると判断した場合(ステップS306:YES)、情報更新部480は、最大類似度となった人物情報のラベルと同じラベルを比較元の人物情報に書き込む(ステップS307)。すなわち、比較元の人物情報は、最大類似度となった比較先の人物情報と同一人物を表していると判断される。一方、同異判断部470は、最大の類似度が所定の閾値以上でないと判断した場合(ステップS306:NO)、情報更新部480は、新たなラベルを比較元の人物情報に書き込む(ステップS308)。すなわち、比較元の人物情報は、最大類似度となった比較先の人物情報とは別の人物を表していると判断される。情報更新部480がステップS307又はS308の処理を終えると、情報抽出部460はステップS301の処理を実行する。
When the
次に、図12及び図13を参照して、上述した類似度算出処理について説明する。 Next, the similarity calculation process described above will be described with reference to FIGS.
図12は、類似度算出処理の一例を示すフローチャートである。図13は、類似度算出処理の一例を説明するための図である。
まず、図12に示すように、同異判断部470は、同一方向の色テーブルを取得する(ステップS401)。具体的には、同異判断部470は、比較元の人物情報と比較先の人物情報のそれぞれに含まれる方向毎の色テーブルの中から、いずれか1つの方向を選択し、選択した方向の色テーブルを取得する。図8を参照して説明したように、人物情報には人物の向き毎に異なる複数の色テーブルが含まれているため、同異判断部470はいずれかの色テーブルを選択する。選択する向きに関しては、予め向き毎に優先順位を決めておいて優先順位の高い向きの色テーブルを選択する。尚、同異判断部470は、すべての向きを選択するようにしてもよい。この場合、全ての向きに関して類似度を求めて平均化することで、最終的な類似度が算出される。
FIG. 12 is a flowchart illustrating an example of similarity calculation processing. FIG. 13 is a diagram for explaining an example of similarity calculation processing.
First, as shown in FIG. 12, the
同異判断部470は、次いで、各領域の色情報の類似度を領域毎に算出する(ステップS402)。色テーブルは、図8を参照して説明したように、1つの領域に対して時系列な複数の色情報を有しているため、比較方法としては、例えば、全ての色情報の平均値同士を比較して色情報の類似度を求める方法や、全ての色情報の全組み合わせの類似度を求め、その中で最も高い類似度を採用する方法、時系列な複数の色情報同士が類似しているか調べる方向などがある。また、類似度の算出には、例えばRGB空間上の2点のユークリッド距離を利用する方法がある。色情報(R1,G1,B1)と色情報(R2,G2,B2)の2点間のユークリッド距離disは、以下の数式(1)により表される。
ここで、求めて距離を利用して、類似度corは例えば以下の数式(2)のように定義されることで、類似している場合には値「1」に近づき、類似していない場合には値「0」に近づくような値を求めることができる。
同異判断部470は、次いで、重み係数を利用して、全体の類似度を算出する(ステップS403)。具体的には、同異判断部470は、各領域で求めた類似度に、各領域に対応した重み係数をかけて足し合わせ、平均化することで人物画像全体の類似度を求める。例えば、図13に示すように、撮像装置100に基づく比較先である人物ID「01」の色テーブルと、撮像装置200に基づく比較元である人物ID「06」の色テーブルを比較する場合、以下の数式(3)により人物画像全体の類似度cor_allを求めることができる。尚、i,jはそれぞれ領域位置のx,yに対応する。wai,j、wbi,jの一方は比較元の重み係数に対応し、wai,j、wbi,jの他方は比較先の重み係数に対応する。例えば、人物ID「01」と人物ID「06」の類似度cor_allが残りの類似度cor_allと比べて最大であり、人物ID「01」と人物ID「06」の類似度cor_allが所定の閾値以上であれば、図9における人物ID「06」の人物ラベルには「人物A」が登録される。
以上説明したように、本実施形態によれば、判断対象としての人物Mを含む人物画像を複数の領域に分割し、各領域が有する時系列の色情報同士を比べる際、他の領域と比べて変化が大きい領域には類似度の信頼性を表す重み係数を下げて、判断対象同士が同一か否か判断する。これにより、変化が大きい領域では、同異判断に及ぼす影響が小さくなり、人物画像全体の同異判断において同一であると判断され易くなる。したがって、変化が大きい領域に対して類似度の信頼性を表す重み係数を下げない場合と比べて、同一対象の誤検出を抑えることができる。換言すれば、同一対象の検出精度を向上することができる。 As described above, according to the present embodiment, when a person image including the person M as a determination target is divided into a plurality of areas and the time-series color information of each area is compared, it is compared with other areas. Thus, in a region where the change is large, the weighting factor representing the reliability of the similarity is lowered to determine whether the determination targets are the same. Thereby, in the region where the change is large, the influence on the determination of the difference is small, and it is easy to determine that it is the same in the determination of the difference of the whole person image. Therefore, erroneous detection of the same object can be suppressed as compared with the case where the weighting coefficient representing the reliability of the similarity is not lowered for the region where the change is large. In other words, the detection accuracy of the same object can be improved.
特に、大きな姿勢変動にも対応させるために、人物の体全体を含む大きな領域が設定された場合、ヒストグラムによって色情報を表現すると、上半身と下半身の色が逆であることにより異なる人物であっても同一人物と誤って検出されるおそれがある。しかしながら、本実施形態によれば、このような誤った検出を抑えることができる。 In particular, when a large region including the entire body of a person is set to cope with a large posture change, if color information is expressed by a histogram, the person is different because the colors of the upper body and the lower body are opposite. May be mistakenly detected as the same person. However, according to the present embodiment, such erroneous detection can be suppressed.
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible.
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、を有する同一対象検出装置。
(付記2)前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する色情報生成部を有し、前記同異判断部は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする付記1に記載の同一対象検出装置。
(付記3)前記同異判断部は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする付記1又は2に記載の同一対象検出装置。
(付記4)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータが実行する同一対象検出方法。
(付記5)前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する処理を有し、前記判断する処理は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする付記4に記載の同一対象検出方法。
(付記6)前記判断する処理は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする付記4又は5に記載の同一対象検出方法。
(付記7)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータに実行させるための同一対象検出プログラム。
In addition, the following additional notes are disclosed regarding the above description.
(Supplementary Note 1) A target detection unit that detects a first determination target and a second determination target from each of a first captured image captured in time series and a second captured image captured in time series, and When the first determination target and the second determination target are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the change of the color information in the time series of the areas to be compared Using a second weighting factor that is smaller than the first weighting factor used for any one of the regions in a region that is larger than any one of the regions. The same object detection apparatus which has a different judgment part which judges whether a judgment object is the same.
(Additional remark 2) It has the color information generation part which produces | generates the said color information for every moving direction with respect to each moving direction of the said 1st judgment object and the said 2nd judgment object, The said same judgment part is the same The same object detection device as set forth in appendix 1, wherein when comparing the color information in the moving directions of the first and second determinations, it is determined whether or not the first determination object and the second determination object are the same.
(Additional remark 3) The said difference determination part calculates the 1st similarity of the said color information for every area | region, The said 1st weight coefficient corresponding to each area | region or the said 1st similarity for every area | region or The second similarity is calculated by multiplying the second weighting factor and adding them together to calculate the second similarity between the first determination object and the second determination object, and the second similarity is the same. 3. The same object detection apparatus according to
(Supplementary Note 4) A first determination object and a second determination object are detected from each of a first captured image captured in time series and a second captured image captured in time series, and the first determination is performed. When the target and the second determination target are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the change of the color information in the time series of the areas to be compared is any Using the second weighting factor smaller than the first weighting factor used for any one of the regions, the first determination target and the second determination target are the same for the region larger than the region The same object detection method in which a computer executes a process of determining whether or not.
(Additional remark 5) It has the process which produces | generates the said color information for every moving direction with respect to each moving direction of the said 1st judgment object and the said 2nd judgment object, The said judgment process has the same movement direction 5. The same object detection method according to appendix 4, wherein when the color information is compared, it is determined whether or not the first determination object and the second determination object are the same.
(Additional remark 6) The said determination process calculates the 1st similarity of the said color information for every area | region, The said 1st weighting coefficient corresponding to each area | region or the said 1st similarity for every area | region By multiplying and adding the second weighting factor and averaging, the second similarity of the first determination object and the second determination object is calculated, and the second similarity is determined to be the same 6. The method of detecting the same object according to appendix 4 or 5, wherein the first determination object and the second determination object are determined to be the same when the threshold value is equal to or greater than a threshold value.
(Supplementary note 7) A first determination object and a second determination object are detected from each of a first captured image captured in time series and a second captured image captured in time series, and the first determination is performed. When the target and the second determination target are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the change of the color information in the time series of the areas to be compared is any Using the second weighting factor smaller than the first weighting factor used for any one of the regions, the first determination target and the second determination target are the same for the region larger than the region The same object detection program for causing a computer to execute processing for determining whether or not
S 同一対象検出システム
100,200,300 撮像装置
400 同一対象検出装置
420 対象検出部
430 色情報生成部
470 同異判断部
S Same
Claims (5)
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、
を有する同一対象検出装置。 An object detection unit for detecting the first determination object and the second determination object from each of the first captured image captured in time series and the second captured image captured in time series;
When the first determination object and the second determination object are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the color information in the time series of the areas to be compared is compared. Using the second weighting factor that is smaller than the first weighting factor used for any one of the regions in the region where the change is larger than any one of the regions, the first determination target and the second A judgment unit for judging whether or not the judgment targets are the same,
The same object detection device having
前記同異判断部は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする請求項1に記載の同一対象検出装置。 A color information generation unit that generates the color information for each movement direction with respect to the movement direction of each of the first determination object and the second determination object;
The difference determination unit, when comparing the color information in the same movement direction, determines whether the first determination object and the second determination object are the same. The same object detection device according to 1.
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、
処理をコンピュータが実行する同一対象検出方法。 A first determination object and a second determination object are detected from each of the first captured image captured in time series and the second captured image captured in time series;
When the first determination object and the second determination object are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the color information in the time series of the areas to be compared is compared. Using the second weighting factor that is smaller than the first weighting factor used for any one of the regions in the region where the change is larger than any one of the regions, the first determination target and the second To determine whether the subject of judgment is the same,
Same object detection method in which processing is executed by computer.
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、
処理をコンピュータに実行させるための同一対象検出プログラム。 A first determination object and a second determination object are detected from each of the first captured image captured in time series and the second captured image captured in time series;
When the first determination object and the second determination object are each divided into a plurality of areas and the color information of the corresponding areas is compared with each other, the color information in the time series of the areas to be compared is compared. Using the second weighting factor that is smaller than the first weighting factor used for any one of the regions in the region where the change is larger than any one of the regions, the first determination target and the second To determine whether the subject of judgment is the same,
The same object detection program for causing a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102635A JP6308011B2 (en) | 2014-05-16 | 2014-05-16 | Same object detection device, same object detection method, and same object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102635A JP6308011B2 (en) | 2014-05-16 | 2014-05-16 | Same object detection device, same object detection method, and same object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015219712A true JP2015219712A (en) | 2015-12-07 |
JP6308011B2 JP6308011B2 (en) | 2018-04-11 |
Family
ID=54779028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014102635A Expired - Fee Related JP6308011B2 (en) | 2014-05-16 | 2014-05-16 | Same object detection device, same object detection method, and same object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6308011B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018028784A (en) * | 2016-08-17 | 2018-02-22 | 富士通株式会社 | Movable body group detection program, movable body group detection device, and movable body group detection method |
CN113095123A (en) * | 2019-12-23 | 2021-07-09 | 晶睿通讯股份有限公司 | Object recognition method and related monitoring camera equipment |
CN115601877A (en) * | 2022-10-17 | 2023-01-13 | 广东便捷神科技股份有限公司(Cn) | An automatic vending machine recognition system and its recognition method based on image processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003087772A (en) * | 2001-09-10 | 2003-03-20 | Fujitsu Ltd | Image control device |
JP2011018238A (en) * | 2009-07-09 | 2011-01-27 | Hitachi Ltd | Image retrieval system and image retrieval method |
-
2014
- 2014-05-16 JP JP2014102635A patent/JP6308011B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003087772A (en) * | 2001-09-10 | 2003-03-20 | Fujitsu Ltd | Image control device |
JP2011018238A (en) * | 2009-07-09 | 2011-01-27 | Hitachi Ltd | Image retrieval system and image retrieval method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018028784A (en) * | 2016-08-17 | 2018-02-22 | 富士通株式会社 | Movable body group detection program, movable body group detection device, and movable body group detection method |
CN113095123A (en) * | 2019-12-23 | 2021-07-09 | 晶睿通讯股份有限公司 | Object recognition method and related monitoring camera equipment |
CN113095123B (en) * | 2019-12-23 | 2024-05-03 | 晶睿通讯股份有限公司 | Object recognition method and related surveillance camera equipment |
CN115601877A (en) * | 2022-10-17 | 2023-01-13 | 广东便捷神科技股份有限公司(Cn) | An automatic vending machine recognition system and its recognition method based on image processing |
Also Published As
Publication number | Publication date |
---|---|
JP6308011B2 (en) | 2018-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5554984B2 (en) | Pattern recognition method and pattern recognition apparatus | |
US9082013B2 (en) | Image recognition device, image recognition method, program, and integrated circuit | |
TWI505200B (en) | Method, system, computer program product and program for determining the location and attributes of an object in a video | |
US20160260226A1 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
CN107784282A (en) | The recognition methods of object properties, apparatus and system | |
JP6351243B2 (en) | Image processing apparatus and image processing method | |
WO2016085667A1 (en) | Fast object tracking framework for sports video recognition | |
WO2019064375A1 (en) | Information processing device, control method, and program | |
JP2016500885A (en) | System and method for merging multiple maps for computer vision based tracking | |
CN103514432A (en) | Method, device and computer program product for extracting facial features | |
JP6362085B2 (en) | Image recognition system, image recognition method and program | |
JP6331761B2 (en) | Determination device, determination method, and determination program | |
CN112329663B (en) | Micro-expression time detection method and device based on face image sequence | |
JP6500500B2 (en) | Image determination apparatus, image determination method, and program | |
JP2018028784A (en) | Movable body group detection program, movable body group detection device, and movable body group detection method | |
US11182636B2 (en) | Method and computing device for adjusting region of interest | |
JPWO2006025272A1 (en) | Video classification device, video classification program, video search device, and video search program | |
JP6308011B2 (en) | Same object detection device, same object detection method, and same object detection program | |
JP5248236B2 (en) | Image processing apparatus and image processing method | |
JP2021047538A (en) | Image processing equipment, image processing methods, and programs | |
JP2017175466A (en) | Video image processing device, video image processing system and control method | |
CN112560557A (en) | People number detection method, face detection device and electronic equipment | |
JP6795469B2 (en) | Gaze area estimator and program | |
WO2022249278A1 (en) | Image processing device, image processing method, and program | |
WO2022249331A1 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6308011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |