JP5790751B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP5790751B2 JP5790751B2 JP2013260154A JP2013260154A JP5790751B2 JP 5790751 B2 JP5790751 B2 JP 5790751B2 JP 2013260154 A JP2013260154 A JP 2013260154A JP 2013260154 A JP2013260154 A JP 2013260154A JP 5790751 B2 JP5790751 B2 JP 5790751B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- tracking
- unit
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 22
- 238000000034 method Methods 0.000 description 27
- 238000001514 detection method Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像装置に関する。
The present invention relates to an imaging device.
次のような被写体追尾装置が知られている。この被写体追尾装置は、画像内から人物の顔を検出し、複数フレーム間で人物の顔を追尾する(例えば、特許文献1)。 The following subject tracking devices are known. The subject tracking device detects a person's face from an image and tracks the person's face between a plurality of frames (for example, Patent Document 1).
しかしながら、従来の被写体追尾装置では、人物の顔の追尾途中で、人物の顔が検出できなくなった場合には、顔の追尾を継続できなかった。 However, in the conventional subject tracking device, tracking of a face cannot be continued if the face of the person cannot be detected during tracking of the face of the person.
請求項1の発明による撮像装置は、繰り返し画像を撮像する撮像部と、前記撮像部が出力した画像から人物の顔のパターンを用いた追尾を行い、前記人物の顔のパターンに対応する第1エリアを検出する第1追尾部と、前記撮像部が出力した画像から前記人物の顔の色を用いた追尾を行い、前記人物の顔の色に対応する第2エリアを検出する第2追尾部と、前記第1追尾部により前記第1エリアを検出できたとき、前記第1エリアに対応する情報を表示部に表示し、前記第2追尾部により前記第2エリアを検出できたとき、前記第2エリアに対応する情報を前記表示部に表示するように制御する制御部と、前記第1追尾部により前記第1エリアを検出できたとき前記第1エリアの焦点調節エリアを選択し、前記第1追尾部により前記第1エリアを検出できないとき前記第2エリアの焦点調節エリアを選択する選択部と、前記選択部に選択された前記焦点調節エリアを用いて焦点調節制御をする焦点調節制御部とを含むことを特徴とする。
請求項6の発明による撮像装置は、繰り返し画像を撮像する撮像部と、前記撮像部が出力した画像から人物の顔のパターンを用いた追尾を行い、前記人物の顔のパターンに対応する第1エリアを検出する第1追尾部と、
前記撮像部が出力した画像から前記撮像部が出力した画像を用いて得られたテンプレート画像との一致度合いが最も高い領域を検出することにより追尾を行い、前記テンプレート画像との一致度合いが最も高い領域に対応する第2エリアを検出する第2追尾部と、前記第1追尾部により前記第1エリアを検出できたとき、前記第1エリアに対応する情報を表示部に表示し、前記第2追尾部により前記第2エリアを検出できたとき、前記第2エリアに対応する情報を前記表示部に表示するように制御する制御部と、前記第1追尾部により前記第1エリアを検出できたとき前記第1エリアの焦点調節エリアを選択し、前記第1追尾部により前記第1エリアを検出できないとき前記第2エリアの焦点調節エリアを選択する選択部と、前記選択部に選択された前記焦点調節エリアを用いて焦点調節制御をする焦点調節制御部とを含むことを特徴とする。
An image pickup apparatus according to a first aspect of the present invention includes an image pickup unit that repeatedly picks up an image, and performs tracking using a human face pattern from an image output by the image pickup unit, and corresponds to the person face pattern. A first tracking unit that detects an area, and a second tracking unit that performs tracking using the face color of the person from the image output from the imaging unit and detects a second area corresponding to the color of the person's face When the first tracking unit can detect the first area, information corresponding to the first area is displayed on the display unit, and when the second tracking unit can detect the second area, A control unit that controls to display information corresponding to a second area on the display unit, and when the first tracking unit can detect the first area, the focus adjustment area of the first area is selected, The first tracking unit provides the first area. A selection unit for selecting a focusing area of the second area when it can not detect, characterized in that it comprises a focusing control unit for the focusing control using the focusing area selected in said selection section .
An image pickup apparatus according to a sixth aspect of the present invention includes an image pickup unit that repeatedly picks up an image, and performs tracking using a human face pattern from an image output by the image pickup unit, and corresponds to the person face pattern. A first tracking unit for detecting an area;
Tracking is performed by detecting a region having the highest degree of matching with the template image obtained using the image output by the imaging unit from the image output by the imaging unit, and the degree of matching with the template image is the highest. A second tracking unit that detects a second area corresponding to the area; and when the first tracking unit detects the first area, information corresponding to the first area is displayed on the display unit, and the second tracking unit When the second area was detected by the tracking unit, the first area could be detected by the control unit that controls to display information corresponding to the second area on the display unit, and the first tracking unit. said first selecting the focusing area of the area, the selection unit for selecting the focusing area of the second area when it can not detect the first area by the first tracking section when, selecting the selector Using the focusing area is characterized in that it comprises a focusing control unit for the focusing control.
本発明によれば、特定対象の像の追尾途中で特定対象の像が検出できなくなった場合でも特定対象の像の追尾を継続することができる。 According to the present invention, tracking of a specific target image can be continued even when the specific target image cannot be detected during tracking of the specific target image.
図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の操作ボタンを含んでいる。例えば、操作部材101には、電源ボタン、レリーズボタン、ズームボタン、十字ボタン、決定ボタン、再生ボタン、および削除ボタンなどを含んでいる。
FIG. 1 is a block diagram illustrating a configuration of an embodiment of a camera according to the present embodiment. The
レンズ102は、複数の光学レンズから構成されるが、図1では代表して1枚のレンズで表している。また、レンズ102を構成するレンズには、AF(Auto Focus/自動焦点調整)のためのAFレンズ(フォーカシングレンズ)が含まれる。撮像素子103は、例えばCCDやCMOSなどのイメージセンサーであり、レンズ102からの光束を受光して受光信号を生成する。そして、生成した受光信号(画像信号)を制御装置104へ出力する。
The
制御装置104は、撮像素子103から入力された画像信号に基づいて所定の画像形式、例えばJPEG形式の画像データ(以下、「本画像データ」と呼ぶ)を生成する。また、制御装置104は、生成した画像データに基づいて、表示用の画像データ、例えばサムネイル画像データを生成する。制御装置104は、生成した本画像データとサムネイル画像データとを含み、さらにヘッダ情報を付加した画像ファイルを生成してメモリカードスロット105へ出力する。本実施の形態では、制御装置による画像ファイルの生成処理、および生成した画像ファイルのメモリカードへの記録処理を撮影処理と呼ぶこととする。
The
メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、メモリカードスロット105は、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。
The
モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、使用者によって操作部材101が操作されてモニタ106への撮像画像の表示(ライブビュー)の開始が指示されると、撮像素子103から繰り返し取得した画像信号に基づいて表示用画像データを生成し、これをモニタ106に出力する。これによってモニタ106にはスルー画がライブビュー表示される。
The
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、カメラ100を制御する。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。
The
制御装置104は、図1に示すように、第1追尾部104aと、第2追尾部104bと、制御部104cと、焦点検出部104dと、焦点調節部104eとを有しており、以下に説明する制御装置104による処理は、これらの各要素により実行される。
As shown in FIG. 1, the
具体的には、第1追尾部104aは、撮像素子103から繰り返し得られる複数の画像から特定の対象(本実施の形態では人物の顔)に相当するパターンを繰り返し検出することにより、対象を追尾する。第2追尾部104bは、対象の色と輝度との少なくとも一方を基準情報とし、該基準情報に基づいて複数の画像から対象の像を繰り返し検出することにより、対象の像を追尾する。制御部104cは、第1追尾部104aによって対象の追尾を開始した後、第1追尾部104aによる対象の追尾が不可能となった場合に、第2追尾部104bによる対象の像の追尾に変更して制御する。
Specifically, the
焦点検出部104dは、追尾を行っている対象の像の位置に対するレンズ102の焦点調節状態を検出する。焦点調節部104eは、焦点調節状態に基づいてレンズ102の焦点調節を行う。
The
本実施の形態におけるカメラ100は、ライブビューを開始した後には、スルー画内の被写体の像を連続するフレーム(画像)に亘って追尾する追尾機能を備えている。本実施の形態では、制御装置104は、ライブビューを開始してスルー画の表示を開始すると、フレーム(画像)内の人物の顔を追尾対象として追尾を実行する。制御装置104は、具体的には、ライブビューを開始した場合には、図2に示すフローチャートの処理を実行して、連続するフレーム(画像)に亘って物の顔を追尾する。すなわち、図2に示す処理は、使用者によってライブビューの開始が指示されると起動するプログラムとして、制御装置104によって実行される。
The
ステップS10において、制御装置104は、撮像素子103から繰り返し取得した画像信号に基づいて表示用画像データを生成し、これを所定のフレームレートでモニタ106に出力することによって、ライブビューを開始する。その後、ステップS20へ進み、制御装置104は、画像内で後述する被写体追尾演算の対象とする被写体追尾領域をクリアする。すなわち、制御装置104は、以下に説明する処理で画像内に被写体追尾領域を設定するため、ここでは過去の被写体追尾で設定された被写体追尾領域をクリアしておく。その後、ステップS30へ進む。
In step S10, the
ステップS30では、制御装置104は、現フレームの画像を取得して、ステップS40へ進む。ステップS40では、制御装置104は、ステップS30で取得した画像に対する顔の追尾処理がライブビューが開始後、初回の処理であるか、あるいは前回処理を実行してから所定時間が経過しているかを判定する。ステップS40で肯定判断した場合には、ステップS50へ進む。
In step S30, the
ステップS50では、制御装置104は、現フレームの画像を対象として公知の顔検出演算を実行して、現フレームの画像内から人物の顔を検出する。例えば、制御装置104は、現フレームの画像から特定の対象である人物の顔に相当するパターン検出することにより顔検出を行う。その後、ステップS60へ進み、制御装置104は、顔検出演算によって画像内から顔を検出したか否かを判断する。ステップS60で肯定判断した場合には、ステップS70へ進む。
In step S50, the
ステップS70では、制御装置104は、顔検出演算によって検出した顔エリア、すなわち画像内の人物の顔を含む範囲の、画像内における位置と顔エリアの大きさに関する情報をフラッシュメモリに記録する。このとき、制御装置104は、すでに過去フレームの画像における顔エリアの位置と大きさが記録されている場合には、現フレームで検出した情報で更新する。また、制御装置104は、モニタ106に表示したスルー画上に、検出した顔エリアを示す情報、例えば顔エリアを囲った枠を表示する。その後、ステップS80へ進む。
In step S70, the
ステップS80では、制御装置104は、検出した顔エリアに相当する位置にAFエリアを設定する。なお、画像内から複数の顔が検出された場合には、いずれか1つの顔、例えば最も至近に存在する顔に対応する顔エリアを対象としてAFエリアを設定する。あるいは、複数の顔エリアのうち、最も大きな顔エリアを対象としてAFエリアを設定するようにしてもよい。
In step S80, the
その後、ステップS90へ進み、制御装置104は、検出した顔エリアとその近傍エリアを含む所定範囲を被写体追尾領域に設定して、ステップS100へ進む。ステップS100では、制御装置104は、検出した顔エリア内の画像で、被写体追尾用のテンプレート画像を更新(初回においては「設定」)して、ステップS110へ進む。
After that, the process proceeds to step S90, and the
ステップS110では、使用者によって操作部材101が操作されることにより、ライブビューの終了が指示されたか否かを判断する。ステップS110で否定判断した場合には、ステップS30へ戻って処理を繰り返す。これに対して、ステップS110で肯定判断した場合には、処理を終了する。
In step S110, it is determined whether or not the end of the live view is instructed by operating the
一方、ステップS40で否定判断した場合には、ステップS120へ進み、制御装置104は、被写体追尾領域がクリアされているか否かを判断する。ステップS120で肯定判断した場合には、上述したステップS50へ進む。これに対して、ステップS120で否定判断した場合には、ステップS130へ進む。
On the other hand, if a negative determination is made in step S40, the process proceeds to step S120, and the
ステップS130では、制御装置104は、設定されている被写体追尾領域内を対象として、顔検出演算で検出済みの顔エリア内の画像を用いた顔追尾演算を実行する。具体的には、制御装置104は、被写体追尾領域内から既に検出済みの顔エリア内に含まれる顔を検出することによって、顔追尾演算を実行する。このように、顔検出を行う範囲を被写体追尾領域内に限定することによって、現フレームの全体を対象として顔検出演算を行うよりも高速に処理を行うことができる。また、別の顔を追尾してしまう誤追尾を防止することができる。
In step S130, the
その後、ステップS140へ進み、制御装置104は、被写体追尾領域内に顔が存在するか否かを判断する。ステップS140で肯定判断した場合には、上述したステップS70へ進む。この場合、ステップS70では、制御装置104は、被写体追尾演算によって検出した被写体の顔を含む領域を顔エリアとし、この顔エリアのフレーム内における位置と顔エリアの大きさや顔の個体情報に関する情報をフラッシュメモリに記録する。このとき、制御装置104は、すでに過去フレームにおける顔エリアの位置と大きさが記録されている場合には、現フレームで検出した情報で更新する。また、制御装置104は、モニタ106に表示したスルー画上に、検出した顔エリアを示す情報、例えば顔エリアを囲った枠を表示する。
Thereafter, the process proceeds to step S140, and the
これに対して、ステップS140で否定判断した場合には、ステップS160へ進み、制御装置104は、被写体追尾演算を実行する。なお、被写体追尾演算については、後述する。
On the other hand, if a negative determination is made in step S140, the process proceeds to step S160, and the
次に、ステップS60で否定判断した場合の処理について説明する。この場合には、ステップS150へ進み、制御装置104は、被写体追尾領域がクリアされているか否かを判断する。ステップS150で肯定判断した場合には、ステップS30へ戻って処理を繰り返す。これに対して、ステップS150で否定判断した場合には、ステップS160へ進む。
Next, processing when a negative determination is made in step S60 will be described. In this case, the process proceeds to step S150, and the
ステップS160では、制御装置104は、設定されている被写体追尾領域内を対象として、ステップS100で更新したテンプレート画像とステップS30で取得した画像とを用いて、被写体の顔の色情報や輝度情報に基づく被写体追尾演算を実行する。具体的には、制御装置104は、被写体追尾領域内の画像とテンプレート画像とを比較して、被写体追尾領域内の中からテンプレート画像との一致度が最も高い領域を特定することによって被写体追尾演算を実行する。これによって、一時的に被写体が下や横を向いたりしたことによって、フレーム内から人物の顔が検出できない場合でも、継続して被写体を追尾することができる。
In step S160, the
その後、ステップS170へ進み、制御装置104は、制御装置104は、被写体追尾演算によって検出した被写体エリア、すなわち追尾領域内にてフレーム内のテンプレート画像との一致度が高い位置を顔エリアとして特定する。そして、特定した顔エリアのフレーム内における位置と顔エリアの大きさに関する情報をフラッシュメモリに記録する。このとき、制御装置104は、すでに過去フレームにおける顔エリアの位置と大きさが記録されている場合には、現フレームで検出した情報で更新する。また、制御装置104は、モニタ106に表示したスルー画上に、検出した顔エリアを示す情報、例えば顔エリアを囲った枠を表示する。その後、上述したステップS80へ進む。
Thereafter, the process proceeds to step S170, and the
以上の処理により、制御装置104は、顔検出演算によって人物の顔を検出した後は、顔の検出範囲を被写体追尾領域内に限定した顔追尾演算に切り替えることによって、処理を高速化することができる。また、顔追尾演算に切り替えた後、一定時間経過した場合には、改めて顔検出処理を行うようにして、スルー画表示中に新たに現れた被写体の顔も検出することができる。さらに、顔検出演算、または顔追尾演算を行った結果、人物の顔を検出することができなかった場合には、被写体追尾演算に移行することで、顔が一時的に検出できなくなった場合でも継続して人物の顔を追尾することができる。
With the above processing, after detecting a human face by face detection calculation, the
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、顔検出演算によって検出した顔を対象として顔追尾演算を行い、追尾領域内から顔が検出できなくなった場合には、被写体追尾演算に切り替えるようにした。これによって、人物の顔を追尾している途中で一時的に顔が検出できなくなった場合でも、継続して顔の追尾を継続することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) The
(2)制御装置104は、被写体追尾演算に切り替えた後に、再度人物の顔が検出できるようになった場合には、被写体追尾演算を停止して顔追尾演算を再開するようにした。これによって、再度、画像内から人物の顔が検出可能になった場合には、顔に対する追尾能力の高い顔追尾演算に戻すことができる。
(2) The
(3)制御装置104は、顔追尾演算に切り替えた後、前回顔検出演算を実行してから所定時間が経過した場合には、再度全画面内に対して顔検出演算を実行するようにした。これによって、スルー画表示中に新たに現れた被写体の顔を検出して複数の顔を追尾対象に加えることができる。
(3) After switching to the face tracking calculation, the
(4)制御装置104は、顔検出演算、顔追尾演算、または被写体追尾演算により検出した顔エリアに基づいてAFエリアを設定してピント合わせを行うようにした。これによって、画像内の人物の顔にピントが合うようにAF処理を実行することができる。
(4) The
(5)制御装置104は、フレーム内から複数の顔エリアが検出された場合には、いずれか1つの顔エリア、例えば最も至近に存在する顔に対応する顔エリアや最も大きい顔エリアを対象としてAFエリアを設定するようにした。これによって、フレーム内から複数の顔が検出された場合でも、いずれか1つの顔に的確にピントを合わせることができる。
(5) When a plurality of face areas are detected from the frame, the
(6)制御装置104は、制御装置104は、顔検出演算、顔追尾演算、または被写体追尾演算により検出した顔エリアの画像で、被写体追尾用のテンプレート画像を更新するようにした。これによって、被写体追尾演算では、被写体の顔を含む顔エリア内の画像を用いてテンプレートマッチングを行って追尾を行うため、フレーム内から人物の顔が検出できなくなった場合でも、継続して人物の顔を追尾できる。
(6) The
―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、制御装置104は、撮像素子103から時系列で入力される画像データに基づくスルー画内から人物の顔を検出して追尾する例について説明した。しかしながら、制御装置104は、撮像素子103以外の撮像素子から出力されるデータに基づいて、人物の顔を検出して追尾するようにしてもよい。
-Modification-
The camera according to the above-described embodiment can be modified as follows.
(1) In the above-described embodiment, the example in which the
(2)上述した実施の形態では、制御装置104は、前フレームで設定された顔エリアを含む所定範囲を被写体追尾領域に設定し、この被写体追尾領域内を次フレームでの顔追尾演算、または被写体追尾演算の対象とする例について説明した。しかしながら、制御装置104は、前フレームで設定したAFエリア内の画像を対象として、次フレームで顔追尾演算、または被写体追尾演算を行うようにしてもよい。これによって、次フレームでの処理範囲をAFエリア内に限定して処理を高速化することができる。
(2) In the embodiment described above, the
(3)カメラ100が撮影時にシーンモードを設定することが可能な場合には、制御装置104は、カメラ100のモードが人物を撮影するためのモード、例えばポートレートモードに設定された場合にのみ、上述した実施の形態の処理、すなわち人物の顔を検出・および追尾を行うようにしてもよい。あるいは、使用者が、カメラ100のモードを人物を撮影するためのモード以外のモード、例えば風景モード等に設定した後、人物を撮影するためのモードに変更するのを忘れることも考えられることから、制御装置104は、設定されているモードに関わらず、上述した実施の形態の処理を行うようにしてもよい。
(3) When the
(4)また、制御装置104は、スルー画の入力を開始した後、あらかじめ設定された所定数のフレームに対して顔検出演算を行っても、画像内から人物の顔を検出できない場合には、人物を被写体とした撮影ではないと判断して、上述した実施の形態の処理、すなわち人物の顔を検出・および追尾を停止するようにしてもよい。この場合、制御装置104は、使用者によって設定されているAF方法によりAF処理を行えばよい。
(4) When the
(5)上述した実施の形態では、制御装置104は、フレーム内から複数の顔エリアが検出された場合には、いずれか1つの顔エリア、例えば最も至近に存在する顔に対応する顔エリアや最も大きい顔エリアを対象としてAFエリアを設定するようにした。しかしながら、使用者が、複数検出された顔のうち、どの顔にピントを合わせるかを選択できるようにし、制御装置104は、使用者によって選択された顔に対応する顔エリアを対象としてAFエリアを設定するようにしてもよい。
(5) In the above-described embodiment, when a plurality of face areas are detected from the frame, the
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。 Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired. Moreover, it is good also as a structure which combined the above-mentioned embodiment and a some modification.
100 カメラ、101 操作部材、102 レンズ、103 撮像素子、104 制御装置、104a 第1追尾部、104b 第2追尾部、104c 制御部、104d 焦点検出部、104e 焦点調節部、105 メモリカードスロット、106 モニタ
DESCRIPTION OF
Claims (6)
前記撮像部が出力した画像から人物の顔のパターンを用いた追尾を行い、前記人物の顔のパターンに対応する第1エリアを検出する第1追尾部と、
前記撮像部が出力した画像から前記人物の顔の色を用いた追尾を行い、前記人物の顔の色に対応する第2エリアを検出する第2追尾部と、
前記第1追尾部により前記第1エリアを検出できたとき、前記第1エリアに対応する情報を表示部に表示し、前記第2追尾部により前記第2エリアを検出できたとき、前記第2エリアに対応する情報を前記表示部に表示するように制御する制御部と、
前記第1追尾部により前記第1エリアを検出できたとき前記第1エリアの焦点調節エリアを選択し、前記第1追尾部により前記第1エリアを検出できないとき前記第2エリアの焦点調節エリアを選択する選択部と、
前記選択部に選択された前記焦点調節エリアを用いて焦点調節制御をする焦点調節制御部とを含むことを特徴とする撮像装置。 An imaging unit that repeatedly captures images;
A first tracking unit that performs tracking using a human face pattern from an image output by the imaging unit and detects a first area corresponding to the human face pattern;
A second tracking unit that performs tracking using the face color of the person from the image output by the imaging unit and detects a second area corresponding to the color of the person's face;
When the first tracking unit can detect the first area, information corresponding to the first area is displayed on the display unit, and when the second tracking unit can detect the second area, the second area A control unit that controls to display information corresponding to an area on the display unit ;
When the first tracking unit can detect the first area, the focus adjustment area of the first area is selected. When the first tracking unit cannot detect the first area, the focus adjustment area of the second area is selected. A selection section to select;
An imaging apparatus, comprising: a focus adjustment control unit that performs focus adjustment control using the focus adjustment area selected by the selection unit.
前記制御部は、前記第1追尾部により前記第1エリアを検出できたとき、前記第1エリアに対応する枠を前記表示部に表示し、前記第2追尾部により前記第2エリアを検出できたとき、前記第2エリアに対応する枠を前記表示部に表示するように制御することを特徴とする撮像装置。 The imaging apparatus according to claim 1,
When the first tracking unit is able to detect the first area, the control unit can display a frame corresponding to the first area on the display unit, and the second tracking unit can detect the second area. An image pickup apparatus that controls to display a frame corresponding to the second area on the display unit .
前記第1追尾部により前記第1エリアを検出できたとき前記第1エリアを含む追尾領域を設定する設定部を含み、
前記第1追尾部は、前記撮像部が出力した画像の前記追尾領域の範囲内において前記人物の顔のパターンを用いた追尾を行い、
前記第2追尾部は、前記第1追尾部により追尾ができないとき、前記撮像部が出力した画像の前記追尾領域の範囲内において前記人物の顔の色を用いた追尾を行い、
前記設定部は、前記第1追尾部により検出された前記第1エリア、及び、前記第2追尾部により検出された前記第2エリアの少なくとも一方を含む領域を前記追尾領域として設定することを特徴とする撮像装置。 The imaging apparatus according to claim 1 or 2,
A setting unit for setting a tracking region including the first area when the first tracking unit can detect the first area;
The first tracking unit performs tracking using the face pattern of the person within the range of the tracking region of the image output by the imaging unit,
The second tracking unit performs tracking using the color of the person's face within the tracking region of the image output by the imaging unit when the first tracking unit cannot perform tracking.
The setting unit sets, as the tracking region, an area including at least one of the first area detected by the first tracking unit and the second area detected by the second tracking unit. An imaging device.
前記第2追尾部は、前記第1追尾部により前記第1エリアを検出できるとき、前記第2追尾部による追尾を開始しないことを特徴とする撮像装置。 The imaging apparatus according to claim 3 ,
The second tracking unit does not start tracking by the second tracking unit when the first tracking unit can detect the first area.
前記第1追尾部により検出された前記第1エリア、及び、前記第2追尾部により検出された前記第2エリアの少なくとも一方に対応する画像を基準画像として取得する取得部を有することを特徴とする撮像装置。 The imaging apparatus according to any one of claims 1 to 4 ,
An acquisition unit that acquires, as a reference image, an image corresponding to at least one of the first area detected by the first tracking unit and the second area detected by the second tracking unit. An imaging device.
前記撮像部が出力した画像から人物の顔のパターンを用いた追尾を行い、前記人物の顔のパターンに対応する第1エリアを検出する第1追尾部と、
前記撮像部が出力した画像から前記撮像部が出力した画像を用いて得られたテンプレート画像との一致度合いが最も高い領域を検出することにより追尾を行い、前記テンプレート画像との一致度合いが最も高い領域に対応する第2エリアを検出する第2追尾部と、
前記第1追尾部により前記第1エリアを検出できたとき、前記第1エリアに対応する情報を表示部に表示し、前記第2追尾部により前記第2エリアを検出できたとき、前記第2エリアに対応する情報を前記表示部に表示するように制御する制御部と、
前記第1追尾部により前記第1エリアを検出できたとき前記第1エリアの焦点調節エリアを選択し、前記第1追尾部により前記第1エリアを検出できないとき前記第2エリアの焦点調節エリアを選択する選択部と、
前記選択部に選択された前記焦点調節エリアを用いて焦点調節制御をする焦点調節制御部とを含むことを特徴とする撮像装置。
An imaging unit that repeatedly captures images;
A first tracking unit that performs tracking using a human face pattern from an image output by the imaging unit and detects a first area corresponding to the human face pattern;
Tracking is performed by detecting a region having the highest degree of matching with the template image obtained using the image output by the imaging unit from the image output by the imaging unit, and the degree of matching with the template image is the highest. A second tracking unit for detecting a second area corresponding to the region;
When the first tracking unit can detect the first area, information corresponding to the first area is displayed on the display unit, and when the second tracking unit can detect the second area, the second area A control unit that controls to display information corresponding to an area on the display unit ;
When the first tracking unit can detect the first area, the focus adjustment area of the first area is selected. When the first tracking unit cannot detect the first area, the focus adjustment area of the second area is selected. A selection section to select;
An imaging apparatus, comprising: a focus adjustment control unit that performs focus adjustment control using the focus adjustment area selected by the selection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013260154A JP5790751B2 (en) | 2013-12-17 | 2013-12-17 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013260154A JP5790751B2 (en) | 2013-12-17 | 2013-12-17 | Imaging device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008285321A Division JP2010113129A (en) | 2008-11-06 | 2008-11-06 | Image tracking device, focusing device, and image capturing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014095907A JP2014095907A (en) | 2014-05-22 |
JP5790751B2 true JP5790751B2 (en) | 2015-10-07 |
Family
ID=50938968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013260154A Active JP5790751B2 (en) | 2013-12-17 | 2013-12-17 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5790751B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3057004B2 (en) * | 1996-06-19 | 2000-06-26 | 松下電工株式会社 | Tracking device |
JP2006101186A (en) * | 2004-09-29 | 2006-04-13 | Nikon Corp | Camera |
JP4218720B2 (en) * | 2006-09-22 | 2009-02-04 | ソニー株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM |
JP5167750B2 (en) * | 2006-10-03 | 2013-03-21 | 株式会社ニコン | TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD |
JP5188071B2 (en) * | 2007-02-08 | 2013-04-24 | キヤノン株式会社 | Focus adjustment device, imaging device, and focus adjustment method |
JP2010113129A (en) * | 2008-11-06 | 2010-05-20 | Nikon Corp | Image tracking device, focusing device, and image capturing apparatus |
-
2013
- 2013-12-17 JP JP2013260154A patent/JP5790751B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014095907A (en) | 2014-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009246558A (en) | Imaging apparatus, and method for controlling the same | |
JP4907740B2 (en) | Imaging device | |
JP2013150210A (en) | Photographing device | |
JP2008085737A (en) | Electronic camera | |
JP2009141475A (en) | Camera | |
JP2006140892A (en) | Electronic still camera | |
JP5338197B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2010113129A (en) | Image tracking device, focusing device, and image capturing apparatus | |
JP2006033440A (en) | Digital camera | |
JP5367129B2 (en) | Imaging apparatus, control apparatus, and control method thereof | |
JP5409483B2 (en) | Imaging device | |
JP6431429B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6671323B2 (en) | Imaging device | |
JP4442344B2 (en) | Digital camera | |
JP5742282B2 (en) | camera | |
JP5790751B2 (en) | Imaging device | |
JP5359715B2 (en) | Subject tracking device, subject tracking method, and camera | |
JP2013016924A (en) | Image evaluation device | |
JP5573311B2 (en) | camera | |
JP5842884B2 (en) | Tracking device and camera | |
JP2013211719A (en) | Digital camera | |
JP2012019432A (en) | Portable device and reproduction display method | |
JP5088380B2 (en) | Imaging device | |
JP2012239079A (en) | Photographing device | |
JP2006093956A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5790751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |