[go: up one dir, main page]

JP4853425B2 - 撮像装置、撮像方法およびプログラム - Google Patents

撮像装置、撮像方法およびプログラム Download PDF

Info

Publication number
JP4853425B2
JP4853425B2 JP2007211199A JP2007211199A JP4853425B2 JP 4853425 B2 JP4853425 B2 JP 4853425B2 JP 2007211199 A JP2007211199 A JP 2007211199A JP 2007211199 A JP2007211199 A JP 2007211199A JP 4853425 B2 JP4853425 B2 JP 4853425B2
Authority
JP
Japan
Prior art keywords
face
image
detection
normalization
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007211199A
Other languages
English (en)
Other versions
JP2009049489A (ja
Inventor
要 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007211199A priority Critical patent/JP4853425B2/ja
Priority to TW097125070A priority patent/TW200913675A/zh
Priority to EP08160510A priority patent/EP2026248A1/en
Priority to US12/190,998 priority patent/US8233678B2/en
Priority to KR1020080079271A priority patent/KR20090017436A/ko
Priority to CNA2008101462854A priority patent/CN101369307A/zh
Publication of JP2009049489A publication Critical patent/JP2009049489A/ja
Application granted granted Critical
Publication of JP4853425B2 publication Critical patent/JP4853425B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

この発明は、撮像装置、撮像方法およびプログラムに関する。詳しくは、この発明は、顔画像から所定の顔器官を検出し、この顔器官の検出位置に基づいて、顔の位置、角度、大きさ等を正規化して正規化顔画像を得、この正規化顔画像から特定の表情が検出されるとき撮影を行うことにより、被写体側の人の顔が特定の表情となったとき撮影を行う自動撮影の精度を高めるようにした撮像装置等に係るものである。また、この発明は、被写体の撮像画像に含まれている特定画像が所定の条件を満たすとき自動的に撮影を行う撮像装置にあって、撮像画像に特定画像が含まれていることが検出されているが、この特定画像の状態が所定の条件を満たしていないとき、所定の条件を満たせば撮影されることを被写体側に報知することにより、所定の条件を満たすように被写体側に促すことができるようにした撮像装置等に係るものである。
近年、デジタルスチルカメラ、デジタルカメラレコーダ等の静止画の撮影を行う撮像装置が普及している。例えば、特許文献1等には、被写体を撮像して得られた撮像画像内に笑顔の顔画像があるとき自動的に撮影を行う撮像装置が記載されている。
特開2005−56387号公報
この種の撮像装置にあっては、顔検出の精度が100%ではないため、当該顔検出結果にしばしば誤検出が含まれる。例えば、撮像画像に含まれる顔以外の画像を顔画像として検出した場合、当該検出された画像に基づいて行われる笑顔判定が正しく行われないばかりではなく、誤撮影につながる可能性が高くなる。
また、この種の撮像装置にあっては、撮像画像から笑顔の顔画像が検出されるまで撮影が行われない。被写体側の人は、撮影が行われずに経過する時間が長くなれば、撮像装置が故障かなどの疑問を抱き、不安な状態になり、笑顔も出なくなる。
この発明の目的は、被写体側の人の顔が特定の表情となったとき撮影を行う自動撮影の精度を高めることにある。また、この発明の目的は、被写体側が所定の条件を満たしていないことから撮影が行われないとき、被写体側に所定の条件を満たすように促すことにある。
この発明の概念は、
被写体の撮像画像に特定の表情の顔画像が含まれているとき自動的に撮影を行う撮像装置であって、
上記被写体を撮像して該被写体の撮像画像に対応した画像情報を得る撮像部と、
上記撮像部で得られた撮像画像に対応した画像情報に基づいて、上記撮像画像に含まれる顔画像を検出する顔検出部と、
上記顔検出部で検出された顔画像に対応した画像情報に基づいて、該顔画像に含まれる所定の顔器官を検出する顔器官検出部と、
上記顔器官検出部で検出された上記所定の顔器官の検出位置に基づいて、上記顔検出部で検出された顔画像に対し、顔の位置、顔の角度および顔の大きさの少なくともいずれかを正規化する処理を行って、正規化顔画像を得る正規化部と、
上記正規化部で得られた正規化顔画像に対応した画像情報に基づいて、顔の正規化が成功したか否かを判定する正規化正否判定部と、
上記正規化部で得られた正規化顔画像に対応した画像情報に基づいて、特定の表情を検出する表情検出部と、
上記正規化正否判定部で顔の正規化が成功したと判定され、かつ、上記表情検出部で特定の表情が検出されるとき撮影指示を行う撮影制御部と
を備えることを特徴とする撮像装置にある。
この発明においては、顔器官検出部により、顔検出部で検出された顔画像に含まれる所定の顔器官、例えば目、鼻等が検出される。正規化部により、所定の顔器官の検出位置に基づいて、顔画像に対して、顔の位置、顔の角度および顔の大きさの少なくともいずれかを正規化する処理が行われ、正規化顔画像が得られる。
例えば、正規化部で得られる正規化顔画像のピクセル数は、正規化前の顔画像のピクセル数より少なくされる。すなわち、顔器官を位置精度よく検出するために顔画像はある程度のピクセル数(解像度)を持つ必要があるが、特定の表情を検出するための正規化顔画像に関しては、全体として特徴が表れていればよいので、それほどピクセル数を必要としない。このように正規化顔画像のピクセル数を顔画像のピクセル数より少なくすることで、メモリ使用量を節約でき、また、後述する特定の表情の顔であるか否かの判定処理の高速化も可能となる。
表情検出部により、正規化顔画像に対応した画像情報に基づいて、特定の表情の検出が行われる。特定の表情は、笑顔、泣き顔等である。そして、特定の表情が検出されるとき、撮影制御部により、撮影指示が行われる。これにより、被写体側の人の顔が特定の表情となったとき自動的に撮影が行われる。
このように、この発明においては、顔器官の検出位置に基づいて顔の位置、角度、大きさ等が正規化されて得られた正規化顔画像に対応した画像情報を用いて特定の表情を検出するものであり、正規化していない顔画像に対応した画像情報を用いて特定の表情を検出するものに比べて特定の表情の検出精度を向上でき、被写体側の人の顔が特定の表情となったとき撮影を行う自動撮影の精度を高めることができる。
また、この発明において、例えば、正規化部で得られた正規化顔画像に対応した画像情報に基づいて、正規化が成功したか否かを判定する正規化正否判定部をさらに備え、撮影制御部は、正規化正否判定部で正規化が成功したと判定され、かつ、表情検出部で特定の表情が検出されるとき、撮影指示を行う、ようにされてもよい。
上述した顔検出部で顔以外の画像、正面を向いていない顔画像等が顔画像として検出される場合、また、上述の顔器官検出部で所定の顔器官でない部分が当該所定の顔器官として検出される場合もある。その場合、正規化顔画像は、顔以外の画像、正面を向いていない顔画像、正面を向いているが傾いた顔画像等であって、表情検出部における特定の表情の検出結果が妥当でないことが多い。しかし、この場合、正規化正否判定部では正規化が失敗であると判定されることから、誤撮影を回避できる。
また、この発明において、例えば、表情検出部で特定の表情が検出されないとき、あるいは、正規化成否判定部で顔の正規化が成功したと判定され、かつ、表情検出部で特定の表情が検出されないとき、特定の表情の顔になれば撮影されることを被写体側に報知する報知部をさらに備える、ようにされてもよい。この場合、報知により被写体側の人に撮影が行われない理由を知らせることができ、当該被写体側の人に、特定の表情の顔となるように促すことができる。
また、この発明の概念は、
被写体の撮像画像に特定画像が含まれていることが検出され、該特定画像の状態が所定の条件を満たすとき自動的に撮影を行う撮像装置であって、
上記撮像画像に上記特定画像が含まれていることが検出されているが、該特定画像の状態が上記所定の条件を満たしていないとき、該所定の条件を満たせば撮影されることを被写体側に報知する報知部を備える
ことを特徴とする撮像装置にある。
この発明においては、撮像画像に特定画像が含まれており、この特定画像の状態が所定の条件を満たしているとき、自動的に撮影が行われる。例えば、撮像画像に顔画像が含まれており、この顔画像が特定の表情、例えば笑顔、泣き顔等にあるとき、自動的に撮影が行われる。一方、特定画像の状態が所定の条件を満たしていないとき、報知部により、所定の条件を満たせば撮影されることが被写体側に報知される。例えば、報知は、発光により行われる、あるいは音声の出力により行われる。
特定画像の状態が所定の条件を満たさない限り撮影は行われないが、報知により被写体側に撮影が行われない理由を知らせることができ、当該被写体側に、所定の条件を満たすように促すことができる。
この発明によれば、顔画像から所定の顔器官を検出し、この顔器官の検出位置に基づいて、顔の位置、角度、大きさ等を正規化して正規化顔画像を得、この正規化顔画像から特定の表情が検出されるとき撮影を行うものであり、被写体側の人の顔が特定の表情となったとき撮影を行う自動撮影の精度を高めることができる。
また、この発明によれば、被写体の撮像画像に含まれている特定画像が所定の条件を満たすとき自動的に撮影を行う撮像装置にあって、撮像画像に特定画像が含まれていることが検出されているが、この特定画像の状態が所定の条件を満たしていないとき、所定の条件を満たせば撮影されることを被写体側に報知するものであり、所定の条件を満たすように被写体側に促すことができる。
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのデジタルスチルカメラ100の構成例を示している。
このデジタルスチルカメラ100は、撮像レンズ101と、撮像部102と、カメラ制御部103と、システム制御部104と、外部I/F部105と、記録再生部106と、表示部107と、操作入力部108と、LED(Light Emitting Diode)109と、スピーカ110と、記憶装置部111とを有している。
撮像部102は、図示していないが、電子シャッター機能を持つ撮像素子と、撮像素子の出力信号を処理して撮像画像に対応した画像情報(画像データ)を得る信号処理部とで構成されている。撮像レンズ101により撮像素子の撮像面に被写体の光学像が結像され、この状態で撮像素子が撮像動作を行い、信号処理部が撮像信号に対して信号処理を行うことで、当該撮像部102からは撮像画像に対応した画像情報が得られる。カメラ制御部103は、記憶装置部111を介して撮像部102から供給される画像情報を基に、シャッター速度および露出を決定し、撮像部102に対して制御を加える。
システム制御部104は、カメラ全体の制御を行う。このシステム制御部104は、操作入力部108によるユーザ操作による制御、表示部107に対しての適切な内容の表示、記録再生部106への画像情報の保存、外部I/F部105を通じての外部のコンピュータやネットワークとの通信を制御する。また、システム制御部104は、シャッター釦の押し下げなどのユーザ操作の内容などによっては、カメラ制御部103に制御を加える。また、システム制御部104は、撮影時には、撮像部102で捕らえた画像を表示部107に表示する。さらに、システム制御部104は、報知時に、LED109の発光を制御し、あるいはスピーカ110からの音声出力を制御する。
外部I/F部105は、USB(UniversalSerial Bus)による外部のコンピュータとの接続、あるいはネットワーク接続のためのインタフェースを提供する。記録再生部106は、主にフラッシュメモリからなる記録媒体が着脱自在に装着されており、当該記録媒体に画像情報を記録し、あるいは、この記録媒体から画像情報を読み出す。表示部107は、例えば液晶パネルからなっている。この表示部107は、撮影した画像、記録再生部106で記録媒体から読み出した画像、さらには、ユーザに対する各種情報等を表示する。
操作入力部108は、シャッター釦などの筐体外部に配置されたキー装置であり、ユーザ入力を受ける。記憶装置部111は、撮像部102から出力される撮像画像に対応した画像情報等を一時的に保存しておくための主記憶装置であって、DRAMにより構成されている。各部間の画像情報のやりとりは、当該記憶装置部111を介して行われる。
図2は、デジタルスチルカメラ100の外観の一例を示している。デジタルカメラ100の筐体115の前面には、撮像レンズ101の他に、LED109、スピーカ110が配設されている。また、筐体115の上面には、シャッター釦116が配設されている。なお、図示していないが、筐体115の背面には、表示部107、さらにはシャッター釦116以外の操作入力部108が配設されている。
次に、カメラ制御部103の詳細構成を説明する。図3は、カメラ制御部103の構成例を示している。このカメラ制御部103は、顔検出部121と、顔属性検出部122と、カメラパラメータ制御部123と、シーケンス制御部124とを有している。
顔検出部121は、シーケンス制御部124のトリガにより、記憶装置部111に保持されている、撮像部102から出力された現在の撮像画像の画像情報に基づいて、顔画像を検出する。顔検出部121は、顔画像が検出されるとき、当該顔画像に対応した画像情報を記憶装置部111に記憶し、また、顔検出情報をシーケンス制御部124に供給する。この顔検出部121における検出処理の詳細については後述する。
顔属性検出部122は、シーケンス制御部124のトリガにより、記憶装置部111に保持されている、上述の顔検出部121で検出された顔画像に対応した画像情報に基づいて、顔器官としての目を検出し、当該目の検出位置に基づいて顔画像に対して正規化処理をして正規化顔画像を得る。この顔属性検出部122は、目の検出処理で得られた目スコアをシステム制御部124に供給し、また、正規化処理により得られた正規化顔画像に対応した画像情報を記憶装置部111に記憶する。
また、顔属性検出部122は、記憶装置部111に保持されている正規化顔画像に対応した画像情報に基づいて、正規化が成功したか否かの判定のための正規化スコアを測定し、当該正規化スコアをシーケンス制御部124に供給する。また、顔属性検出部122は、記憶装置部111に記憶されている正規化顔画像に対応した画像情報に基づいて、笑顔を検出するための笑顔スコアを測定し、当該笑顔スコアをシーケンス制御部124に供給する。この顔属性検出部122における検出処理の詳細については後述する。
カメラパラメータ制御部123は、シーケンス制御部124のトリガにより、記憶装置部111に保持されている、撮像部102から出力された現在の撮像画像の画像情報を評価し、シャッター速度、露出、ホワイトバランス等のカメラパラメータを決定し、撮像部102に対して制御を行う。
シーケンス制御部124は、システム制御部104からの撮影待機命令で起動し、撮像部102に起動命令を送り、当該撮像部102をいつでも撮影できる撮影待機状態に保持する。撮影待機状態では、撮像部102で得られる被写体の撮像画像に対応した画像情報は記憶装置部111に供給され、当該記憶装置部111に保持されている画像情報は、例えば1フィールド期間(1/60秒)毎に、順次更新される。シーケンス制御部124は、カメラパラメータ制御部123に対しては、記憶装置部111に保持されている画像情報からカメラパラメータの算出を行うように制御を加え、顔検出部121に対しては、記憶装置部111に保持されている画像情報から顔検出を行うように制御を加える。
また、シーケンス制御部124は、顔検出部121から顔検出情報が供給されるとき、顔属性検出部122に対して、顔属性の検出(目検出、正規化処理、正規化スコアの測定、笑顔スコアの測定)を行うように制御を加える。シーケンス制御部124は、左右の目検出が成功し、正規化が成功し、さらに笑顔が検出されるとき、システム制御部104等の必要個所に、撮影を指示する。
図1に示すデジタルスチルカメラ100において、ユーザは、操作入力部108を操作することで、笑顔シャッターモードに設定できる。そして、このデジタルスチルカメラ100においては、このように笑顔シャッターモードに設定された状態で、ユーザが、シャッター釦116を押し下げることで、被写体の撮像画像に笑顔の顔画像が含まれているとき自動的に撮影が行われる。
図4のフローチャートは、笑顔シャッターモードで、シャッター釦116の押し下げがあった場合における、シーケンス制御部124による制御シーケンスの詳細を示している。
まず、シーケンス制御部124は、ステップST1において、システム制御部104からの撮像待機命令により制御動作を開始し、その後に、ステップST2に移る。このステップST2において、シーケンス制御部124は、撮像部102に起動命令を送る。撮像部102は、当該起動命令を受け、いつでも撮影できる撮影待機状態になる。この撮影待機状態では、撮像部102において被写体を撮像する動作が繰り返し行われ、当該撮像部102から出力される被写体の撮像画像に対応した画像情報は記憶装置部111に供給され、当該記憶装置部111に保持されている画像情報はフィールド期間毎に順次更新される。
次に、シーケンス制御部124は、ステップST3において、カメラパラメータ制御部123に、カメラパラメータの更新を要求する。カメラパラメータ制御部123は、当該要求を受け、記憶装置部111に保持されている、撮像部102から出力された現在の撮像画像の画像情報を評価し、シャッター速度、露出、ホワイトバランス等のカメラパラメータを決定し、撮像部102のカメラパラメータを更新する。
次に、シーケンス制御部124は、ステップST4において、顔検出部121に、顔検出を要求する。顔検出部121は、記憶装置部111に保持されている、撮像部102から出力された現在の撮像画像の画像情報に基づいて、顔画像を検出する。例えば、記憶装置部111内の撮像画像IM-0が図5(a)に示すようであるとき、顔検出部121は、図5(b)に破線枠で囲んで示すように、撮像画像IM-0に含まれている顔画像IM-1を検出する。
顔検出部121は、顔画像が検出されるとき、当該顔画像を、顔属性検出部122における処理のために、図5(c)に示すように、所定のサイズ、この実施の形態では、水平サイズが80ピクセル、垂直サイズが80ピクセルとなるように正規化し、当該正規化された顔画像IM-2に対応した画像情報を、記憶装置部111に記憶する。また、顔検出部121は、顔画像が検出されるとき、顔検出情報(顔スコア、位置情報、サイズ情報等)を、シーケンス制御部124に送る。
ここで、顔検出部121における顔画像の検出処理の一例について説明する。
この検出処理では、図6に示すように、撮像画像IM-0上に、所定サイズ、例えば、水平サイズがSピクセル、垂直サイズがSピクセルである、検出枠FR-faが設定される。この実施の形態において、Sピクセルは、80ピクセル以上である。この検出枠FR-faは、図6に矢印で示すように、撮像画像IM-0上を走査され、その位置が順次変化するようにされる。そして、各位置の検出枠FR-faで囲まれる画像に対し、顔辞書を用いて顔スコアSCORE_faの測定が行われ、当該顔スコアSCORE_faに基づいて、顔画像であるか否かの判定が行われる。
顔辞書は、図7(b)に示すように、t4組(数百ペア)の、pix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の組みあわせからなっている。ここで、pix_fa1(i),pix_fa2(i)は、図8に示すように、検出枠FR-faで囲まれる画像における2点の位置を示している。なお、図8には、図面の簡単化のため、3組だけを示している。θ_fa(i)は、pix_fa1(i)の輝度値およびpix_fa2(i)の輝度値の差に関する閾値を示している。また、α_fa(i)は、pix_fa1(i)の輝度値およびpix_fa2(i)の輝度値の差と閾値θ_fa(i)の比較結果に基づいて加算または減算される重みを示している。これらpix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の各値は、詳細説明は省略するが、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習されて取得されたものである。
顔スコアSCORE_faの測定は、図7(a)に示すように、顔辞書のpix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の各組に対応して、(1)式を満たすか否かを判断し、満たす場合には(2)式の演算を行い、一方、満たさない場合には(3)式の演算を行うことで、行われる。なお、(1)式で、pix_fa1(i)はその位置の輝度値を示し、pix_fa2(i)はその位置の輝度値を示している。
pix_fa1(i)−pix_fa2(i)<θ_fa(i) ・・・(1)
SCORE_fa=SCORE_fa+α_fa(i) ・・・(2)
SCORE_fa=SCORE_fa−α_fa(i) ・・・(3)
検出枠FR-faで囲まれる画像が顔画像であるか否かの判定は、上述したように測定された顔スコアSCORE_faに基づいて行われる。なお、上述の顔スコアSCORE_faの測定において、(1)式を満たす場合はh(i)=1とし、逆に、(1)式を満たさない場合はh(i)=−1とするとき、測定された顔スコアSCORE_faは、(4)式で表される。
顔スコアSCORE_faが0より大きいとき、検出枠FR-faで囲まれる画像は顔画像であると判定される。一方、顔スコアSCORE_faが0以下であるとき、検出枠FR-faで囲まれる画像は顔画像ではないと判定される。なお、判定の基準を0ではなく、0以外の多少調整された値が用いられることもある。
なお、撮像画像に含まれる顔画像には種々の大きさが考えられる。そのため、図6に示すように、撮像画像IM-0上に所定サイズの検出枠FR-faを設定して顔画像を検出するものにあっては、当該撮像画像IM-0に含まれる顔画像の内、当該検出枠FR-faのサイズに対応した顔画像だけしか検出できない。そこで、撮像画像IM-0に含まれる種々の顔画像を検出可能とするために、上述した顔画像の検出処理は、図9に示すように、撮像画像IM-0の他に、この撮像画像IM-0を、適宜縮小した縮小画像IM-0a,IM-0b,・・・に対しても行われる。
図10のフローチャートは、顔検出部121における、顔画像検出処理の手順を示している。
まず、顔検出部121は、ステップST21において、顔画像検出処理を開始し、その後に、ステップST22に移る。このステップST22において、顔検出部121は、撮像画像IM-0の縮小段階S_NOを1に設定する。そして、顔検出部121は、ステップST23において、記憶装置部111から撮像画像IM-0の画像情報を読み出し、縮小段階S_NOのスケーリング(縮小処理)を施し、顔画像を検出するための縮小画像(縮小された撮像画像)を生成する。なお、S_NO=1であるとき、縮小率は1とされ、顔画像を検出するための縮小画像は、撮像画像IM-0と同じものとされる。また、縮小段階S_NOが大きくなるにつれて、縮小率は小さくなっていく。縮小率が小さな縮小画像で検出される顔画像ほど、撮像画像IM-0上では大きな顔画像である。顔検出情報に含まれるサイズ情報および位置情報は、撮像画像IM-0におけるものとされる。
次に、顔検出部121は、ステップST24において、ステップST23で生成された縮小画像上の左上に検出枠FR-faを設定する。そして、顔検出部121は、ステップST25において、上述したように、顔辞書を用いて、顔スコアSCORE_faを測定する。
次に、顔検出部121は、ステップST26において、ステップST25で測定された顔スコアSCORE_faに基づいて、検出枠FR-faで囲まれた画像が顔画像であるか否かを判定する。この場合、顔検出部121は、SCORE_fa>0であるとき顔画像であると判定し、SCORE_fa>0でないとき顔画像ではないと判定する。
顔画像であると判定するとき、顔検出部121は、ステップST27に移る。このステップST27において、顔検出部121は、検出枠FR-faで囲まれている画像を顔画像として記憶装置部111に記憶し、さらに当該顔画像に対応した顔検出情報(顔スコア、位置情報、サイズ情報等)をシーケンス制御部124に送る。なお、顔検出部121は、上述したように、Sピクセル×Sピクセルの検出顔画像を、顔属性検出部122における処理のために、80ピクセル×80ピクセルの大きさに正規化した後に、記憶装置部111に記憶する。顔検出部121は、ステップST27の処理の後、ステップST28に進む。ステップST26で顔画像でないと判定するとき、顔検出部121は、直ちに、ステップST28に移る。
このステップST28において、顔検出部121は、検出枠FR-faが最後の位置まで移動したか否かを判定する。最後の位置まで移動していないとき、顔検出部121は、ステップST29において、検出枠FR-faを次の位置に移動し、その後に、上述したステップST25に戻って、上述したと同様の処理を繰り返す。なお、検出枠FR-faは、ある垂直位置においては水平方向に1ピクセルずつ移動していき、当該垂直位置における水平方向の移動が終わると、垂直方向に1ピクセル移動して、次の垂直位置に移る。
ステップST28で検出枠FR-faが最後の位置まで移動しているとき、顔検出部121は、ステップST30において、縮小段階S_NOが最後の段階S_NOmaxにあるか否かを判定する。S_NO=S_NOmaxでないとき、顔検出部121は、ステップST31において、縮小段階S_NOを次の段階とし、その後、ステップST23に移り、上述したと同様の処理を繰り返す。
また、ステップST30で、S_NO=S_NOmaxであるとき、全ての縮小段階S_NOでの顔画像の検出処理が終了したことを意味するので、顔検出部121は、ステップST32において、顔画像検出処理を終了する。
図4に戻って、シーケンス制御部124は、ステップST4の処理の後、ステップST5に移る。このステップST5において、シーケンス制御部124は、顔画像が検出されたか否かを判定する。顔画像が検出されていないとき、シーケンス制御部124は、ステップST3の処理に戻り、上述したと同様の処理を繰り返す。一方、顔画像が検出されたとき、シーケンス制御部124は、ステップST6に移る。このステップST6において、シーケンス制御部124は、顔属性検出部122に、検出された各顔画像に対する属性検出を要求する。
図11のフローチャートは、顔属性検出部122における、顔属性検出処理の手順を示している。
まず、顔属性検出部122は、ステップST41で、顔属性検出処理を開始する。そして、顔属性検出部122は、ステップST42において、左目検出を実行し、さらに、ステップST43において、右目検出を実行する。目検出では、図12(a)に示すように、記憶装置部111に保持されている、80ピクセル×80ピクセルに正規化された顔画像IM-2に対応した画像情報に基づいて、目検出辞書を用いて、顔器官としての目の検出を行う。
左目検出について説明する。例えば、顔画像IM-2が、図13に示すようであるとき、顔属性検出部122は、顔画像IM-2上に、左目検出範囲AR-Leyを設定する。この左目検出範囲AR-Leyにおいて、左上の座標は(LEFT_LEFT,LEFT_TOP)であり、右下の座標は(LEFT_RIGHT,LEFT_BOTTOM)である。
また、顔属性検出部122は、左目を検出する際には、顔画像IM-2上に、所定サイズ、この実施の形態においては、水平サイズが24ピクセル、垂直サイズが24ピクセルの検出枠FR-eyを設定する。上述した左目検出範囲AR-Leyは、当該検出枠FR-eyの中心位置の移動範囲となる。
左目の検出処理では、図13に矢印で示すように、検出枠FR-eyは左目検出範囲AR-Ley上を走査され、その位置が順次変化するようにされる。そして、各位置の検出枠FR-eyで囲まれる画像に対し、左目検出辞書を用いて左目スコアSCORE_Leyの測定が行われ、当該左目スコアSCORE_Leyの最大値、および当該最大値が得られた検出枠FR-eyの位置情報が出力される。
図14フローチャートは、左目検出処理の処理手順を示している。まず、顔属性検出部122は、ステップST51において、左目検出処理を開始し、その後に、ステップST52に移る。このステップST52において、顔属性検出部122は、記憶装置部111から、当該左目検出処理で使用される、左目検出範囲AR-Leyに対応した画像情報を読み出す。
次に、顔属性検出部122は、ステップST53において、LEFT_SCOREを負の大きな数、この実施の形態においては−10000に設定する。そして、顔属性検出部122は、ステップST54およびステップST55において、検出枠FR-eyの中心位置(x,y)を、左目検出範囲AR-Leyの左上に設定する。すなわち、y=LEFT_TOPとし、x=LEFT_LEFTとする。
次に、顔属性検出部122は、ステップST56において、検出枠FR-eyに囲まれた画像に対し、左目検出辞書を適用して、左目スコアSCORE_Leyを測定する。そして、顔属性検出部122は、ステップST57において、左目スコアSCORE_LeyがLEFT_SCOREより大きいか否かを判定する。SCORE_Ley>LEFT_SCOREであるとき、顔属性検出部122は、ステップST58に移る。このステップST58において、顔属性検出部122は、LEFT_SCORE=SCORE_Leyとすると共に、POS=(x,y)とする。
顔属性検出部122は、ステップST58の処理の後、ステップST59に移る。ステップST57で、SCORE_Ley>LEFT_SCOREでないとき、顔属性検出部122は、直ちに、ステップST59に移る。このステップST59において、顔属性検出部122は、xをインクリメントする。そして、顔属性検出部122は、ステップST60において、xがLEFT_RIGHTより大きいか否かを判定する。xがLEFT_RIGHTより大きくなるとき、検出枠FR-eyの中心位置(x,y)の右方向への移動が左目検出範囲AR-Leyの右端まできたことを意味する。そこで、x>LEFT_RIGHTでないとき、顔属性検出部122は、上述のステップST56に戻り、上述したと同様の処理を繰り返すが、x>LEFT_RIGHTであるとき、顔属性検出部122は、ステップST61において、yをインクリメントする。
次に、顔属性検出部122は、ステップST62において、yがLEFT_BOTTOMより大きいか否かを判定する。yがLEFT_BOTTOMより大きくなるとき、検出枠FR-eyの下方向への移動が左目検出範囲AR-Leyの下端まできたことを意味する。そこで、y>LEFT_BOTTOMでないとき、顔属性検出部122は、上述のステップST55に戻り、上述したと同様の処理を繰り返す。
ステップST62でy>LEFT_BOTTOMであるとき、検出枠FR-eyの左目検出範囲AR-Leyにおける移動が終了したことを意味するので、顔属性検出部122は、ステップST63に移る。このステップST63において、顔属性検出部122は、当該左目スコアSCORE_Leyの最大値LEFT_SCORE、および当該最大値LEFT_SCOREが得られた検出枠FR-eyの位置情報POSを出力する。そして、顔属性検出部122は、ステップST63の処理の後、ステップST64において、左目検出処理を終了する。
ここで、上述のステップST56における左目スコアSCORE_Leyの測定処理について説明する。
左目検出辞書は、図15(b)に示すように、t1組(数百ペア)の、pix_ey1(i),pix_ey2(i)、θ_ey(i)、およびα_ey(i)の組みあわせからなっている。ここで、pix_ey1(i),pix_ey2(i)は、図16に示すように、検出枠FR-eyで囲まれる画像における2点の位置を示している。なお、図16には、図面の簡単化のため、3組だけを示している。θ_ey(i)は、pix_ey1(i)の輝度値およびpix_ey2(i)の輝度値の差に関する閾値を示している。また、α_ey(i)は、pix_ey1(i)の輝度値およびpix_ey2(i)の輝度値の差と閾値θ_ey(i)の比較結果に基づいて加算または減算される重みを示している。これらpix_ey1(i),pix_ey2(i)、θ_ey(i)、およびα_ey(i)の各値は、詳細説明は省略するが、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習されて取得されたものである。
左目スコアSCORE_Leyの測定は、図15(a)に示すように、顔辞書のpix_ey1(i),pix_ey2(i)、θ_ey(i)、およびα_ey(i)の各組に対応して、(5)式を満たすか否かを判断し、満たす場合には(6)式の演算を行い、一方、満たさない場合には(7)式の演算を行うことで、行われる。なお、(5)式で、pix_ey1(i)はその位置の輝度値を示し、pix_ey2(i)はその位置の輝度値を示している。
pix_ey1(i)−pix_ey2(i)<θ_ey(i) ・・・(5)
SCORE_Ley=SCORE_Ley+α_ey(i) ・・・(6)
SCORE_Ley=SCORE_Ley−α_ey(i) ・・・(7)
図17のフローチャートは、左目スコアSCORE_Leyの測定処理の手順を示している。まず、顔属性検出部122は、ステップST71において、スコア測定処理を開始し、その後に、ステップST72に移る。このステップST72において、顔属性検出部122は、左目スコアSCORE_Leyを0に設定する。そして、顔属性検出部122は、ステップST73において、iを1に設定する。
次に、顔属性検出部122は、ステップST74において、pix_ey1(i)およびpix_ey2(i)に対応する輝度値を選択し、ステップST75において、pix_ey1(i)の輝度値からpix_ey2(i)の輝度値を差し引く演算を行う。そして、顔属性検出部122は、ステップST76において、演算結果であるpix_ey1(i)−pix_ey2(i)が閾値θ_ey(i)より小さいか否かを判定する((5)式参照))。
pix_ey1(i)−pix_ey2(i)<θ_ey(i)を満たすとき、顔属性検出部122は、ステップST77において、左目スコアSCORE_Leyに重みα_ey(i)を加算する((6)式参照)。一方、pix_ey1(i)−pix_ey2(i)<θ_ey(i)を満たさないとき、顔属性検出部122は、ステップST78において、左目スコアSCORE_Leyから重みα_ey(i)を減算する((7)式参照)。
顔属性検出部122は、ステップST77の処理の後、およびステップST78の処理の後、ステップST79に移る。このステップST79において、顔属性検出部122は、iをインクリメントする。そして、顔属性検出部122は、ステップST80において、iがt1より大きいか否かを判定する。iがt1より大きいとき、左目検出辞書のt1組の各組み合わせの処理を終了したことを意味する。顔属性検出部122は、i>t1でないときステップST74に戻って上述した処理を繰り返し、一方、i>t1であるとき、ステップST81において、スコア測定処理を終了する。
なお、詳細説明は省略するが、右目の検出処理も、上述した左目の検出処理と同様に行われ、右目スコアSCORE_Reyの最大値LEFT_SCORE、および当該最大値LEFT_SCOREが得られた検出枠FR-eyの位置情報POSを出力する。
図11に戻って、顔属性検出部122は、ステップST43の処理の後、ステップST44に移る。このステップST44において、顔属性検出部122は、左目、右目の位置が所定座標になるように正規化(アフィン変換)を行って、図12(b)に示すように、所定サイズ、この実施の形態においては、水平サイズが48ピクセル、垂直サイズが48ピクセルの正規化顔画像IM-3を生成する。このように左目、右目の位置が所定座標になるように正規化が行われることで、正規化顔画像IM-3は、顔の位置、顔の角度および顔の大きさの全てが正規化されたものとなる。
この場合、顔属性検出部122は、ステップST42の左目検出処理で出力された左目スコアSCORE_Leyの最大値LEFT_SCOREが0より大きいときは、左目の検出に成功したと判断し、POSは左目位置を示すものとする。同様に、顔属性検出部122は、ステップST43の右目検出処理で出力された右目スコアSCORE_Reyの最大値LEFT_SCOREが0より大きいときは、右目の検出に成功したと判断し、POSは右目位置を示すものとする。
顔属性検出部122は、このように左目、右目の検出に成功したときは、それに対応した左目、右目の位置を用いて、アフィン変換を行う。なお、この実施の形態においては、左目、右目の検出が成功しなかったときにも、所定の位置に左目、右目があったものとして、アフィン変換を行うようにしている。
なお、上述した正規化顔画像IM-2のピクセル数(80ピクセル×80ピクセル)に比べて、左目、右目の位置に基づいて正規化された正規化顔画像IM-3のピクセル数(48ピクセル×48ピクセル)が少なくされている。これは、以下の理由からである。すなわち、目を位置精度よく検出するために正規化顔画像IM-2はある程度のピクセル数(解像度)を持つ必要があるが、正規化顔画像IM-3に関しては、顔全体に広がる特徴(正規化正否スコア、笑顔スコア)を検出するためのものであり、少ないピクセル数でも十分である。このように正規化顔画像IM-3のピクセル数を少なくすることで、メモリ使用量を節約でき、また、特徴検出の処理を簡単、かつ高速に行うことができる。
次に、顔属性検出部122は、ステップST45において、図12(b)に示すように、正規化正否辞書を適用して、正規化スコアSCORE_noを測定する。この正規化スコアSCORE_noは、正規化が成功したか否かを判定するためのスコアである。正規化が失敗した正規化顔画像IM-3の例としては、当該正規化顔画像IM-3が顔画像でない、当該正規化顔画像IM-3が正面を向いているが傾いている、当該正規化顔画像IM-3が横を向いている、等がある。このように正規化が正しく行われていない正規化画像IM-3に関しては、後述する笑顔スコアSCORE_smの測定値が妥当なものか不明なものとなる。
ここで、正規化スコアSCORE_noの測定処理について説明する。
正規化正否辞書は、図18(b)に示すように、t2組(数百ペア)の、pix_no1(i),pix_no2(i)、θ_no(i)、およびα_no(i)の組み合わせからなっている。ここで、pix_no1(i),pix_no2(i)は、図19に示すように、正規化画像IM-3における2点の位置を示している。なお、図19には、図面の簡単化のため、3組だけを示している。θ_no(i)は、pix_no1(i)の輝度値およびpix_no2(i)の輝度値の差に関する閾値を示している。また、α_no(i)は、pix_no1(i)の輝度値およびpix_no2(i)の輝度値の差と閾値θ_no(i)の比較結果に基づいて加算または減算される重みを示している。これらpix_no1(i),pix_no2(i)、θ_no(i)、およびα_no(i)の各値は、詳細説明は省略するが、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習されて取得されたものである。
正規化スコアSCORE_noの測定は、図18(a)に示すように、顔辞書のpix_no1(i),pix_no2(i)、θ_no(i)、およびα_no(i)の各組に対応して、(8)式を満たすか否かを判断し、満たす場合には(9)式の演算を行い、一方、満たさない場合には(10)式の演算を行うことで、行われる。なお、(8)式で、pix_no1(i)はその位置の輝度値を示し、pix_no2(i)はその位置の輝度値を示している。
pix_no1(i)−pix_no2(i)<θ_no(i) ・・・(8)
SCORE_no=SCORE_no+α_no(i) ・・・(9)
SCORE_no=SCORE_no−α_no(i) ・・・(10)
なお、詳細説明は省略するが、正規化スコアSCORE_noの測定処理の手順は、上述した、左目スコアSCORE_Leyの測定処理の手順と同様である(図17参照)。
次に、顔属性検出部122は、ステップST46において、図12(b)に示すように、笑顔辞書を適用して、笑顔スコアSCORE_smを測定する。この笑顔スコアSCORE_smは、正規化顔画像IM-3の状態が笑顔であるか否かを判定するためのスコアである。
ここで、笑顔スコアSCORE_smの測定処理について説明する。
正規化正否辞書は、図20(b)に示すように、t3組(数百ペア)の、pix_sm1(i),pix_sm2(i)、θ_sm(i)、およびα_sm(i)の組み合わせからなっている。ここで、pix_sm1(i),pix_sm2(i)は、正規化画像IM-3における2点の位置を示している。θ_sm(i)は、pix_sm1(i)の輝度値およびpix_sm2(i)の輝度値の差に関する閾値を示している。また、α_sm(i)は、pix_sm1(i)の輝度値およびpix_sm2(i)の輝度値の差と閾値θ_sm(i)の比較結果に基づいて加算または減算される重みを示している。これらpix_sm1(i),pix_sm2(i)、θ_sm(i)、およびα_sm(i)の各値は、詳細説明は省略するが、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習されて取得されたものである。
笑顔スコアSCORE_smの測定は、図20(a)に示すように、顔辞書のpix_sm1(i),pix_sm2(i)、θ_sm(i)、およびα_sm(i)の各組に対応して、(11)式を満たすか否かを判断し、満たす場合には(12)式の演算を行い、一方、満たさない場合には(13)式の演算を行うことで、行われる。なお、(11)式で、pix_sm1(i)はその位置の輝度値を示し、pix_sm2(i)はその位置の輝度値を示している。
pix_sm1(i)−pix_sm2(i)<θ_sm(i) ・・・(11)
SCORE_sm=SCORE_sm+α_sm(i) ・・・(12)
SCORE_sm=SCORE_sm−α_sm(i) ・・・(13)
なお、詳細説明は省略するが、笑顔スコアSCORE_smの測定処理の手順は、上述した、左目スコアSCORE_Leyの測定処理の手順と同様である(図17参照)。
次に、顔属性検出部122は、ステップST47において、属性情報(左目スコアSCORE_Leyの最大値、右目スコアSCORE_Reyの最大値、正規化スコアSCORE_no、笑顔スコアSCORE_sm)をシーケンス制御部124に出力する。そして、顔属性検出部122は、ステップST48において、顔属性検出処理を終了する。
図4に戻って、シーケンス制御部124は、ステップST6の処理の後、ステップST7に移る。このステップST7において、シーケンス制御部124は、撮影条件を満たしているか否を判定する。シーケンス制御部124は、上述した顔属性検出部122で検出された属性情報(左目スコアSCORE_Leyの最大値、右目スコアSCORE_Reyの最大値、正規化スコアSCORE_no、笑顔スコアSCORE_sm)に基づいて、判定を行う。
シーケンス制御部124は、左右の目検出が成功し、顔の正規化が成功し、かつ笑顔が検出されるとき、撮影条件を満たしていると判定する。ここで、シーケンス制御部124は、左目スコアSCORE_Leyの最大値が0より大きいとき、左目の検出が成功したと判定する。また、シーケンス制御部124は、右目スコアSCORE_Reyの最大値が0より大きいとき、右目の検出が成功したと判定する。また、シーケンス制御部124は、正規化スコアSCORE_noが0より大きいとき、顔の正規化が成功したと判定する。さらに、シーケンス制御部124は、笑顔スコアSCORE_smが0より大きいとき、笑顔が検出されたと判定する。
例えば、図21の状態Aは、左目検出が失敗、右目検出が失敗、顔の正規化が成功または失敗、笑顔が検出または非検出であり、撮影条件を満たしていない。この状態は、左右の目の検出が失敗しているので、顔検出部121で検出された顔画像が顔画像でない、顔検出部121で検出された顔画像が正面を向いていない等が考えられる。また、図21の状態Bは、左目検出が成功、右目検出が失敗、顔の正規化が成功、笑顔が検出であり、撮影条件を満たしていない。この状態は、片目の検出が失敗しているので、顔検出部121で検出された顔画像が横を向いている等が考えられる。
また、図21の状態Cは、左目検出が成功、右目検出が成功、顔の正規化が成功、笑顔が検出であり、撮影条件を満たしている。この状態は、顔検出部121で検出された顔画像が正面を向いた笑顔の顔画像であったと考えられる。さらに、図21の状態Dは、左目検出が成功、右目検出が成功、顔の正規化が失敗、笑顔が検出であり、撮影条件を満たしていない。この状態は、両目の検出が成功しているものの、顔の正規化が失敗しているので、顔検出部121で検出された顔画像が顔画像でない、顔属性検出部122で眉毛などを目として検出した等が考えられる。
ところで、上述したように、顔検出部121で撮像画像IM_0から複数の顔画像が検出されることもあり、その場合、顔属性検出部122では当該複数の顔画像に対して顔属性の検出が行われる。このような場合、シーケンス制御部124は、ステップST7における撮影条件を満たしているか否かの判定に当たっては、例えば、以下の(1)〜(3)の処理が考えられる。
(1)全ての顔画像が撮影条件を満たしているとき、撮影条件を満たしていると判定する。(2)撮影画像において最も大きな顔画像が撮影条件を満たしているとき、撮影条件を満たしていると判定する。この場合、最も大きな顔画像が複数あるときは、それら全ての顔画像が撮影条件を満たしているか、あるいは最も中央側に位置する1つの顔画像が撮影条件を満たしているとき、撮影条件を満たしていると判定する。(3)顔画像の大きさに拘わらず、最も中央側に位置する顔画像が撮影条件を満たしているとき撮影条件を満たしていると判定する。
ステップST7で撮影条件を満たしていると判定するとき、シーケンス制御部124は、ステップST8に移る。このステップST8において、シーケンス制御部124は、システム制御部104等の必要な個所に、撮影を指示する。この場合、例えば、撮像部102から出力される撮像画像に対応した画像情報は、記憶装置部111を介して、記録再生部106に供給され、図示しないメモリカード等の記録媒体に記録される。なお、撮像部102においては、必要に応じて、フラッシュの発光等も行われる。シーケンス制御部124は、ステップST8の処理の後、ステップST9において、一連の制御動作を終了する。
また、ステップST7で撮影条件を満たしていないと判定するとき、シーケンス制御部124は、ステップST10に移る。このステップST10において、シーケンス制御部124は、笑顔の条件だけを満たせば撮影されるということを報知する報知条件を満たしているか否かを判定する。シーケンス制御部124は、左右の目検出が成功し、顔の正規化が成功しているが、笑顔が検出されていないとき、報知条件を満たしていると判定する。
例えば、図22の状態Aは、左目検出が失敗、右目検出が失敗、顔の正規化が成功または失敗、笑顔が検出または非検出であり、報知条件を満たしていない。また、図22の状態Bは、左目検出が成功、右目検出が失敗、顔の正規化が成功、笑顔が検出であり、報知条件を満たしていない。また、図22の状態Cは、左目検出が成功、右目検出が成功、顔の正規化が成功、笑顔が非検出であり、笑顔が検出されれば撮影条件を満たすので、報知条件を満たしている。さらに、図22の状態Dは、左目検出が成功、右目検出が成功、顔の正規化が失敗、笑顔が検出であり、報知条件を満たしていない。
ステップST10で報知条件を満たしていると判定するとき、シーケンス制御部124は、ステップST11に移る。このステップST11で、シーケンス制御部124は、システム制御部104に報知を指示する。システム制御部104は、シーケンス制御部124からの報知指示を受けて、報知を行う。この報知は、ユーザの設定により、LED109の発光による報知、スピーカ110からの音声出力による報知のいずれか、または双方により行われる。
図23は、LED109の発光パターンの一例を示している。図23(a)は間欠的に点灯される例であり、図23(b)は連続的に点灯される例である。また、スピーカ110からの音声出力による報知の場合、「ハィ、チーズ」、「笑って下さい」などの笑顔を促す音声が出力される。
シーケンス制御部124は、ステップST11の処理の後、ステップST3に戻り、上述したと同様の動作を繰り返す。なお、ステップST10で報知条件を満たしていないと判定するとき、シーケンス制御部124は、直ちに、ステップST3に戻る。
以上説明したように、図1に示すデジタルスチルカメラ100においては、左右の目の検出位置に基づいて顔の位置、角度、大きさが正規化されて得られた正規化顔画像IM-3に対応した画像情報を用いて、笑顔の検出を行うものである。したがって、正規化されていない顔画像に対応した画像情報を用いて笑顔を検出するものに比べて、笑顔の検出精度を向上でき、被写体側の人の顔が笑顔となったとき撮影を行う自動撮影の精度を高めることができる。
また、図1に示すデジタルスチルカメラ100においては、正規化顔画像IM-3に対応した画像情報を用いて、正規化が成功したか否かを判定し、正規化が成功し、かつ笑顔が検出されたとき、撮影が行われる。したがって、顔検出部121で検出された顔画像が顔画像でなかった場合、顔検出部121で検出された顔画像が正面を向いた顔画像でなかった場合、顔属性検出部122で眉毛などが目として検出され、誤った正規化がなされた場合等では、笑顔が検出されても、正規化が失敗したと判定されるので、誤撮影を回避できる。
また、図1に示すデジタルスチルカメラ100においては、目検出が行われる顔画像IM_2のピクセル数(80ピクセル×80ピクセル)に比べて、左右の目の検出位置に基づいて正規化され笑顔検出に用いられる正規化顔画像IM-3のピクセル数(48ピクセル×48ピクセル)は少なくされている。したがって、笑顔検出等の処理におけるメモリ使用量を節約でき、当該処理の高速化も可能となる。なお、目を位置精度よく検出するために顔画像はある程度のピクセル数(解像度)を持つ必要があるが、当該特定の表情を検出するための正規化顔画像に関しては、全体として特徴が表れていればよいので、それほどピクセル数を必要としない。
また、図1に示すデジタルスチルカメラ100においては、笑顔が検出されれば撮影ができる状態にあるとき、被写体側に、笑顔の条件だけを満たせば撮影されることが、LED109よる発光、スピーカ110からの音声の出力などで報知される。したがって、被写体側の人に笑顔を促すことができ、自動撮影をスムーズに行うことができる。
なお、上述実施の形態においては、撮像画像から検出される特定画像が顔画像であるものを示したが、この発明は、撮像画像から顔画像以外の特定画像を検出し、当該特定画像が所定の条件を満たすとき自動的に撮影を行う撮像装置にも同様に適用できる。
また、上述実施の形態においては、顔画像から検出される特定の表情が笑顔であるものを示したが、その他の表情、例えば泣き顔、怒り顔等であってもよい。
また、上記実施の形態としては、顔画像から検出される顔器官が目であるものを示したが、顔器官はこれに限定されるものではなく、その他の顔器官、鼻、耳などであってもよい。
また、上述実施の形態においては、顔画像IM-2に対して左右の目の検出位置に所定座標になるように正規化(アフィン変換)を行って、顔の位置、顔の角度および顔の大きさの全てが正規化された正規化顔画像IM-3を得るようにしているが、少なくも顔の位置、顔の角度および顔の大きさのいずれかが正規化された正規化画像が得られればよい。
また、上述実施の形態においては、図11に示す画像属性検出処理において、シーケンス制御部124は、左目、右目の検出が成功しなかった場合であっても、ステップST44において、所定の位置に左目、右目があったものとして正規化(アフィン変換)を行い、その後のステップST45、ステップST46の処理を行うものを示したが、左目、右目の検出が成功しなかった場合には、ステップST44〜ステップST46の処理を行わないようにしてもよい。このように左目、右目の検出が成功しなかった場合、ステップST44〜ステップST46の処理は意味がなくなるからである。
この発明は、被写体側の人の顔が特定の表情となったとき撮影を行う自動撮影を精度よく行い得るものであり、デジタルスチルカメラ等の静止画撮影が可能な撮像装置に適用できる。
実施の形態としてのデジタルスチルカメラの構成例を示すブロック図である。 デジタルスチルカメラの外観例を示す斜視図である。 カメラ制御部の構成例を示すブロック図である。 笑顔シャッターモードで、シャッター釦の押し下げがあった場合における、シーケンス制御部による制御シーケンスを示すフローチャートである。 顔検出部における顔画像の検出動作を説明するための図である。 顔画像検出のために撮像画像IM-0上に設定される検出枠FR-faを説明するための図である。 顔画像検出時に用いる顔辞書と、この顔辞書を用いた顔スコアSCORE_faの測定を説明するための図である。 顔辞書の各組の位置情報と検出枠FR-faとの関係を説明するための図である。 顔画像検出時に使用する撮像画像IM-0と、その縮小画像IM-0a,IM-0b,・・・を示す図である。 顔検出部における顔画像検出処理の手順を示すフローチャートである。 顔属性検出部における顔属性検出処理の手順を示すフローチャートである。 顔属性検出部における処理の流れを概略的に示す図である。 左目検出のために顔画像IM-2上に設定される左目検出範囲AR-Leyと、この左目検出範囲AR-Ley上で移動する検出枠FR-eyを説明するための図である。 顔属性検出部における左目検出処理の手順を示すフローチャートである。 左目検出時に用いる左目検出辞書と、この左目検出辞書を用いた左目スコアSCORE_Leyの測定を説明するための図である。 左目検出辞書の各組の位置情報と検出枠FR-eyとの関係を説明するための図である。 辞書を用いたスコア測定処理の手順を示すフローチャートである。 正規化正否辞書と、この正規化正否辞書を用いた正規化SCORE_noの測定を説明するための図である。 正規化正否辞書の各組の位置情報と正規化顔画像IM-3との関係を説明するための図である。 笑顔辞書と、この笑顔辞書を用いた笑顔SCORE_smの測定を説明するための図である。 撮影条件の判定例を示す図である。 報知条件の判定例を示す図である。 LEDの発光による報知における発光パターン例を示す図である。
符号の説明
100・・・デジタルスチルカメラ、101・・・撮像レンズ、102・・・撮像部、103・・・カメラ制御部、104・・・システム制御部、105・・・外部I/F部、106・・・記録再生部、107・・・表示部、108・・・操作入力部、109・・・LED、110・・・スピーカ、111・・・記憶装置部、115・・・筐体、116・・・シャッター釦、121・・・顔検出部、122・・・顔属性検出部、123・・・カメラパラメータ制御部、124・・・シーケンス制御部

Claims (7)

  1. 被写体の撮像画像に特定の表情の顔画像が含まれているとき自動的に撮影を行う撮像装置であって、
    上記被写体を撮像して該被写体の撮像画像に対応した画像情報を得る撮像部と、
    上記撮像部で得られた撮像画像に対応した画像情報に基づいて、上記撮像画像に含まれる顔画像を検出する顔検出部と、
    上記顔検出部で検出された顔画像に対応した画像情報に基づいて、該顔画像に含まれる所定の顔器官を検出する顔器官検出部と、
    上記顔器官検出部で検出された上記所定の顔器官の検出位置に基づいて、上記顔検出部で検出された顔画像に対し、顔の位置、顔の角度および顔の大きさの少なくともいずれかを正規化する処理を行って、正規化顔画像を得る正規化部と、
    上記正規化部で得られた正規化顔画像に対応した画像情報に基づいて、顔の正規化が成功したか否かを判定する正規化正否判定部と、
    上記正規化部で得られた正規化顔画像に対応した画像情報に基づいて、特定の表情を検出する表情検出部と、
    上記正規化正否判定部で顔の正規化が成功したと判定され、かつ、上記表情検出部で特定の表情が検出されるとき撮影指示を行う撮影制御部と
    を備えることを特徴とする撮像装置。
  2. 上記顔器官検出部で検出される顔器官は目である
    ことを特徴とする請求項1に記載の撮像装置。
  3. 上記正規化部で得られる正規化顔画像のピクセル数は、正規化前の顔画像のピクセル数より少ない
    ことを特徴とする請求項1に記載の撮像装置。
  4. 上記表情検出部で検出する上記特定の表情は笑顔である
    ことを特徴とする請求項1に記載の撮像装置。
  5. 上記正規化成否判定部で顔の正規化が成功したと判定され、かつ、上記表情検出部で特定の表情が検出されないとき、該特定の表情の顔になれば撮影されることを被写体側に報知する報知部をさらに備える
    ことを特徴とする請求項に記載の撮像装置。
  6. 被写体の撮像画像に特定の表情の顔画像が含まれているとき自動的に撮影を行う撮像方法であって、
    撮像部で得られる撮像画像に対応した画像情報に基づいて、上記撮像画像に含まれる顔画像を検出する顔検出ステップと、
    上記顔検出ステップで検出された顔画像に対応した画像情報に基づいて、該顔画像に含まれる所定の顔器官を検出する顔器官検出ステップと、
    上記顔器官検出ステップで検出された上記所定の顔器官の検出位置に基づいて、上記顔検出ステップで検出された顔画像に対し、顔の位置、顔の角度および顔の大きさの少なくともいずれかを正規化して、正規化顔画像を得る正規化ステップと、
    上記正規化ステップで得られた正規化顔画像に対応した画像情報に基づいて、顔の正規化が成功したか否かを判定する正規化正否判定ステップと、
    上記正規化ステップで得られた正規化顔画像に対応した画像情報に基づいて、特定の表情を検出する表情検出ステップと、
    上記正規化正否判定ステップで顔の正規化が成功したと判定され、かつ、上記表情検出ステップで特定の表情が検出されるとき、撮影指示を行う撮影制御ステップと
    を備えることを特徴とする撮像方法。
  7. コンピュータを、
    撮像部で得られる撮像画像に対応した画像情報に基づいて、上記撮像画像に含まれる顔画像を検出する顔検出手段と、
    上記顔検出手段で検出された顔画像に対応した画像情報に基づいて、該顔画像に含まれる所定の顔器官を検出する顔器官検出手段と、
    上記顔器官検出手段で検出された上記所定の顔器官の検出位置に基づいて、上記顔検出手段で検出された顔画像に対し、顔の位置、顔の角度および顔の大きさの少なくともいずれかを正規化して、正規化顔画像を得る正規化手段と、
    上記正規化手段で得られた正規化顔画像に対応した画像情報に基づいて、顔の正規化が成功したか否かを判定する正規化正否判定手段と、
    上記正規化手段で得られた正規化顔画像に対応した画像情報に基づいて、特定の表情を検出する表情検出手段と、
    上記正規化正否判定手段で顔の正規化が成功したと判定され、かつ、上記表情検出手段で特定の表情が検出されるとき、撮影指示を行う撮影制御手段と
    して機能させるためのプログラム。
JP2007211199A 2007-08-14 2007-08-14 撮像装置、撮像方法およびプログラム Expired - Fee Related JP4853425B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2007211199A JP4853425B2 (ja) 2007-08-14 2007-08-14 撮像装置、撮像方法およびプログラム
TW097125070A TW200913675A (en) 2007-08-14 2008-07-03 Imaging apparatus, imaging method and computer program
EP08160510A EP2026248A1 (en) 2007-08-14 2008-07-16 Imaging apparatus, imaging method and computer program
US12/190,998 US8233678B2 (en) 2007-08-14 2008-08-13 Imaging apparatus, imaging method and computer program for detecting a facial expression from a normalized face image
KR1020080079271A KR20090017436A (ko) 2007-08-14 2008-08-13 촬상 장치, 촬상 방법 및 컴퓨터 프로그램
CNA2008101462854A CN101369307A (zh) 2007-08-14 2008-08-14 成像装置、成像方法和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007211199A JP4853425B2 (ja) 2007-08-14 2007-08-14 撮像装置、撮像方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2009049489A JP2009049489A (ja) 2009-03-05
JP4853425B2 true JP4853425B2 (ja) 2012-01-11

Family

ID=39870525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007211199A Expired - Fee Related JP4853425B2 (ja) 2007-08-14 2007-08-14 撮像装置、撮像方法およびプログラム

Country Status (6)

Country Link
US (1) US8233678B2 (ja)
EP (1) EP2026248A1 (ja)
JP (1) JP4853425B2 (ja)
KR (1) KR20090017436A (ja)
CN (1) CN101369307A (ja)
TW (1) TW200913675A (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277027A (ja) * 2008-05-15 2009-11-26 Seiko Epson Corp 画像における顔の器官の画像に対応する器官領域の検出
US8432455B2 (en) 2008-12-31 2013-04-30 Nokia Corporation Method, apparatus and computer program product for automatically taking photos of oneself
JP5385032B2 (ja) * 2009-07-08 2014-01-08 ソニーモバイルコミュニケーションズ株式会社 撮影装置および撮影制御方法
JP2011055398A (ja) * 2009-09-04 2011-03-17 Sony Corp 撮像装置および方法、画像処理装置および方法、並びにプログラム
JP5385752B2 (ja) * 2009-10-20 2014-01-08 キヤノン株式会社 画像認識装置、その処理方法及びプログラム
JP5662670B2 (ja) * 2009-10-27 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20120105663A1 (en) * 2010-11-01 2012-05-03 Cazier Robert P Haptic Feedback Response
JP2012203613A (ja) 2011-03-25 2012-10-22 Sony Corp 画像処理装置および方法、記録媒体並びにプログラム
US9088661B2 (en) * 2011-08-02 2015-07-21 Genesys Telecommunications Laboratories, Inc. Hands-free voice/video session initiation using face detection
US9355366B1 (en) 2011-12-19 2016-05-31 Hello-Hello, Inc. Automated systems for improving communication at the human-machine interface
US8965046B2 (en) 2012-03-16 2015-02-24 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for smiling face detection
KR101906827B1 (ko) * 2012-04-10 2018-12-05 삼성전자주식회사 연속 사진 촬영 장치 및 방법
CN102638670A (zh) * 2012-04-10 2012-08-15 华为技术有限公司 一种视频会议系统中自动拍照的方法、装置和系统
KR101545883B1 (ko) 2012-10-30 2015-08-20 삼성전자주식회사 단말의 카메라 제어 방법 및 그 단말
KR102032347B1 (ko) 2013-02-26 2019-10-15 삼성전자 주식회사 이미지 센서 위치를 이용한 이미지 영역 설정 장치 및 방법
CN103747177A (zh) * 2013-12-31 2014-04-23 华为技术有限公司 视频拍摄的处理方法及装置
CN104091148B (zh) * 2014-06-16 2017-06-27 联想(北京)有限公司 一种人脸特征点定位方法和装置
CN104951743A (zh) * 2015-03-04 2015-09-30 苏州大学 基于主动形状模型算法分析人脸表情的方法
CN105993022B (zh) * 2016-02-17 2019-12-27 香港应用科技研究院有限公司 利用脸部表情识别和认证的方法和系统
CN107155056A (zh) * 2016-03-04 2017-09-12 中兴通讯股份有限公司 拍照的方法及装置
CN106341608A (zh) * 2016-10-28 2017-01-18 维沃移动通信有限公司 一种基于情绪的拍摄方法及移动终端
JP6642523B2 (ja) 2017-06-19 2020-02-05 カシオ計算機株式会社 表情判定装置、表情判定方法及びプログラム
CN108109010A (zh) * 2017-12-26 2018-06-01 南京开为网络科技有限公司 一种智能ar广告机
CN108853920A (zh) * 2018-07-27 2018-11-23 程燕 一种微笑专用训练器
US11574477B2 (en) * 2021-03-08 2023-02-07 Adobe Inc. Highlight video generated with adaptable multimodal customization

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250266A (ja) * 1998-02-26 1999-09-17 Minolta Co Ltd 画像特徴抽出方法および装置並びに記録媒体
CN1186936C (zh) * 2000-05-22 2005-01-26 松下电器产业株式会社 图像通信终端
US7099510B2 (en) * 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
JP2002255647A (ja) 2001-02-27 2002-09-11 Nihon Ceratec Co Ltd 酸化イットリウム焼結体およびウエハ保持具
JP2004252394A (ja) 2003-02-21 2004-09-09 Toshihiro Chiba 光学・磁気などを利用した電子記録媒体(以下、記録媒体)を利用した極めて廉価若しくは無料で供給可能な電子雑誌を広告媒体として利用するビジネス方法。
JP2004294498A (ja) * 2003-03-25 2004-10-21 Fuji Photo Film Co Ltd 自動撮影システム
EP2955662B1 (en) * 2003-07-18 2018-04-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP4743823B2 (ja) 2003-07-18 2011-08-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法
JP4517633B2 (ja) 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
CN1299231C (zh) 2004-06-11 2007-02-07 清华大学 活体虹膜图像采集方法及采集装置
JP2006115406A (ja) * 2004-10-18 2006-04-27 Omron Corp 撮像装置
CN100358340C (zh) * 2005-01-05 2007-12-26 张健 可选择最佳拍照时机的数码相机
JP2006287749A (ja) * 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
EP1748378B1 (en) * 2005-07-26 2009-09-16 Canon Kabushiki Kaisha Image capturing apparatus and image capturing method
JP4717539B2 (ja) * 2005-07-26 2011-07-06 キヤノン株式会社 撮像装置及び撮像方法
JP4315148B2 (ja) * 2005-11-25 2009-08-19 株式会社ニコン 電子カメラ
CN100397410C (zh) 2005-12-31 2008-06-25 北京中星微电子有限公司 基于视频的面部表情识别方法及装置
JP2007211199A (ja) 2006-02-13 2007-08-23 Konica Minolta Medical & Graphic Inc 放射線用シンチレータプレート及びその製造方法
US7804983B2 (en) * 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
JP4845755B2 (ja) * 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
CN101369307A (zh) 2009-02-18
US20090046900A1 (en) 2009-02-19
KR20090017436A (ko) 2009-02-18
TW200913675A (en) 2009-03-16
EP2026248A1 (en) 2009-02-18
US8233678B2 (en) 2012-07-31
JP2009049489A (ja) 2009-03-05

Similar Documents

Publication Publication Date Title
JP4853425B2 (ja) 撮像装置、撮像方法およびプログラム
JP4757173B2 (ja) 撮像装置及びその制御方法及びプログラム
JP4182117B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP4274233B2 (ja) 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP4197019B2 (ja) 撮像装置および表情評価装置
US8350918B2 (en) Image capturing apparatus and control method therefor
JP2008205650A (ja) 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP6103948B2 (ja) 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム
JP4315234B2 (ja) 撮像装置および表情評価装置
JP4663700B2 (ja) 撮影装置、及び撮影方法
KR20100055946A (ko) 동영상 썸네일 생성 방법 및 장치
JP4290164B2 (ja) 識別領域を示す表示を画像と共に表示させる表示方法、コンピュータ装置に実行させるプログラム、および、撮像装置
JP5042896B2 (ja) 画像処理装置および画像処理プログラム
JP5030022B2 (ja) 撮像装置及びそのプログラム
JP2003092701A (ja) 撮像装置
JP2006094059A (ja) 撮像装置およびプログラム
JP5157704B2 (ja) 電子スチルカメラ
JP2009260630A (ja) 画像処理装置および画像処理プログラム
JP2009163422A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2010066728A (ja) 撮像装置および撮像装置の制御方法
JP4891163B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP4442343B2 (ja) 撮像装置およびプログラム
JP2007074142A (ja) 撮像装置及びその制御方法、及び画像処理装置及び方法
JP5088612B2 (ja) 撮像装置、撮像装置の処理実行方法及びそのプログラム
JP5002311B2 (ja) 撮像装置、撮像装置の制御方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110927

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111010

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141104

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees