[go: up one dir, main page]

JP2011090569A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2011090569A
JP2011090569A JP2009244660A JP2009244660A JP2011090569A JP 2011090569 A JP2011090569 A JP 2011090569A JP 2009244660 A JP2009244660 A JP 2009244660A JP 2009244660 A JP2009244660 A JP 2009244660A JP 2011090569 A JP2011090569 A JP 2011090569A
Authority
JP
Japan
Prior art keywords
image
face
unit
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009244660A
Other languages
English (en)
Inventor
Kazuki Yokoyama
一樹 横山
Takahiro Sakaguchi
高宏 坂口
Tomoichi Fujisawa
知市 藤澤
Masayuki Tsumura
正幸 津村
Mitsuharu Hoshino
光晴 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009244660A priority Critical patent/JP2011090569A/ja
Priority to US12/869,115 priority patent/US8660320B2/en
Priority to CN201010514929.8A priority patent/CN102044056B/zh
Priority to EP10188266.0A priority patent/EP2315430A3/en
Publication of JP2011090569A publication Critical patent/JP2011090569A/ja
Priority to US14/150,075 priority patent/US9202107B2/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔画像の質感の良好な制御を可能とする。
【解決手段】ゲイン制御部108は、顔画像領域情報Iarfに基づいて加減増幅器103のゲイン制御信号CN3を生成する。そのため、顔画像領域において、加減増幅器103のゲインを、他の領域に対して相対的に低くあるいは高く制御できる。加減増幅器103の基本的なゲイン設定による全体的な質感の高低によらずに、顔画像に関して適正な質感を得ることができる。顔情報抽出部111は、顔画像領域の情報Iarfに基づいて、顔画像の画像情報Ifaを抽出する。マスク領域作成部113は、この顔画像の画像情報Ifaに対応した画像が存在する画像領域を再構成画像領域として検出し、この再構成画像領域の情報に基づいてマスク領域信号Smskを作成する。顔検出部105で顔画像領域の検出漏れがあった場合であっても、入力画像に含まれる全ての顔画像の領域に対応して加減増幅器103のゲインを適正に制御できる。
【選択図】図9

Description

この発明は、画像処理装置および画像処理方法に関し、特に、顔画像領域の検出結果を利用して処理を行う画像処理装置および画像処理方法に関する。
従来、画素値の変化が急峻なエッジを保存したまま当該エッジ以外を平滑化し、入力信号からその平滑化成分を減算した振幅成分を増幅することで、エッジを含まない成分に対して独立に画像処理を行うことが提案されている(例えば、特許文献1参照)。
図22は、特許文献1に記載の画像処理装置に対応した画像処理装置200の構成例を示している。この画像処理装置200は、非線形フィルタ201と、減算器202と、加減増幅器203と、加算器204を有している。
入力画像データVinは、非線形フィルタ201に供給される。この非線形フィルタ201は、例えばε(イプシロン)フィルタを用いて構成される。この非線形フィルタ201では、入力画像データVinがエッジを保存したまま平滑化されて平滑化データとしてのストラクチャー成分ST1が生成される。また、入力画像データVinは、減算器202に供給される。この減算器202には、非線形フィルタ201で生成されたストラクチャー成分ST1も供給される。この減算器202では、入力画像データVinからストラクチャー成分ST1が減算されて、出力データとしてテクスチャー成分TX1が得られる。
減算器202で得られたテクスチャー成分TX1は、加減増幅器203に供給される。この加減増幅器203では、テクスチャー成分TX1が増幅されてテクスチャー成分TX2が得られる。この加減増幅器203のゲインは、例えば、ユーザ操作により調整される。この加減増幅器203で得られたテクスチャー成分TX2は加算器204に供給される。この加算器204には、非線形フィルタ201で生成されたストラクチャー成分ST1も供給される。この加算器204では、ストラクチャー成分ST1にテクスチャー成分TX2が加算されて、出力画像データVoutが得られる。
図22に示す画像処理装置200では、入力画像データVinのエッジ成分が保存されたまま、それ以外の小振幅成分が強調された出力画像データVoutが得られる。そのため、画面全体の鮮鋭感を損なうとなく、質感を高めることが可能となる。しかし、この画像処理装置200では、加減増幅器203のゲインが画面全体に対して一律であることから、顔画像に関して、強調され過ぎた違和感のある画像となる場合がある。
そこで、従来、肌色領域を検出し、この肌色領域では他の領域に比べて強調度合いを抑え、適正な質感が得られるように制御することが提案されている(例えば、特許文献2参照)。
図23は、特許文献2に記載の画像処理装置に対応した画像処理装置200Aの構成例を示している。この画像処理装置200Aは、非線形フィルタ201と、減算器202と、加減増幅器203と、加算器204を有する他に、肌色度検出部205と、ゲイン制御部206を有している。
この画像処理装置200Aの非線形フィルタ201、減算器202、加減増幅器203および加算器204の部分は、詳細説明は省略するが、上述の図22に示す画像処理装置200と同様である。
入力画像データVinは、肌色度検出部205に供給される。この肌色度検出部205では、入力画像データVinに基づいて、画素毎に、肌色度が検出される。この肌色度は、予め決めた肌色で最大値となり、この肌色から離れるほど値が小さくなる。このように肌色度検出部205で検出された肌色度はゲイン制御部206に供給される。ゲイン制御部206では、例えば、図24に示すような対応関係で、肌色度に対応したゲイン制御信号CN1が得られる。
ゲイン制御部206で得られるゲイン制御信号CN1は、加減増幅器203に供給される。この場合、加減増幅器203のゲインは、ゲイン制御信号CN1のレベルに比例した値とされる。そのため、肌色度が高い画像領域では、加減増幅器203のゲインが抑えられる。したがって、顔画像領域では他の領域に比べて強調度合いが抑えられ、適正な質感が得られる。
特開2001−298621号公報 特開2003−348615号公報
上述の図23に示す画像処理装置200Aにおいて、照度の低い画像等では顔画像が予め定めた肌色の範囲から外れることがあり、その場合には顔画像領域で強調度合いが抑えられなくなり、顔画像領域で適正な質感が得られなくなる。
また、コントラスト補正に関して、全画面の輝度情報等から画面全体のコントラスト制御を行うと、主要な被写体である人物の顔の黒潰れが生じることがある。さらに、彩度、色相等の色補正に関しても、全画面の彩度情報、色相情報等から画面全体の彩度、色相の制御を行うと、同様に違和感のある顔色補正になってしまう場合がある。
この発明の目的は、顔画像の質感、鮮鋭感、輝度、色等の良好な制御を可能とすることにある。
この発明の概念は、
入力画像データを処理して出力画像データを得るデータ処理部と、
上記入力画像データに基づいて、顔画像が存在する顔画像領域を検出する顔検出部と、 上記顔検出部で検出された顔画像領域の情報に基づいて、上記データ処理部の処理を制御する処理制御部と
を備える画像処理装置にある。
この発明において、データ処理部により、入力画像データが処理されて出力画像データが得られる。また、顔検出部により、入力画像データに基づいて、顔画像が存在する顔画像領域が検出される。そして、処理制御部により、顔検出部で検出された顔画像領域の情報に基づいて、データ処理部の処理が制御される。このように、顔画像領域の情報に基づいてデータ処理部の処理が制御されることで、顔画像の質感、鮮鋭感、輝度、色等の良好な制御が可能となる。
この発明において、例えば、処理制御部は、顔検出部で検出された顔画像領域の情報に基づいて、入力画像データから顔画像の画像情報を抽出する顔情報抽出部と、入力画像データに基づいて、顔情報抽出部で抽出された画像情報に対応した画像が存在する画像領域を検出する画像領域検出部を有し、画像領域検出部で検出された画像領域の情報に基づいて、データ処理部の処理を制御する、ようにしてもよい。
この場合、画像領域検出部で検出される画像領域には、顔検出部で検出されない顔画像が存在する顔画像領域が含まれる。そのため、顔検出部において顔画像領域の検出漏れがあった場合であっても、画像に含まれる全ての顔画像の質感、鮮鋭感、輝度、色等の良好な制御が可能となる。また、この場合、顔検出部の検出に数フレーム要する場合であっても、画像領域検出部で検出される画像領域には、入力画像データの現在フレームで顔画像が存在する顔画像領域が含まれる。そのため、入力画像データが動画像データであって、顔画像領域が移動する場合であっても、顔画像の質感、鮮鋭感、輝度、色等の良好な制御が可能となる。
また、この発明において、例えば、顔検出部は、入力画像データに基づいて、フレーム毎に、顔画像が存在する顔画像領域を検出し、処理制御部の顔情報抽出部は、フレーム毎に、顔検出部で検出された顔画像領域の情報に基づいて、入力画像データから顔画像の画像情報を抽出し、処理制御部は、顔情報抽出部で抽出された画像情報を保持する顔情報保持部をさらに有し、処理制御部の画像領域検出部は、入力画像データに基づいて、顔情報保持部に保持されている画像情報に対応した画像が存在する画像領域を検出する、ようにしてもよい。
この場合、顔検出部で顔画像領域が検出されないフレームであっても、顔情報保持部に顔画像情報が保持されているので、画像領域検出部ではこの保持されている顔画像情報を用いて画像領域を安定して検出できる。そのため、顔画像の質感、鮮鋭感、輝度、色等の制御として、顔検出部の検出性能に依存しにくいロバストな制御が可能となる。
また、この発明において、例えば、入力画像データに基づいて画像状態の変化を検出する画像状態変化検出部をさらに備え、処理制御部の顔情報保持部は、画像状態変化検出部で画像状態の変化が検出される毎に、顔情報抽出部で抽出された画像情報を保持する、ようにしてもよい。顔情報抽出部で抽出される顔画像の画像情報は、画像状態が変化しない期間はほぼ同じ状態となる。ここで、画像状態の変化としては、例えば、シーン変化、照明変化等が考えられる。そのため、顔情報保持部における顔画像の画像情報の更新を画像状態が変化する毎に行っても問題はなく、CPUの処理負荷を軽減できる。
また、この発明において、例えば、データ処理部は、入力画像データをエッジを保存したまま平滑化して平滑化画像データを生成する平滑化部と、入力画像データから平滑化部で生成された平滑化画像データを減算する減算部と、減算部の出力データを増幅する増幅部と、この増幅部の出力データに平滑化部で生成された平滑化画像データを加算して出力画像データを得る加算部を有し、処理制御部は、増幅部のゲインを制御する、ようにしてもよい。
この場合、入力画像データのエッジ成分が保存されたまま、それ以外の小振幅成分が強調された出力画像データが得られる。また、増幅部のゲインは、顔画像領域とその他の領域とは異なるように制御される。例えば、顔画像領域では、増幅部のゲインが他の領域に比べて抑えられ、適正な質感が得られるようにされる。したがって、この場合、画面全体の鮮鋭感を損なうとなく画像の質感を高めることができ、しかも顔画像の質感が適切となるように制御できる。
また、この発明において、例えば、データ処理部は、入力画像データから高域成分を抽出する高域成分抽出部と、この高域成分抽出部で抽出された高域成分を増幅する増幅部と、入力画像データに増幅部の出力データを加算して出力画像データを得る加算部を有し、処理制御部は、増幅部のゲインを制御する、ようにしてもよい。
この場合、入力画像データの高域成分が強調された出力画像データが得られる。また、増幅部のゲインは、顔画像領域とその他の領域とは異なるように制御される。例えば、顔画像領域では、増幅部のゲインが他の領域に比べて抑えられ、適正な鮮鋭感が得られるようにされる。したがって、この場合、画像の鮮鋭感を高めることができ、しかも、顔画像の鮮鋭感が適切となるように制御できる。
また、この発明において、例えば、データ処理部は、入力画像データに対して彩度調整処理を行って出力画像データを得る彩度調整部を有し、処理制御部は、顔検出部で検出された顔画像領域の情報に基づいて、入力画像データから顔画像の画像情報を抽出する顔情報抽出部と、入力画像データに基づいて、顔情報抽出部で抽出された画像情報に対応した画像が存在する画像領域を検出する画像領域検出部を有し、画像領域検出部で検出された画像領域の情報および顔情報抽出部で抽出された画像情報に含まれる彩度情報に基づいて、彩度調整部における彩度調整量を制御する、ようにしてもよい。
また、この発明において、例えば、データ処理部は、入力画像データに対して彩度調整処理を行って出力画像データを得る彩度調整部を有し、処理制御部は、顔検出部で検出された顔画像領域の情報に基づいて、入力画像データから顔画像の画像情報を抽出する顔情報抽出部を有し、顔情報抽出部で抽出された画像情報に含まれる彩度情報に基づいて、彩度調整部における彩度調整量を制御する、ようにしてもよい。
この場合、彩度調整部により、入力画像データに対して彩度調整処理が行われて出力画像データが得られる。この彩度調整部における彩度調整量は、顔画像の画像情報に含まれる彩度情報に基づいて、制御される。したがって、この場合、顔画像の彩度が適切となるように制御できる。なお、彩度調整は、顔画像、あるいは顔画像を含めた全体画像に対して行われる。
また、この発明において、例えば、データ処理部は、入力画像データに対して色相調整処理を行って出力画像データを得る色相調整部を有し、処理制御部は、顔検出部で検出された顔画像領域の情報に基づいて、入力画像データから顔画像の画像情報を抽出する顔情報抽出部と、入力画像データに基づいて、顔情報抽出部で抽出された画像情報に対応した画像が存在する画像領域を検出する画像領域検出部を有し、画像領域検出部で検出された画像領域の情報および顔情報抽出部で抽出された画像情報に含まれる色相情報に基づいて、色相調整部における色相調整量を制御する、ようにしてもよい。
また、この発明において、例えば、データ処理部は、入力画像データに対して色相調整処理を行って出力画像データを得る色相調整部を有し、処理制御部は、顔検出部で検出された顔画像領域の情報に基づいて、入力画像データから顔画像の画像情報を抽出する顔情報抽出部を有し、顔情報抽出部で抽出された画像情報に含まれる色相情報に基づいて、色相調整部における色相調整量を制御する、ようにしてもよい。
この場合、色相調整部により、入力画像データに対して色相調整処理が行われて出力画像データが得られる。この色相調整部における色相調整量は、顔画像の画像情報に含まれる色相情報に基づいて、制御される。したがって、この場合、顔画像の色相が適切となるように制御できる。なお、色相調整は、顔画像、あるいは顔画像を含めた全体画像に対して行われる。
また、この発明において、例えば、データ処理部は、入力画像データに対してコントラスト補正用の入出力特性カーブに基づいてコントラスト補正を行って上記出力画像データを得るコントラスト補正部を有し、処理制御部は、顔検出部で検出された顔画像領域の情報に基づいて、入力画像データから上記顔画像の画像情報を抽出する顔情報抽出部と、入力画像データに基づいて、全画面の輝度情報を抽出する輝度情報抽出部を有し、顔情報抽出部で抽出された画像情報に含まれる輝度情報および上記輝度情報抽出部で抽出された輝度情報に基づいて、コントラスト補正部で使用するコントラスト補正用の入出力特性カーブを制御する、ようにしてもよい。
この場合、コントラスト補正部により、入力画像データに対してコントラスト補正用の入出力特性カーブに基づいてコントラスト補正が行われて出力画像データが得られる。このコントラスト補正部におけるコントラスト補正用の入出力特性カーブは、全画面の輝度情報および顔画像の画像情報に含まれる輝度情報に基づいて制御される。したがって、この場合、顔画像の輝度が適切となるように制御できる。
また、この発明において、例えば、データ処理部は、入力画像データをエッジを保存したまま平滑化して平滑化画像データを生成する平滑化部と、入力画像データから平滑化部で生成された平滑化画像データを減算する減算部と、減算部の出力データを増幅する増幅部と、平滑化部で生成された平滑化画像データに対してコントラスト補正用の入出力特性カーブに基づいてコントラスト補正を行うコントラスト補正部と、増幅部の出力データにコントラスト補正部の出力データを加算して出力画像データを得る加算部を有し、処理制御部は、入力画像データに基づいて、全画面の輝度情報を抽出する輝度情報抽出部をさらに有し、画像領域検出部で検出された画像領域の情報に基づいて、増幅部のゲインを制御し、顔情報抽出部で抽出された画像情報に含まれる輝度情報および輝度情報抽出部で抽出された輝度情報に基づいて、コントラスト補正部で使用するコントラスト補正用の入出力特性カーブを制御する、ようにしてもよい。
この場合、入力画像データのエッジ成分が保存されたまま、それ以外の小振幅成分が強調された出力画像データが得られる。また、増幅部のゲインは、顔画像領域とその他の領域とは異なるように制御される。例えば、顔画像領域では、増幅部のゲインが他の領域に比べて抑えられ、適正な質感が得られるようにされる。したがって、この場合、画面全体の鮮鋭感を損なうとなく画像の質感を高めることができ、しかも顔画像の質感が適切となるように制御できる。
また、この場合、コントラスト補正部により、平滑化部で生成された平滑化画像データに対してコントラスト補正が行われる。このコントラスト補正部におけるコントラスト補正用の入出力特性カーブは、全画面の輝度情報および顔画像の画像情報に含まれる輝度情報に基づいて制御される。したがって、この場合、ノイズを強調することなく、顔画像の輝度が適切となるように制御できる。
この発明によれば、顔画像領域の情報に基づいてデータ処理部の処理が制御されるものであり、顔画像の質感、鮮鋭感、輝度、色等の良好な制御が可能となる。
この発明の第1の実施の形態としての画像処理装置の構成例を示すブロック図である。 マスク領域信号とゲイン制御信号との対応関係の一例を示す図である。 フレーム画像と、顔画像の検出例を示す図である。 顔検出部における顔画像の検出処理の一例について説明するための図である。 顔検出のための顔辞書と顔スコア測定を説明するための図である。 顔辞書の内容を説明するための図である。 顔画像の検出処理のための縮小画像を示す図である。 顔検出部における顔画像検出処理の手順の一例を示すフローチャートを示す図である。 この発明の第2の実施の形態としての画像処理装置の構成例を示す図である。 顔画像の画像情報の一例としての輝度ヒストグラムおよび2次元UVヒスとグラムを説明するための図である。 顔画像の画像情報に対応した画像が存在する画像領域が再構成画像領域として検出されることを説明するための図である。 この発明の第3の実施の形態としての画像処理装置の構成例を示す図である。 この発明の第4の実施の形態としての画像処理装置の構成例を示す図である。 この発明の第5の実施の形態としての画像処理装置の構成例を示す図である。 この発明の第6の実施の形態としての画像処理装置の構成例を示す図である。 この発明の第7の実施の形態としての画像処理装置の構成例を示す図である。 この発明の第8の実施の形態としての画像処理装置の構成例を示す図である。 コントラスト制御部で生成される、コントラスト補正のための入出力特性カーブ(補正カーブ)を説明するための図である。 コントラスト制御部で生成される、コントラスト補正のための入出力特性カーブ(補正カーブ)を説明するための図である。 コントラスト制御部で生成される、コントラスト補正のための入出力特性カーブ(補正カーブ)を説明するための図である。 この発明の第9の実施の形態としての画像処理装置の構成例を示す図である。 従来の画像処理装置の構成例を示す図である。 従来の画像処理装置の他の構成例を示す図である。 肌色度とゲイン制御信号との対応関係の一例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(図1)
2.第2の実施の形態(図9)
3.第3の実施の形態(図12)
4.第4の実施の形態(図13)
5.第5の実施の形態(図14)
6.第6の実施の形態(図15)
7.第7の実施の形態(図16)
8.第8の実施の形態(図17)
9.第9の実施の形態(図21)
<1.第1の実施の形態>
[画像処理装置の構成]
図1は、第1の実施の形態としての画像処理装置100の構成例を示している。この画像処理装置100は、非線形フィルタ101と、減算器102と、加減増幅器103と、加算器104を有している。また、この画像処理装置100は、顔検出部105と、マスク領域作成部106と、空間フィルタ107と、ゲイン制御部108を有している。
非線形フィルタ101は、例えばε(イプシロン)フィルタを用いて構成される。この非線形フィルタ101は、入力画像データVinを構成する入力輝度データYinをエッジを保存したまま平滑化し、平滑化データとしてのストラクチャー成分ST1を生成する。減算器102は、入力輝度データYinから非線形フィルタ101で生成されたストラクチャー成分ST1を減算して、出力データとしてテクスチャー成分TX1を得る。
加減増幅器103は、減算器102で得られたテクスチャー成分TX1を増幅して、出力データとして増幅されたテクスチャー成分TX2を得る。加算器104は、非線形フィルタ201で生成されたストラクチャー成分ST1に、加減増幅器103で得られたテクスチャー成分TX2を加算し、出力輝度データYoutを得る。
顔検出部105は、入力輝度データYinに基づいて、フレーム毎に、顔画像を検出し、この顔画像が存在する顔画像領域の情報Iarfを取得する。顔検出部105は、例えば、複数の解像度で検出枠をスライドさせながら各フレームの画像をスキャンして顔画像の検出を行って、顔画像を含む検出枠の情報を顔画像領域の情報Iarfとして取得するが、この手法に限定されるものではない。この顔検出部105の詳細については後述する。
マスク領域作成部106は、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、例えば顔画像領域でハイレベルとなり、その他の領域でローレベルとなるマスク領域信号Smskを作成する。空間フィルタ107は、マスク領域作成部106で作成されマスク領域信号Smskに対して、水平方向および垂直方向のローパスフィルタ処理をおこなう。この空間フィルタ107により、マスク領域信号Smskの水平方向および垂直方向における急激なレベル変化部分が緩やかに変化するようにされる。
ゲイン制御部108は、空間フィルタ107で得られるフィルタリング後のマスク領域信号Smsk′に対応したゲイン制御信号CN2を生成し、加減増幅器103に供給する。この場合、加減増幅器103のゲインは、ゲイン制御信号CN2のレベルに比例した値とされる。
ゲイン制御部108は、ユーザの表示モード選択操作に応じて、例えば、図2(a)に示す対応関係で、あるいは図2(b)に示す対応関係で、マスク領域信号Smsk′に対応したゲイン制御信号CN2を生成する。図2(a)に示す対応関係は、加減増幅器103のゲインを高めにして質感を改善する表示モードが選択された場合に用いられる。この場合、全体的に質感が上がるが、顔画像領域では、加減増幅器103のゲインが相対的に抑えられるので、違和感のない適正な質感が得られる。また、図2(b)に示す対応関係は、加減増幅器103のゲインを低めにして質感をあまり上げない表示モードが選択された場合に用いられる。この場合、全体的に質感があまり上がらないが、顔画像領域では、加減増幅器103のゲインが相対的に上げられるので、質感が上げられる。
[顔検出部の説明]
顔検出部105は、入力輝度データYinに基づいて、フレーム毎に、例えば、複数の解像度で検出枠をスライドさせながらフレーム画像をスキャンして顔画像の検出を行う。そして、顔検出部105は、顔画像を含む検出枠の情報(位置情報、サイズ情報)を顔画像領域の情報Iarfとして取得する。顔検出部105は、例えば、フレーム画像IM-0が、図3(a)に示すようであるとき、図3(b)に破線枠で囲んで示すように、フレーム画像IM-0に含まれている顔画像IM-1を検出する。
顔検出部105における顔画像の検出処理の一例について説明する。この検出処理では、図4に示すように、フレーム画像IM-0上に、所定サイズ、例えば、水平サイズがSピクセル、垂直サイズがSピクセルである、検出枠FR-faが設定される。この検出枠FR-faは、図4に矢印で示すように、フレーム画像IM-0上を走査され、その位置が順次変化するようにされる。そして、各位置の検出枠FR-faで囲まれる画像に対し、顔辞書を用いて顔スコアSCORE_faの測定が行われ、当該顔スコアSCORE_faに基づいて、顔画像であるか否かの判定が行われる。
顔辞書は、図5(b)に示すように、t4組(数百ペア)の、pix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の組み合わせからなっている。ここで、pix_fa1(i),pix_fa2(i)は、図6に示すように、検出枠FR-faで囲まれる画像における2点の位置を示している。なお、図6には、図面の簡単化のため、3組だけを示している。θ_fa(i)は、pix_fa1(i)の輝度値およびpix_fa2(i)の輝度値の差に関する閾値を示している。また、α_fa(i)は、pix_fa1(i)の輝度値およびpix_fa2(i)の輝度値の差と閾値θ_fa(i)の比較結果に基づいて加算または減算される重みを示している。これらpix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の各値は、詳細説明は省略するが、アダブースト(AdaBoost)等の機械学習アルゴリズムにより学習されて取得されたものである。
顔スコアSCORE_faの測定では、図5(a)に示すように、顔辞書のpix_fa1(i),pix_fa2(i)、θ_fa(i)、およびα_fa(i)の各組に対応して、(1)式を満たすか否かを判断する。そして、この測定では、満たす場合には(2)式の演算を行い、一方、満たさない場合には(3)式の演算を行う。なお、(1)式で、pix_fa1(i)はその位置の輝度値を示し、pix_fa2(i)はその位置の輝度値を示している。
pix_fa1(i)−pix_fa2(i)<θ_fa(i) ・・・(1)
SCORE_fa=SCORE_fa+α_fa(i) ・・・(2)
SCORE_fa=SCORE_fa−α_fa(i) ・・・(3)
検出枠FR-faで囲まれる画像が顔画像であるか否かの判定は、上述したように測定された顔スコアSCORE_faに基づいて行われる。なお、上述の顔スコアSCORE_faの測定において、(1)式を満たす場合はh(i)=1とし、逆に、(1)式を満たさない場合はh(i)=−1とするとき、測定された顔スコアSCORE_faは、(4)式で表される。
顔スコアSCORE_faが0より大きいとき、検出枠FR-faで囲まれる画像は顔画像であると判定される。一方、顔スコアSCORE_faが0以下であるとき、検出枠FR-faで囲まれる画像は顔画像ではないと判定される。なお、判定の基準を0ではなく、0以外の多少調整された値が用いられることもある。
フレーム画像に含まれる顔画像には種々の大きさが考えられる。そのため、図4に示すように、フレーム画像IM-0上に所定サイズの検出枠FR-faを設定して顔画像を検出するものにあっては、このフレーム画像IM-0に含まれる顔画像の内、検出枠FR-faのサイズに対応した顔画像だけしか検出できない。フレーム画像IM-0に含まれる種々の顔画像を検出可能とするために、上述した顔画像の検出処理は、図7に示すように、フレーム画像IM-0の他に、このフレーム画像IM-0を、適宜縮小した縮小画像IM-0a,IM-0b,・・・に対しても行われる。
図8のフローチャートは、顔検出部102における、顔画像検出処理の手順を示している。
顔検出部105は、ステップST21において、顔画像検出処理を開始し、その後に、ステップST22の処理に移る。このステップST22において、顔検出部105は、フレーム画像IM-0の縮小段階S_NOを1に設定する。そして、顔検出部105は、ステップST23において、フレーム画像IM-0に対して縮小段階S_NOのスケーリング(縮小処理)を施し、顔画像を検出するための縮小画像(縮小されたフレーム画像)を生成する。
なお、S_NO=1であるとき、縮小率は1とされ、顔画像を検出するための縮小画像は、フレーム画像IM-0と同じものとされる。また、縮小段階S_NOが大きくなるにつれて、縮小率は小さくなっていく。縮小率が小さな縮小画像で検出される顔画像ほど、静止画フレームIM-0上では大きな顔画像である。なお、顔検出枠情報(位置情報およびサイズ情報)は、フレーム画像IM-0におけるものとされる。
次に、顔検出部105は、ステップST24において、ステップST23で生成された縮小画像上の左上に検出枠FR-faを設定する。そして、顔検出部105は、ステップST25において、上述したように、顔辞書を用いて、顔スコアSCORE_faを測定する。
次に、顔検出部105は、ステップST26において、ステップST25で測定された顔スコアSCORE_faに基づいて、検出枠FR-faで囲まれた画像が顔画像であるか否かを判定する。この場合、顔検出部105は、SCORE_fa>0であるとき顔画像であると判定し、SCORE_fa>0でないとき顔画像ではないと判定する。
顔画像であると判定するとき、顔検出部105は、ステップST27に移る。このステップST27において、顔検出部105は、顔検出枠情報(位置情報およびサイズ情報)を、顔IDを付加して、図示しない記憶部に記憶する。顔検出部105は、ステップST27の処理の後、ステップST28に進む。
ステップST26で顔画像でないと判定するとき、顔検出部105は、直ちに、ステップST28に移る。このステップST28において、顔検出部105は、検出枠FR-faが最後の位置まで移動したか否かを判定する。最後の位置まで移動していないとき、顔検出部105は、ステップST29において、検出枠FR-faを次の位置に移動し、その後に、ステップST25に戻って、上述したと同様の処理を繰り返す。なお、検出枠FR-faは、ある垂直位置においては水平方向に1ピクセルずつ移動していき、この垂直位置における水平方向の移動が終わると、垂直方向に1ピクセル移動して、次の垂直位置に移る。
ステップST28で検出枠FR-faが最後の位置まで移動しているとき、顔検出部105は、ステップST30において、縮小段階S_NOが最後の段階S_NOmaxにあるか否かを判定する。S_NO=S_NOmaxでないとき、顔検出部105は、ステップST31において、縮小段階S_NOを次の段階とし、その後、ステップST23に移り、上述したと同様の処理を繰り返す。また、ステップST30で、S_NO=S_NOmaxであるとき、全ての縮小段階S_NOでの顔画像の検出処理が終了したことを意味するので、顔検出部105は、ステップST32において、顔画像検出処理を終了する。
図1に示す画像処理装置100の動作を説明する。入力画像データVinを構成する入力輝度データYinは、非線形フィルタ101に供給される。この非線形フィルタ101では、入力輝度データYinがエッジを保存したまま平滑化されて平滑化データとしてのストラクチャー成分ST1が生成される。
また、入力輝度データYinは、減算器102に供給される。この減算器102には、非線形フィルタ101で生成されたストラクチャー成分ST1も供給される。この減算器102では、入力輝度データYinからストラクチャー成分ST1が減算されて、出力データとしてテクスチャー成分TX1が得られる。
減算器102で得られたテクスチャー成分TX1は、加減増幅器103に供給される。この加減増幅器103では、テクスチャー成分TX1が増幅されて、増幅されたテクスチャー成分TX2が得られる。この加減増幅器103の基本的なゲインは、例えば、上述したユーザの表示モード選択操作に応じて決定される。
この加減増幅器103で得られたテクスチャー成分TX2は加算器104に供給される。この加算器104には、非線形フィルタ101で生成されたストラクチャー成分ST1も供給される。この加算器104では、ストラクチャー成分ST1にテクスチャー成分TX2が加算されて、出力画像データVoutを構成する出力輝度データYoutが得られる。なお、入力画像データVinを構成する入力色データ(赤色差データ、青色差データ)Cinは、そのまま、出力画像データVoutを構成する出力色データCoutとなる。
また、入力画像データVinを構成する入力輝度データYinは、顔検出部105に供給される。この顔検出部105では、入力輝度データYinに基づいて、フレーム毎に、顔画像が検出され、この顔画像が存在する顔画像領域の情報Iarf、例えば顔検出枠情報(位置情報、サイズ情報)が取得される。この顔画像領域の情報Iarfは、マスク領域作成部106に供給される。マスク領域作成部106では、顔画像領域の情報Iarfに基づいて、例えば顔画像領域でハイレベルとなり、その他の領域でローレベルとなるマスク領域信号Smskが作成される。
マスク領域作成部106で作成されたマスク領域信号Smskは、空間フィルタ107に入力されて、水平方向および垂直方向のローパスフィルタ処理が施される。この処理により、マスク領域信号Smskの水平方向および垂直方向における急激なレベル変化部分が緩やかに変化するようにされる。空間フィルタ107で得られるフィルタリング後のマスク領域信号Smsk′は、ゲイン制御部108に供給される。
ゲイン制御部108では、マスク領域信号Smsk′に対応したゲイン制御信号CN2が生成され、加減増幅器103に供給される。この場合、加減増幅器103のゲインは、ゲイン制御信号CN2のレベルに比例した値とされる。
例えば、ゲイン制御部108では、加減増幅器103の基本的なゲインを高めにして質感を改善する表示モードが選択された場合、図2(a)に示す対応関係で、マスク領域信号Smsk′に対応したゲイン制御信号CN2が生成される。そのため、この場合には、加減増幅器103の基本的なゲインが高めにされるので全体的に質感が上がるが、顔画像領域では、ゲイン制御信号CN2が小さくなり、加減増幅器103のゲインが相対的に抑えられる。そのため、顔画像に関して、質感が強調され過ぎた違和感のある画像となることが防止され、適正な質感を得ることができる。
また、例えば、ゲイン制御部108では、加減増幅器103の基本的なゲインを低めにして質感をあまり上げない表示モードが選択された場合、図2(b)に示す対応関係で、マスク領域信号Smsk′に対応したゲイン制御信号CN2が生成される。そのため、この場合には、加減増幅器103の基本的なゲインが低めにされるので全体的に質感はあまり上がらないが、顔画像領域では、ゲイン制御信号CN2が大きくなり、加減増幅器103のゲインが相対的に上げられる。そのため、主要被写体である顔画像に関しては質感が上げられ、適正な質感を得ることができる。
以上説明したように、図1に示す画像処理装置100においては、顔検出部105で取得される顔画像領域の情報Iarfに基づいて、ゲイン制御部108で加減増幅器103のゲイン制御信号CN2が生成される。そのため、顔画像が存在する顔画像領域において、加減増幅器103のゲインが、他の領域に対して相対的に、低くあるいは高く制御される。したがって、加減増幅器103の基本的なゲイン設定による全体的な質感の高低によらずに、顔画像に関して適正な質感を得ることができる。
また、図1に示す画像処理装置100においては、マスク領域作成部106で作成されたマスク領域信号Smskは、空間フィルタ107に入力されて、水平方向および垂直方向のローパスフィルタ処理が施される。この処理により、マスク領域信号Smskの水平方向および垂直方向における急激なレベル変化部分が緩やかに変化するようにされる。そのため、ゲイン制御部108で生成されるゲイン制御信号CN2が顔画像領域とその他の領域との境界で急激に変化することがなく、その境界が目立つことを抑制できる。
<2.第2の実施の形態>
[画像処理装置の構成]
図9は、第2の実施の形態としての画像処理装置100Aの構成例を示している。この図9において、図1と対応する部分には同一符号を付して示している。この画像処理装置100Aは、非線形フィルタ101と、減算器102と、加減増幅器103と、加算器104を有している。また、この画像処理装置100Aは、顔検出部105と、顔情報抽出部111と、顔情報保持部112と、マスク領域作成部113と、空間フィルタ107と、ゲイン制御部108と、シーン変化検出部114を有している。
この画像処理装置100Aにおいて、非線形フィルタ101、減算器102、加減増幅器103、加算器104、顔検出部105、空間フィルタ107およびゲイン制御部108の部分は、詳細説明は省略するが、上述の図1に示す画像処理装置100と同様である。
顔情報抽出部111は、フレーム毎に、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、入力画像データVinを構成する入力輝度データYinおよび入力色データCinから、顔画像の画像情報Ifaを抽出する。この実施の形態において、顔画像抽出部111は、顔画像情報Ifaとして、例えば、顔画像領域の輝度ヒストグラムおよび2次元UVヒストグラムの情報を得る。
すなわち、顔画像抽出部111は、入力輝度データYinのうち、顔画像領域に対応した各ピクセルの輝度データを用いて、図10(b)に示すような輝度ヒストグラムを作成する。また、顔画像抽出部111は、入力色データCinのうち、顔画像領域に対応した各ピクセルの色データ(赤色差データU、青色差データV)用いて、図10(a)に示すような2次元UVヒストグラムを作成する。
顔情報保持部112は、顔情報抽出部111で抽出された顔画像の画像情報Ifaを保持する。顔情報抽出部111では、顔検出部105で顔画像領域の情報Iarfが取得されるフレームで、上述したように顔画像の画像情報Ifaが抽出される。顔情報保持部112は、顔情報抽出部111で顔画像の画像情報Ifaが抽出されるフレーム毎に、この顔画像の画像情報Ifaにより保持内容を更新してもよい。
しかし、顔情報抽出部111で抽出される顔画像の画像情報Ifaは、画像状態が変化しない期間はほぼ同じ状態となる。そのため、この実施の形態において、顔情報保持部112は、画像状態の変化が検出される毎に、顔情報抽出部111で抽出された顔画像の画像情報Ifaにより保持内容を更新する。この実施の形態においては、後述するように、画像状態の変化としてシーン変化による画像状態の変化の例を上げているが、照明変化等による画像状態の変化も考えられる。
マスク領域作成部113は、フレーム毎に、入力輝度データYinおよび入力色データCinに基づいて、顔情報保持部112に保持されている顔画像の画像情報Ifaに対応した画像が存在する画像領域を検出する。この場合、マスク領域作成部113は、顔画像の画像情報Ifaとしての輝度ヒストグラムおよび2次元UVヒストグラムの情報を参照して、それぞれ、頻度が高い一定範囲を、輝度値範囲、UV値範囲に決定する。マスク領域作成部113は、この輝度値範囲、UV値範囲の決定処理を、例えば、顔情報保持部112の保持内容が更新される毎に行う。
マスク領域作成部113は、フレーム毎に、入力輝度データYinおよび入力色データCinに基づいて、輝度値、UV値が、決定された輝度値範囲、UV値範囲にあるピクセルを検出する。そして、マスク領域作成部113は、検出された各ピクセルの領域を、顔画像の画像情報Ifaに対応した画像が存在する画像領域として検出する。
このようにマスク領域作成部113で検出される画像領域は、顔画像の画像情報Ifaに基づいて再構成されたものであり、以下、「再構成画像領域」という。マスク領域作成部113は、さらに、この再構成画像領域の情報に基づいて、マスク領域信号Smskを作成する。すなわち、マスク領域作成部113は、例えば、再構成顔画像領域でハイレベルとなり、その他の領域でローレベルとなるマスク領域信号Smskを作成する。
シーン変化検出部114は、入力輝度データYinおよび入力色データCinに基づいて、シーン変化を検出し、その検出信号Schdを顔情報保持部112に送る。シーン変化検出部114は、例えば、フレーム画像の画素データを分割ブロック毎に処理して得られた複数のベクトル要素からなる特徴ベクトル、あるいはフレーム画像の画素信号を処理して得られた輝度、色差のヒストグラム等を利用して、シーン変化を検出する。図9の示す画像処理装置100Aのその他は、図1に示す画像処理装置100と同様に構成されている。
図9に示す画像処理装置100Aの動作を説明する。入力画像データVinを構成する入力輝度データYinは、非線形フィルタ101に供給される。この非線形フィルタ101では、入力輝度データYinがエッジを保存したまま平滑化されて平滑化データとしてのストラクチャー成分ST1が生成される。
また、入力輝度データYinは、減算器102に供給される。この減算器102には、非線形フィルタ101で生成されたストラクチャー成分ST1も供給される。この減算器102では、入力輝度データYinからストラクチャー成分ST1が減算されて、出力データとしてテクスチャー成分TX1が得られる。
減算器102で得られたテクスチャー成分TX1は、加減増幅器103に供給される。この加減増幅器103では、テクスチャー成分TX1が増幅されて、増幅されたテクスチャー成分TX2が得られる。この加減増幅器103の基本的なゲインは、例えば、ユーザの表示モード選択操作に応じて決定される。
この加減増幅器103で得られたテクスチャー成分TX2は加算器104に供給される。この加算器104には、非線形フィルタ101で生成されたストラクチャー成分ST1も供給される。この加算器104では、ストラクチャー成分ST1にテクスチャー成分TX2が加算されて、出力画像データVoutを構成する出力輝度データYoutが得られる。なお、入力画像データVinを構成する入力色データ(赤色差データ、青色差データ)Cinは、そのまま、出力画像データVoutを構成する出力色データCoutとなる。
また、入力画像データVinを構成する入力輝度データYinは、顔検出部105に供給される。この顔検出部105では、入力輝度データYinに基づいて、フレーム毎に、顔画像が検出され、この顔画像が存在する顔画像領域の情報Iarf、例えば顔検出枠情報(位置情報、サイズ情報)が取得される。この顔画像領域の情報Iarfは、顔情報抽出部111に供給される。
顔情報抽出部111では、フレーム毎に、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、入力輝度データYinおよび入力色データCinから、顔画像の画像情報Ifaが抽出される。例えば、顔画像抽出部111では、顔画像情報Ifaとして、顔画像領域の輝度ヒストグラムおよび2次元UVヒストグラムが計測される。このように、顔情報抽出部111で抽出された顔画像の画像情報Ifaは、顔情報保持部112に供給される。
顔情報保持部112では、顔情報抽出部111から供給される顔画像の画像情報Ifaが保持される。この場合、顔情報保持部112では、画像状態に変化がある毎に、シーン変化検出部114からのシーン変化検出信号Schdに基づき、シーン変化が検出される毎に、顔情報抽出部111で抽出された顔画像の画像情報Ifaにより保持内容が更新される。
マスク領域作成部113では、フレーム毎に、入力輝度データYinおよび入力色データCinに基づいて、顔情報保持部112に保持されている顔画像の画像情報Ifaに対応した画像が存在する画像領域が再構成画像領域として検出される。そして、マスク領域作成部113では、さらに、この再構成画像領域の情報に基づいて、例えば再構成顔画像領域でハイレベルとなり、その他の領域でローレベルとなるマスク領域信号Smskが作成される。
マスク領域作成部113で作成されたマスク領域信号Smskは、空間フィルタ107に入力されて、水平方向および垂直方向のローパスフィルタ処理が施される。この処理により、マスク領域信号Smskの水平方向および垂直方向における急激なレベル変化部分が緩やかに変化するようにされる。空間フィルタ107で得られるフィルタリング後のマスク領域信号Smsk′は、ゲイン制御部108に供給される。
ゲイン制御部108では、マスク領域信号Smsk′に対応したゲイン制御信号CN3が生成され、加減増幅器103に供給される。この場合、加減増幅器103のゲインは、ゲイン制御信号CN3のレベルに比例した値とされる。
例えば、ゲイン制御部108では、加減増幅器103の基本的なゲインを高めにして質感を改善する表示モードが選択された場合、図2(a)に示す対応関係で、マスク領域信号Smsk′に対応したゲイン制御信号CN3が生成される。そのため、この場合には、加減増幅器103の基本的なゲインが高めにされるので全体的に質感が上がるが、再構成顔画像領域では、ゲイン制御信号CN3が小さくなり、加減増幅器103のゲインが相対的に抑えられる。そのため、顔画像に関して、質感が強調され過ぎた違和感のある画像となることが防止され、適正な質感を得ることができる。
また、例えば、ゲイン制御部108では、加減増幅器103の基本的なゲインを低めにして質感をあまり上げない表示モードが選択された場合、図2(b)に示す対応関係で、マスク領域信号Smsk′に対応したゲイン制御信号CN3が生成される。そのため、この場合には、加減増幅器103の基本的なゲインが低めにされるので全体的に質感はあまり上がらないが、再構成顔画像領域では、ゲイン制御信号CN3が大きくなり、加減増幅器103のゲインが相対的に上げられる。そのため、主要被写体である顔画像に関しては質感が上げられ、適正な質感を得ることができる。
以上説明したように、図9に示す画像処理装置100Aにおいては、基本的には、顔検出部105で取得される顔画像領域の情報Iarfに基づいて、ゲイン制御部108で加減増幅器103のゲイン制御信号CN3が生成される。そのため、顔画像が存在する顔画像領域において、加減増幅器103のゲインが、他の領域に対して相対的に、低くあるいは高く制御される。したがって、加減増幅器103の基本的なゲイン設定による全体的な質感の高低によらずに、顔画像に関して適正な質感を得ることができる。
また、図9に示す画像処理装置100Aにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、マスク領域作成部113で、この顔画像の画像情報Ifaに対応した画像が存在する画像領域が再構成画像領域として検出され、この再構成画像領域の情報に基づいてマスク領域信号Smskが作成される。
この再構成画像領域には、顔検出部105で検出されない顔画像が存在する顔画像領域も含まれる。例えば、図11(a)に示すようなフレーム画像IM-0を例にとって説明する。例えば、顔検出部105では、図11(b)に破線枠で囲んで示すように、フレーム画像IM-0に含まれている大きな顔の顔画像IM-1は検出されるが、このフレーム画像IM-0に含まれている小さな顔の顔画像IM-2は検出されなかったものとする。しかし、顔画像の画像情報Ifaに基づいて検出された再構成画像領域には、図11(c)に示すように、顔画像IM-1の領域の他に、顔画像IM-2の領域も含まれる。なお、図11(c)において、ハッチングが付された領域は、再構成画像領域以外の領域を示している。
このように、再構成画像領域に顔検出部105で検出されない顔画像が存在する顔画像領域も含まれる。そのため、顔検出部105において、横向きの顔画像などで顔画像領域の検出漏れがあった場合であっても、再構成画像領域に、全ての顔画像の領域を含ませることができる。したがって、顔検出部105で顔画像領域の検出漏れがあった場合であっても、入力画像に含まれる全ての顔画像の領域に対応して加減増幅器103のゲインを適正に制御でき、画像に含まれる全ての顔画像に関して適正な質感を得ることができる。
また、図9に示す画像処理装置100Aにおいては、マスク領域作成部113で、顔情報抽出部111で抽出された顔画像の画像情報Ifaに基づいて、入力輝度データYinおよび入力色データCinから再構成画像領域が検出される。そのため、顔検出部105の検出に数フレーム要する場合であっても、再構成画像領域には、入力画像データVinの現在フレームで顔画像が存在する顔画像領域が含まれる。
したがって、図9に示す画像処理装置100Aにおいては、入力画像データVinが動画像データであって、顔画像領域が移動する場合であっても、入力画像に含まれる全ての顔画像の領域に対応して加減増幅器103のゲインを適正に制御できる。そのため、入力画像に含まれる全ての顔画像に関して適正な質感を得ることができる。
また、図9に示す画像処理装置100Aにおいては、顔情報抽出部111で抽出された顔画像の画像情報Ifaが顔情報保持部112に保持される。そして、マスク領域作成部113では、この顔情報保持部112に保持されている顔画像の画像情報Ifaに基づいて再構成画像領域が検出され、この再構成画像領域の情報に基づいてマスク領域信号Smskが作成される。
そのため、顔検出部105で顔画像領域が検出されないフレームであっても、顔情報保持部112に顔画像情報が保持されているので、マスク領域作成部113では、再構成画像領域を安定して検出できる。したがって、顔検出部105で顔画像領域が検出されないフレームであっても、入力画像に含まれる全ての顔画像の領域に対応して加減増幅器103のゲインを適正に制御でき、入力画像に含まれる全ての顔画像に関して適正な質感を得ることができる。
また、図9に示す画像処理装置100Aにおいては、顔情報保持部112では、シーン変化が検出される毎に、顔情報抽出部111で抽出された顔画像の画像情報Ifaにより保持内容が更新されるものである。そのため、更新頻度を少なくでき、CPUの処理負荷を大幅に軽減できる。
また、図9に示す画像処理装置100Aにおいては、マスク領域作成部113で作成されたマスク領域信号Smskは、空間フィルタ107に入力されて、水平方向および垂直方向のローパスフィルタ処理が施される。この処理により、マスク領域信号Smskの水平方向および垂直方向における急激なレベル変化部分が緩やかに変化するようにされる。そのため、ゲイン制御部108で生成されるゲイン制御信号CN3が再構成顔画像領域とその他の領域との境界で急激に変化することがなく、その境界が目立つことを抑制できる。
なお、図9に示す画像処理装置100Aにおいて、顔検出部105では、フレーム毎に顔画像を検出するように説明した。しかし、この図9に示す画像処理装置100Aにおいて、顔情報抽出部111で抽出された顔画像の画像情報Ifaは顔情報保持部112に送られて保持され、顔検出部105で顔画像領域が検出されないフレームにも対処されている。そのため、顔検出部105では、必ずしもフレーム毎に顔画像を検出する必要はなく、2以上のフレーム毎に検出するようにしてもよい。
<3.第3の実施の形態>
[画像処理装置の構成]
図12は、第3の実施の形態としての画像処理装置100Bの構成例を示している。この図12において、図9と対応する部分には同一符号を付して示している。この画像処理装置100Bは、ハイパスフィルタ121と、加減増幅器122と、加算器123を有している。また、この画像処理装置100Bは、顔検出部105と、顔情報抽出部111と、顔情報保持部112と、マスク領域作成部113と、空間フィルタ107と、ゲイン制御部108と、シーン変化検出部114を有している。
この画像処理装置100Bにおいて、顔検出部105、顔情報抽出部111、顔情報保持部112、マスク領域作成部113、空間フィルタ107、ゲイン制御部108およびシーン変化検出部114は、上述の図9に示す画像処理装置100Aと同様である。そのため、これら各部の詳細説明は省略する。
ハイパスフィルタ121は、入力画像データVinを構成する入力輝度データYinから高域成分YH1を抽出する。加減増幅器122は、ハイパスフィルタ121で得られた高域成分YH1を増幅して、出力データとして増幅された高域成分YH2を得る。加算器123は、入力輝度データYinに、加減増幅器122で得られた高域成分YH2を加算し、出力輝度データYoutを得る。
ゲイン制御部108は、空間フィルタ107で得られるフィルタリング後のマスク領域信号Smsk′に対応したゲイン制御信号CN4を生成し、加減増幅器122に供給する。この場合、加減増幅器122のゲインは、ゲイン制御信号CN4のレベルに比例した値とされる。加減増幅122のゲインは、基本的には、ユーザのソフトフォーカス効果の調整操作により決定されるが、このゲインがゲイン制御信号CN4によりさらに制御される。
例えば、ゲイン制御部108は、ソフトフォーカス効果の調整で加減増幅器122のゲインが高めに設定される場合、顔画像領域において、加減増幅器122のゲインを相対的に下げるように、ゲイン制御信号CN4を生成する。この場合、全体的にソフトフォーカス効果が上がるが、顔画像領域では、加減増幅器122のゲインが相対的に抑えられるので、違和感のない適正なソフトフォーカス効果が得られる。
また、例えば、ゲイン制御部108は、ソフトフォーカス効果の調整で加減増幅器122のゲインが低めに設定される場合、顔画像領域において、加減増幅器122のゲインを相対的に上げるように、ゲイン制御信号CN4を生成する。この場合、全体的にソフトフォーカス効果はあまり上がらないが、顔画像領域では、加減増幅器122のゲインが相対的に上げられるので、ソフトフォーカス効果が高められる。図12の示す画像処理装置100Bのその他は、図9に示す画像処理装置100Aと同様に構成されている。
図12に示す画像処理装置100Bの動作を説明する。入力画像データVinを構成する入力輝度データYinは、ハイパスフィルタ121に供給される。このハイパスフィルタ121では、入力画像データVinを構成する入力輝度データYinから高域成分YH1が抽出される。ハイパスフィルタ121で抽出された高域成分YH1は、加減増幅器122に供給される。この加減増幅器122では、高域成分YH1が増幅されて、出力データとして増幅された高域成分YH2が得られる。この加減増幅器122の基本的なゲインは、例えば、上述したユーザのソフトフォーカス効果の調整操作に応じて決定される。
この加減増幅器122で得られた高域成分YH2は加算器123に供給される。この加算器123には、入力輝度データYinも供給される。この加算器123では、入力輝度データYinに高域成分YH2が加算されて、出力画像データVoutを構成する出力輝度データYoutが得られる。なお、入力画像データVinを構成する入力色データ(赤色差データ、青色差データ)Cinは、そのまま、出力画像データVoutを構成する出力色データCoutとなる。
また、顔検出部105では、入力輝度データYinに基づいて、顔画像が検出され、顔画像領域の情報Iarfが取得される。顔情報抽出部111では、この顔画像領域の情報Iarfに基づいて、入力輝度データYinおよび入力色データCinから、顔画像の画像情報Ifが抽出される。マスク領域作成部113では、この顔画像の画像情報Ifaに対応した画像が存在する画像領域が再構成画像領域として検出され、この再構成画像領域の情報に基づいてマスク領域信号Smskが作成される。そして、このマスク領域信号Smskは、空間フィルタ107でローパスフィルタ処理が施された後に、ゲイン制御部108に供給される。
ゲイン制御部108では、マスク領域信号Smsk′に対応したゲイン制御信号CN4が生成され、加減増幅器122に供給される。この場合、加減増幅器122のゲインは、ゲイン制御信号CN4のレベルに比例した値とされる。
例えば、ゲイン制御部108では、ソフトフォーカス効果の調整で加減増幅器122のゲインが高めに設定される場合、顔画像領域において、加減増幅器122のゲインを相対的に下げるように、ゲイン制御信号CN4が生成される。この場合、全体的にソフトフォーカス効果が上がるが、顔画像領域では、加減増幅器122のゲインが相対的に抑えられるので、違和感のない適正なソフトフォーカス効果が得られる。
また、例えば、ゲイン制御部108では、ソフトフォーカス効果の調整で加減増幅器122のゲインが低めに設定される場合、顔画像領域において、加減増幅器122のゲインを相対的に上げるように、ゲイン制御信号CN4が生成される。この場合、全体的にソフトフォーカス効果はあまり上がらないが、顔画像領域では、加減増幅器122のゲインが相対的に上げられるので、ソフトフォーカス効果が高められる。
以上説明したように、図12に示す画像処理装置100Bにおいては、基本的には、顔検出部105で取得される顔画像領域の情報Iarfに基づいて、ゲイン制御部108で加減増幅器122のゲイン制御信号CN4が生成される。そのため、顔画像が存在する顔画像領域において、加減増幅器122のゲインが、他の領域に対して相対的に、低くあるいは高く制御される。したがって、加減増幅器122の基本的なゲイン設定による全体的なソフトフォーカス効果の高低によらずに、顔画像に関して適正なソフトフォーカス効果を得ることができる。
また、図12に示す画像処理装置100Bにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、マスク領域作成部113で、この顔画像の画像情報Ifaに対応した画像が存在する画像領域が再構成画像領域として検出され、この再構成画像領域の情報に基づいてマスク領域信号Smskが作成される。
そのため、顔検出部105において、横向きの顔画像などで顔画像領域の検出漏れがあった場合であっても、再構成画像領域に、全ての顔画像の領域を含ませることができる。したがって、顔検出部105で顔画像領域の検出漏れがあった場合であっても、入力画像に含まれる全ての顔画像の領域に対応して加減増幅器122のゲインを適正に制御でき、画像に含まれる全ての顔画像に関して、適正なソフトフォーカス効果を得ることができる。
また、図12に示す画像処理装置100Bにおいては、マスク領域作成部113で、顔情報抽出部111で抽出された顔画像の画像情報Ifaに基づいて、入力輝度データYinおよび入力色データCinから再構成画像領域が検出される。そのため、顔検出部105の検出に数フレーム要する場合であっても、再構成画像領域には、入力画像データVinの現在フレームで顔画像が存在する顔画像領域が含まれる。
したがって、図12に示す画像処理装置100Bにおいては、入力画像データVinが動画像データであって、顔画像領域が移動する場合であっても、入力画像に含まれる全ての顔画像の領域に対応して加減増幅器122のゲインを適正に制御できる。そのため、入力画像に含まれる全ての顔画像に関して適正なソフトフォーカス効果を得ることができる。
また、図12に示す画像処理装置100Bにおいては、上述の図9に示す画像処理装置100Aと同様に、顔情報保持部112、空間フィルタ107による効果、顔情報保持部112の保持情報の更新をシーン変化毎に行うことによる効果等も得ることができる。
<4.第4の実施の形態>
[画像処理装置の構成]
図13は、第4の実施の形態としての画像処理装置100Cの構成例を示している。この図13において、図9と対応する部分には同一符号を付して示している。この画像処理装置100Cは、彩度調整器131と、彩度制御部132を有している。また、この画像処理装置100Cは、顔検出部105と、顔情報抽出部111と、顔情報保持部112と、マスク領域作成部113と、空間フィルタ107と、シーン変化検出部114を有している。
この画像処理装置100Cにおいて、顔検出部105、顔情報抽出部111、顔情報保持部112、マスク領域作成部113、空間フィルタ107およびシーン変化検出部114の部分は、詳細説明は省略するが、図9に示す画像処理装置100Aと同様である。
彩度調整器131は、入力画像データVinを構成する入力色データ(赤色差データおよび青色差データ)Cinに対して彩度調整処理を行う。この彩度調整器131は例えば、入力色データCin内の赤色差データおよび青色差データを増幅する加減増幅器で構成されており、そのゲインが調整されることで彩度調整が行われる。この彩度調整器131の彩度調整処理は、彩度制御部132で生成される彩度制御信号CN5により制御される。
彩度制御部132は、顔情報抽出部111で抽出され、顔情報保持部112に保持されている顔画像の画像情報Ifaのうち、彩度情報(2次元UVヒストグラム)を用いて、彩度制御信号CN5を生成する。また、彩度制御部132は、空間フィルタ107で得られるフィルタリング後のマスク領域信号Smsk′に基づき、彩度制御信号CN5を生成する。彩度制御部132は、彩度調整器131に、顔画像の彩度が所定の彩度となるように彩度調整処理を行わせ、かつその彩度調整処理を再構成顔画像領域のみで行わせる、彩度制御信号CN5を生成する。所定の彩度は、固定値、あるいはユーザ設定値である。図13に示す画像処理装置100Cのその他は、図9に示す画像処理装置100Aと同様に構成されている。
図13に示す画像処理装置100Cの動作を説明する。入力画像データVinを構成する入力色データCinは、彩度調整器131に供給される。この彩度調整器131の彩度調整処理は、彩度制御部132から供給される彩度制御信号CN5により制御される。上述したように、この彩度制御信号CN5は、顔画像の彩度が所定の彩度となるように彩度調整処理を行わせ、かつその彩度調整処理を再構成顔画像領域のみで行わせるものである。
そのため、この彩度調整器131では、再構成顔画像領域のみで、顔画像の彩度が所定の彩度となるように彩度調整処理が行われる。この彩度調整器131の出力色データ(赤色差データ、青色差データ)は、出力画像データVoutを構成する出力色データCoutとなる。なお、入力画像データVinを構成する入力輝度データYinは、そのまま、出力画像データVoutを構成する出力輝度データYoutとなる。
以上説明したように、図13に示す画像処理装置100Cにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、この顔画像の画像情報Ifaのうち、彩度情報(2次元UVヒストグラム)が用いられて彩度制御信号CN5が生成される。そのため、顔画像の彩度が所定の彩度となるように、顔画像領域で精度のよい彩度調整を行うことができる。
また、図13に示す画像処理装置100Cにおいては、彩度制御部132で彩度制御信号CN5を生成する際に、顔情報保持部112に保持されている顔画像の画像情報Ifaが用いられる。そのため、顔検出部105で顔画像領域が検出されないフレームであっても、彩度制御部132では彩度制御信号CN5が安定して生成され、安定した彩度調整が可能となる。
また、図13に示す画像処理装置100Cにおいては、上述の図9に示す画像処理装置100Aと同様に、空間フィルタ107による効果、顔情報保持部112の保持情報の更新をシーン変化毎に行うことによる効果等も得ることができる。
<5.第5の実施の形態>
[画像処理装置の構成]
図14は、第5の実施の形態としての画像処理装置100Dの構成例を示している。この図14において、図9、図13と対応する部分には同一符号を付して示している。この画像処理装置100Dは、彩度調整器131と、彩度制御部133を有している。また、この画像処理装置100Dは、顔検出部105と、顔情報抽出部111と、顔情報保持部112と、シーン変化検出部114を有している。
この画像処理装置100Dにおいて、彩度調整器131、顔検出部105、顔情報抽出部111、顔情報保持部112およびシーン変化検出部114の部分は、詳細説明は省略するが、上述の図13に示す画像処理装置100Cと同様である。
彩度調整器131の彩度調整処理は、彩度制御部133で生成される彩度制御信号CN6により制御される。彩度制御部133は、顔情報抽出部111で抽出され、顔情報保持部112に保持されている顔画像の画像情報Ifaのうち、彩度情報(2次元UVヒストグラム)を用いて、彩度制御信号CN6を生成する。彩度制御部133は、彩度調整器131に、顔画像の彩度が所定の彩度となるように彩度調整処理を行わせる、彩度制御信号CN6を生成する。図14に示す画像処理装置100Dのその他は、図9、図13に示す画像処理装置100Aと同様に構成されている。
図14に示す画像処理装置100Dの動作を説明する。入力画像データVinを構成する入力色データCinは、彩度調整器131に供給される。この彩度調整器131の彩度調整処理は、彩度制御部133から彩度制御信号CN6により制御される。上述したように、この彩度制御信号CN6は、顔画像の彩度が所定の彩度となるように彩度調整処理を行わせるものである。
そのため、この彩度調整器131では、顔画像の彩度が所定の彩度となるように、画面全体で彩度調整処理が行われる。この彩度調整器131の出力色データ(赤色差データ、青色差データ)は、出力画像データVoutを構成する出力色データCoutとなる。なお、入力画像データVinを構成する入力輝度データYinは、そのまま、出力画像データVoutを構成する出力輝度データYoutとなる。
以上説明したように、図14に示す画像処理装置100Dにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、この顔画像の画像情報Ifaのうち、彩度情報(2次元UVヒストグラム)が用いられて彩度制御信号CN6が生成される。そのため、顔画像の彩度が所定の彩度となるように、画面全体の彩度を調整できる。この画像処理装置100Dにおいては、人間の視覚特性が顔に対して感度が高いことから、簡易的に、顔画像領域の彩度のヒストグラムの変化から、画面全体の彩度を処理して、高画質化を図ることができる。
また、図14に示す画像処理装置100Dにおいては、彩度制御部133で彩度制御信号CN6を生成する際に、顔情報保持部112に保持されている顔画像の画像情報Ifaが用いられる。そのため、顔検出部105で顔画像領域が検出されないフレームであっても、彩度制御部133では彩度制御信号CN6が安定して生成され、安定した彩度調整が可能となる。また、図14に示す画像処理装置100Dにおいては、上述の図9に示す画像処理装置100Aと同様に、顔情報保持部112の保持情報の更新をシーン変化毎に行うことによる効果等も得ることができる。
<6.第6の実施の形態>
[画像処理装置の構成]
図15は、第6の実施の形態としての画像処理装置100Eの構成例を示している。この図15において、図9と対応する部分には同一符号を付して示している。この画像処理装置100Eは、色相調整器141と、色相制御部142を有している。また、この画像処理装置100Eは、顔検出部105と、顔情報抽出部111と、顔情報保持部112と、マスク領域作成部113と、空間フィルタ107と、シーン変化検出部114を有している。
この画像処理装置100Eにおいて、顔検出部105、顔情報抽出部111、顔情報保持部112、マスク領域作成部113、空間フィルタ107およびシーン変化検出部114の部分は、詳細説明は省略するが、図9に示す画像処理装置100Aと同様である。
色相調整器141は、入力画像データVinを構成する入力色データ(赤色差データおよび青色差データ)Cinに対して色相調整処理を行う。この色相調整器141は例えば、入力色データCin内の赤色差データおよび青色差データをそれぞれ増幅する2個の加減増幅器で構成されており、それぞれの加減増幅器のゲインが個別に調整されることで色相調整が行われる。この色相調整器141の色相調整処理は、色相制御部142で生成される色相制御信号CN7により制御される。
色相制御部142は、顔情報抽出部111で抽出され、顔情報保持部112に保持されている顔画像の画像情報Ifaのうち、色相情報(2次元UVヒストグラム)を用いて、色相制御信号CN7を生成する。また、色相制御部142は、空間フィルタ107で得られるフィルタリング後のマスク領域信号Smsk′に基づき、色相制御信号CN7を生成する。色相制御部142は、色相調整器141に、顔画像の色相が所定の色相となるように色相調整処理を行わせ、かつその色相調整処理を再構成顔画像領域のみで行わせる、色相制御信号CN7を生成する。所定の色相は、固定値、あるいはユーザ設定値である。図15の示す画像処理装置100Eのその他は、図9に示す画像処理装置100Aと同様に構成されている。
図15に示す画像処理装置100Eの動作を説明する。入力画像データVinを構成する入力色データCinは、色相調整器141に供給される。この色相調整器141の色相調整処理は、色相制御部142から供給される色相制御信号CN7により制御される。上述したように、この色相制御信号CN7は、顔画像の色相が所定の色相となるように色相調整処理を行わせ、かつその色相調整処理が再構成顔画像領域のみで行わせるものである。
そのため、この色相調整器141では、再構成顔画像領域のみで、顔画像の色相が所定の色相となるように色相調整処理が行われる。この色相調整器141の出力色データ(赤色差データ、青色差データ)は、出力画像データVoutを構成する出力色データCoutとなる。なお、入力画像データVinを構成する入力輝度データYinは、そのまま、出力画像データVoutを構成する出力輝度データYoutとなる。
以上説明したように、図15に示す画像処理装置100Eにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、この顔画像の画像情報Ifaのうち、色相情報(2次元UVヒストグラム)が用いられて色相制御信号CN7が生成される。そのため、顔画像の色相が所定の色相となるように、顔画像領域で精度のよい色相調整を行うことができる。
また、図15に示す画像処理装置100Eにおいては、色相制御部142で色相制御信号CN7を生成する際に、顔情報保持部112に保持されている顔画像の画像情報Ifaが用いられる。そのため、顔検出部105で顔画像領域が検出されないフレームであっても、色相制御部142では色相制御信号CN7が安定して生成され、安定した色相調整が可能となる。
また、図15に示す画像処理装置100Eにおいては、上述の図9に示す画像処理装置100Aと同様に、空間フィルタ107による効果、顔情報保持部112の保持情報の更新をシーン変化毎に行うことによる効果等も得ることができる。
<7.第7の実施の形態>
[画像処理装置の構成]
図16は、第7の実施の形態としての画像処理装置100Fの構成例を示している。この図16において、図9、図15と対応する部分には同一符号を付して示している。この画像処理装置100Fは、色相調整器141と、色相制御部143を有している。また、この画像処理装置100Fは、顔検出部105と、顔情報抽出部111と、顔情報保持部112と、シーン変化検出部114を有している。
この画像処理装置100Fにおいて、色相調整器141、顔検出部105、顔情報抽出部111、顔情報保持部112およびシーン変化検出部114の部分は、詳細説明は省略するが、上述の図9、図15に示す画像処理装置100Eと同様である。
色相調整器141の色相調整処理は、色相制御部143で生成される色相制御信号CN8により制御される。色相制御部143は、顔情報抽出部111で抽出され、顔情報保持部112に保持されている顔画像の画像情報Ifaのうち、色相情報(2次元UVヒストグラム)を用いて、色相制御信号CN8を生成する。色相制御部143は、色相調整器141に、顔画像の色相が所定の色相となるように色相処理を行わせる、色相制御信号CN8を生成する。図16の示す画像処理装置100Fのその他は、図9、図15に示す画像処理装置100Aと同様に構成されている。
図16に示す画像処理装置100Fの動作を説明する。入力画像データVinを構成する入力色データCinは、色相調整器141に供給される。この色相調整器141の色相調整処理は、色相制御部143から色相制御信号CN8により制御される。上述したように、この色相制御信号CN8は、顔画像の色相が所定の色相となるように色相調整処理を行わせるものである。
そのため、この色相調整器141では、顔画像の色相が所定の色相となるように、画面全体で色相調整処理が行われる。この色相調整器141の出力色データ(赤色差データ、青色差データ)は、出力画像データVoutを構成する出力色データCoutとなる。なお、入力画像データVinを構成する入力輝度データYinは、そのまま、出力画像データVoutを構成する出力輝度データYoutとなる。
以上説明したように、図16に示す画像処理装置100Fにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、この顔画像の画像情報Ifaのうち、色相情報(2次元UVヒストグラム)が用いられて色相制御信号CN8が生成される。そのため、顔画像の色相が所定の色相となるように、画面全体の色相を調整できる。この画像処理装置100Fにおいては、人間の視覚特性が顔に対して感度が高いことから、簡易的に、顔画像領域の色相のヒストグラムの変化から、画面全体の色相を処理して、高画質化を図ることができる。
また、図16に示す画像処理装置100Fにおいては、色相制御部143で色相制御信号CN8を生成する際に、顔情報保持部112に保持されている顔画像の画像情報Ifaが用いられる。そのため、顔検出部105で顔画像領域が検出されないフレームであっても、色相制御部143では色相制御信号CN8が安定して生成され、安定した色相調整が可能となる。また、図16に示す画像処理装置100Fにおいては、上述の図9に示す画像処理装置100Aと同様に、顔情報保持部112の保持情報の更新をシーン変化毎に行うことによる効果等も得ることができる。
<8.第8の実施の形態>
[画像処理装置の構成]
図17は、第8の実施の形態としての画像処理装置100Gの構成例を示している。この図17において、図9と対応する部分には同一符号を付して示している。この画像処理装置100Gは、コントラスト補正部151と、全画面情報抽出部153を有している。また、この画像処理装置100Gは、顔検出部105と、顔情報抽出部111と、顔情報保持部112と、シーン変化検出部114を有している。
この画像処理装置100Fにおいて、顔検出部105、顔情報抽出部111、顔情報保持部112およびシーン変化検出部114の部分は、詳細説明は省略するが、上述の図9に示す画像処理装置100Aと同様である。
コントラスト補正部151は、入力画像データVinを構成する入力輝度データYinに対してコントラスト補正処理を行う。このコントラスト補正部151は、コントラスト制御部152で生成される入出力特性カーブ(補正カーブ)CN9に基づいて、入力輝度データYinを出力輝度データYoutに変換することで、コントラスト補正処理を行う。
全画面情報抽出部153は、入力輝度データYinに基づいて、画面全体の輝度ヒストグラムを作成し、その情報Iahsをコントラスト制御部152に送る。コントラスト制御部152は、基本的には、全画面情報抽出部153から供給される画面全体の輝度ヒストグラムの情報Iahsに基づいて、入出力特性カーブ(補正カーブ)CN9を作成する。
例えば、低輝度領域(黒レベル領域)の頻度が高い場合には、この低輝度領域のコントラストが広がるように入出力特性カーブCN9が作成される。また、例えば、高輝度領域(白レベル領域)の頻度が高い場合には、この高輝度領域のコントラストが広がるように入出力特性カーブCN9が作成される。さらに、例えば、中間輝度領域の頻度が高い場合には、この中間輝度領域のコントラストが広がるように入出力特性カーブCN9が作成される。
また、コントラスト制御部152は、顔情報抽出部111で抽出され、顔情報保持部112に保持されている顔画像の画像情報Ifaのうち、輝度ヒストグラムを用いて、入出力特性カーブCN9を修正する。この場合、コントラスト制御部152は、顔画像領域で黒つぶれあるいは白つぶれが発生しないように、入出力特性カーブCN9を修正する。
例えば、図18(a)に示すようなフレーム画像である場合、画面全体の輝度ヒストグラムでは高輝度領域(白レベル領域)の頻度が高くなる。そのため、コントラスト補正部151において、基本的には、図18(b)に示すように、高い輝度領域のコントラストが広がるような入出力特性カーブCN9が作成される。しかし、この入出力特性カーブCN9をそのまま用いた場合、図18(c)に示すように、もともと低輝度領域にある顔画像領域で黒つぶれが発生する。
また、例えば、図19(a)に示すようなフレーム画像である場合、画面全体の輝度ヒストグラムでは低輝度領域(黒レベル領域)の頻度が高くなる。そのため、コントラスト補正部151において、基本的には、図19(b)に示すように、低い輝度領域のコントラストが広がるような入出力特性カーブCN9が作成される。しかし、この入出力特性カーブCN9をそのまま用いた場合、図19(c)に示すように、もともと高輝度領域にある顔画像領域で白つぶれが発生する。
そこで、例えば、図20(a)に示すようなフレーム画像(図18(a)と同じ)で、基本的に図20(b)に示すような入出力特性カーブCN9(図18(b)と同じ)が作成される場合には、以下のような修正が行われる。すなわち、図20(b)に示すような入出力特性カーブCN9に対して、顔画像の輝度ヒストグラムに基づき、図20(c)に示すように、低輝度領域にある顔画像領域のコントラストも広がるような入出力特性カーブCN9に修正される。この修正された入出力特性カーブCN9を用いた場合、図20(d)に示すように、低輝度領域にある顔画像領域で黒つぶれが発生しなくなる。
説明は省略するが、例えば、図19(a)に示すようなフレーム画像で、基本的に図19(b)に示すような入出力特性カーブCN9が作成される場合にも、同様に高輝度領域にある顔画像領域のコントラストが広がるような入出力特性カーブCN9に修正される。図17に示す画像処理装置100Gのその他は、図9に示す画像処理装置100Aと同様に構成されている。
図17に示す画像処理装置100Gの動作を説明する。入力画像データVinを構成する入力輝度データYinは、コントラスト補正部151に供給される。このコントラスト補正部151におけるコントラスト補正処理は、コントラスト補正部152から供給される入出力特性カーブ(補正カーブ)CN9に基づいて行われる。
また、入力輝度データYinは、全画面情報抽出部153に供給される。この全画面情報抽出部153では、入力輝度データYinに基づいて、画面全体の輝度ヒストグラムが作成され、その情報Iahsがコントラスト制御部152に送られる。また、顔情報抽出部111で抽出され、顔情報保持部112に保持されている顔画像の画像情報Ifaのうち、輝度ヒストグラムの情報がコントラスト制御部152に送られる。
コントラスト制御部152では、基本的には、全画面情報抽出部153から供給される画面全体の輝度ヒストグラムの情報Iahsに基づいて、入出力特性カーブ(補正カーブ)CN9が作成される。さらに、コントラスト制御部152では、顔画像の輝度ヒストグラムに基づいて、この入出力特性カーブCN9が、顔画像領域のコントラストが広がるように修正される。そして、このようにコントラスト制御部152で生成された入出力特性カーブCN9は、コントラスト補正部151に供給される。
コントラスト補正部151の出力輝度データは、出力画像データVoutを構成する出力輝度データYoutとなる。なお、入力画像データVinを構成する入力色データCinは、そのまま、出力画像データVoutを構成する出力色データCoutとなる。
以上説明したように、図17に示す画像処理装置100Gにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、この顔画像の画像情報Ifaのうち、輝度ヒストグラムに基づいて、コントラスト制御部152で生成される入出力特性カーブCN9が、顔画像領域のコントラストが広がるように修正される。したがって、好ましいコントラスト補正を行うことができる。
また、図17に示す画像処理装置100Gにおいては、コントラスト制御部152で入出力特性カーブCN9を修正する際に、顔情報保持部112に保持されている顔画像の輝度ヒストグラムが用いられる。そのため、顔検出部105で顔画像領域が検出されないフレームであっても、コントラスト制御部152では入出力特性カーブCN9が安定して生成され、安定したコントラスト補正が可能となる。また、図17に示す画像処理装置100Gにおいては、上述の図9に示す画像処理装置100Aと同様に、顔情報保持部112の保持情報の更新をシーン変化毎に行うことによる効果等も得ることができる。
<9.第9の実施の形態>
[画像処理装置の構成]
図21は、第9の実施の形態としての画像処理装置100Hの構成例を示している。この図21において、図9、図17と対応する部分には同一符号を付して示している。この画像処理装置100Hは、非線形フィルタ101と、減算器102と、加減増幅器103と、加算器104を有している。また、この画像処理装置100Hは、顔検出部105と、顔情報抽出部111と、顔情報保持部112と、マスク領域作成部113と、空間フィルタ107と、ゲイン制御部108と、シーン変化検出部114を有している。また、画像処理装置100Hは、コントラスト補正部151と、全画面情報抽出部153と、制御部161を有している。
この画像処理装置100Hにおいて、非線形フィルタ101、減算器102、加減増幅器103および加算器104の部分は、詳細説明は省略するが、上述の図9に示す画像処理装置100Aと同様である。また、この画像処理装置100Hにおいて、顔検出部105、顔情報抽出部111、顔情報保持部112、マスク領域作成部113、空間フィルタ107およびシーン変化検出部114の部分も、上述の図9に示す画像処理装置100Aと同様である。さらに、この画像処理装置100Hにおいて、コントラスト補正部151および全画面情報抽出部153の部分は、上述の図17に示す画像処理装置100Gと同様である。
コントラスト補正部151は、非線形フィルタ101で生成されたストラクチャー成分ST1に対してコントラスト補正処理を行う。このコントラスト補正部151は、制御部161で生成される入出力特性カーブ(補正カーブ)CN9に基づいて、ストラクチャー成分ST1をストラクチャー成分ST2に変換することで、コントラスト補正処理を行う。
制御部161は、空間フィルタ107で得られるフィルタリング後のマスク領域信号Smsk′に対応したゲイン制御信号CN3を生成し、加減増幅器103に供給する。この場合、加減増幅器103のゲインは、ゲイン制御信号CN3のレベルに比例した値とされる。
また、制御部161は、基本的には、全画面情報抽出部153から供給される画面全体の輝度ヒストグラムの情報Iahsに基づいて、入出力特性カーブ(補正カーブ)CN9を作成する。そして、制御部161は、顔情報抽出部111で抽出され、顔情報保持部112に保持されている顔画像の輝度ヒストグラムを用いて、顔画像領域のコントラストが広がるような入出力特性カーブCN9を修正する。図21の示す画像処理装置100Hのその他は、図9に示す画像処理装置100Aおよび図17に示す画像処理装置100Gと同様に構成されている。
図21に示す画像処理装置100Hの動作を説明する。入力画像データVinを構成する入力輝度データYinは、非線形フィルタ101に供給される。この非線形フィルタ101では、入力輝度データYinがエッジを保存したまま平滑化されて平滑化データとしてのストラクチャー成分ST1が生成される。
また、入力輝度データYinは、減算器102に供給される。この減算器102には、非線形フィルタ101で生成されたストラクチャー成分ST1も供給される。この減算器102では、入力輝度データYinからストラクチャー成分ST1が減算されて、出力データとしてテクスチャー成分TX1が得られる。
減算器102で得られたテクスチャー成分TX1は、加減増幅器103に供給される。この加減増幅器103では、テクスチャー成分TX1が増幅されて、増幅されたテクスチャー成分TX2が得られる。この加減増幅器103の基本的なゲインは、例えば、ユーザの表示モード選択操作に応じて決定される。この加減増幅器103で得られたテクスチャー成分TX2は加算器104に供給される。
また、非線形フィルタ101で生成されたストラクチャー成分ST1は、コントラスト補正部151に供給される。このコントラスト補正部151では、制御部161から供給される入出力特性カーブ(補正カーブ)CN9に基づいて、ストラクチャー成分ST1に対してコントラスト補正処理が施される。このコントラスト補正部151から出力されるストラクチャー成分ST2は加算器104に供給される。
加算器104では、ストラクチャー成分ST2にテクスチャー成分TX2が加算されて、出力画像データVoutを構成する出力輝度データYoutが得られる。なお、入力画像データVinを構成する入力色データ(赤色差データ、青色差データ)Cinは、そのまま、出力画像データVoutを構成する出力色データCoutとなる。
また、入力画像データVinを構成する入力輝度データYinは、顔検出部105に供給される。この顔検出部105では、入力輝度データYinに基づいて、フレーム毎に、顔画像が検出され、この顔画像が存在する顔画像領域の情報Iarf、例えば顔検出枠情報(位置情報、サイズ情報)が取得される。この顔画像領域の情報Iarfは、顔情報抽出部111に供給される。
顔情報抽出部111では、フレーム毎に、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、入力輝度データYinおよび入力色データCinから、顔画像の画像情報Ifaが抽出される。例えば、顔画像抽出部111では、顔画像情報Ifaとして、顔画像領域の輝度ヒストグラムおよび2次元UVヒストグラムが計測される。このように、顔情報抽出部111で抽出された顔画像の画像情報Ifaは、顔情報保持部112に供給される。
顔情報保持部112では、顔情報抽出部111から供給される顔画像の画像情報Ifaが保持される。この場合、顔情報保持部112では、画像状態に変化がある毎に、シーン変化検出部114からのシーン変化検出信号Schdに基づき、シーン変化が検出される毎に、顔情報抽出部111で抽出された顔画像の画像情報Ifaにより保持内容が更新される。
マスク領域作成部113では、フレーム毎に、入力輝度データYinおよび入力色データCinに基づいて、顔情報保持部112に保持されている顔画像の画像情報Ifaに対応した画像が存在する画像領域が再構成画像領域として検出される。そして、マスク領域作成部113では、さらに、この再構成画像領域の情報に基づいて、例えば再構成顔画像領域でハイレベルとなり、その他の領域でローレベルとなるマスク領域信号Smskが作成される。
マスク領域作成部113で作成されたマスク領域信号Smskは、空間フィルタ107に入力されて、水平方向および垂直方向のローパスフィルタ処理が施される。この処理により、マスク領域信号Smskの水平方向および垂直方向における急激なレベル変化部分が緩やかに変化するようにされる。空間フィルタ107で得られるフィルタリング後のマスク領域信号Smsk′は、制御部161に供給される。
制御部161では、マスク領域信号Smsk′に対応したゲイン制御信号CN3が生成され、加減増幅器103に供給される。この場合、加減増幅器103のゲインは、ゲイン制御信号CN3のレベルに比例した値とされる。
例えば、制御部161では、加減増幅器103の基本的なゲインを高めにして質感を改善する表示モードが選択された場合、図2(a)に示す対応関係で、マスク領域信号Smsk′に対応したゲイン制御信号CN3が生成される。そのため、この場合には、加減増幅器103の基本的なゲインが高めにされるので全体的に質感が上がるが、再構成顔画像領域では、ゲイン制御信号CN3が小さくなり、加減増幅器103のゲインが相対的に抑えられる。そのため、顔画像に関して、質感が強調され過ぎた違和感のある画像となることが防止され、適正な質感を得ることができる。
また、例えば、制御部161では、加減増幅器103の基本的なゲインを低めにして質感をあまり上げない表示モードが選択された場合、図2(b)に示す対応関係で、マスク領域信号Smsk′に対応したゲイン制御信号CN3が生成される。そのため、この場合には、加減増幅器103の基本的なゲインが低めにされるので全体的に質感はあまり上がらないが、再構成顔画像領域では、ゲイン制御信号CN3が大きくなり、加減増幅器103のゲインが相対的に上げられる。そのため、主要被写体である顔画像に関しては質感が上げられ、適正な質感を得ることができる。
また、入力輝度データYinは、全画面情報抽出部153に供給される。この全画面情報抽出部153では、入力輝度データYinに基づいて、画面全体の輝度ヒストグラムが作成され、その情報Iahsが制御部161に送られる。また、顔情報抽出部111で抽出され、顔情報保持部112に保持されている顔画像の画像情報Ifaのうち、輝度ヒストグラムの情報が制御部161に送られる。
制御部161では、基本的には、全画面情報抽出部153から供給される画面全体の輝度ヒストグラムの情報Iahsに基づいて、入出力特性カーブ(補正カーブ)CN9が作成される。さらに、制御部161では、顔画像の輝度ヒストグラムに基づいて、この入出力特性カーブCN9が、顔画像領域のコントラストが広がるように修正される。そして、このように制御部161で生成された入出力特性カーブCN9が、コントラスト補正部151に供給される。コントラスト補正部151では、このように修正された入出力特性カーブCN9に基づいて、コントラスト補正が行われる。
以上説明したように、図21に示す画像処理装置100Hにおいては、基本的には、顔検出部105で取得される顔画像領域の情報Iarfに基づいて、制御部161で加減増幅器103のゲイン制御信号CN3が生成さる。そのため、顔画像が存在する顔画像領域において、加減増幅器103のゲインが、他の領域に対して相対的に、低くあるいは高く制御される。したがって、加減増幅器103の基本的なゲイン設定による全体的な質感の高低によらずに、顔画像に関して適正な質感を得ることができる。
また、図21に示す画像処理装置100Hにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、マスク領域作成部113で、この顔画像の画像情報Ifaに対応した画像が存在する画像領域が再構成画像領域として検出され、この再構成画像領域の情報に基づいてマスク領域信号Smskが作成される。
この再構成画像領域には顔検出部105で検出されない顔画像が存在する顔画像領域も含まれる。そのため、顔検出部105において、横向きの顔画像などで顔画像領域の検出漏れがあった場合であっても、再構成画像領域に、全ての顔画像の領域を含ませることができる。したがって、顔検出部105で顔画像領域の検出漏れがあった場合であっても、入力画像に含まれる全ての顔画像の領域に対応して加減増幅器103のゲインを適正に制御でき、画像に含まれる全ての顔画像に関して適正な質感を得ることができる。
また、図21に示す画像処理装置100Hにおいては、マスク領域作成部113で、顔情報抽出部111で抽出された顔画像の画像情報Ifaに基づいて、入力輝度データYinおよび入力色データCinから再構成画像領域が検出される。そのため、顔検出部105の検出に数フレーム要する場合であっても、再構成画像領域には、入力画像データVinの現在フレームで顔画像が存在する顔画像領域が含まれる。
したがって、図21に示す画像処理装置100Hにおいては、入力画像データVinが動画像データであって、顔画像領域が移動する場合であっても、入力画像に含まれる全ての顔画像の領域に対応して加減増幅器103のゲインを適正に制御できる。そのため、入力画像に含まれる全ての顔画像に関して適正な質感を得ることができる。
また、図21に示す画像処理装置100Hにおいては、顔検出部105で取得された顔画像領域の情報Iarfに基づいて、顔情報抽出部111で顔画像の画像情報Ifaが抽出される。そして、この顔画像の画像情報Ifaのうち、輝度ヒストグラムに基づいて、制御部152で生成される入出力特性カーブCN9が、顔画像領域のコントラストが広がるように修正される。したがって、好ましいコントラスト補正を行うことができる。
また、図21に示す画像処理装置100Hにおいては、制御部161で入出力特性カーブCN9を修正する際に、顔情報保持部112に保持されている顔画像の輝度ヒストグラムが用いられる。そのため、顔検出部105で顔画像領域が検出されないフレームであっても、制御部161では入出力特性カーブCN9が安定して生成され、安定したコントラスト補正が可能となる。
また、図21に示す画像処理装置100Hにおいては、コントラスト補正部151はストラクチャー成分の経路に配されている。そのため、顔画像の質感を変化させることなく、コントラスト補正を行うことができる。また、図21に示す画像処理装置100Hにおいては、上述の図9に示す画像処理装置100Aと同様に、顔情報保持部112、空間フィルタ107による効果、顔情報保持部112の保持情報の更新をシーン変化毎に行うことによる効果等も得ることができる。
この発明は、顔画像の質感、鮮鋭感、輝度、色等の良好な制御が可能となるものであり、例えば、テレビ受信機等のモニタ機器に適用できる。
100,100A〜100H・・・画像処理装置
101・・・非線形フィルタ
102・・・減算器
103・・・加減算器
104・・・加算器
105・・・顔検出部
106・・・マスク領域作成部
107・・・空間フィルタ
108・・・ゲイン制御部
111・・・顔情報抽出部
112・・・顔情報保持部
113・・・マスク領域作成部
114・・・シーン変化検出部
121・・・ハイパスフィルタ
122・・・加減算器
123・・・加算器
131・・・彩度調整器
132,133・・・彩度制御部
141・・・色相調整器
142,143・・・色相制御部
151・・・コントラスト補正部
152・・・コントラスト制御部
153・・・全画面情報抽出部
161・・・制御部

Claims (19)

  1. 入力画像データを処理して出力画像データを得るデータ処理部と、
    上記入力画像データに基づいて、顔画像を検出して、該顔画像が存在する顔画像領域の情報を取得する顔検出部と、
    上記顔検出部で取得された顔画像領域の情報に基づいて、上記データ処理部の処理を制御する処理制御部と
    を備える画像処理装置。
  2. 上記処理制御部は、
    上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出する顔情報抽出部と、
    上記入力画像データに基づいて、上記顔情報抽出部で抽出された画像情報に対応した画像が存在する画像領域を検出する画像領域検出部を有し、
    上記画像領域検出部で検出された画像領域の情報に基づいて、上記データ処理部の処理を制御する
    請求項1に記載の画像処理装置。
  3. 上記顔検出部は、上記入力画像データに基づいて、所定数のフレーム毎に、顔画像を検出して、該顔画像が存在する顔画像領域を取得し、
    上記処理制御部の顔情報抽出部は、フレーム毎に、上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出し、
    上記処理制御部は、上記顔情報抽出部で抽出された画像情報を保持する顔情報保持部をさらに有し、
    上記処理制御部の画像領域検出部は、上記入力画像データに基づいて、上記顔情報保持部に保持されている画像情報に対応した画像が存在する画像領域を検出する
    請求項2に記載の画像処理装置。
  4. 上記入力画像データに基づいて画像状態の変化を検出する画像状態変化検出部をさらに備え、
    上記処理制御部の顔情報保持部は、上記画像状態変化検出部で画像状態の変化が検出される毎に、上記顔情報抽出部で抽出された画像情報により保持内容を更新する
    請求項3に記載の画像処理装置。
  5. 上記データ処理部は、
    上記入力画像データをエッジを保存したまま平滑化して平滑化画像データを生成する平滑化部と、
    上記入力画像データから上記平滑化部で生成された平滑化画像データを減算する減算部と、
    上記減算部の出力データを増幅する増幅部と、
    上記増幅部の出力データに上記平滑化部で生成された平滑化画像データを加算して上記出力画像データを得る加算部を有し、
    上記処理制御部は、上記増幅部のゲインを制御する
    請求項1または請求項2に記載の画像処理装置。
  6. 上記データ処理部は、
    上記入力画像データから高域成分を抽出する高域成分抽出部と、
    上記高域成分抽出部で抽出された高域成分を増幅する増幅部と、
    上記入力画像データに上記増幅部の出力データを加算して上記出力画像データを得る加算部を有し、
    上記処理制御部は、上記増幅部のゲインを制御する
    請求項2に記載の画像処理装置。
  7. 上記データ処理部は、
    上記入力画像データに対して彩度調整処理を行って上記出力画像データを得る彩度調整部を有し、
    上記処理制御部は、
    上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出する顔情報抽出部と、
    上記入力画像データに基づいて、上記顔情報抽出部で抽出された画像情報に対応した画像が存在する画像領域を検出する画像領域検出部を有し、
    上記画像領域検出部で検出された画像領域の情報および上記顔情報抽出部で抽出された画像情報に含まれる彩度情報に基づいて、上記彩度調整部における彩度調整量を制御する
    請求項1に記載の画像処理装置。
  8. 上記顔検出部は、上記入力画像データに基づいて、所定数のフレーム毎に、顔画像を検出して、該顔画像が存在する顔画像領域の情報を取得し、
    上記処理制御部の顔情報抽出部は、フレーム毎に、上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出し、
    上記処理制御部は、上記顔情報抽出部で抽出された画像情報を保持する顔情報保持部をさらに有し、
    上記処理制御部の画像領域検出部は、上記入力画像データに基づいて、上記顔情報保持部に保持されている画像情報に対応した画像が存在する画像領域を検出し、
    上記処理制御部は、上記画像領域検出部で検出された画像領域の情報および上記顔情報保持部で保持されている画像情報に含まれる彩度情報に基づいて、上記彩度調整部における彩度調整量を制御する
    請求項7に記載の画像処理装置。
  9. 上記データ処理部は、
    上記入力画像データに対して彩度調整処理を行って上記出力画像データを得る彩度調整部を有し、
    上記処理制御部は、
    上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出する顔情報抽出部を有し、
    上記顔情報抽出部で抽出された画像情報に含まれる彩度情報に基づいて、上記彩度調整部における彩度調整量を制御する
    請求項1に記載の画像処理装置。
  10. 上記顔検出部は、上記入力画像データに基づいて、所定数のフレーム毎に、顔画像を検出して、該顔画像が存在する顔画像領域の情報を取得し、
    上記処理制御部の顔情報抽出部は、フレーム毎に、上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出し、
    上記処理制御部は、上記顔情報抽出部で抽出された画像情報を保持する顔情報保持部をさらに有し、
    上記処理制御部は、上記顔情報保持部で保持されている画像情報に含まれる彩度情報に基づいて、上記彩度調整部における彩度調整量を制御する
    請求項9に記載の画像処理装置。
  11. 上記データ処理部は、
    上記入力画像データに対して色相調整処理を行って上記出力画像データを得る色相調整部を有し、
    上記処理制御部は、
    上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出する顔情報抽出部と、
    上記入力画像データに基づいて、上記顔情報抽出部で抽出された画像情報に対応した画像が存在する画像領域を検出する画像領域検出部を有し、
    上記画像領域検出部で検出された画像領域の情報および上記顔情報抽出部で抽出された画像情報に含まれる色相情報に基づいて、上記色相調整部における色相調整量を制御する
    請求項1に記載の画像処理装置。
  12. 上記顔検出部は、上記入力画像データに基づいて、所定数のフレーム毎に、顔画像を検出し、該顔画像が存在する顔画像領域の情報を取得し、
    上記処理制御部の顔情報抽出部は、フレーム毎に、上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出し、
    上記処理制御部は、上記顔情報抽出部で抽出された画像情報を保持する顔情報保持部をさらに有し、
    上記処理制御部の画像領域検出部は、上記入力画像データに基づいて、上記顔情報保持部に保持されている画像情報に対応した画像が存在する画像領域を検出し、
    上記処理制御部は、上記画像領域検出部で検出された画像領域の情報および上記顔情報保持部で保持されている画像情報に含まれる色相情報に基づいて、上記色相調整部における色相調整量を制御する
    請求項11に記載の画像処理装置。
  13. 上記データ処理部は、
    上記入力画像データに対して色相調整処理を行って上記出力画像データを得る色相調整部を有し、
    上記処理制御部は、
    上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出する顔情報抽出部を有し、
    上記顔情報抽出部で抽出された画像情報に含まれる色相情報に基づいて、上記色相調整部における色相調整量を制御する
    請求項1に記載の画像処理装置。
  14. 上記顔検出部は、上記入力画像データに基づいて、所定数のフレーム毎に、顔画像を検出して、該顔画像が存在する顔画像領域の情報を取得し、
    上記処理制御部の顔情報抽出部は、フレーム毎に、上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出し、
    上記処理制御部は、上記顔情報抽出部で抽出された画像情報を保持する顔情報保持部をさらに有し、
    上記処理制御部は、上記顔情報保持部で保持されている画像情報に含まれる色相情報に基づいて、上記色相調整部における色相調整量を制御する
    請求項13に記載の画像処理装置。
  15. 上記データ処理部は、
    上記入力画像データに対してコントラスト補正用の入出力特性カーブに基づいてコントラスト補正を行って上記出力画像データを得るコントラスト補正部を有し、
    上記処理制御部は、
    上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出する顔情報抽出部と、
    上記入力画像データに基づいて、全画面の輝度情報を抽出する輝度情報抽出部を有し、
    上記顔情報抽出部で抽出された画像情報に含まれる輝度情報および上記輝度情報抽出部で抽出された輝度情報に基づいて、上記コントラスト補正部で使用するコントラスト補正用の入出力特性カーブを制御する
    請求項1に記載の画像処理装置。
  16. 上記顔検出部は、上記入力画像データに基づいて、所定数のフレーム毎に、顔画像を検出して、該顔画像が存在する顔画像領域の情報を取得し、
    上記処理制御部の顔情報抽出部は、フレーム毎に、上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出し、
    上記処理制御部は、上記顔情報抽出部で抽出された画像情報を保持する顔情報保持部をさらに有し、
    上記処理制御部は、上記顔情報保持部で保持されている画像情報に含まれる輝度情報および上記輝度情報抽出部で抽出された輝度情報に基づいて、上記コントラスト補正部で使用するコントラスト補正用の入出力特性カーブを制御する
    請求項15に記載の画像処理装置。
  17. 上記データ処理部は、
    上記入力画像データをエッジを保存したまま平滑化して平滑化画像データを生成する平滑化部と、
    上記入力画像データから上記平滑化部で生成された平滑化画像データを減算する減算部と、
    上記減算部の出力データを増幅する増幅部と、
    上記平滑化部で生成された平滑化画像データに対してコントラスト補正用の入出力特性に基づいてコントラスト補正を行うコントラスト補正部と、
    上記増幅部の出力データに上記コントラスト補正部の出力データを加算して上記出力画像データを得る加算部を有し、
    上記処理制御部は、
    上記入力画像データに基づいて、全画面の輝度情報を抽出する輝度情報抽出部をさらに有し、
    上記画像領域検出部で検出された画像領域の情報に基づいて、上記増幅部のゲインを制御し、
    上記顔情報抽出部で抽出された画像情報に含まれる輝度情報および上記輝度情報抽出部で抽出された輝度情報に基づいて、上記コントラスト補正部で使用するコントラスト補正用の入出力特性カーブを制御する
    請求項2に記載の画像処理装置。
  18. 上記顔検出部は、上記入力画像データに基づいて、所定数のフレーム毎に、顔画像を検出して、該顔画像が存在する顔画像領域の情報を取得し、
    上記処理制御部の顔情報抽出部は、フレーム毎に、上記顔検出部で取得された顔画像領域の情報に基づいて、上記入力画像データから上記顔画像の画像情報を抽出し、
    上記処理制御部は、上記顔情報抽出部で抽出された画像情報を保持する顔情報保持部をさらに有し、
    上記処理制御部の画像領域検出部は、上記入力画像データに基づいて、上記顔情報保持部に保持されている画像情報に対応した画像が存在する画像領域を検出し、
    上記処理制御部は、上記顔情報保持部で保持されている画像情報に含まれる輝度情報および上記輝度情報抽出部で抽出された輝度情報に基づいて、上記コントラスト補正部で使用するコントラスト補正用の入出力特性カーブを制御する
    請求項17に記載の画像処理装置。
  19. 入力画像データを処理して出力画像データを得るデータ処理部ステップと、
    上記入力画像データに基づいて、顔画像を検出し、該顔画像が存在する顔画像領域の情報を取得する顔検出ステップと、
    上記顔検出ステップで取得された顔画像領域の情報に基づいて、上記データ処理ステップの処理を制御する処理制御ステップと
    を備える画像処理方法。
JP2009244660A 2009-10-23 2009-10-23 画像処理装置および画像処理方法 Pending JP2011090569A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009244660A JP2011090569A (ja) 2009-10-23 2009-10-23 画像処理装置および画像処理方法
US12/869,115 US8660320B2 (en) 2009-10-23 2010-08-26 Image processing apparatus and image processing method
CN201010514929.8A CN102044056B (zh) 2009-10-23 2010-10-18 图像处理设备和图像处理方法
EP10188266.0A EP2315430A3 (en) 2009-10-23 2010-10-20 Image processing apparatus and image processing method
US14/150,075 US9202107B2 (en) 2009-10-23 2014-01-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009244660A JP2011090569A (ja) 2009-10-23 2009-10-23 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2011090569A true JP2011090569A (ja) 2011-05-06

Family

ID=43501497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009244660A Pending JP2011090569A (ja) 2009-10-23 2009-10-23 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (2) US8660320B2 (ja)
EP (1) EP2315430A3 (ja)
JP (1) JP2011090569A (ja)
CN (1) CN102044056B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104751419A (zh) * 2015-03-05 2015-07-01 广东欧珀移动通信有限公司 一种照片显示调节方法及终端
JP2015180989A (ja) * 2014-03-07 2015-10-15 株式会社リコー 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP2019048117A (ja) * 2014-02-05 2019-03-28 カシオ計算機株式会社 医療用画像の画像処理回路、画像処理方法及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
KR101896386B1 (ko) * 2011-11-22 2018-09-11 삼성전자주식회사 화이트 밸런스 조절장치 및 방법
CN107277356B (zh) * 2017-07-10 2020-02-14 Oppo广东移动通信有限公司 逆光场景的人脸区域处理方法和装置
CN109872115A (zh) * 2018-12-27 2019-06-11 浙江工商大学 一种基于人工智能的实验室人时数据处理方法及系统
CN111754396B (zh) * 2020-07-27 2024-01-09 腾讯科技(深圳)有限公司 脸部图像处理方法、装置、计算机设备和存储介质
CN112990140B (zh) * 2021-04-29 2021-08-10 南昌虚拟现实研究院股份有限公司 手势轮廓提取方法、装置、可读存储介质及电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218047A (ja) * 2000-02-04 2001-08-10 Fuji Photo Film Co Ltd 画像処理装置
JP2004054610A (ja) * 2002-07-19 2004-02-19 Sony Corp トラッキング装置及び方法並びにロボット装置
JP2004206665A (ja) * 2002-10-30 2004-07-22 Japan Science & Technology Agency 顔検出方法及び顔検出装置
JP2005148915A (ja) * 2003-11-12 2005-06-09 Noritsu Koki Co Ltd 適正顔判別方法及びこの方法を実施する装置
JP2005159387A (ja) * 2003-11-20 2005-06-16 Noritsu Koki Co Ltd 濃度特性曲線を決定する方法及びこの方法を実施する濃度補正管理装置
JP2006338507A (ja) * 2005-06-03 2006-12-14 Fujifilm Holdings Corp 処理装置及び処理方法
JP2008079022A (ja) * 2006-09-21 2008-04-03 Noritsu Koki Co Ltd 画像補正ユニットと画像補正プログラム
JP2009038737A (ja) * 2007-08-03 2009-02-19 Canon Inc 画像処理装置
JP2009124264A (ja) * 2007-11-12 2009-06-04 Ricoh Co Ltd 画像処理装置および画像処理方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1137267A3 (en) * 2000-02-07 2005-09-14 Sony Corporation Device and method for image processing
JP4415236B2 (ja) 2000-02-07 2010-02-17 ソニー株式会社 画像処理装置及び画像処理方法
JP4649781B2 (ja) * 2001-06-20 2011-03-16 ソニー株式会社 画像処理方法および装置
JP3997833B2 (ja) 2002-05-24 2007-10-24 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
US7082211B2 (en) * 2002-05-31 2006-07-25 Eastman Kodak Company Method and system for enhancing portrait images
US6975759B2 (en) * 2002-06-25 2005-12-13 Koninklijke Philips Electronics N.V. Method and system for white balancing images using facial color as a reference signal
JP4224996B2 (ja) * 2002-07-25 2009-02-18 パナソニック株式会社 撮像装置
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US20100053367A1 (en) * 2003-08-05 2010-03-04 Fotonation Ireland Limited Partial face tracker for red-eye filter method and apparatus
EP1524625A2 (en) * 2003-10-17 2005-04-20 Matsushita Electric Industrial Co., Ltd. Enhancement of interpolated image
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
JP4154400B2 (ja) * 2004-04-01 2008-09-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP4708909B2 (ja) * 2005-08-09 2011-06-22 富士フイルム株式会社 デジタル画像の対象物検出方法および装置並びにプログラム
US7755670B2 (en) * 2005-10-24 2010-07-13 Nikon Corporation Tone-conversion device for image, program, electronic camera, and tone-conversion method
US8315507B2 (en) * 2006-01-05 2012-11-20 Nec Corporation Video generation device, video generation method, and video generation program
JP4657934B2 (ja) * 2006-01-23 2011-03-23 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US7843493B2 (en) * 2006-01-31 2010-11-30 Konica Minolta Holdings, Inc. Image sensing apparatus and image processing method
JP4273428B2 (ja) * 2006-01-31 2009-06-03 ソニー株式会社 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US20070223834A1 (en) * 2006-03-23 2007-09-27 Samsung Electronics Co., Ltd. Method for small detail restoration in digital images
JP4218712B2 (ja) * 2006-08-04 2009-02-04 ソニー株式会社 顔検出装置、撮像装置および顔検出方法
JP4218711B2 (ja) * 2006-08-04 2009-02-04 ソニー株式会社 顔検出装置、撮像装置および顔検出方法
CN100397411C (zh) * 2006-08-21 2008-06-25 北京中星微电子有限公司 实时鲁棒的人脸追踪显示方法及系统
JP4218720B2 (ja) * 2006-09-22 2009-02-04 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP4946795B2 (ja) * 2007-10-29 2012-06-06 ソニー株式会社 画像処理装置及び画像処理方法
JP2009110486A (ja) * 2007-11-01 2009-05-21 Sony Corp 画像処理装置、画像処理方法および画像処理プログラム、並びに、撮像装置および撮像装置の制御方法
KR101423916B1 (ko) * 2007-12-03 2014-07-29 삼성전자주식회사 복수의 얼굴 인식 방법 및 장치
JP5113514B2 (ja) * 2007-12-27 2013-01-09 キヤノン株式会社 ホワイトバランス制御装置およびホワイトバランス制御方法
JP2009244660A (ja) 2008-03-31 2009-10-22 Honda Motor Co Ltd 運転研修装置
JP2010035048A (ja) * 2008-07-30 2010-02-12 Fujifilm Corp 撮像装置及び撮像方法
JP5421727B2 (ja) * 2009-10-20 2014-02-19 キヤノン株式会社 画像処理装置およびその制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218047A (ja) * 2000-02-04 2001-08-10 Fuji Photo Film Co Ltd 画像処理装置
JP2004054610A (ja) * 2002-07-19 2004-02-19 Sony Corp トラッキング装置及び方法並びにロボット装置
JP2004206665A (ja) * 2002-10-30 2004-07-22 Japan Science & Technology Agency 顔検出方法及び顔検出装置
JP2005148915A (ja) * 2003-11-12 2005-06-09 Noritsu Koki Co Ltd 適正顔判別方法及びこの方法を実施する装置
JP2005159387A (ja) * 2003-11-20 2005-06-16 Noritsu Koki Co Ltd 濃度特性曲線を決定する方法及びこの方法を実施する濃度補正管理装置
JP2006338507A (ja) * 2005-06-03 2006-12-14 Fujifilm Holdings Corp 処理装置及び処理方法
JP2008079022A (ja) * 2006-09-21 2008-04-03 Noritsu Koki Co Ltd 画像補正ユニットと画像補正プログラム
JP2009038737A (ja) * 2007-08-03 2009-02-19 Canon Inc 画像処理装置
JP2009124264A (ja) * 2007-11-12 2009-06-04 Ricoh Co Ltd 画像処理装置および画像処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019048117A (ja) * 2014-02-05 2019-03-28 カシオ計算機株式会社 医療用画像の画像処理回路、画像処理方法及びプログラム
JP2015180989A (ja) * 2014-03-07 2015-10-15 株式会社リコー 画像処理装置、画像処理方法、プログラム及び記憶媒体
CN104751419A (zh) * 2015-03-05 2015-07-01 广东欧珀移动通信有限公司 一种照片显示调节方法及终端
CN104751419B (zh) * 2015-03-05 2018-03-27 广东欧珀移动通信有限公司 一种照片显示调节方法及终端

Also Published As

Publication number Publication date
US9202107B2 (en) 2015-12-01
CN102044056B (zh) 2014-09-10
EP2315430A2 (en) 2011-04-27
US20110096986A1 (en) 2011-04-28
US20140119607A1 (en) 2014-05-01
US8660320B2 (en) 2014-02-25
CN102044056A (zh) 2011-05-04
EP2315430A3 (en) 2016-09-14

Similar Documents

Publication Publication Date Title
JP2011090569A (ja) 画像処理装置および画像処理方法
US10134359B2 (en) Device or method for displaying image
KR100860965B1 (ko) 노이즈 저감기능을 갖는 적응적 채도 향상 장치 및 방법
US8368779B2 (en) Image processing apparatus for performing gradation correction on subject image
US8320705B2 (en) Image processing apparatus and image processing method
US20080159646A1 (en) Image processing device and image processing method
CN110009588B (zh) 一种人像图像色彩增强方法及装置
US20140153820A1 (en) Image processing apparatus and method of processing image
JP5901667B2 (ja) 画像処理装置及び方法、画像処理プログラム、撮像装置
JP4021261B2 (ja) 画像処理装置
JP2005353069A (ja) 彩度適応的な映像向上装置およびその方法
JP2012108898A (ja) 画像処理装置、画像処理方法
US8659684B2 (en) Image processing apparatus, program, method and image capturing system
JP2003283878A (ja) 画質改善方法
US8355597B2 (en) Image processing device including gradation conversion processor, noise reduction processor, and combining-raio calculator, and method and storage device storing progam for same
JP4289225B2 (ja) 画像処理装置および画像処理方法
JPH06339017A (ja) カラー画像の彩度強調方法及び装置
JP4664938B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2012028937A (ja) 映像信号補正装置および映像信号補正プログラム
JP4769332B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5381354B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP2013179549A (ja) 適応的階調補正装置および方法
JP3731741B2 (ja) カラー動画像処理方法および処理装置
JP2007013666A (ja) 画像処理装置
US7773824B2 (en) Signal processing device and method, recording medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140820

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140828

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20141031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150717