JP2009059257A - 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム - Google Patents
情報処理装置、および情報処理方法、並びにコンピュータ・プログラム Download PDFInfo
- Publication number
- JP2009059257A JP2009059257A JP2007227262A JP2007227262A JP2009059257A JP 2009059257 A JP2009059257 A JP 2009059257A JP 2007227262 A JP2007227262 A JP 2007227262A JP 2007227262 A JP2007227262 A JP 2007227262A JP 2009059257 A JP2009059257 A JP 2009059257A
- Authority
- JP
- Japan
- Prior art keywords
- face
- line
- sight
- image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 151
- 238000003672 processing method Methods 0.000 title claims description 48
- 238000004590 computer program Methods 0.000 title claims description 12
- 238000012545 processing Methods 0.000 claims abstract description 183
- 210000001508 eye Anatomy 0.000 claims abstract description 69
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims description 189
- 230000008569 process Effects 0.000 claims description 184
- 238000001514 detection method Methods 0.000 claims description 147
- 238000003384 imaging method Methods 0.000 claims description 48
- 239000000470 constituent Substances 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 11
- 230000001815 facial effect Effects 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 6
- 238000010191 image analysis Methods 0.000 abstract 1
- 241001465754 Metazoa Species 0.000 description 8
- 238000013523 data management Methods 0.000 description 6
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 235000002673 Dioscorea communis Nutrition 0.000 description 3
- 241000544230 Dioscorea communis Species 0.000 description 3
- 208000035753 Periorbital contusion Diseases 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】画像中の顔領域、目鼻口を検出し、目鼻口の検出された顔画像の視線判別処理を実行する。視線判別処理は、(a)視線がカメラ方向を向いているポジティブ状態、(b)視線がカメラ方向を向いていないネガティブ状態、上記(a),(b)のいずれであるかを、各状態に対応する分類データからなる学習データを格納した視線判別辞書を利用して行う。具体的には、画像の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを適用する。本構成によれば、視線がカメラ方向を向いているかいないかの2つの状態判別という明確な区分による視線判別であり、判別処理の精度が高く、また判別結果の利用価値も高い構成が実現される。
【選択図】図2
Description
Passive Driver Gaze Tracking with Active Appearance Models T.Ishikawa,S.Baker,I.Matthews,and T.Kanade Proceedings of the 11th World Congress on Intelligent Transportation Systems, October, 2004. 対話システムのための視線方向認識 山畠利彦、藤江真也 画像の認識・理解シンポジウム(MIRU2006) 眼球形状モデルに基づく視線測定法 大野健彦、武川直樹、吉川厚 (NTTコミュニケーション科学基礎研究所) 第8回画像センシングシンポジウム講演論文集,pp.307−312.
画像データに含まれる顔領域を検出する顔検出部と、
前記顔検出部の検出した顔領域から顔構成部位を検出する顔構成部位検出部と、
前記顔構成部位検出部において顔構成部位の検出された顔画像の視線判別処理を実行する視線判別部を有し、
前記視線判別部は、
顔構成部位の検出された顔画像データの視線について、
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれであるかを判別する処理を、上記(a),(b)各状態に対応する分類データからなる学習データを格納した視線判別辞書と入力顔画像データとの照合処理によって実行する構成であることを特徴とする情報処理装置にある。
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれかの画像を選択抽出する検索処理を実行する構成を有することを特徴とする。
情報処理装置において実行する情報処理方法であり、
顔検出部が、画像データに含まれる顔領域を検出する顔検出ステップと、
顔構成部位検出部が、前記顔検出ステップにおいて検出した顔領域から顔構成部位を検出する顔構成部位検出ステップと、
視線判別部が、前記顔構成部位検出ステップにおいて顔構成部位の検出された顔画像の視線判別処理を実行する視線判別ステップを有し、
前記視線判別ステップは、
顔構成部位の検出された顔画像データの視線について、
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれであるかを判別する処理を、上記(a),(b)各状態に対応する分類データからなる学習データを格納した視線判別辞書と入力顔画像データとの照合処理によって実行するステップであることを特徴とする情報処理方法にある。
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれかの画像を選択抽出する検索処理を実行するステップを有することを特徴とする。
情報処理装置において情報処理を実行させるコンピュータ・プログラムであり、
顔検出部に、画像データに含まれる顔領域を検出させる顔検出ステップと、
顔構成部位検出部に、前記顔検出ステップにおいて検出した顔領域から顔構成部位を検出させる顔構成部位検出ステップと、
視線判別部に、前記顔構成部位検出ステップにおいて顔構成部位の検出された顔画像の視線判別処理を実行させる視線判別ステップを有し、
前記視線判別ステップは、
顔構成部位の検出された顔画像データの視線について、
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれであるかを判別する処理を、上記(a),(b)各状態に対応する分類データからなる学習データを格納した視線判別辞書と入力顔画像データとの照合処理によって実行させるステップであることを特徴とするコンピュータ・プログラムにある。
ポジティブ状態(Positive):カメラに対して視線が向いている顔(正面顔や横顔も含む)
ネガティブ状態(Negative):カメラに対して視線が向いていない顔、例えば、横を見ている顔や、目を閉じてしまっている顔
図1(b)は、ネガティブ状態(Negative)、すなわち、カメラに対して視線が向いていない顔の例である。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかを判別する。
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態に対応する分類データからなる学習データ、すなわち視線判別の学習結果が格納され、視線判別部104は、入力画像の特定位置の画素ペアの差分値データと、学習結果が格納された視線判別辞書123のデータとの照合によって視線判別処理を実行する。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかを学習で得られた画像の特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用した処理によって判別し、判別結果を出力する。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかを学習で得られた画像の特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用した処理によって判別するが、この処理を実行する際、顔画像の全体についての処理を行うと処理時間が長くなってしまう。従って、画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用した処理の適用範囲を目の領域に限定するなどの処理範囲を制限する処理を行うことが好ましい。
(a)両目を含む矩形領域を処理対照領域として設定するマスク
(b)各目の個別領域を処理対象領域として設定するマスク
(c)各目と鼻上部領域を処理対象領域として設定するマスク
(d)各目と鼻全体を処理対象領域として設定するマスク
これらのマスクを設定して、処理領域を限定することで、効率的な学習結果の生成や、判別処理が可能となる。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別を行ったものであり、ほとんどの実験結果は正解であった。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかを判別する。1つの顔画像について、この視線判別処理が終了すると、ステップS101に戻り次の顔画像の処理に移行する。ステップS102において未処理画像がないと判断されると処理が終了する。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかを判別するというきわめて明確な2状態判別処理であり、この2状態判別処理を、特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用して学習データとして取得された視線判別辞書123を用いて実行する構成であり、より多くの学習データから生成された辞書を適用することで正確な視線判別が可能となる。また、視線判別辞書を視線判別対象によって使い分けることで、より正確な判別が実現される。例えば、人の視線判別を実行する場合は、人用の辞書を、猫なら猫用の辞書を、犬なら犬用の辞書といったような辞書の使い分けである。
(a)画像音声認識システムにおける利用例
(b)撮像装置における利用例A
(c)画像データ管理システムにおける利用例
(d)撮像装置における利用例B
これらの処理は、(a)(d)は例えばPC等の情報処理装置において実行され、(b),(d)はスチルカメラやビデオカメラなどの撮像装置において実行される。以下、これらの処理シーケンスについて説明する。
まず、上述した視線判別処理を画像音声認識システムに応用した利用例について図6に示すフローチャートを参照して説明する。図6に示すフローは、例えばPCなどの情報処理装置において実行される。図6に示す処理シーケンスおよび先に図5を参照して説明した視線判別処理を実行するプログラムが情報処理装置の記憶部に格納され、CPU等によって構成される制御部において図6に示す処理シーケンスおよび先に図5を参照して説明した視線判別処理が実行される。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果である。
次に、上述した視線判別処理を撮像装置において利用した処理例について図7に示すフローチャートを参照して説明する。図7に示すフローは、例えばデジタルスチルカメラなどの撮像装置において実行される。図7に示す処理シーケンスおよび先に図5を参照して説明した視線判別処理を実行するプログラムが撮像装置の記憶部に格納され、CPU等によって構成される制御部において図7に示す処理シーケンスおよび先に図5を参照して説明した視線判別処理が実行される。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果である。
次に、上述した視線判別処理を画像データ管理システムに応用した利用例について図8に示すフローチャートを参照して説明する。図8に示すフローは、例えばPCなどの情報処理装置において実行される。図8に示す処理シーケンスおよび先に図5を参照して説明した視線判別処理を実行するプログラムが情報処理装置の記憶部に格納され、CPU等によって構成される制御部において図8に示す処理シーケンスおよび先に図5を参照して説明した視線判別処理が実行される。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果が各画像フレームに対応する情報として取得される。
(a)ポジティブ状態(Positive)の顔画像を含むフレーム、
(b)ネガティブ状態(Negative)の顔画像のみのフレーム、
(c)顔画像を含まないフレーム、
上記(a)〜(c)のフレームに分類する処理などが実行される。
次に、上述した視線判別処理を撮像装置において利用した処理例について図9に示すフローチャートを参照して説明する。図9に示すフローは、例えばデジタルスチルカメラなどの撮像装置において実行される。図9に示す処理シーケンスおよび先に図5を参照して説明した視線判別処理を実行するプログラムが撮像装置の記憶部に格納され、CPU等によって構成される制御部において図9に示す処理シーケンスおよび先に図5を参照して説明した視線判別処理が実行される。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果である。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別を行うものであり、カメラの取得画像に基づいて、上記の視線判別処理を行い、モニタなどに警告アイコンなどを表示することができるようになる。また、多くの顔がモニタに表示されている場合、ネガティブ状態(Negative)、すなわち、カメラに対して視線が向いていない人物のみを特定した識別情報を各顔に対応付けて表示するといった処理も可能となる。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果を生成し、判別結果情報を表示部315に出力する。表示部315は、ポジティブ状態(Positive)の顔の含まれる画像、すなわち、カメラに対して視線が向いている画像のみを選択して表示するといった処理を行う。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果を生成し、判別結果情報を画像対応のメタ情報として設定して画像データとともにデータベース323に格納する。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果を生成する。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果を生成する。
(a)ポジティブ状態(Positive):カメラに対して視線が向いている、
(b)ネガティブ状態(Negative):カメラに対して視線が向いていない、
これらの2つの状態のいずれにあるかの判別結果を設定したファイルを生成し、生成したメタデータ付与動画像ファイルが記憶部424に記録される。
101 顔検出部
102 目鼻口検出部
103 画像処理部
104 視線判別部
111 回転補正処理部
112 顔サイズ正規化処理部
113 顔領域切り出し部
121 顔検出辞書
122 目鼻口検出辞書
123 視線判別辞書
311 入力部
312 検索部
313 データベース
314 視線検出部
315 表示部
321 入力部
322 視線検出部
323 データベース
324 入力部
325 検索部
326 表示部
411 入力部
412 視線検出部
413 記憶部
421 入力部
422 視線検出部
423 ファイル作成部
424 記憶部
500 撮像装置
501 撮像部
502 アナログ信号処理部
503 A/D変換部
504 デジタル信号処理部
505 視線検出部
510 制御部
511 操作部
512 メモリ
515 記録デバイス
516 ビューファインダ
517 モニタ
520 メモリ(ROM)
521 メモリ(RAM)
701 CPU
702 ROM
703 RAM
704 バス
705 入出力インタフェース
706 入力部
707 出力部
708 記憶部
709 通信部
710 ドライブ
711 リムーバブルメディア
Claims (25)
- 画像データに含まれる顔領域を検出する顔検出部と、
前記顔検出部の検出した顔領域から顔構成部位を検出する顔構成部位検出部と、
前記顔構成部位検出部において顔構成部位の検出された顔画像の視線判別処理を実行する視線判別部を有し、
前記視線判別部は、
顔構成部位の検出された顔画像データの視線について、
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれであるかを判別する処理を、上記(a),(b)各状態に対応する分類データからなる学習データを格納した視線判別辞書と入力顔画像データとの照合処理によって実行する構成であることを特徴とする情報処理装置。 - 前記顔構成部位検出部は、
前記顔検出部の検出した顔領域から目鼻口を検出する構成であり、
前記視線判別部は、
目鼻口の検出された顔画像データの視線判別処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記視線判別部は、
画像の特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用した処理によって視線判別処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記情報処理装置は、
前記顔構成部位検出部において顔構成部位の検出された顔画像の回転処理、サイズ正規化処理、顔領域切り出し処理を実行する画像処理部を有し、
前記視線判別部は、
前記画像処理部における処理画像を入力して視線判別処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記顔検出部は、
画像データに含まれる顔領域検出処理を、様々な顔領域画像情報を格納した顔検出辞書を参照して、画像の特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用して実行する構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記顔構成部位検出部は、
前記顔検出部の検出した顔領域からの顔構成部位検出処理を、様々な顔構成部位画像情報を格納した顔構成部位検出辞書を参照して、画像の特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用して実行する構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記情報処理装置は、
音声認識処理を実行する音声認識部を有し、
前記視線判別部における視線判別結果と、前記音声認識部における音声認識結果を統合して、発話者の解析を実行する構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記情報処理装置は撮像装置であり、
前記視線判別部における視線判別結果を入力して撮像装置のシャッター制御を実行するシャッター制御部を有し、
前記シャッター制御部は、
撮像装置の取得画像に含まれる顔の視線中に、視線がカメラ方向を向いていないネガティブ状態の顔画像が含まれる場合に、シャッター操作を不可とする制御を行う構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記情報処理装置は、さらに、
前記視線判別部において判別された複数の画像フレームに対応する視線判別結果を入力して、画像データの選別処理を行うフレーム選別部を有し、
前記フレーム選別部は、
ポジティブ状態とネガティブ状態の各状態情報を適用して画像フレームの選別を行う構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記情報処理装置は撮像装置であり、
前記視線判別部における視線判別結果を入力して警告出力を実行する警告出力部を有し、
前記警告出力部は、
撮像装置の取得画像に含まれる顔の視線中に、視線がカメラ方向を向いていないネガティブ状態の顔画像が含まれる場合に、警告出力を行う構成であることを特徴とする請求項1に記載の情報処理装置。 - 前記情報処理装置は、
前記視線判別部の視線判別結果をデータ検索処理に適用して、
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれかの画像を選択抽出する検索処理を実行する構成を有することを特徴とする請求項1に記載の情報処理装置。 - 前記情報処理装置は、
画像データの視線判別処理結果を記憶部に格納する画像データの対応情報として記憶部に格納する処理を行う構成を有することを特徴とする請求項1に記載の情報処理装置。 - 情報処理装置において実行する情報処理方法であり、
顔検出部が、画像データに含まれる顔領域を検出する顔検出ステップと、
顔構成部位検出部が、前記顔検出ステップにおいて検出した顔領域から顔構成部位を検出する顔構成部位検出ステップと、
視線判別部が、前記顔構成部位検出ステップにおいて顔構成部位の検出された顔画像の視線判別処理を実行する視線判別ステップを有し、
前記視線判別ステップは、
顔構成部位の検出された顔画像データの視線について、
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれであるかを判別する処理を、上記(a),(b)各状態に対応する分類データからなる学習データを格納した視線判別辞書と入力顔画像データとの照合処理によって実行するステップであることを特徴とする情報処理方法。 - 前記顔構成部位検出ステップは、
前記顔検出ステップにおいて検出された顔領域から目鼻口を検出するステップであり、
前記視線判別ステップは、
目鼻口の検出された顔画像データの視線判別処理を実行するステップであることを特徴とする請求項13に記載の情報処理方法。 - 前記視線判別ステップは、
画像の特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用した処理によって視線判別処理を実行するステップであることを特徴とする請求項13に記載の情報処理方法。 - 前記情報処理方法は、さらに、
画像処理部が、前記顔構成部位検出部において顔構成部位の検出された顔画像の回転処理、サイズ正規化処理、顔領域切り出し処理を実行する画像処理ステップを有し、
前記視線判別ステップは、
前記画像処理ステップにおいて処理された画像を入力して視線判別処理を実行するステップであることを特徴とする請求項13に記載の情報処理方法。 - 前記顔検出ステップは、
画像データに含まれる顔領域検出処理を、様々な顔領域画像情報を格納した顔検出辞書を参照して、画像の特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用して実行するステップであることを特徴とする請求項13に記載の情報処理方法。 - 前記顔構成部位検出ステップは、
前記顔検出ステップにおいて検出された顔領域からの顔構成部位検出処理を、様々な顔構成部位画像情報を格納した顔構成部位検出辞書を参照して、画像の特定位置の画素ペアの差分値を比較照合データとして利用するPixDifアルゴリズムを利用して実行するステップであることを特徴とする請求項13に記載の情報処理方法。 - 前記情報処理方法は、さらに、
音声認識部が、音声認識処理を実行する音声認識ステップと、
データ処理部が、視線判別結果と、前記音声認識部における音声認識結果を統合して、発話者の解析を実行するステップを有することを特徴とする請求項13に記載の情報処理方法。 - 前記情報処理装置は撮像装置であり、
前記情報処理方法は、さらに、
シャッター制御部が、前記視線判別ステップにおける視線判別結果を入力して撮像装置のシャッター制御を実行するシャッター制御ステップを有し、
前記シャッター制御ステップは、
撮像装置の取得画像に含まれる顔の視線中に、視線がカメラ方向を向いていないネガティブ状態の顔画像が含まれる場合に、シャッター操作を不可とする制御を行うステップであることを特徴とする請求項13に記載の情報処理方法。 - 前記情報処理方法は、さらに、
フレーム選別部が、前記視線判別ステップにおいて判別された複数の画像フレームに対応する視線判別結果を入力して、画像データの選別処理を行うフレーム選別ステップを有し、
前記フレーム選別ステップは、
ポジティブ状態とネガティブ状態の各状態情報を適用して画像フレームの選別を行うステップであることを特徴とする請求項13に記載の情報処理方法。 - 前記情報処理装置は撮像装置であり、
前記情報処理方法は、さらに、
警告出力部が、前記視線判別ステップにおける視線判別結果を入力して警告出力を実行する警告出力ステップを有し、
前記警告出力ステップは、
撮像装置の取得画像に含まれる顔の視線中に、視線がカメラ方向を向いていないネガティブ状態の顔画像が含まれる場合に、警告出力を行うステップであることを特徴とする請求項13に記載の情報処理方法。 - 前記情報処理方法は、さらに、
検索部が、前記視線判別部の視線判別結果をデータ検索処理に適用して、
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれかの画像を選択抽出する検索処理を実行するステップを有することを特徴とする請求項13に記載の情報処理方法。 - 前記情報処理方法は、さらに、
データ処理部が、画像データの視線判別処理結果を記憶部に格納する画像データの対応情報として記憶部に格納する処理を行うステップを有することを特徴とする請求項13に記載の情報処理方法。 - 情報処理装置において情報処理を実行させるコンピュータ・プログラムであり、
顔検出部に、画像データに含まれる顔領域を検出させる顔検出ステップと、
顔構成部位検出部に、前記顔検出ステップにおいて検出した顔領域から顔構成部位を検出させる顔構成部位検出ステップと、
視線判別部に、前記顔構成部位検出ステップにおいて顔構成部位の検出された顔画像の視線判別処理を実行させる視線判別ステップを有し、
前記視線判別ステップは、
顔構成部位の検出された顔画像データの視線について、
(a)視線がカメラ方向を向いているポジティブ状態、
(b)視線がカメラ方向を向いていないネガティブ状態、
上記(a),(b)の2状態のいずれであるかを判別する処理を、上記(a),(b)各状態に対応する分類データからなる学習データを格納した視線判別辞書と入力顔画像データとの照合処理によって実行させるステップであることを特徴とするコンピュータ・プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007227262A JP2009059257A (ja) | 2007-09-03 | 2007-09-03 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
EP08162818A EP2031545A2 (en) | 2007-09-03 | 2008-08-22 | Information processing apparatus, information processing method, and computer program |
US12/197,408 US8295556B2 (en) | 2007-09-03 | 2008-08-25 | Apparatus and method for determining line-of-sight direction in a face image and controlling camera operations therefrom |
CN2008102139672A CN101383000B (zh) | 2007-09-03 | 2008-09-01 | 信息处理装置和信息处理方法 |
KR1020080086317A KR20090024086A (ko) | 2007-09-03 | 2008-09-02 | 정보 처리 장치, 정보 처리 방법, 및 컴퓨터 프로그램 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007227262A JP2009059257A (ja) | 2007-09-03 | 2007-09-03 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009059257A true JP2009059257A (ja) | 2009-03-19 |
JP2009059257A5 JP2009059257A5 (ja) | 2010-04-15 |
Family
ID=40177981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007227262A Pending JP2009059257A (ja) | 2007-09-03 | 2007-09-03 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US8295556B2 (ja) |
EP (1) | EP2031545A2 (ja) |
JP (1) | JP2009059257A (ja) |
KR (1) | KR20090024086A (ja) |
CN (1) | CN101383000B (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012226665A (ja) * | 2011-04-21 | 2012-11-15 | Canon Inc | 情報処理装置、その処理方法、プログラム及び撮像装置 |
JP2012242609A (ja) * | 2011-05-19 | 2012-12-10 | Mitsubishi Heavy Ind Ltd | 音声認識装置、ロボット、及び音声認識方法 |
KR101245330B1 (ko) | 2011-12-20 | 2013-03-25 | 경희대학교 산학협력단 | 개인용 컴퓨터 기반 시야 자가진단 시스템 및 시선 고정방법 |
EP2782047A2 (en) | 2013-03-22 | 2014-09-24 | Canon Kabushiki Kaisha | Line-of-sight detection apparatus and image capturing apparatus |
JP2016100800A (ja) * | 2014-11-25 | 2016-05-30 | カシオ計算機株式会社 | 撮影装置、撮影方法及びプログラム |
WO2020065790A1 (ja) | 2018-09-26 | 2020-04-02 | 日本電気株式会社 | 推定装置、推定方法、および記憶媒体 |
US11232584B2 (en) | 2016-10-31 | 2022-01-25 | Nec Corporation | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5662670B2 (ja) * | 2009-10-27 | 2015-02-04 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP5634111B2 (ja) * | 2010-04-28 | 2014-12-03 | キヤノン株式会社 | 映像編集装置、映像編集方法及びプログラム |
JP5618686B2 (ja) * | 2010-08-03 | 2014-11-05 | キヤノン株式会社 | 視線検出装置、視線検出方法及びプログラム |
US9507416B2 (en) * | 2011-02-22 | 2016-11-29 | Robert Howard Kimball | Providing a corrected view based on the position of a user with respect to a mobile platform |
JP2013092911A (ja) * | 2011-10-26 | 2013-05-16 | Sony Corp | 情報処理装置、情報処理方法、および、プログラム |
US20130273969A1 (en) * | 2011-12-01 | 2013-10-17 | Finding Rover, Inc. | Mobile app that generates a dog sound to capture data for a lost pet identifying system |
US10559380B2 (en) | 2011-12-30 | 2020-02-11 | Elwha Llc | Evidence-based healthcare information management protocols |
US10340034B2 (en) | 2011-12-30 | 2019-07-02 | Elwha Llc | Evidence-based healthcare information management protocols |
US10402927B2 (en) | 2011-12-30 | 2019-09-03 | Elwha Llc | Evidence-based healthcare information management protocols |
US10528913B2 (en) | 2011-12-30 | 2020-01-07 | Elwha Llc | Evidence-based healthcare information management protocols |
US10475142B2 (en) | 2011-12-30 | 2019-11-12 | Elwha Llc | Evidence-based healthcare information management protocols |
US10679309B2 (en) | 2011-12-30 | 2020-06-09 | Elwha Llc | Evidence-based healthcare information management protocols |
US10552581B2 (en) | 2011-12-30 | 2020-02-04 | Elwha Llc | Evidence-based healthcare information management protocols |
US9148537B1 (en) * | 2012-05-18 | 2015-09-29 | hopTo Inc. | Facial cues as commands |
US9395826B1 (en) | 2012-05-25 | 2016-07-19 | hopTo Inc. | System for and method of translating motion-based user input between a client device and an application host computer |
US8995772B2 (en) * | 2012-11-09 | 2015-03-31 | Microsoft Technology Licensing, Llc | Real-time face detection using pixel pairs |
WO2015072604A1 (ko) * | 2013-11-15 | 2015-05-21 | 엘지전자(주) | 투명 디스플레이 장치와 그의 제어방법 |
JP2015142317A (ja) * | 2014-01-30 | 2015-08-03 | シャープ株式会社 | 電子機器 |
JP6573193B2 (ja) * | 2015-07-03 | 2019-09-11 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、および判定プログラム |
US10671837B2 (en) * | 2015-09-08 | 2020-06-02 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
JP6872742B2 (ja) * | 2016-06-30 | 2021-05-19 | 学校法人明治大学 | 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム |
CN105930834B (zh) * | 2016-07-01 | 2019-04-09 | 北京邮电大学 | 基于球哈希二值编码的人脸识别方法及装置 |
US10740446B2 (en) | 2017-08-24 | 2020-08-11 | International Business Machines Corporation | Methods and systems for remote sensing device control based on facial information |
CN108924483A (zh) * | 2018-06-27 | 2018-11-30 | 南京朴厚生态科技有限公司 | 一种基于深度学习技术的野外动物的自动监测系统和方法 |
CN110458122B (zh) * | 2019-08-15 | 2022-04-22 | 京东方科技集团股份有限公司 | 一种视线标校方法、显示装置的播放方法和视线标校系统 |
CN115269653B (zh) * | 2022-07-29 | 2023-07-04 | 中汽研汽车检验中心(武汉)有限公司 | 一种针对安全达标车型检测项目的自动视同判定方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175246A (ja) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | 視線検出装置及びその方法 |
JP2006319610A (ja) * | 2005-05-12 | 2006-11-24 | Matsushita Electric Ind Co Ltd | 撮像装置 |
JP2007265367A (ja) * | 2006-03-30 | 2007-10-11 | Fujifilm Corp | 視線検出方法および装置ならびにプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5640610A (en) * | 1992-03-18 | 1997-06-17 | Nikon Corporation | Camera with a line-of-sight detecting device |
JP3352238B2 (ja) * | 1994-07-26 | 2002-12-03 | キヤノン株式会社 | 視線検出装置及びカメラ |
EP0701162B1 (en) * | 1994-09-07 | 2003-11-26 | Canon Kabushiki Kaisha | A camera having a line-of-sight detecting means |
USRE38884E1 (en) * | 1995-02-16 | 2005-11-22 | Sumitomo Electric Industries, Ltd. | Two-way interactive system, terminal equipment and image pickup apparatus having mechanism for matching lines of sight between interlocutors through transmission means |
WO1997046978A1 (en) * | 1996-06-06 | 1997-12-11 | British Telecommunications Public Limited Company | Personal identification |
JPH11110120A (ja) * | 1997-10-07 | 1999-04-23 | Canon Inc | 視線情報入力装置及び視線情報入力方法 |
JP2000259814A (ja) * | 1999-03-11 | 2000-09-22 | Toshiba Corp | 画像処理装置及びその方法 |
US7221809B2 (en) * | 2001-12-17 | 2007-05-22 | Genex Technologies, Inc. | Face recognition system and method |
AU2003219926A1 (en) * | 2002-02-26 | 2003-09-09 | Canesta, Inc. | Method and apparatus for recognizing objects |
CN1174337C (zh) * | 2002-10-17 | 2004-11-03 | 南开大学 | 识别人眼注视与否的方法和装置及其应用 |
JP4218348B2 (ja) * | 2003-01-17 | 2009-02-04 | オムロン株式会社 | 撮影装置 |
US7593550B2 (en) * | 2005-01-26 | 2009-09-22 | Honeywell International Inc. | Distance iris recognition |
JP5093968B2 (ja) * | 2003-10-15 | 2012-12-12 | オリンパス株式会社 | カメラ |
JP4604190B2 (ja) * | 2004-02-17 | 2010-12-22 | 国立大学法人静岡大学 | 距離イメージセンサを用いた視線検出装置 |
JP2005253778A (ja) * | 2004-03-12 | 2005-09-22 | Gen Tec:Kk | 視線検出方法及び同装置 |
JP4482796B2 (ja) | 2004-03-26 | 2010-06-16 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
JP4628882B2 (ja) | 2005-06-16 | 2011-02-09 | 富士フイルム株式会社 | 判別器の学習方法、顔判別方法および装置並びにプログラム |
JP2007011935A (ja) | 2005-07-04 | 2007-01-18 | Fujifilm Holdings Corp | 顔判別方法および装置並びにプログラム |
JP2007094618A (ja) * | 2005-09-28 | 2007-04-12 | Omron Corp | 通知制御装置および方法、記録媒体、並びに、プログラム。 |
JP4824420B2 (ja) * | 2006-02-07 | 2011-11-30 | アイテック株式会社 | 視線ベクトル検出方法及び同装置 |
JP4993918B2 (ja) | 2006-02-24 | 2012-08-08 | 三菱電線工業株式会社 | 集合導体及びその製造方法 |
-
2007
- 2007-09-03 JP JP2007227262A patent/JP2009059257A/ja active Pending
-
2008
- 2008-08-22 EP EP08162818A patent/EP2031545A2/en not_active Withdrawn
- 2008-08-25 US US12/197,408 patent/US8295556B2/en not_active Expired - Fee Related
- 2008-09-01 CN CN2008102139672A patent/CN101383000B/zh not_active Expired - Fee Related
- 2008-09-02 KR KR1020080086317A patent/KR20090024086A/ko not_active Application Discontinuation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175246A (ja) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | 視線検出装置及びその方法 |
JP2006319610A (ja) * | 2005-05-12 | 2006-11-24 | Matsushita Electric Ind Co Ltd | 撮像装置 |
JP2007265367A (ja) * | 2006-03-30 | 2007-10-11 | Fujifilm Corp | 視線検出方法および装置ならびにプログラム |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012226665A (ja) * | 2011-04-21 | 2012-11-15 | Canon Inc | 情報処理装置、その処理方法、プログラム及び撮像装置 |
JP2012242609A (ja) * | 2011-05-19 | 2012-12-10 | Mitsubishi Heavy Ind Ltd | 音声認識装置、ロボット、及び音声認識方法 |
KR101245330B1 (ko) | 2011-12-20 | 2013-03-25 | 경희대학교 산학협력단 | 개인용 컴퓨터 기반 시야 자가진단 시스템 및 시선 고정방법 |
WO2013094995A1 (ko) * | 2011-12-20 | 2013-06-27 | 포항공과대학교 산학협력단 | 개인용 컴퓨터 기반 시야 자가진단 시스템 및 시야 자가진단 방법 |
US9426375B2 (en) | 2013-03-22 | 2016-08-23 | Canon Kabushiki Kaisha | Line-of-sight detection apparatus and image capturing apparatus |
EP2782047A2 (en) | 2013-03-22 | 2014-09-24 | Canon Kabushiki Kaisha | Line-of-sight detection apparatus and image capturing apparatus |
JP2016100800A (ja) * | 2014-11-25 | 2016-05-30 | カシオ計算機株式会社 | 撮影装置、撮影方法及びプログラム |
US11232584B2 (en) | 2016-10-31 | 2022-01-25 | Nec Corporation | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium |
US11232586B2 (en) | 2016-10-31 | 2022-01-25 | Nec Corporation | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium |
US11232585B2 (en) | 2016-10-31 | 2022-01-25 | Nec Corporation | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium |
WO2020065790A1 (ja) | 2018-09-26 | 2020-04-02 | 日本電気株式会社 | 推定装置、推定方法、および記憶媒体 |
US12112570B2 (en) | 2018-09-26 | 2024-10-08 | Nec Corporation | Direction estimation device, direction estimation method, and storage medium |
US12125315B2 (en) | 2018-09-26 | 2024-10-22 | Nec Corporation | Direction estimation device, direction estimation method, and storage medium |
US12217539B2 (en) | 2018-09-26 | 2025-02-04 | Nec Corporation | Estimation device, estimation method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
US20090060291A1 (en) | 2009-03-05 |
CN101383000A (zh) | 2009-03-11 |
EP2031545A2 (en) | 2009-03-04 |
CN101383000B (zh) | 2012-08-22 |
US8295556B2 (en) | 2012-10-23 |
KR20090024086A (ko) | 2009-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009059257A (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
KR101632819B1 (ko) | 무인 이미지 캡쳐를 위한 방법 및 장치 | |
JP4757173B2 (ja) | 撮像装置及びその制御方法及びプログラム | |
US9171230B2 (en) | Object detection method, object detection apparatus and image pickup apparatus | |
US8314854B2 (en) | Apparatus and method for image recognition of facial areas in photographic images from a digital camera | |
KR101180471B1 (ko) | 한정된 메모리 환경 하에서 얼굴 인식 성능 향상을 위한 참조 얼굴 데이터베이스 관리 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 | |
US20090174805A1 (en) | Digital camera focusing using stored object recognition | |
WO2019214201A1 (zh) | 活体检测方法及装置、系统、电子设备、存储介质 | |
US9159362B2 (en) | Method and system for detecting and recognizing social interactions in a video | |
JP4710979B2 (ja) | 対象物検出装置、学習装置、対象物検出方法およびプログラム | |
US11812132B2 (en) | Imaging device, control method therefor, and recording medium | |
US20120300092A1 (en) | Automatically optimizing capture of images of one or more subjects | |
US11176679B2 (en) | Person segmentations for background replacements | |
CN110557560B (zh) | 摄像设备及其控制方法和存储介质 | |
CN102857693A (zh) | 图像处理设备及其控制方法和存储介质 | |
CN102054165A (zh) | 图像处理装置及图像处理方法 | |
JP5159390B2 (ja) | 物体検知方法及びその装置 | |
JP4708835B2 (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
WO2024062971A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN118844057A (zh) | 记录方法、记录装置及程序 | |
Voit et al. | Estimating the lecturer’s head pose in seminar scenarios–a multi-view approach | |
DeCamp | Headlock: Wide-range head pose estimation for low resolution video | |
Ronzhin | Algorithms for automation of meeting participant registration and audiovisual recording in intelligent room |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100302 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110902 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111115 |