[go: up one dir, main page]

JP2014116716A - 追尾装置 - Google Patents

追尾装置 Download PDF

Info

Publication number
JP2014116716A
JP2014116716A JP2012267902A JP2012267902A JP2014116716A JP 2014116716 A JP2014116716 A JP 2014116716A JP 2012267902 A JP2012267902 A JP 2012267902A JP 2012267902 A JP2012267902 A JP 2012267902A JP 2014116716 A JP2014116716 A JP 2014116716A
Authority
JP
Japan
Prior art keywords
image
eye
unit
sub
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012267902A
Other languages
English (en)
Inventor
Hiroshi Oishi
浩 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Display Co Ltd
Original Assignee
Samsung Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Display Co Ltd filed Critical Samsung Display Co Ltd
Priority to JP2012267902A priority Critical patent/JP2014116716A/ja
Priority to KR1020130143131A priority patent/KR20140074201A/ko
Priority to US14/099,588 priority patent/US9323989B2/en
Publication of JP2014116716A publication Critical patent/JP2014116716A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ハードウェアによる処理に適した眼の認識追尾処理を提供する。
【解決手段】本発明の一実施形態として、画像情報を連続するフレームの形式で取得する画像情報取得部と、前記取得された画像情報の一つのフレームより縮小したサブ画像を複数生成し、眼の画像との尤度を算出して尤度の大きなサブ画像より眼の位置を決定する追尾部とを有し、前記追尾部は、前記一つのフレームより時間的に前に取得された画像情報の一つのフレームより決定された位置を参照して、生成するサブ画像の位置を決定する追尾装置を提供する。
【選択図】図1

Description

本発明は、物体を認識し追尾する装置に関し、特に眼を認識し追尾する装置に関する。
顔認識及び顔部位認識の技術は古くから研究されてきた分野である。近年、著しい発展を見せている統計的学習アルゴリズムの実用化により、顔認識及び顔部位認識の技術の応用は数多くなされている。特に、デジタルカメラや監視カメラにおける応用はよく知られている。また、顔部位認識技術の一部である眼の認識追尾技術も、車載カメラによる居眠り判定や3D Displayにおける視点位置に応じたレンダリング処理など多様な応用範囲が考えられる。
例えば、眼の追尾技術については、特許文献1に開示がされている。
特開2010−41526号公報
しかし、顔認識及び顔部位認識の技術や眼の認識追尾技術における処理には、通常非常に複雑かつ膨大な演算処理が要求されるため、一般的にはソフトェアを用いて処理されることが多い。一方で、このような処理をハードウェアによりリアルタイムにて処理したいという要求も増えており、汎用的な応用に対するリアルタイム処理可能な眼の認識追尾処理のハードウェアの開発が重要となってきている。
そこで、本発明の目的の一つとして、ハードウェアによる処理に適した眼の認識追尾処理について開示する。
本発明の一実施形態として、画像情報を連続するフレームの形式で取得する画像情報取得部と、前記取得された画像情報の一つのフレームより縮小したサブ画像を複数生成し、眼の画像との尤度を算出して尤度の大きなサブ画像より眼の位置を決定する追尾部とを有し、前記追尾部は、前記一つのフレームより時間的に前に取得された画像情報の一つのフレームより決定された位置を参照して、生成するサブ画像の位置を決定する追尾装置を提供する。
この形態の追尾装置は、時間的に一つ前に取得されたフレームより決定された眼の位置を参照して次のフレームにおける眼の位置を決定するので、眼の探索範囲を狭めることができ、高速な処理が可能となる。
また、追尾部が一つのフレームより複数生成するサブ画像の大きさは等しいことが好ましい。
これにより、サブ画像の処理に必要な時間を一定とすることができ、本発明の一実施形態に係る追尾装置をハードウェアによる実現に適した構成とすることができる。
また、記追尾部は、一つのフレームにガウシアンフィルタを施し、ピクセルを間引いてサブ画像を生成してもよい。
ガウシアンフィルタを用いることにより、ピクセルを間引いてもサブ画像と元の画像の部分との違いを小さくすることができ、追尾性能を向上させることができる。
また、追尾部は、サブ画像より両眼の片眼それぞれの尤度を算出し、両眼の距離、片眼の幅、両眼を結ぶ直線が水平線となす角度をパラメータとして有するモデルを生成して、眼の位置を決定してもよい。
一般に、人の画像を認識する際には、両眼が撮影されるので、両眼のモデルを生成することにより、追尾性能をさらに向上させることができる。
また、追尾部は、前記パラメータに対するパーティクルフィルタを用いて生成するサブ画像の位置を決定してもよい。
これにより、眼の複数の候補の位置を生成して管理して追尾することができ、追尾性能をさらに向上させることができる。
また、パーティクルフィルタは、フレームが取得される周期期間内に前記追尾部が眼の位置を決定することができる数のサブ画像の位置を生成してもよい。
これにより、フレームの周期を単位として動作をさせることが可能となり、ハードウェア化に適した追尾装置を提供することができる。
本発明により、ハードウェアによる処理に適した眼の認識追尾処理を提供することができる。
本発明の一実施形態に係る追尾装置の機能ブロック図である。 本発明の一実施形態に係る追尾装置の顔認識抽出部の処理を説明するための図である。 本発明の一実施形態に係る追尾装置の尤度計算部の処理を説明するための図である。 本発明の一実施形態に係る追尾装置の尤度計算部の処理を説明するための図である。 本発明の一実施形態に係る追尾装置の候補座標生成部の処理を説明するための図である。 本発明の一実施形態に係る追尾装置による処理のフローチャートである。 本発明の一実施形態に係る追尾装置を実現するためのハードウェア構成図である。 本発明の一実施形態に係る追尾装置を実現するためのハードウェア構成におけるタイミングチャートである。
以下に本発明を実施するための形態について図面を参照しながら説明を行う。なお、本発明は、以下に説明がされる形態に限定されることはなく、種々の変形を行っても実施することが可能である。
図1は、本発明の一実施形態に係る追尾装置の機能ブロック図の一例を示す。追尾装置100は、画像取得部101と、顔認識抽出部102と、追尾部103とを有する。
画像取得部101は、画像情報を取得する。画像情報は、好ましくはフレーム単位で取得される。例えば、毎秒30フレームの割合で画像情報の取得がされる。画像情報は、追尾装置100に備えられたカメラなどの撮像装置により取得することができ、あるいは、追尾装置100に接続された撮像装置や画像情報再生装置から取得することができる。
顔認識抽出部102は、画像取得部101により取得された画像情報に顔画像が含まれているかどうかを判定し、顔画像が含まれていれば、眼を含む画像の領域を抽出する。なお、顔認識抽出部102は、本発明の一実施形態に係る追尾装置100に備わっている必要はなく、追尾装置100とは別の装置として実現され、追尾部103に接続されていてもよい。
顔認識抽出部102は、図1に示すように、顔領域認識部104と眼領域抽出部105とを備えていてもよい。顔領域認識部104は、画像取得部101により取得された画像情報に顔画像が含まれているかどうかを判定し、顔画像が含まれていれば、顔画像の領域を抽出する。例えば、図2(a)に示すように、画像取得部101により取得された画像情報200に顔201が含まれていれば、顔画像の領域202を抽出する。この場合、領域202には、顔の両眼が含まれるようにするのが好ましい。なお、画像取得部101により取得された画像情報に顔画像が含まれているかどうかを判定する処理としては、公知のものを任意に使用することができる。
眼領域抽出部105は、顔領域認識部104により抽出された顔画像の領域202から両眼を含む領域203を抽出する。両眼を含む領域203は、一般的に、顔画像の領域202よりも小さいため、次に説明する追尾部103の探索領域を小さくすることができ、高速に追尾の処理を行うことができる。なお、顔領域認識部104により抽出された顔画像の領域202から両眼を含む領域203を抽出する処理としては、公知のものを任意に使用することができる。
また、顔認識抽出部102は、図1に示すように、顔領域認識部104と眼領域抽出部105との2段階の処理を行う必要はなく、顔認識の結果から得られる両眼の位置のパラメータなどを用いて、画像取得部101により取得された画像情報200から、両眼を含む領域203を直接抽出してもよい。
追尾部103は、顔認識抽出部102により抽出された両眼を含む領域から、両眼の位置を初期の両眼の位置として検出し、また、検出された両眼の位置から次のフレームにおける両眼の位置の候補を生成して、次のフレームにおける両眼の位置を検出する。なお、検出される両眼の位置は一つに限定する必要はない。複数の位置を検出した場合には、その後の追尾により、眼でないと判明した段階で位置情報を破棄などすればよい。
追尾部103は、図1に示すように、尤度計算部106と、パラメータ生成部109と、候補座標生成部110とを有する。
尤度計算部106は、領域203内の候補座標から、候補座標を含むサブ画像を抽出し、サブ画像が眼の画像であることについての尤度(類似度あるいは確からしさ)を計算する。候補座標は、顔認識抽出部102により顔認識が行われたときに眼の位置として計算される座標と以下に説明される候補座標生成部110により算出される座標とのいずれか又は両方である。候補座標生成部110による処理が行われてないときには、候補座標は、顔認識抽出部102により顔認識が行われたときに眼の位置として計算される座標となる。眼の位置は、例えば眼の中心として定義することができる。このとき、尤度計算部106は、候補座標を含む右眼の候補のサブ画像及び左眼の候補のサブ画像それぞれを抽出し、眼のモデル及びサンプル画像などとの類似度を計算し、候補座標に対して計算した尤度を対応付ける。
なお、候補座標生成部110は、後に説明されるパラメータ生成部109により生成される両眼のモデル情報より、右眼及び左眼それぞれの候補の中心座標を算出する。
尤度計算部106は、図1に示すように、ESF部107と、LDA部108とを有していてもよい。
ESF部107は、両眼を含む領域203の画像情報から、例えば16×16ピクセルのサブ画像を生成し、明るさの分布から眼として判定される際の尤度を算出する。なお、両眼を含む領域203から、例えば16×16ピクセルのサブ画像を生成する際には、両眼を含む領域203の画像情報の部分画像を特定し、特定された部分画像からピクセルを間引くことにより、16×16ピクセルのサブ画像を生成することができる。大きさが一定のサブ画像を生成することにより、ハードウェアの処理を行う際の処理時間を一定とすることができ、タイミングの調整が容易となる。また、16×16ピクセルのサブ画像の生成の前の領域203の画像にガウシアンフィルタを施すことにより、ピクセルの間引きにかかわらず、眼の認識精度を上げることができ、追尾性能を上げることができる。
なお、サブ画像を生成するための画像情報の部分画像の特定は、例えば、部分画像を矩形とする場合に、矩形の左上の座標、幅及び高さを生成して行い、複数の特定を行うことができる。この生成は、例えば顔認識抽出部102により抽出が行われたときの両眼の座標情報に基づいて行ったり、後に説明する候補座標生成部110の算出する右眼及び左眼それぞれの中心座標に基づいて行ったりすることができる。
図3を参照して、ESF部107により、明るさの分布から眼として判定される際の尤度の算出の一例について説明する。図3は、眼の画像の構造の一例を示す。図3において、符号301は、眼の瞳孔と虹彩との部分C1であり、符号302及び303との部分C2よりも明度が小さくなる。そこで、尤度の一例として、C1の中心点304の座標を(x,y)とした場合、尤度ESF(x,y)は、
ESF(x,y) = σ /σ
として算出される。なお、
σ = n(m−m)+n(m−m)
σ = Σx∈C(x−m)
であり、nは部分C1のピクセルの総数であり、nは部分C2のピクセルの総数であり、mは部分C1の明度(luminannce)の平均であり、mは部分C2の明度(luminannce)の平均であり、mは部分Cの明度(luminannce)の平均である。また、Cは、部分C1と部分C2との和集合である。
ESF部107は、上記のように算出された尤度の値が大きい上位例えば10個のサブ画像を抽出することができる。以上のように算出される尤度を用いることにより、頑強な眼の判定を実施することができる。
LDA部108は、ESF部107により、検出された部分画像から、線形判別分析(Linear Discrimination Analysis)を行い、眼の判定の精度を高める。
LDA部108は、具体的には、あらかじめ、眼の画像と眼ではない画像とを多次元領域に線形変換しておく。例えば、上述のようにESF部107において16×16ピクセルのサブ画像が用いられる場合には、16×16ピクセルの大きさの眼の画像と眼ではない画像を準備する。それぞれの画像は、16×16=256次元の点を表わしていると考えられるので、各画像の点に対して線形変換を行うことにより、例えば32次元の空間の点に変換する。
図4は、変換された32次元の空間の点を示す。点401は、眼ではないサンプル画像を32次元の空間の点に変換した結果を示し、このような眼ではないサンプル画像を32次元の空間の点に変換した点がクラスター403を形成している。また、402は、眼のサンプル画像を32次元の空間の点に変換した結果を示し、このような眼のサンプル画像を32次元の空間の点に変換した点がクラスター404を形成している。
そこで、ESF部107により尤度の値が大きいと判断された上位10個のサブ画像について、それぞれのサブ画像を32次元の点405に変換して、クラスター403との距離406及びクラスター404との距離407を算出し、距離に応じて、眼のサンプル画像との尤度を判断する。点405とクラスター403及び404との距離406及び407は、例えば、点405とクラスター403及び404の各中心点までの距離として定義することができる。そこで、例えば、クラスター403までの距離406がクラスター404まので距離407より小さければ、そのサブ画像は眼の画像ではないと判断し、そうでなければ、そのサブ画像は眼の画像であると判断する。
以上により、尤度計算部106により眼の候補の中心の座標に対して尤度を決定して対応付けることができる。
パラメータ生成部109は、尤度計算部106により求められた尤度に基づいて、眼のモデル情報を生成する。眼のモデル情報は、図5に示すように、それぞれの眼の中心501及び502の座標から、両眼の中心間の距離L(例えば画像情報でのピクセル数)、それぞれの眼の幅S(例えば画像情報でのピクセル数)、それぞれの眼の中心501及び502を結ぶ直線503が水平線504となす角θ並びにそれぞれの眼の中心501及び502の中点(両眼の中点)の座標を含む。L、S、θ、中点の座標などのパラメータ値を用いて、次のフレームにおける眼の位置を予測し、眼のモデル情報を生成する。予測の方法としては、これまので、L、S、θ、中点の座標の値の履歴を求めて変動の方向を算出したり、パーティクルフィルタの手法を用いたりすることができる。パーティクルフィルタの手法としては、右眼の中点の座標を(x,y)、左眼の中点の座標を(x、y)、両眼の中点の座標を(x,y)とした場合に、尤度Likelifood(x,y、L、S、θ)を
Likelifood(x,y、L、S、θ)
= ESF(x,y)×ESF(x,y
と定義し、次のフレームにおける眼の位置の候補を生成する。この場合、Likelifood(x,y、L、S、θ)の高い候補は、そのまま使用される。ただし、擬似乱数が付加されてもよい。また、Likelifood(x,y、L、S、θ)が小さな候補は破棄される。
パラメータ生成部109が生成したモデルの情報(パラメータの値など)は、候補座標生成部110へ伝達される。
候補座標生成部110は、パラメータ生成部110により生成されたモデルの情報から、右眼及び左眼それぞれの候補の中心座標を算出する。例えば図5を参照すると、右眼の候補の中心座標501のX座標は、中点505のX座標に−(Lcosθ)/2を加算して算出され、そのY座標は、中点505のY座標に(Lsinθ)/2を加算して算出される。
図6は、本実施形態に係る追尾装置による処理を説明するフローチャートである。ステップS601の処理として、顔認識抽出部102が画像取得部101より画像を取得し、ステップS602の処理として、例えば顔領域認識部104により顔認識を行う。ステップS603において、顔が認識されたかどうかを判断し、顔が認識されていなければステップS601へ戻る。
顔が認識されればステップS604の処理として、例えば眼領域抽出部105により、両眼を含む領域の画像を抽出する。ステップS605の処理として、尤度計算部106により、眼の候補座標に対して尤度を計算する。ステップS606の処理として、パラメータ生成部109により、眼のモデル情報を生成する。そして、ステップS607の処理として、候補座標生成部110により、眼の候補座標を生成する。
ステップS608の処理として、画像取得部101から、追尾部103が次の画像情報のフレームを取得する。ステップS609の処理として処理を終了するべきかどうかを判断し、そうでなければステップS604へ戻る。
なお、ステップS606の処理のパラメータ生成部109による処理において、Likelifood(x,y、L、S、θ)の値が所定の値を下回ったり、眼のモデル情報の生成が困難となったりした場合には、ステップS601へ戻ってもよい。また、例えばESF部107で算出される尤度の最大値が特定の値を下回ったり、LDA部108により、サブ画像が眼でない画像のクラスターに属したりするなどの条件が成立した場合にも、ステップS601へ戻ってもよい。
図7は、図1に示す追尾装置100を主にハードウェアにより構成する際の構成図の一例である。
画像取得部101に対応して、フレームバッファ702が配置され、取得された画像がフレーム単位でフレームバッファ702に格納される。
また、図7においては、顔領域抽出部104に対応するハードウェアは明示されておらず、図示しない顔領域認識部104に対応するハードウェアにより認識された顔画像の情報、具体的には両眼を含む矩形などの座標情報、が顔認識情報受信部703により受信される。受信された顔認識情報は、転送部704及びパーティクルフィルタ部705に転送される。
パーティクルフィルタ部705は、パラメータ生成部109に対応するハードウェアであり、次の探索のパラメータを生成する。
転送部704は、顔認識情報受信部703より受信された顔認識情報により特定される領域をフレームバッファ702から読み出し、尤度計算部106及び候補座標生成部110に対応するハードウェア706−1、706−2に転送する。なお、図7においては、尤度計算部106及び候補座標生成部110に対応するハードウェア706−1、706−2の二つが示されているが、尤度計算部106及び候補座標生成部110に対応するハードウェアは二つに限定されることはなく、任意の数を備えることができる。尤度計算部106及び候補座標生成部110に相当するそれぞれのハードウェアは、例えば、画像に含まれる顔が複数存在する場合に、複数の顔のそれぞれを分担したり、パーティクルフィルタ部705の生成するパラメータの一部をそれぞれ分担したりする。
転送部704より転送された領域は、一時メモリ710に格納される。そして、尤度計算部106に対応するハードウェアとしての左眼抽出部711と右眼抽出部712とに領域が転送される。左眼抽出部711と右眼抽出部712とのそれぞれは、領域より左眼の画像と右眼のサブ画像とを抽出する。このとき、左眼抽出部711と右眼抽出部712とは、追尾制御部713による制御を受ける。
追尾制御部713は、パーティクルフィルタ部705より得られるパラメータを参照し、ESF部107に対応する左眼ESF部と右眼ESF部715とを動作させ、また、LDA部108に対応する左眼LDA部716と右眼LDA部717とを動作させ、左眼及び右眼のサブ画像を抽出し、尤度を計算し、結果をパーティクルフィルタ部705にフィードバックするとともに、結果を出力部707に出力する。
図8は、図7に構成図を示すハードウェアの動作のタイミングチャートの一例である。区間801が1フレームの時間の長さを示し、時間区間802において、n番目のフレームデータがカメラなどの撮影装置により取得され、あるいは、映像情報再生装置から取得される。取得されたフレームデータは、顔認識を行うハードウェアなどに転送され、また、一つ前のフレーム(n−1番目のフレーム)がフレームバッファに702に格納される。
また、時間区間803において、顔認識の結果が顔認識情報受信部703により受信がされる。なお、顔認識は、n−1番目のフレームデータにより行われる。
時間区間804において、転送部704より、両眼を含む領域の画像が一時メモリ710に転送される。また、時間区間805において、パーティクルフィルタ部705よりパラメータが生成される。生成されるパラメータの数は、時間区間805の後から区間801の終わりまでに尤度計算部106と候補座標生成部110とが処理できる数が上限となる。したがって、尤度計算部106及び候補座標生成部110に対応するハードウェアを増設することにより、多くのパラメータを処理することができ、追尾精度を上げることができる。
パーティクルフィルタ部705より生成されたパラメータそれぞれを用いて、時間区間806において、探索とモデル化とが行われる。

Claims (6)

  1. 画像情報を連続するフレームの形式で取得する画像情報取得部と、
    前記取得された画像情報の一つのフレームより縮小したサブ画像を複数生成し、眼の画像との尤度を算出して尤度の大きなサブ画像より眼の位置を決定する追尾部と
    を有し、
    前記追尾部は、前記一つのフレームより時間的に前に取得された画像情報の一つのフレームより決定された位置を参照して、生成するサブ画像の位置を決定する追尾装置。
  2. 前記追尾部が前記一つのフレームより複数生成するサブ画像の大きさは互いに等しいことを特徴とする請求項1に記載の追尾装置。
  3. 前記追尾部は、前記一つのフレームにガウシアンフィルタを施し、ピクセルを間引いてサブ画像を生成する請求項1または2に記載の追尾装置。
  4. 前記追尾部は、
    サブ画像より両眼の片眼それぞれの尤度を算出し、
    両眼の距離、片眼の幅、両眼を結ぶ直線が水平線となす角度をパラメータとして有するモデルを生成して、眼の位置を決定する請求項1から3のいずれかに記載の追尾装置。
  5. 前記追尾部は、前記パラメータに対するパーティクルフィルタを用いて、複数生成するサブ画像の位置を決定する請求項4に記載の追尾装置。
  6. 前記パーティクルフィルタは、フレームが取得される周期期間内に前記追尾部が眼の位置を決定することができる数のサブ画像の位置を生成する請求項5に記載の追尾装置。
JP2012267902A 2012-12-07 2012-12-07 追尾装置 Pending JP2014116716A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012267902A JP2014116716A (ja) 2012-12-07 2012-12-07 追尾装置
KR1020130143131A KR20140074201A (ko) 2012-12-07 2013-11-22 추적 장치
US14/099,588 US9323989B2 (en) 2012-12-07 2013-12-06 Tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012267902A JP2014116716A (ja) 2012-12-07 2012-12-07 追尾装置

Publications (1)

Publication Number Publication Date
JP2014116716A true JP2014116716A (ja) 2014-06-26

Family

ID=50881005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012267902A Pending JP2014116716A (ja) 2012-12-07 2012-12-07 追尾装置

Country Status (3)

Country Link
US (1) US9323989B2 (ja)
JP (1) JP2014116716A (ja)
KR (1) KR20140074201A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158102A1 (ja) * 2019-01-30 2020-08-06 富士フイルム株式会社 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム
JP2021077082A (ja) * 2019-11-08 2021-05-20 Kddi株式会社 物体追跡装置及び方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346801B (zh) * 2013-08-02 2018-07-20 佳能株式会社 图像构图评估装置、信息处理装置及其方法
CN105721739B (zh) * 2014-12-04 2020-04-10 富泰华工业(深圳)有限公司 屏幕影像画面防抖系统及方法
WO2019023963A1 (zh) * 2017-08-02 2019-02-07 深圳传音通讯有限公司 一种智能终端的图像处理系统及图像处理方法
CN109660662B (zh) * 2018-12-04 2021-07-16 联想(北京)有限公司 一种信息处理方法和终端
US11627370B1 (en) * 2021-12-28 2023-04-11 Kt Corporation Converting video according to status of user device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004530A (ja) 2003-06-12 2005-01-06 Digital Fashion Ltd 瞬き検出装置、瞬き検出プログラム及び瞬き検出方法
US7650034B2 (en) * 2005-12-14 2010-01-19 Delphi Technologies, Inc. Method of locating a human eye in a video image
US7634108B2 (en) * 2006-02-14 2009-12-15 Microsoft Corp. Automated face enhancement
US7620216B2 (en) * 2006-06-14 2009-11-17 Delphi Technologies, Inc. Method of tracking a human eye in a video image
JP4728432B2 (ja) * 2008-01-16 2011-07-20 旭化成株式会社 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP2009182624A (ja) 2008-01-30 2009-08-13 Victor Co Of Japan Ltd 目標追尾装置
EP2242253B1 (en) * 2008-02-06 2019-04-03 Panasonic Intellectual Property Corporation of America Electronic camera and image processing method
JP5027030B2 (ja) 2008-03-25 2012-09-19 富士フイルム株式会社 オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
JP5116605B2 (ja) 2008-08-07 2013-01-09 国立大学法人 千葉大学 自動追尾装置
JP5279517B2 (ja) 2009-01-09 2013-09-04 キヤノン株式会社 物体検知装置及び物体検知方法
JP2010165052A (ja) * 2009-01-13 2010-07-29 Canon Inc 画像処理装置及び画像処理方法
US8774498B2 (en) * 2009-01-28 2014-07-08 Xerox Corporation Modeling images as sets of weighted features
US8571271B2 (en) * 2011-05-26 2013-10-29 Microsoft Corporation Dual-phase red eye correction
US9075453B2 (en) * 2011-12-29 2015-07-07 Khalifa University of Science, Technology & Research (KUSTAR) Human eye controlled computer mouse interface
US9165180B2 (en) * 2012-10-12 2015-10-20 Microsoft Technology Licensing, Llc Illumination sensitive face recognition

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158102A1 (ja) * 2019-01-30 2020-08-06 富士フイルム株式会社 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム
JPWO2020158102A1 (ja) * 2019-01-30 2020-08-06
JP7138199B2 (ja) 2019-01-30 2022-09-15 富士フイルム株式会社 顔領域検出装置、撮像装置、顔領域検出方法、及び顔領域検出プログラム
US12062209B2 (en) 2019-01-30 2024-08-13 Fujifilm Corporation Face region detection device, imaging apparatus, face region detection method, and face region detection program
JP2021077082A (ja) * 2019-11-08 2021-05-20 Kddi株式会社 物体追跡装置及び方法
JP7365862B2 (ja) 2019-11-08 2023-10-20 Kddi株式会社 物体追跡装置及び方法

Also Published As

Publication number Publication date
KR20140074201A (ko) 2014-06-17
US9323989B2 (en) 2016-04-26
US20140161313A1 (en) 2014-06-12

Similar Documents

Publication Publication Date Title
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
WO2021098261A1 (zh) 一种目标检测方法与装置
Rekik et al. A new visual speech recognition approach for RGB-D cameras
JP2014116716A (ja) 追尾装置
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
Mehrizi et al. Toward marker-free 3D pose estimation in lifting: A deep multi-view solution
US11727637B2 (en) Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera
CN103810473B (zh) 一种基于隐马尔科夫模型的人体对象的目标识别方法
US12223693B2 (en) Object detection method, object detection apparatus, and object detection system
CN102831382A (zh) 人脸跟踪设备和方法
Islam et al. Stereo vision-based 3D positioning and tracking
JP2013178816A (ja) 画像処理装置、撮像装置、画像処理方法
Ouanan et al. Facial landmark localization: Past, present and future
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
WO2022052782A1 (zh) 图像的处理方法及相关设备
JP2016509805A (ja) 画像ストリームの高フレームレート化
Faisal et al. Depth estimation from video using computer vision and machine learning with hyperparameter optimization
CN103632131B (zh) 用于提取对象的设备和方法
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
KR100560464B1 (ko) 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법
JP2009237899A (ja) 画像処理装置
CN116030516A (zh) 基于多任务学习与全局循环卷积的微表情识别方法及装置
Kim et al. A fast and accurate face tracking scheme by using depth information in addition to texture information
CN117576217B (zh) 一种基于单实例图像重建的物体位姿估计方法
Tian et al. Detecting good quality frames in videos from mobile camera for blind navigation