[go: up one dir, main page]

JP3040466B2 - 画像処理方法 - Google Patents

画像処理方法

Info

Publication number
JP3040466B2
JP3040466B2 JP3512813A JP51281391A JP3040466B2 JP 3040466 B2 JP3040466 B2 JP 3040466B2 JP 3512813 A JP3512813 A JP 3512813A JP 51281391 A JP51281391 A JP 51281391A JP 3040466 B2 JP3040466 B2 JP 3040466B2
Authority
JP
Japan
Prior art keywords
image
feature
snake
data
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3512813A
Other languages
English (en)
Other versions
JPH05508951A (ja
Inventor
シェイクルトン、マーク・アンドリュー
ウエルシュ、ウイリアム・ジョン
Original Assignee
ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB909015694A external-priority patent/GB9015694D0/en
Priority claimed from GB909019827A external-priority patent/GB9019827D0/en
Application filed by ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー filed Critical ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー
Publication of JPH05508951A publication Critical patent/JPH05508951A/ja
Application granted granted Critical
Publication of JP3040466B2 publication Critical patent/JP3040466B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】 この発明は画像処理方法に関し、特にそのような方法
を顔のような目的物の画像の認識及びコード化に使用す
る方法に関する。
目的物の認識に十分有効な1つの分野は、建造物での
制限された出入り、又は資金転送の保安に使用される自
動同一性確認技術で、例えばUK出願GB9005190.5などが
その方法である。このような資金転送作業では、ユーザ
は機械で読取れるデータを含むカードを所持することが
多く、そのデータは磁気的、電気的、又は光学的に記録
されている。顔認識の1つの特定応用には、カードに正
しいユーザの顔認識データをカードに記録して、権限の
ない人物によるそのようなカードの使用を防ぐものがあ
る。この場合、そのデータを読出し、カメラを使用して
カードを使用しようとしている人物の顔画像を得、その
画像を分析し、その分析結果は正しいユーザのカードに
記録されたデータと比較される。
そのようなカメラの格納容量は、一般に数百バイト
で、これは画素(pixel)のフレームとして画像を認識
するために必要なメモリ空間より遥かに少ない。従っ
て、少ない数のメモリバイトを使用して画像を特徴付け
る画像処理技術を使用する必要がある。
少ないバイト数で必要な画像を特徴付ける画像処理技
術の他の応用は、US特許4841575として発行された以前
の我々の出願の中に開示されているような、ハイブリッ
ドビデオコーディング技術(hybrid video coding t
echniques)である。この出願及び同様な他の出願にお
いては、検知できる画像の重要部分の位置が発見され、
利用できるコード化データが好適にそのような部分に割
り付けられる。
一般に知られているその様な画像処理技術は次のステ
ップを含む。即ち、画像内で少なくとも1つの所定特徴
の位置を発見し;前記特徴を各々示す前記画像から前記
画像データを抽出し;前記特徴画像データの位置を示す
特徴ベクトルを各特徴についてN次元空間で計算する。
前記空間は複数の参照ベクトルによって定義され、各参
照ベクトルは類似する特徴の画像の練習セット(traini
ng set)の固有ベクトル(eigenvector)である。
カーフネンローブ変換(Karhunen−Loebe transfor
m:KLT)は様々の応用に使用される良く知られた信号処
理技術である。この変換を人の顔を認識するために適用
することが提案された(Sirovitch and Kirby,J.Opt.
Soc.Am.A vol 4 no 3,pp519〜524“人の顔の特徴
描写に使用する低次元処理(Low Dimensional Proced
ure for the Characterisation of Human face
s)"and IEEE Trans on Pattern Analysis and
Machine Intelligence Vol 12,no 1 pp103〜108
“人の顔の特徴描写に関するカーフネンローブ処理の応
用(Application of the Karhunen−Loeve Procedu
re for the Characterisation of Human Face
s)”)これらの技術では、参照母集団の中の複数のメ
ンバーの実質的に顔の全体画像が処理され、N個のeige
nvectorのセットを獲得する。各ベクトルはピクチャー
に類似する外見[固有ピクチャー(eigen−pictures)
又は誇張画(caricatures)]を有し、それらが記録さ
れた。次の認識フェーズでは、与えられたテスト顔面画
像(これは参照母集団に属する必要はない)は、その画
像ベクトルによって、固有ベクトルにより定義されるN
次元空間で特徴付けられる。画像ベクトル又はそれらか
ら得られたデータと、認識データとを比較することで、
確認信号をその比較結果に基づいて発生できる。
しかし、人が人間の顔を容易に忘れることはないのに
比べ、機械にとってこの仕事は容易なことではない。な
ぜなら、人の目や口は表情によって変化するので、顔面
画像処理においては、人の顔の外見は大幅に変化するか
らである。
本発明の第1の特徴によれば、クレーム1の前文に従
う画像処理方法は、各特徴の画像データを修正して、各
特徴の形状を正規化することで、前記特徴の所定標準形
状からのずれを減少するステップを含み、このステップ
は対応する特徴ベクトルを計算する前に実行される。
我々は、例えば顔面画像の認識精度は、人の変化する
顔の表情の影響を減少するための修正ステップにより大
幅に向上できることを発見した。
例えば顔面画像の場合、所定の特徴は、顔全体又は鼻
や口など顔の一部である。所望であれば幾つかの特徴部
分の位置が発見され、固有ベクトルの対応する空間内の
ベクトルとして特徴付けられる。
出願人によって最初に着想された用途は人の顔面画像
の領域で、その考察及び実施例はそのような画像に関し
ているが、本発明は人の顔以外の対象物の画像処理に応
用できることは、当業者に容易に判断できることであ
る。
本発明は又、より少ない固有ピクチャー(eigen−pic
ture)の使用を可能とし、従って格納又は転送容量を節
約できる。
更に、特徴の形状を標準(地勢学的の等価の)特徴形
状に向かって修正することで、特徴の位置検出精度が向
上する。
類似する特徴画像の練習セットは修正され、画像の各
練習セットの形状を正規化することで、前記特徴の所定
標準形状からの逸脱を減少する。このステップは画像の
練習セットの固有ベクトルを計算する前に行われる。
この方法は対象物の認識にのみ使用されるのではな
く、ハイブリッドコード化技術としても使用できる。こ
のコード化技術では、特徴の位置データ及び特徴を示す
データ(N次元ベクトル)は受信機に転送され、そこで
画像ベクトルに対応する固有ピクチャーを組み合わせる
ことによってアッセンブルされる。
固有ピクチャーは、互いに関係する画像セット内の変
化を抽出し、そのような画像及びそれに類似する他の画
像を示すのに使用できる手段を提供する。例えば、目の
画像は‘最良’座標系の‘固有目(eigen−eyes)’の
用語を使用して経済的に表現できる。
固有ピクチャーはそれ自体、第1画像の練習セットか
ら決定され、最初の固有ピクチャーが画像間の最大変化
を具体化し、次の固有ピクチャーが単純減少変化を有す
るように形成される。次にそのセット内の画像は、次に
示す基本関数を効果的に形成する固有ピクチャーを用い
てシリーズ(series)として表現できる。
I=M+w1P1+w2P2+・・・+wmPm ここで、M=画像の全練習セットの平均 wi=i番目の固有ピクチャーの成分 Pi=mの中のi番目の固有ピクチャー I=原画像 上記シリーズを短縮しても、与えられた数の固有ピク
チャーについて、二乗平均エラー(mean−square−erro
r)に関して、依然として最良の表現を有している。
固有ベクトルの基本は、直交する方向に従属する最大
変化をそれらベクトルが示すように選択される。つま
り、各練習画像はn次元空間内の1点として考えられ
る。ここで‘n'は複数の画素内の練習画像のサイズであ
る。固有ピクチャー・ベクトルは生成されたクラスター
(cluster)を介して、最大変化線上になるように選択
される。
練習画像I1、…、Imが与えられると、我々は最初に平
均画像Mを形成し、そして差画像(a.k.a.‘誇張画像
(caricatures)’)Di=Ii−Mを形成する。
第1パラグラフ(前述の)は我々の固有ピクチャー・
ベクトルPkを次のように選択するのと等価である。
は最大になる ここでPi TPk=0,i<k 前記Pkは実際には、非常に大きな同時変化マトリクス
(covariance matrix)で、その解は難解で扱いにく
い。しかし、この問題はマトリクスLを形成することに
より、より扱いやすい形式にできる。ここで、 Lij=Di TDj そしてLの固有ベクトルVkについて解を得る。
用語‘表示ベクトル(representative vector)’
は、成分(wi)がシリーズ内の各固有ピクチャー(Pi
に適用されるファクターであるベクトルを参照するのに
使用された。即ち、 Ω=(w1,w2,・・・,wm 画像Iに等しい表示ベクトルは、各固有ピクチャーを有
するIの誇張画像をとることにより形成される。
wi=(I−M)TPi,for1+im これが固有ピクチャーを生成するのに使用された練習
セットの外側からとられた画像を表現るようになると
き、ある仮定がなされる。即ち、画像は練習セット内の
画像に十分‘類似’しており、それにより同一の固有ピ
クチャーによって良く表現されると仮定される。
2画像の表現はそれらの間のユークリッド距離を計算
することで比較できる。
dij=/Ω−Ωj/ 従って、認識は簡単なスレショルドを用いて達成さ
れ、dij<Tは認識されたことを意味し、又はdijは滑る
確信スケール(sliding confidence scale)として使
用できる。
変形できるテンプレート(deformable template)は
パラメトリックに(parametricaly)定義された幾何学
的テンプレートからなる。これらテンプレートは画像と
相互作用して、対応する画像特徴に最も適合するテンプ
レートを提供する。例えば、目に使用するテンプレート
は紅彩(iris)の円形状及び目と瞼の境界領域の2つの
放物線などからなり、サイズ、形状及び位置パラメータ
は可変である。
エネルギ関数が、テンプレートの境界部分に対する幾
つかの画像の属性を統合することで形成され、パラメー
タはこの関数を最小にするときに繰り返し更新さる。こ
れは与えられた画像内で最も適合する方向に向かってテ
ンプレートを移動させる効果がある。
少なくとも1つの所定の特徴のポジション画像内の位
置は、位置の荒い概算を提供する第1の技術、及びその
荒い概算を向上させるための第2の技術を使用できる。
第2の技術は変形できるテンプレート技術などを好適に
含む。
変形できるテンプレート技術は、著しいピークや変
動、及びエッジのある生の画像自体の他に、濾波された
画像を必要とする。適切に処理された画像は形態フィル
タ(morphological filter)を使用して得られ、その
段階を以下に示す。
形態フィルタは非線形画像濾波、ノイズ圧縮、エッジ
検出、スケルトナイゼーション(skeletonization)、
形状認識など広い範囲の濾波機能を提供できる。これら
全ての機能は浸食(erosion)及び拡張(dilation)の
用語で示される2つの基本的な動作の簡単な組み合わせ
によって提供できる。
グレースケール(greyscale)画像の浸食は明るいエ
リアが収縮する原因となり、一方拡張は明るいエリアが
広がる原因となる。拡張の前の浸食によって、明るいピ
ークは消失する(‘オープン’と呼ばれる演算子)。こ
れとは逆に、浸食の前の拡張によって、暗い窪み部分が
満たされる(‘クローズ’と呼ばれる演算子)。更に詳
細な説明は、Maragos P,(1987)による“形態的画像
処理及び分析の前段指導(Tutorial on Advances in
Marphological Image Prosessing and Analysi
s)",Optical Engineering.Vol 26.No.7を参照のこ
と。
本発明が関係する種類の画像処理システムにおいて、
画像内の頭や顔などの目標物の位置を、処理の前に検出
することが必要な場合が良くある。
一般にこれはエッジ検出によって達成されるが、従来
のエッジ検出技術は純粋にローカルである。即ちエッジ
は画像強度に傾斜が発生したときに常に示される。従っ
て完全に閉じたエッジを一般に形成しないで(つまり、
頭の回りのループを形成する)頭の全アウトライン、又
は部分的なアウトラインを構成する複数のエッジを生成
する。
我々は適応性輪郭モデル(adaptive contour mode
l)、つまり“スネーク(snake)”技術はこの目的に特
に適していることを発見した。
本発明の物理的実施例を説明する前に、前述の‘スネ
ーク’信号処理技術を更に詳細にこれより説明する。
Kass et al[Kass m,Witkin A,Terpozopoulus
d,“スネーク:動的輪郭線モデル(Snakes:Active con
tour Models)",International Journal of Comput
er Vision,321〜331,1988]によって発表されたスネー
クは、我々の視覚システムが行う後処理の幾つかを提供
するための方法である。スネークは両方のエッジに関係
する様々の特徴及び人間の視覚システムの中に組み込ま
れた(例えば連続性、滑らかさ、そして塞がれたエッジ
部分を充填するある程度の能力)。
スネークは(一般に閉じた)連続曲線で、画像内のエ
ッジに‘まとわり付く’ように、与えられた開始点から
動的に自らを配置する。ここで検討されるスネークの形
状は、断片的な多項式で表せられる複数の曲線からな
る。つまり一般にその曲線はN個のセグメント{x
i(s),yi(s)}i=1、…、Nから構成される。こ
こでxi(s)及びyi(s)は各々パラメータs内の多項
式である。パラメータsが変化するにつれて曲線は軌道
を外れる。
次にスネークはパラメトリック曲線u(s)=(x
(s),y(s))として参照される。ここでsは0と1
の間で変化すると仮定される。どんなパラメータを‘エ
ッジを抱く’スネークは持つべきであろうか。
スネークは画像によって‘駆動’されなければならな
い。つまり、スネークは画像内のエッジを検出して、自
らの位置をエッジに適合させることができなければなら
ない。この方法を達成する1つの方法は、スネークの長
さに沿った平均‘エッジ強度’(これは測定できる)を
最大にすることである。エッジ強度の測定値が画像点
(x,y)でF(x,y)≧0である場合、これは次に示す関
数が最大になるように、スネークu(s)が選択された
と言える。
これは、スネークがそれらエッジを検出した場合に、
スネークが画像内のエッジに自らを変形させる傾向があ
ることを保証するが、スネークが最初の場所でそれらエ
ッジを発見したことは保証しない。ある画像が与えられ
ると、その関数は多数の局部的で僅かな静的問題を含む
であろう。それらの発見は‘力学’が生じる分野であ
る。
画像に適用されるエッジディテクターは主に薄いエッ
ジからなるエッジマップを生成する。これは、ラインの
数が少ないことは別として、エッジ強度関数が画像内の
殆どの場所で0となる傾向があることを意味する。その
結果、エッジからある程度離れたスネークはエッジに向
かって引き寄せられない。なぜなら、エッジ強度はスネ
ークの最初の位置で効果的に0であるからである。スネ
ークがエッジの影響を受けるようにするために、エッジ
画像はエッジの幅を広げるために、にじまされる。
凸部を有する物体の回りに弾力性のバンドが設けられ
ると、そのバンドは物体が収縮動作を妨げるようになる
まで収縮する。この点でバンドは物体の形にモールドさ
れ、従って境界部分を示す。ここでは2つの力が作用し
ている。第1はバンドが収縮しようとする自然な傾向を
提供する力であり、第2は物体により提供される反力で
ある。バンドはその伸縮により弾性エネルギを最小にす
るように収縮する。バンドがパラメトリック曲線u
(s)=(x(s),y(s))で示されるならば、任意
の点sでの弾性エネルギは次式のように比例する。
つまり、エネルギは曲線がその点で伸縮した量の二乗
に比例する。その全長にわたる弾性エネルギは、制限即
ち物体が与えられると最小になる。従って、弾力性のあ
るバンドは曲線形状u(s)=(x(s),y(s))を
仮定する。ここでu(s)は次の関数を最小にする。
上式は物体の制限を受ける。閉じたスネークはアナロ
グ動作を有するのが望ましい。つまり、収縮する傾向を
有するが、画像内の物体によってその傾向が妨げられる
のが良い。この動作モデルを作るために、スネークに適
したパラメトリック曲線は、関数(2)が最小になるよ
うに選択される。更に作用項(1)が含まれると、スネ
ークはそれらエッジに向かって引き付けられるように、
‘物体を介して’収縮が妨げられる。又、元に戻ろうと
する‘弾力’が大きすぎなければ、凹部を有する物体の
中空部に吸引力がスネークを引き付けるようにする。
モデル化の困難なエッジの特徴の1つは、それらが見
えない場合の動作である。人が車とその車の前に立って
いる人を見る場合、塞がれている車のエッジの輪郭線を
画像化するのに困難は生じない。それらは人に対してど
ちらか一方の側の輪郭線の‘滑らかな’延長である。前
述の弾力性バンドによる方法が適用された場合、車が塞
がれているところでバンドは直線を形成するであろう
(なぜなら、バンドはエネルギを最小にしようとするの
で、長さはこのようになるのである)。しかし、バンド
がある程度堅いと(即ち、収縮性の棒によって表現され
るような曲りに対して抵抗がある)、それは画像の塞が
れた領域内に滑らかな曲線を形成しようとして、どちら
かの側の境界線の接線方向に伸びる。
再び収縮棒は、その弾性エネルギが最小になるよう
に、1つの形状を形成しようとする。曲がっているとき
の弾性エネルギーは棒の湾曲部に依存し、これが第2の
理論展開である。このタイプの動作に類似する動作を行
うスネークを助けるために、パラメトリック曲線u
(s)=(x(s),y(s))は、それが次の関数を最
小にするように選択される。
これは疑似曲り(pseudo−bending)エネルギ項であ
る。勿論、スネークが堅すぎて作られていると、作用力
項(1)の動作の下では非常に曲がった輪郭線にそれを
従わせるのは困難であろう。
スネークの3つの望ましい特徴が区別された。3つす
べてをスネークに一度に組み込むために、スネークを示
すパラメトリク曲線u(s)=(x(s),y(s))は
次の関数を最小にするように選択される。
ここで、α(s)>0及びβ(s)≧0は、各々、ス
ネークが持つことになる堅さ及び収縮性の量である。こ
のスネーク法が成功したならば、これら3つのパラメー
タの正しいバランスは決定的であることは明白である。
堅すぎるとスネークは輪郭線に正確に抱き付かない。柔
らかすぎて閉じていると、スネークは輪郭線によって押
され、凹んだ領域では1点に収縮するか又は境界部から
離れることもある。作用項の前部にはマイナスの符号が
ある。なぜなら、−∫F(x,y)dsを最小にすることは
∫F(x,y)dsを最大にすることに等しいからである。
このままでは、関数(4)の最小化は僅かである。ス
ネークが閉じていなければ、解は1点[(x(s),y
(s)=定数]に落ちる。この点はエッジ強度F(x
(s),y(s))を最小にするように選択される。なぜ
なら、物理的にスネークは弾性エネルギを最小にするた
めに2つのエンド点を一緒に引くようにするため1点に
収縮する。全体的な最小値は画像内のエッジ強度の最も
大きい点で達成される。スネークがそれを達成するのを
防ぐには、スネークのエンド位置をなんらかの方法で適
合させる必要がある。即ち、‘境界条件’が要求され
る。エンド点の位置を適合させること以上のことが必要
で、更に2つの条件が問題を解決するために必要である
ことが分かった。適当な条件は各エンド点に0の曲がり
を与えることである。
同様に、閉ループスネークに使用する全体的最小値
は、それが1点に収縮したときに生じる。しかし、適合
したエンドスネークとは対称的に、追加の境界条件は、
落ちた解を削除するために使用できない。この場合の落
ちた解は真の全体的最小値であろう。
明らかに理想解はスネークの初期位置の局部における
局部最小値を探すことである。実際に解の得られた問題
はこれより更に弱い。つぎのようにして曲線(s)=
((s),(s))εH2[0,1]xH2[0,1]を発見
する。
ここでH2[0,1]は[0,1]上に定義される実数関数の
クラスを示し、これは‘有限エネルギ’を第2の理論展
開の内に持っている。つまり、第2の展開の二乗の整数
が存在する。[keller HB.Numerical Methods for
Two−Point Moundary Value Problems,Blaisdell,19
68]、そして▲H2 0▼0[0,1]はH2[0,1]内にある関
数のクラスで、s=0及びs=1のときに0である。最
小値の発見にこれがどのように関係しているかを理解す
るために、(s)は局部最小値、及び(s)+εν
(s)は同一境界条件(即ちν(0)=ν(1)=0)
を満足する最小値の辺りで変動すると考える。
明らかに、εの関数I(ε)=I(s)+εν
(s))は、ε=0で最小である。従って、I(ε)の
展開はε=0で0でなければならない。(5)の解は完
全に一般的なエッジ強度関数の最小値として保証されな
いが、解は実際に最小であることは分かっている。
変動の一般的な高等数学的検討によれば、問題(5)
は、解法の似ている次に示す他の問題に等しい。つま
り、次の一般的な一対の4次微分方程式を満足する曲線
(s),(s))εC4[0,1]xC4[0,1]を発見す
ることである。
境界条件と一緒にして、 (0),(0),(1),(1)が得られる
この問題の陳述は固定エンドスネークの場合に関する
が、スネークが閉ループを形成する場合、前述の境界条
件は周期的条件と置換される。これら問題は両方とも有
限差(finite difference)を用いて容易に解くことが
できる。
有限差法は間隔[0,1]を長さh=1/(N−1)のN
−1個の等しい副間隔(subintervals)に分解し、ノー
ド(nodes)のセットを定義することから始まる。
この方法では連続変数内の微分方程式(6)及び
(7)分離変数内の微分方程式のセットと置換すること
により、次に示す概算値を探す[Keller HB.,ibi
d.]。
(6)内の展開を点siでの差の概算によって置換する
と、 ここでα=α(si)及びβ=β(si)。同様に
(7)に対する差の概算が得られる。その微分方程式は
1つの間隔内の内部モデルにおいてのみ効力がある。そ
こでは範囲IからN内にあるインデックスが参照され
る。類似する項を一つにまとめると、(9)は次のよう
に表せる。
両方の微分方程式(6)及び(7)を分解して境界条
件を考慮すると、x={xi}及びy={yi}の{xi}及
び{yi)}への有限の差の概算は各々、次の代数学的等
式システムを満足する。
Kx=f(x,y),Ky=a(x,y) …(10) マトリクスKの構造及び右手ベクトルf及びgは、境
界条件に閉じた又は開いたスネークが使用されるか否か
に依存して異なる。スネークが閉じている場合、S0、S
-1,SN+1及びSN+2での架空のノードが導入され、微分方
程式(9)はノード0,1,N−1及びNに適用される。
周期性はx0=xN,x-1=xN-1,xN+1=x1及びx2=xN+2
示す。作用力内のこれらの条件を用いると、係数マトリ
クスは次のようになる。
そして右手側ベクトルは、 (f1,f2,…,fN 固定エンドスネークに関して、S0及びSN+1での架空ノ
ードが導入され、微分方程式(9)はノードS1及びSN+1
に適用される。曲率0の境界条件を概算するために2つ
の追加微分方程式が導入される。
即ち、x0−2x1+x2=0及びx-1−2xN+xN+1=0これ
で係数マトリクスは、 そして右手側ベクトルは、 (f2−(2a2+b2)x1,f3−a3x1, ……fN-3,fN-2eN-2xN,fN-1−(2eN-1+dN-1)xN (7)に対応する微分方程式に関する右手側ベクトル
は同様にして得られる。
システム(10)は解く必要のある非線形等式のセット
を示す。係数マトリクスは対称形で、明らかなマトリク
スであり、固定エンドスネークに拘束される。周期的境
界条件を有する閉ループスネークに関して、直交から外
れた幾つかの項を除いて、拘束されるシステムは非線形
であるから、これは反復的に解かれる。実行される反復
は、 ここでγ>0は安定化パラメータである。これは次のよ
うに書き直せる。
このシステムは各nについて解く必要がある。閉ルー
プスネークに関して、左手側のマトリクスは直接反転さ
せるのは困難である。なぜなら、主要の直交バンドの外
側の項はバンド構造を破壊するからである。一般に、係
数マトリクスKはバンドされたマトリクスBとバンドさ
れていないマトリクスAの加算値に分解できる;K=A+
B。固定エンドスネークに関して、マトリクスAは0と
なる。そして等式システムが各nについて反復を実行す
ることにより解かれる。
マトリクス(B+I/γ)はバンドマトリクスで、Chol
eskyファクターの積LLTとして表現できる[Johnson Re
iss,ibid]。システムは最初に次式を解くことにより各
段階で解かれる。
次に Choleskyは1回のみ実行すればよい。
モデルを基本とするコード化法は画像の移動するシー
ケンスをエンコードするために、情景物体の2−D又は
3−Dモデルを使用する。移動する物体の位置検出及び
追従は、このモデルに対して基本的に重要なものであ
る。ビデオ会議及びビデオ電話形式の情景は、一般的な
機械様式アルゴリズムに使用するのが難しい。なぜな
ら、人の髪の毛と背景の間の境界部にはしばしば低いコ
ントラスト、つまり‘ファジー’があるからである。適
応性輪郭線モデル即ち‘スネーク’は、物体の境界部の
位置検出及び追従ができるクラスの技術を形成する。こ
れらは自らを低いコントラストの境界部に適合でき、エ
ッジに関する局部的証拠が僅か又は全く無い境界部セグ
メント間を充填する。本明細書では画像内にある頭の境
界部を分離するスネーク、ならびにブロック動作の概算
とスネークを結合した技術:‘パワーアシスト(power
−asisted)’スネークの使用が検討される。
スネークは連続曲線(一般に閉じている)であって、
与えられた開始点から、画像内のエッジにまとわり付く
ように自らを動的に配置しようとする曲線である。‘閉
じた’スネーク及び‘固定エンド’スネークの両方に関
する詳細で完全な説明はWaite JB,Welsh WJの“スネ
ークを用いた頭部境界部の位置検出(Head Boundary
Location using Snakes)”(British telecom Tec
hnology Journal,Vol 8,No3,July 1990により与えら
れ、これは2つの相互作用の導入策、即ち有限要素及び
有限差を説明している。我々は有限差を用いて閉じたス
ネーク及び固定エンドスネークの両方を実施した。スネ
ークは頭と肩の周辺部で初期化され、これにより自らの
内部弾性力の下に収縮できる。画像から得られる力によ
っても作動する。この力は大きな空間定数を有するラプ
ラス演算子を使用して画像を最初に処理することで発生
される。この演算子の出力は滑らかな非線形関数を用い
て整流され修正される。この整流の結果、顔画像内の実
質的に重要な境界部に対応するように示された‘凹み
(valley)’の特徴が分離される;非線形関数は弱いエ
ッジに比べて強いエッジの重みを減少する。これはスネ
ークに影響を与える更に良い機会を弱い境界部に与える
ためである。スネークの約200回の反復の後、頭の境界
部を抱く位置にスネークは到達する。第2実施例では、
そのエンドポイントを画像の下部の角に有する固定エン
ドスネークは、画像の側部及び上部から収縮できる。髪
の毛と背景の間の境界部は画像内で比較的低いコントラ
スト部分であるが、スネークはそこで安定する。顔に関
してスネークがパターン化された背景を介して収縮しよ
うとするときに、移動エッジ検出器から画像力を引き出
すのが望ましい。
又、Kass et al,において、例として人の動いてい
る唇に追従するために使用されるスネークが示された。
先ず、動く画像のシーケンスの中で最初の画像内の唇上
にスネークが安定化された。第2のフレームで、スネー
クは以前のフレーム内の安定位置に対応する位置に初期
化され、これにより再び安定する。この形式の技術には
明らかな問題がある。即ち、その運動がフレーム間で非
常に大きいと、次のフレーム内の違う特徴にロックして
軌道を失うことがある。Kassは‘スケールの空間的連続
(scale−space contibuation)’の基本を使用する対
応策を示唆した。この対応策でスネークは大きな空間定
数を有するガウスフィルタ(Gaussian filter)を使用
して滑らかとなった最初の画像に安定化できる。このフ
ィルタは長い距離からスネークを引く効果を有する。安
定した後、僅かに小さい空間定数のガウスを使用して得
られる画像力の新たなセットを有してスネークは提供さ
れる。この処理はできるかぎり高いレベルの分解能の画
像内に安定が生じるまで続けられる。
これはコンピュータを使用した明らかに経費のかかる
処理である。根本的に同一で良好に動作する技術が開発
された。次にこの技術を説明する。1つのシーケンスの
最初のフレーム内でスネークが安定状態に達した後、ブ
ロック動作の概算がスネークのノード位置で行われる。
(スネークは一般に分離ノードのセット(この実施例で
は24個)を用いてそれを概算することで導入される)運
動の概算は1つのフレームから次のフレームにかけて行
われる。この次のフレームは、ビデオをコード化するた
めの運動補償中に一般に行われる場合とは逆の意味のフ
レームである。複数のブロックに対して最適な位置が次
のフレーム内でプロットされると、‘アパーチャーの問
題’により、良い適合は境界部のセグメントに沿った点
の範囲でしばしば発見され、この境界部のセグメントは
適合されるブロック側より長い。効果は非均一空間の複
数点を生成することである。そしてフレーム内でスネー
クはそのノードが最適ブロック位置に配置され初期化さ
れ、数回(一般に10回)の反復を実行する。その結果、
ノードは境界部に沿って不均一に分布される。これでス
ネークは境界部の獲得に成功し、ブロック動作の概算は
‘パワーアシスト’の一種として作用する。全体の動作
がブロックサーチの最大偏倚を超えないかぎり、このパ
ワーアシストによって追従の継続が補償される。動作の
概算が複数点の僅かなセットのみに行われるとき、その
計算時間が著しく増加することはない。
物体と背景間のコントラストが低い場合でも、物体の
境界部の位置検出を実行する固定エンドと閉じたスネー
クの両方が示された。
ブロック動作の概算及びスネークの適合の両方を使用
する複合技術で、動く画像シーケンス内の境界部追従を
実行する技術が説明された。荒い分解能から細かい分解
能に移行する方法より、この技術は容易に実施できる。
これまでのところ本明細書で説明された方法は、極度に
曲がっているか又は不連続な部分があらゆる点で存在し
ない物体の境界部でテストされた。このような条件では
ない場合、スネークは境界部輪郭線の正確な追従に失敗
する。正確に追従させる1つの方法は、境界部を複数の
短いセグメントに分割し、これらセグメントを幾つかの
固定エンドスネークに適合させることである。
本発明の第2の特徴によれば、データキャリア(data
carrier)を使用するユーザの同一性を確認する方法
が提供され、前記方法は、ユーザの顔のデジタル画像を
発生し;前記データキャリアを受取り、識別データをそ
のキャリアから読み込み;本発明による第1の方法を実
行し;各特徴ベクトル又は前記キャリアから得られるデ
ータと識別データを比較し;その比較結果に応じて確認
信号を発生するステップを有する。
データキャリアを使用するユーザの同一性を確認する
本発明装置の他の特徴によれば、ユーザのデジタル顔画
像を発生する手段と;前記データキャリアを受取り、識
別データをそのキャリアから読み込む手段と;本発明に
よる第1の方法を実行する手段;各特徴ベクトル又は前
記キャリアから得られるデータと識別データを比較し、
その比較結果に応じて確認信号を発生する手段を有する
装置が提供される。
次に本発明の一実施例を図面を参照しながら説明す
る。
図1は特徴ベクトルの計算の概略を示すフローチャー
ト; 図2は本発明による方法を使用して信用の確認を行う
装置を示し; 図3は本発明による方法を示す。
図1において、本発明の両方の特徴を具備する実施例
の概要が示されている。
人の顔の画像はある手段(例えばビデオカメラ又は写
真)用いて獲得され、画素値のアレイを提供するために
デジタル化される。頭検出アルゴリズムが、画像内の顔
又は頭の位置を検出するのに使用される。この頭の位置
検出段階は幾つかの周知技術の中の1つを含むが、前述
の“スネーク”技術を使用する方法が望ましい。境界部
分の外側にあると判断された画素データは無視される。
第2ステップはその境界部の内側にある画素データに
ついて行われ、認識に用いられる特徴(一般に目及び
口)の位置が判断される。又、目及び口の位置を発見す
るための位置検出技術は従来技術に幾つかあるが、荒い
位置検出の次に詳細な位置検出を行う2段階処理がここ
では採用される。荒い位置検出技術は、例えば米国特許
US 4841575に説明されている。
細い位置検出技術はYuille et alによる“変形でき
るテンプレートを使用する顔からの特徴抽出(Feature
Extraction from Faces using Deformabule Tem
plates)”(Harvard Robotics Lab Technical Rep
ort Number;88/2 published in Computer Vision
and Pattern Recognition,June 1989 IEEE)によ
って説明された変形できるテンプレート技術を使用する
のが望ましい。既に前述されたこの技術において、その
特徴と地勢学的に等しい線モデルは、(荒い位置検出技
術により)その特徴の近傍にあり、互いに移動し、そし
て最高の適合が得られるまで変形される。特徴はこの位
置にあるものとして識別される。
次に特徴の形状は、それが標準的で地勢学的に等しい
形状を想定するまで変化される。細い位置検出技術が前
述のように変形可能プレートを使用する場合、特徴の変
形は、そのテンプレートの変形を逆もどりさせ、その特
徴を最初の標準形状のテンプレートに適合させることで
達成できる。
特徴の正確な位置が判明し、その正確な形状が特定さ
れたので、この情報を使用する認識は、特徴の特徴ベク
トルを使用する認識処理に追加される画像の識別子とし
て使用できる。その領域外部の特徴として区別された全
ての画像データは無視され、その特徴として区別された
画像データはその特徴に対応する固有ピクチャーの直交
する成分に分解される。次にその成分ベクトルは識別さ
れる与えられた人物に対応する成分ベクトルと比較さ
れ、そして実質的な同一性が存在した場合には、認識が
示される。
図2はクレジットカードの確認に適した本発明の一実
施例を示す。
ビデオカメラ1はクレジットカード端末のユーザとな
るであろう人物の画像を受信する。カード挿入装置2に
カードが挿入されると、ビデオカメラ1のアナログ出力
はADコンバータ3によってデジタル化され、そして時間
が計測されてフレームストア(framestor)4に入力す
る。ビデオプロセッサ5(例えばAT&T DSP20のよう
な適切に処理されたデジタル信号処理チップ)がフレー
ムストア4をアクセスするために接続され、それはデジ
タル画像を処理してエッジの強調された画像を形成す
る。これを行う1つの方法は、単に各サンプルをその前
のサンプルから減算して差画像を形成することである
が、より望ましい方法はラプラス形式の演算子(Laplac
ian type operator)を使用することで、この出力は
S字状関数(sigmoidal function)によって修正され
る。この関数はノイズによる僅かなレベル、同時に非常
に強いエッジを圧縮する一方で、殆ど変化しない中間値
を残す。この方法により、滑らかなエッジ画像が発生さ
れ、顎の線のような弱いエッジの輪郭線が強調される。
このエッジ像はエッジ・ピクチャー・フレームバッファ
6に記録される。そしてプロセッサは有限の差を使用し
て閉ループ・スネーク法を実行し、頭を囲む境界部を抽
出する。スネーク・アルゴリズムが一度収束すると、エ
ッジ画像内の頭の境界位置、及びフレームストア4内の
対応する画像が有効となる。
フレームストア6内のエッジ画像は処理され、対象と
する特徴(一般に目及び口)の位置に関する荒い概算が
得られる。我々の以前の出願EP0225729に説明されてい
るように、Nagaoによる方法は適当な方法の1つである
(Nagoa M、“Picture Recognition and Data St
ructure",Graphic Langages−Ed.Rosenfield)。この
ようにして得られた位置の概算は、正確な特徴位置を確
立するダイナミック・テンプレート処理に関する開始点
として使用される。
従って、プロセッサ5はYuille et al[Yuille A,
Cohen D,Hallinan P,(1988),“変形できるテンプ
レートによる顔の特徴抽出(Facial Feature Extract
ion by Deformable Templates)",Harvard Robotic
s Lab.Technical Report no.88−2]により説明さ
れた方法を使用して各特徴に関する位置データを得る。
このデータはテンプレートの総合サイズの関数として与
えられる一連の点座標及びサイズ(又は分解能)から構
成される。これらの点の幾つかはキーポイントとして指
定される。これらキーポイントは常にテンプレートの内
側で、他の点は常にエッジ点である。これらキーポイン
トの位置データは格納され、認識の印しとして使用でき
る。これを図3に示す。
次に、標準形状への特徴の地勢学的変換がプロセッサ
5によって行われる。この変換は領域の三角形ファセッ
ト(facets)とテンプレートの間のマッピング形式をと
る。ファセットは3点の局部集合からなり、テンプレー
トの限定ファイル内に限定される。マッピングはテンプ
レートの頂点のx,y値を考慮することで形成され、この
x,y値は各々対応する領域頂点のx′,y′値を含む。こ
れにより2つの平面式が生成され、その式からテンプレ
ートのファセット内のあらゆるx,yに対して各x′,y′
点が計算でき、従って画像データは領域の副画像(sub
−image)からマップできる。
テンプレート副画像の全体像は各構成ファセットを画
素(pel)毎に減少(又は走査変換)し、画素の値を等
しい領域の副画像内の対応するマップされた位置からと
ることにより得られる。
プロセッサ5は抽出された副画像を、それらに対応す
る一般的なテンプレートのサイズ及び形状へマッピング
するために設けられる。領域上のキーポイントは、一般
的なテンプレート形状に定義された対応メッシュを有す
る三角形のメッシュを形成する。そしてマッピングは、
一般的なメッシュ内の各三角形から領域メッシュ内の等
価物まで形成される。歪んだ副画像が生成され、それは
後で表示するためにテンプレートデータ構造体に格納さ
れる。
このモジュール内の中心的処理は‘テンプレートの引
き伸し’処理である。このルーチンは歪んだテンプレー
トの副画像をファセット毎に生成する(各ファセットは
3つの接続されたテンプレートの点により定義され
る)。マッピングは各テンプレート・ファセットから対
応する領域ファセットまで得られ、そしてテンプレート
・ファセットは領域副画像からマップされた画像データ
を用いて画素毎に満たされる。全てのファセットがこの
ようにして処理された後、歪んだテンプレートの副画像
は画像データによって完全に充填される。
このように生成された標準化特徴画像は特徴画像バッ
ファ7に格納される。固有ピクチャーバッファ8は、連
続する増加性の複数の(例えば50)固有ピクチャーを含
み、これらのピクチャーは代表的な母集団から一般的な
方法で既に抽出されている(この処理には等価の地勢学
的正規化技術を使用するのが望ましい)。変形プロセッ
サ9(これは実際には、格納された適当な命令の下で動
作するプロセッサ5として実現できる)は、特徴画像の
座標又は成分を各固有ピクチャーについて抽出し、前述
の方法を用いて50個のベクトルを与える。カード挿入装
置2は挿入されたクレジットカードから、そのカードの
正しいユーザを特徴付ける50個の成分を読み出す。これ
らの成分はコンパレータ10(これは又信号処理装置の一
部分として実際には構成される)に入力される。このコ
ンパレータ10は2つのコネクタ間のパターン空間の距離
を測定する。所望の測定法はユークリッド距離法(Eucl
idian distance)である。しかし他の測定方法(例え
ば“シティーブロック(city block)”測定法)も同
様に使用できる。この距離が所定スレショルド(thresh
old)より少ないとき、正しい領域が出力11に対して示
される。そうでない場合、認識の失敗が信号で知らされ
る。
他のデータもこの認識処理に組み込むことができる。
例えば、テンプレートの変形中に得られるデータ、又は
頭部測定値(例えば頭部位置検出段階で得られる頭の高
さと幅の比)、又は前述の特徴位置データなどである。
認識結果は以前の我々の出願GB9005190.5に示される方
法で組み合わせることもできる。
一般に画像のある種の前処理が行われる(図2の12と
して概略示される)。例えば、(空間的又は一時的な)
ノイズ濾波、及び輝度あるいはコントラストの正規化で
ある。
眉毛による影などの光の変動は空間的な分散の影響を
画像の輝度に与える。現在使用されている生の画像デー
タの代わりに、第2の偏倚オペレータ又は形態フィルタ
(morphological filter)を使用することにより画像
を更に前処理して、この変動のほとんどを取り除くのが
望ましい。ブラー・フィルタ(blurring filter)も又
必要となる。
代表ベクトル上の幾何学的正規化内の変動の影響を減
少することも望ましい。これはローパスフィルタで完全
に濾波した画像を使用して行われる。この画像はより安
定した表現を認識処理に与える。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ウエルシュ、ウイリアム・ジョン イギリス国、アイピー2・9イーエフ、 サフォーク、イプスウイッチ、ファウン テインズ・ロード 47 (56)参考文献 特開 昭48−55638(JP,A) 特開 昭62−120179(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 G06T 7/00 G06T 1/00

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】画像を処理する方法において、 前記画像内で少なくとも1つの特徴の位置を検出するス
    テップと、 前記特徴を示す画像から画像データを抽出するステップ
    と、 前記特徴画像データの位置をN次元空間で示す特徴ベク
    トルを各特徴について計算するステップとを具備し、該
    N次元空間は複数の参照ベクトルによって定義され、各
    参照ベクトルは類似する特徴画像の練習セツトの固有ベ
    クトルであり、 更にこの方法は、前記各特徴画像データを修正して各特
    徴の形状を正規化することより前記特徴の所定標準形状
    からのずれを減少するステップを具備し、本ステップは
    対応する特徴ベクトルを計算する前に実行されることを
    特徴とする画像処理方法。
  2. 【請求項2】前記画像内で少なくとも1つの特徴の位置
    を検出するステップは、前記位置の粗い概算値を提供す
    る第1の技術、及び前記粗い概算値を向上させるための
    第1の技術とは異なる第2の技術を用いることを特徴と
    する請求項1記載の方法。
  3. 【請求項3】前記類似する特徴画像の練習セットは、各
    画像の練習セットの形状を正規化することにより修正さ
    れ、それにより前記特徴の所定標準形状からのずれが減
    少され、更に本ステップは前記画像の固有ベクトルを計
    算する前に実行されることを特徴とする請求項1又は2
    記載の方法。
  4. 【請求項4】データキャリア(data carrier)のユー
    ザの同一性を確認する方法において、 前記ユーザの顔のデジタル画像を発生するステップと、 前記データキャリアを受取り、識別データを前記キャリ
    アから読み出すステップと、 請求項1乃至3の中の1項に示される方法を実行するス
    テップと、 前記ステップにより得られる各特徴ベクトル又はデータ
    を、前記識別データと比較するステップと、及び 前記比較に応じて確認信号を発生するステップと、 を有することを特徴とする方法。
  5. 【請求項5】データキャリアのユーザの同一性を確認す
    る装置において、 前記ユーザの顔のデジタル画像を発生する手段と、 前記データキャリアを受取り、識別データを前記キャリ
    アから読み出す手段と、 請求項1乃至3の中の1項に示される方法を実行する手
    段と、 前記手段により得られる各特徴ベクトル又はデータを、
    前記識別データと比較し、この比較に応じて確認信号を
    発生する手段と、 を有することを特徴とする装置。
JP3512813A 1990-07-17 1991-07-17 画像処理方法 Expired - Fee Related JP3040466B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB909015694A GB9015694D0 (en) 1990-07-17 1990-07-17 Face processing
GB9015694,4 1990-07-17
GB9019827,6 1990-09-11
GB909019827A GB9019827D0 (en) 1990-09-11 1990-09-11 Object location and tracking using a'power-assisted'snake
PCT/GB1991/001183 WO1992002000A1 (en) 1990-07-17 1991-07-17 A method of processing an image

Publications (2)

Publication Number Publication Date
JPH05508951A JPH05508951A (ja) 1993-12-09
JP3040466B2 true JP3040466B2 (ja) 2000-05-15

Family

ID=26297337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3512813A Expired - Fee Related JP3040466B2 (ja) 1990-07-17 1991-07-17 画像処理方法

Country Status (6)

Country Link
US (1) US5719951A (ja)
EP (1) EP0539439B1 (ja)
JP (1) JP3040466B2 (ja)
CA (1) CA2087523C (ja)
DE (1) DE69131350T2 (ja)
WO (1) WO1992002000A1 (ja)

Families Citing this family (162)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450504A (en) * 1992-05-19 1995-09-12 Calia; James Method for finding a most likely matching of a target facial image in a data base of facial images
GB2283636B (en) * 1992-06-29 1996-04-24 British Telecomm Coding and decoding video signals
JP3252381B2 (ja) * 1992-09-08 2002-02-04 ソニー株式会社 パターン認識装置
US5983251A (en) * 1993-09-08 1999-11-09 Idt, Inc. Method and apparatus for data analysis
NO933205D0 (no) * 1993-09-08 1993-09-08 Harald Martens System for representasjon av data
US5574573A (en) * 1993-10-29 1996-11-12 Eastman Kodak Company Compression method for a standardized image library
US5512939A (en) * 1994-04-06 1996-04-30 At&T Corp. Low bit rate audio-visual communication system having integrated perceptual speech and video coding
CA2145914A1 (en) * 1994-05-27 1995-11-28 Alexandros Eleftheriadis Model-assisted coding of video sequences at low bit rates
ZA959492B (en) * 1994-12-21 1996-07-10 Eastman Kodak Co Method and apparatus for the formation of standardised image templates
ZA959491B (en) * 1994-12-21 1996-06-29 Eastman Kodak Co Method for compressing and decompressing standardized portait images
US5727089A (en) * 1995-01-05 1998-03-10 Eastman Kodak Company Method and apparatus for multiple quality transaction card images
US6172706B1 (en) * 1995-04-19 2001-01-09 Canon Kabushiki Kaisha Video camera with automatic zoom adjustment based on distance between user's eyes
JP3735893B2 (ja) * 1995-06-22 2006-01-18 セイコーエプソン株式会社 顔画像処理方法および顔画像処理装置
KR0160711B1 (ko) * 1995-07-20 1999-05-01 김광호 캠코더의 정지화면 재생장치 및 그 방법
US5887081A (en) * 1995-12-07 1999-03-23 Ncr Corporation Method for fast image identification and categorization of multimedia data
DE19610066C1 (de) * 1996-03-14 1997-09-18 Siemens Nixdorf Advanced Techn Verfahren zur Erfassung gesichtsbezogener Personendaten und deren Verwendung zur Identifizierung oder Verifikation von Personen
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
US6188776B1 (en) * 1996-05-21 2001-02-13 Interval Research Corporation Principle component analysis of images for the automatic location of control points
US5920644A (en) * 1996-06-06 1999-07-06 Fujitsu Limited Apparatus and method of recognizing pattern through feature selection by projecting feature vector on partial eigenspace
JP3529954B2 (ja) * 1996-09-05 2004-05-24 株式会社資生堂 顔だち分類法及び顔だちマップ
JP2918499B2 (ja) * 1996-09-17 1999-07-12 株式会社エイ・ティ・アール人間情報通信研究所 顔画像情報変換方法および顔画像情報変換装置
US6044168A (en) * 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
US6185337B1 (en) * 1996-12-17 2001-02-06 Honda Giken Kogyo Kabushiki Kaisha System and method for image recognition
JP3912834B2 (ja) * 1997-03-06 2007-05-09 有限会社開発顧問室 顔画像の修正方法、化粧シミュレーション方法、化粧方法、化粧サポート装置及びファンデーション転写膜
US6330354B1 (en) * 1997-05-01 2001-12-11 International Business Machines Corporation Method of analyzing visual inspection image data to find defects on a device
US6381345B1 (en) * 1997-06-03 2002-04-30 At&T Corp. Method and apparatus for detecting eye location in an image
US6016148A (en) * 1997-06-06 2000-01-18 Digital Equipment Corporation Automated mapping of facial images to animation wireframes topologies
US6195445B1 (en) * 1997-06-30 2001-02-27 Siemens Corporate Research, Inc. Motion compensation of an image sequence using optimal polyline tracking
US6252976B1 (en) * 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
US6151403A (en) * 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
US7630006B2 (en) * 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
US6035055A (en) * 1997-11-03 2000-03-07 Hewlett-Packard Company Digital image management system in a distributed data access network system
US6539103B1 (en) * 1997-11-12 2003-03-25 The University Of Utah Method and apparatus for image reconstruction using a knowledge set
US6148092A (en) 1998-01-08 2000-11-14 Sharp Laboratories Of America, Inc System for detecting skin-tone regions within an image
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
EP1058924B1 (en) 1998-01-26 2012-06-13 Apple Inc. Method and apparatus for integrating manual input
JP3271750B2 (ja) * 1998-03-05 2002-04-08 沖電気工業株式会社 アイリス識別コード抽出方法及び装置、アイリス認識方法及び装置、データ暗号化装置
DE19810792A1 (de) 1998-03-12 1999-09-16 Zentrum Fuer Neuroinformatik G Verfahren zum Verifizieren der Authentizität eines im Rahmen einer Personenerkennung aufgenommenen Bildes
JP3657769B2 (ja) * 1998-03-19 2005-06-08 富士写真フイルム株式会社 画像処理方法および画像処理装置
GB2336735A (en) * 1998-04-24 1999-10-27 Daewoo Electronics Co Ltd Face image mapping
US6215471B1 (en) 1998-04-28 2001-04-10 Deluca Michael Joseph Vision pointer method and apparatus
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US6292575B1 (en) 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
WO2000008586A2 (en) * 1998-08-07 2000-02-17 Korea Institute Of Science And Technology Apparatus and method for detecting a moving object in a sequence of color frame images
US6714661B2 (en) * 1998-11-06 2004-03-30 Nevengineering, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
DE19901881A1 (de) * 1999-01-19 2000-07-27 Dcs Dialog Communication Syste Verfahren und System zur Fälschungssicherung bei biometrischer Personenerkennung
US6917692B1 (en) * 1999-05-25 2005-07-12 Thomson Licensing S.A. Kalman tracking of color objects
JP4824240B2 (ja) 1999-12-07 2011-11-30 オラクル・アメリカ・インコーポレイテッド 安全な写真担持用識別装置及びこのような識別装置を認証する手段及び方法
JP2001266158A (ja) * 2000-01-11 2001-09-28 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
US6940545B1 (en) 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US6792144B1 (en) * 2000-03-03 2004-09-14 Koninklijke Philips Electronics N.V. System and method for locating an object in an image using models
US6597736B1 (en) * 2000-03-29 2003-07-22 Cisco Technology, Inc. Throughput enhanced video communication
DE10017551C2 (de) * 2000-04-08 2002-10-24 Carl Zeiss Vision Gmbh Verfahren zur zyklischen, interaktiven Bildanalyse sowie Computersystem und Computerprogramm zur Ausführung des Verfahrens
US7245766B2 (en) * 2000-05-04 2007-07-17 International Business Machines Corporation Method and apparatus for determining a region in an image based on a user input
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US7079158B2 (en) * 2000-08-31 2006-07-18 Beautyriot.Com, Inc. Virtual makeover system and method
US20020081003A1 (en) * 2000-12-27 2002-06-27 Sobol Robert E. System and method for automatically enhancing graphical images
US6961465B2 (en) * 2000-12-28 2005-11-01 Canon Kabushiki Kaisha System and method for efficient determination of recognition initial conditions
EP1229486A1 (en) * 2001-01-31 2002-08-07 GRETAG IMAGING Trading AG Automatic image pattern detection
EP1250005A1 (en) * 2001-04-12 2002-10-16 BRITISH TELECOMMUNICATIONS public limited company Video communication with feedback of the caller's position relative to the camera
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
US20040179712A1 (en) * 2001-07-24 2004-09-16 Gerrit Roelofsen Method and sysem and data source for processing of image data
AUPR676201A0 (en) * 2001-08-01 2001-08-23 Canon Kabushiki Kaisha Video feature tracking with loss-of-track detection
US7054468B2 (en) * 2001-12-03 2006-05-30 Honda Motor Co., Ltd. Face recognition using kernel fisherfaces
US7123783B2 (en) * 2002-01-18 2006-10-17 Arizona State University Face classification using curvature-based multi-scale morphology
US20070261077A1 (en) * 2006-05-08 2007-11-08 Gary Zalewski Using audio/visual environment to select ads on game platform
US20070061413A1 (en) * 2005-09-15 2007-03-15 Larsen Eric J System and method for obtaining user information from voices
US20070260517A1 (en) * 2006-05-08 2007-11-08 Gary Zalewski Profile detection
US20040064709A1 (en) * 2002-09-30 2004-04-01 Heath James G. Security apparatus and method
US7203338B2 (en) * 2002-12-11 2007-04-10 Nielsen Media Research, Inc. Methods and apparatus to count people appearing in an image
CA2509644A1 (en) 2002-12-11 2004-06-24 Nielsen Media Research, Inc. Detecting a composition of an audience
US7254275B2 (en) * 2002-12-17 2007-08-07 Symbol Technologies, Inc. Method and system for image compression using image symmetry
JP4406547B2 (ja) * 2003-03-03 2010-01-27 富士フイルム株式会社 Idカード作成装置、idカード、顔認証端末装置、顔認証装置およびシステム
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7920723B2 (en) * 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7792970B2 (en) * 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8170294B2 (en) * 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US7689009B2 (en) * 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US8036458B2 (en) * 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US7151969B2 (en) * 2003-06-26 2006-12-19 International Business Machines Corporation Administering devices in dependence upon user metric vectors with optimizing metric action lists
US8254674B2 (en) * 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US7574016B2 (en) * 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
KR20030066512A (ko) * 2003-07-04 2003-08-09 김재민 노이즈에 강인한 저용량 홍채인식 시스템
US20050140801A1 (en) * 2003-08-05 2005-06-30 Yury Prilutsky Optimized performance and performance for red-eye filter method and apparatus
US8520093B2 (en) * 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US9412007B2 (en) * 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US7317816B2 (en) * 2003-08-19 2008-01-08 Intel Corporation Enabling content-based search of objects in an image database with reduced matching
US7512255B2 (en) * 2003-08-22 2009-03-31 Board Of Regents, University Of Houston Multi-modal face recognition
US6984039B2 (en) * 2003-12-01 2006-01-10 Eastman Kodak Company Laser projector having silhouette blanking for objects in the output light path
US20050129334A1 (en) * 2003-12-12 2005-06-16 Wilder Daniel V. Event photo retrieval system and method
US20110102643A1 (en) * 2004-02-04 2011-05-05 Tessera Technologies Ireland Limited Partial Face Detector Red-Eye Filter Method and Apparatus
GB2410876A (en) * 2004-02-04 2005-08-10 Univ Sheffield Hallam Matching surface features to render 3d models
US7428322B2 (en) * 2004-04-20 2008-09-23 Bio-Rad Laboratories, Inc. Imaging method and apparatus
US7388580B2 (en) * 2004-05-07 2008-06-17 Valve Corporation Generating eyes for a character in a virtual environment
JP2005339288A (ja) * 2004-05-27 2005-12-08 Toshiba Corp 画像処理装置及びその方法
TW200540732A (en) * 2004-06-04 2005-12-16 Bextech Inc System and method for automatically generating animation
US7660482B2 (en) * 2004-06-23 2010-02-09 Seiko Epson Corporation Method and apparatus for converting a photo to a caricature image
US7454039B2 (en) * 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7692683B2 (en) * 2004-10-15 2010-04-06 Lifesize Communications, Inc. Video conferencing system transcoder
US20060248210A1 (en) * 2005-05-02 2006-11-02 Lifesize Communications, Inc. Controlling video display mode in a video conferencing system
FR2890215B1 (fr) * 2005-08-31 2007-11-09 St Microelectronics Sa Traitement numerique d'une image d'iris
US8616973B2 (en) * 2005-09-15 2013-12-31 Sony Computer Entertainment Inc. System and method for control by audible device
US8645985B2 (en) 2005-09-15 2014-02-04 Sony Computer Entertainment Inc. System and method for detecting user attention
US7599527B2 (en) * 2005-09-28 2009-10-06 Facedouble, Inc. Digital image search system and method
US7599577B2 (en) * 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
WO2007088508A2 (en) * 2006-02-03 2007-08-09 Koninklijke Philips Electronics N.V. Ultrasonic method and apparatus for measuring or detecting flow behavior of a non-sinusoidal periodicity
JP4643715B2 (ja) 2006-02-14 2011-03-02 テセラ テクノロジーズ アイルランド リミテッド 赤目ではない目の閃光による不良の自動的な検知および補正
JP2009533786A (ja) 2006-04-10 2009-09-17 アヴァワークス インコーポレーテッド 自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法
US20070243930A1 (en) * 2006-04-12 2007-10-18 Gary Zalewski System and method for using user's audio environment to select advertising
US20070255630A1 (en) * 2006-04-17 2007-11-01 Gary Zalewski System and method for using user's visual environment to select advertising
US20070244751A1 (en) * 2006-04-17 2007-10-18 Gary Zalewski Using visual environment to select ads on game platform
US7965875B2 (en) * 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
US20070297651A1 (en) * 2006-06-23 2007-12-27 Schubert Peter J Coutour-based object recognition method for a monocular vision system
WO2008073449A2 (en) 2006-12-12 2008-06-19 Evans & Sutherland Computer Corporation System and method for aligning rgb light in a single modulator projector
US8055067B2 (en) * 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
US7792379B2 (en) * 2007-02-06 2010-09-07 Accenture Global Services Gmbh Transforming a submitted image of a person based on a condition of the person
EP2145288A4 (en) * 2007-03-05 2013-09-04 Digitaloptics Corp Europe Ltd FILTERING OF POSITIVE FALSE OF RED EYES USING A LOCATION AND FACE ORIENTATION
JP4988408B2 (ja) 2007-04-09 2012-08-01 株式会社デンソー 画像認識装置
US8633962B2 (en) * 2007-06-22 2014-01-21 Lifesize Communications, Inc. Video decoder which processes multiple video streams
US8139100B2 (en) * 2007-07-13 2012-03-20 Lifesize Communications, Inc. Virtual multiway scaler compensation
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
US8212864B2 (en) * 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
US20090196524A1 (en) * 2008-02-05 2009-08-06 Dts Digital Images, Inc. System and method for sharpening of digital images
EP2105845B1 (de) 2008-03-28 2018-05-02 Neoperl GmbH Identifikationsverfahren
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8411963B2 (en) 2008-08-08 2013-04-02 The Nielsen Company (U.S.), Llc Methods and apparatus to count persons in a monitored environment
US8081254B2 (en) * 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US8514265B2 (en) * 2008-10-02 2013-08-20 Lifesize Communications, Inc. Systems and methods for selecting videoconferencing endpoints for display in a composite video image
US20100110160A1 (en) * 2008-10-30 2010-05-06 Brandt Matthew K Videoconferencing Community with Live Images
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
US20100142755A1 (en) * 2008-11-26 2010-06-10 Perfect Shape Cosmetics, Inc. Method, System, and Computer Program Product for Providing Cosmetic Application Instructions Using Arc Lines
US8643695B2 (en) * 2009-03-04 2014-02-04 Lifesize Communications, Inc. Videoconferencing endpoint extension
US8456510B2 (en) * 2009-03-04 2013-06-04 Lifesize Communications, Inc. Virtual distributed multipoint control unit
US8472681B2 (en) * 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8350891B2 (en) * 2009-11-16 2013-01-08 Lifesize Communications, Inc. Determining a videoconference layout based on numbers of participants
US8471889B1 (en) * 2010-03-11 2013-06-25 Sprint Communications Company L.P. Adjusting an image for video conference display
CN103493097B (zh) * 2011-04-15 2015-09-16 爱信精机株式会社 眼睑检测装置、眼睑检测方法
JP2013048717A (ja) * 2011-08-31 2013-03-14 Sony Corp 画像処理装置及び方法、記録媒体、並びにプログラム
US8620088B2 (en) 2011-08-31 2013-12-31 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US8769435B1 (en) * 2011-09-16 2014-07-01 Google Inc. Systems and methods for resizing an icon
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
US9342735B2 (en) * 2011-12-01 2016-05-17 Finding Rover, Inc. Facial recognition lost pet identifying system
US9361672B2 (en) * 2012-03-26 2016-06-07 Google Technology Holdings LLC Image blur detection
TWI521469B (zh) * 2012-06-27 2016-02-11 Reallusion Inc Two - dimensional Roles Representation of Three - dimensional Action System and Method
US9165535B2 (en) * 2012-09-27 2015-10-20 Google Inc. System and method for determining a zoom factor of content displayed on a display device
JP6532642B2 (ja) 2013-07-30 2019-06-19 富士通株式会社 生体情報認証装置および生体情報処理方法
JP6077425B2 (ja) * 2013-09-25 2017-02-08 Kddi株式会社 映像管理装置及びプログラム
CN103632165B (zh) 2013-11-28 2017-07-04 小米科技有限责任公司 一种图像处理的方法、装置及终端设备
CA2995756A1 (en) * 2015-08-21 2017-03-02 Magic Leap, Inc. Eyelid shape estimation
KR102591552B1 (ko) 2015-08-21 2023-10-18 매직 립, 인코포레이티드 눈 포즈 측정을 사용한 눈꺼풀 형상 추정
EP3761232A1 (en) 2015-10-16 2021-01-06 Magic Leap, Inc. Eye pose identification using eye features
US11711638B2 (en) 2020-06-29 2023-07-25 The Nielsen Company (Us), Llc Audience monitoring systems and related methods
US11860704B2 (en) 2021-08-16 2024-01-02 The Nielsen Company (Us), Llc Methods and apparatus to determine user presence
US11758223B2 (en) 2021-12-23 2023-09-12 The Nielsen Company (Us), Llc Apparatus, systems, and methods for user presence detection for audience monitoring
US12088882B2 (en) 2022-08-26 2024-09-10 The Nielsen Company (Us), Llc Systems, apparatus, and related methods to estimate audience exposure based on engagement level

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE365325B (ja) * 1971-11-04 1974-03-18 Rothfjell R
JPS58201185A (ja) * 1982-05-19 1983-11-22 Toshiba Corp 位置検出装置
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
EP0310603B1 (en) * 1986-05-07 1992-07-15 COSTELLO, Brendan David Method and apparatus for verifying identity
US4754487A (en) * 1986-05-27 1988-06-28 Image Recall Systems, Inc. Picture storage and retrieval system for various limited storage mediums
US4906940A (en) * 1987-08-24 1990-03-06 Science Applications International Corporation Process and apparatus for the automatic detection and extraction of features in images and displays
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
GB8905731D0 (en) * 1989-03-13 1989-04-26 British Telecomm Pattern recognition

Also Published As

Publication number Publication date
DE69131350T2 (de) 1999-12-30
EP0539439B1 (en) 1999-06-16
US5719951A (en) 1998-02-17
DE69131350D1 (de) 1999-07-22
CA2087523C (en) 1997-04-15
EP0539439A1 (en) 1993-05-05
JPH05508951A (ja) 1993-12-09
WO1992002000A1 (en) 1992-02-06

Similar Documents

Publication Publication Date Title
JP3040466B2 (ja) 画像処理方法
Baumberg Learning deformable models for tracking human motion
KR100653288B1 (ko) 비디오 화상으로부터의 얼굴 인식
US7873185B2 (en) Method for detection and tracking of deformable objects
US6404900B1 (en) Method for robust human face tracking in presence of multiple persons
US5774129A (en) Image analysis and synthesis networks using shape and texture information
JP4234381B2 (ja) 顔の特徴を位置確認するための方法及びコンピュータープログラム製品
US5844573A (en) Image compression by pointwise prototype correspondence using shape and texture information
US7391900B2 (en) Image processing method for removing glasses from color facial images
Jacquin et al. Automatic location tracking of faces and facial features in video sequences
EP0907144A2 (en) Method for extracting a three-dimensional model from a sequence of images
US7486825B2 (en) Image processing apparatus and method thereof
CN110363047A (zh) 人脸识别的方法、装置、电子设备和存储介质
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
CN104123749A (zh) 一种图像处理方法及系统
CN103116902A (zh) 三维虚拟人头像生成方法、人头像运动跟踪方法和装置
Jones et al. Model-based matching by linear combinations of prototypes
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
Crispell et al. Pix2face: Direct 3d face model estimation
JP3577908B2 (ja) 顔画像認識システム
Golyanik et al. Accurate 3d reconstruction of dynamic scenes from monocular image sequences with severe occlusions
CN115331153B (zh) 一种用于辅助前庭康复训练的姿态监测方法
Vezhnevets et al. Automatic extraction of frontal facial features
Legouhy et al. POLAFFINI: Efficient feature-based polyaffine initialization for improved non-linear image registration
Lefevre et al. Structure and appearance features for robust 3d facial actions tracking

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080303

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090303

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090303

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100303

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100303

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110303

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees