[go: up one dir, main page]

JP2008538998A - Use of time when recognizing a person in an image - Google Patents

Use of time when recognizing a person in an image Download PDF

Info

Publication number
JP2008538998A
JP2008538998A JP2008508923A JP2008508923A JP2008538998A JP 2008538998 A JP2008538998 A JP 2008538998A JP 2008508923 A JP2008508923 A JP 2008508923A JP 2008508923 A JP2008508923 A JP 2008508923A JP 2008538998 A JP2008538998 A JP 2008538998A
Authority
JP
Japan
Prior art keywords
person
interest
time
appearance model
age
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008508923A
Other languages
Japanese (ja)
Other versions
JP2008538998A5 (en
Inventor
チャールズ ギャラガー,アンドリュー
ダス,マディラクシ
オー. スタブラー,ピーター
Original Assignee
イーストマン コダック カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イーストマン コダック カンパニー filed Critical イーストマン コダック カンパニー
Publication of JP2008538998A publication Critical patent/JP2008538998A/en
Publication of JP2008538998A5 publication Critical patent/JP2008538998A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Studio Devices (AREA)

Abstract

長期間にわたって取得したディジタル画像コレクションの中から興味の対象となる特定の少なくとも一人の人物を同定する方法は、それぞれのディジタル画像に一人以上の人物が含まれているディジタル画像コレクションを用意するステップと;付随するある時刻における興味の対象である特定の人物の顔の特徴に関する距離測定値である1セットの特徴を持つ外見モデルをディジタル・データベースに記憶させるステップと;個人認識分類装置を設け、その個人認識分類装置において、外見モデルと付随する時刻とを利用して、ディジタル画像コレクションの画像の中で興味の対象である特定の人物を同定するステップを含んでいる。  A method for identifying a particular at least one person of interest from a digital image collection acquired over a long period of time includes providing a digital image collection in which each digital image includes one or more persons. Storing in the digital database an appearance model having a set of features that are distance measurements related to facial features of a particular person of interest at a certain time; and providing a personal recognition and classification device; The personal recognition and classification device includes the step of identifying a specific person of interest in the images of the digital image collection using the appearance model and the accompanying time.

Description

本発明は画像処理に関するものであり、より詳細には、たまったディジタル画像またはビデオに含まれる興味の対象となる人物の同定または認識に関する。   The present invention relates to image processing, and more particularly to identifying or recognizing a person of interest contained in a stored digital image or video.

ディジタル写真の出現に伴い、消費者はディジタル画像とビデオを大量に抱えるようになっている。1人の人がディジタル・カメラで撮影する画像の平均数は、年々増加している。その結果、その典型的な消費者にとって、画像とビデオの整理と検索がすでに問題となっている。現在のところ、典型的な消費者が撮影したディジタル画像の撮影期間はほんの数年である。整理と検索の問題は、ディジタル画像とビデオがたまる期間が長くなるほど重大になるであろう。   With the advent of digital photography, consumers are holding large amounts of digital images and video. The average number of images taken by a single person with a digital camera is increasing year by year. As a result, organizing and searching for images and videos is already a problem for the typical consumer. At present, the duration of a digital image taken by a typical consumer is only a few years. The problem of organizing and searching will become more serious as digital images and videos accumulate longer.

消費者の写真における最も基本的な問題の1つは人物である。さらに、たまっているディジタル画像とビデオには、特定の人物がしばしば現われる。例えば新しく親になった人が撮影するほとんどの画像には彼らの赤ん坊が含まれていることが一般的である。消費者は、自分が撮影してたまった画像の中から特定の人物を含むすべての画像を見いだす能力を望んでいる。しかしこれは技術的に非常に難しい問題である。例えば赤ん坊が成長してよちよち歩きをするようになり、さらに子ども時代を経て大人になるとき、外見が劇的に変化する。   One of the most basic problems in consumer photography is the person. In addition, certain people often appear in accumulated digital images and videos. For example, most images taken by a new parent generally include their baby. Consumers want the ability to find all images, including a specific person, among the images they have taken. However, this is a technically very difficult problem. For example, when a baby grows up and walks, and then grows up as a child, the appearance changes dramatically.

セキュリティその他の目的で人物を認識しようと試みる画像処理パッケージが多く存在している。いくつか例示すると、コグニテック・システムズ社の顔認識ソフトウエアFaceVACSと、イマジス・テクノロジーズ社とアイデンティックス社の顔認識SDKがある。これらのパッケージは主としてセキュリティ・タイプの用途が想定されており、人物が、一様な照明のもと、ニュートラルな表情で正面を向いてカメラに対する。こうした方法は、個人的な消費者の画像での利用には適していない。なぜならこの分野では、ポーズも、照明も、表情も、画像に含まれる顔のサイズも、さまざまだからである。さらに、このようなシステムは大人の顔で使用することを目的としているため、興味の対象となるあらゆる年齢の特定の人物の画像をうまく認識することはできない。   There are many image processing packages that attempt to recognize people for security or other purposes. To name a few, there are face recognition software FaceVACS from Cognitech Systems, and face recognition SDKs from Imagis Technologies and Identitys. These packages are primarily intended for security-type applications, where a person faces the camera with a neutral look and uniform lighting under a uniform look. These methods are not suitable for use with personal consumer images. This is because in this field, there are various poses, lighting, facial expressions, and face sizes included in images. Furthermore, because such a system is intended for use with adult faces, it cannot successfully recognize images of specific persons of all ages of interest.

ディジタル画像から人物の年齢を検出するための画像処理技術がいくつか報告されている。例えばLoboとKwonは、アメリカ合衆国特許第5,481,650号において、ディジタル画像に含まれる人物の年齢を分類する方法を記載している。彼らは顔を計測し、スネークを利用して皺分析を行ない、人物の年齢を次のカテゴリーに分類している。すなわち赤ん坊(約3歳まで)、若者(3〜40歳)、中老年(40歳超)である。この方法では、画像に含まれる人物が誰であるかを認識する問題は議論されていない。顔を認識する他のいろいろな画像処理法が知られている。例えばアメリカ合衆国特許出願公開2004/0247177 A1では、いろいろな固有顔を利用し、対象となる1つの顔の画素密度パターンの特徴を明らかにしている。上記のどの方法にもいろいろな問題があり、興味の対象となる人物を間違える可能性がある。   Several image processing techniques for detecting a person's age from a digital image have been reported. For example, Lobo and Kwon describe in US Pat. No. 5,481,650 a method for classifying the age of a person included in a digital image. They measure the face and use a snake to analyze wrinkles and classify the age of the person into the following categories: They are babies (up to about 3 years old), young people (3 to 40 years old), middle-aged and elderly (over 40 years old). In this method, the problem of recognizing who the person included in the image is not discussed. Various other image processing methods for recognizing a face are known. For example, US Patent Application Publication No. 2004/0247177 A1 uses various unique faces to clarify the characteristics of the pixel density pattern of a single target face. There are various problems with any of the above methods, and the person you are interested in may be mistaken.

本発明の1つの目的は、たまった画像に含まれる一人の人物を同定するための改良された方法を提供することである。未知の人物を分類するのに、興味の対象となる既知の人物の顔の特徴間の距離の測定値に基づいた特徴を有する外見モデルを利用すると特に効果的であることがわかった。大人では、顔の特徴間の距離の測定値は一般に時間とともに変化することはないため、興味の対象となる人物の検索精度が向上する。成長とともに顔の特徴が急速に変化する子どもでは、距離の測定値を利用した外見モデルを有効に用いることができる。   One object of the present invention is to provide an improved method for identifying a single person contained in an accumulated image. It has been found that it is particularly effective to classify unknown persons by using an appearance model having features based on measured distances between features of the faces of known persons of interest. In adults, the measurement of the distance between facial features generally does not change over time, improving the search accuracy for the person of interest. Appearance models that use distance measurements can be used effectively in children whose facial features change rapidly as they grow up.

この目的は、長期間にわたって取得したディジタル画像コレクションの中から興味の対象となる特定の少なくとも一人の人物を同定する方法であって、
それぞれのディジタル画像に一人以上の人物が含まれているディジタル画像コレクションを用意するステップと;
付随するある時刻における興味の対象である特定の人物の顔の特徴に関する距離測定値である1セットの特徴を持つ外見モデルをディジタル・データベースに記憶させるステップと;
個人認識分類装置を設け、その個人認識分類装置において、外見モデルと付随する時刻とを利用して、ディジタル画像コレクションの画像の中で興味の対象である特定の人物を同定するステップを含む方法によって達成される。
The purpose is to identify at least one particular person of interest from a digital image collection acquired over a long period of time, comprising:
Providing a digital image collection in which each digital image includes one or more persons;
Storing in the digital database an appearance model with a set of features that is a distance measure of the facial features of a particular person of interest at an associated time;
A method comprising: providing a personal recognition and classification device, wherein the personal recognition and classification device identifies a particular person of interest in an image of a digital image collection using an appearance model and associated time Achieved.

本発明の1つの有利な効果は、ディジタル画像またはビデオに含まれる興味の対象となる人物を同定するのに1つの画像とそれに付随する時刻を利用できることである。言い換えるならば、本発明では、ある赤ん坊の画像を利用すると、それよりも後に子どもまたは大人になった同じ人物の写真として表現することができる。   One advantageous effect of the present invention is that one image and its associated time can be used to identify the person of interest contained in the digital image or video. In other words, in the present invention, when an image of a baby is used, it can be expressed as a photograph of the same person who later became a child or an adult.

本発明の上記の特徴と目的ならびに他の特徴と目的、それを実現する方法は、添付の図面を参照した本発明の一実施態様に関する以下の説明からより明らかになろう。さらに、本発明そのものも、この説明からよりよく理解されよう。   The above features and objects of the present invention, as well as other features and objects, and methods for realizing the same will become more apparent from the following description of one embodiment of the present invention with reference to the accompanying drawings. Furthermore, the present invention itself will be better understood from this description.

以下の説明では、本発明のいくつかの実施態様をソフトウエア・プログラムとして説明する。当業者であれば、そのようなソフトウエアと同等なハードウエアも構成できることが理解できよう。画像処理アルゴリズムと画像処理システムはよく知られているため、ここでの説明は、特に、本発明による方法の一部を形成するアルゴリズムとシステム、または本発明による方法とより直接に組み合わせて利用されるアルゴリズムとシステムに向けることにする。このようなアルゴリズムおよびシステムの他の側面と、そこに関与する画像信号を生成させたり処理したりするためのハードウエアまたはソフトウエアは、ここに特に示しもしないし説明もしないが、従来技術で知られているシステム、アルゴリズム、部品、素子の中から選択することができる。この明細書の以下の部分に示した説明からわかるように、説明内容をすべてソフトウエアで実現することは一般的であり、当業者であれば可能である。   In the following description, some embodiments of the present invention will be described as software programs. Those skilled in the art will appreciate that hardware equivalent to such software can be configured. Since image processing algorithms and image processing systems are well known, the description here is used in particular in combination with algorithms and systems that form part of the method according to the invention, or more directly with the method according to the invention. Turn to algorithms and systems. Other aspects of such algorithms and systems and the hardware or software for generating and processing the image signals involved are not specifically shown or described herein, but are conventional. You can choose from known systems, algorithms, components, and elements. As will be understood from the description given in the following part of this specification, it is common that all the description is realized by software, and it is possible for those skilled in the art.

本発明は、コンピュータのハードウエアとコンピュータ化された装置として実現できる。例えば本発明の方法は、ディジタル・カメラ、ディジタル・プリンタ、インターネット・サーバ、キオスク、パーソナル・コンピュータで実施することができる。図1を参照すると、本発明を実現するコンピュータ・システムが示してある。このコンピュータ・システムは好ましい一実施態様を説明する目的で示してあるが、本発明が図示したコンピュータ・システムに限定されることはなく、任意の電子処理システム(例えばディジタル・カメラ、家庭のコンピュータ、キオスク、小型または大型の写真仕上げ店)や、ディジタル画像を処理するための他の任意のシステムで本発明を利用することができる。このコンピュータ・システムは、ソフトウエア・プログラムのインストールと処理、ならびに他の処理機能を実施するため、マイクロプロセッサをベースとしたユニット20(この明細書ではディジタル画像プロセッサとも呼ぶ)を備えている。ディジタル画像プロセッサ20は、画像取得装置10(例えばカメラ、スキャナ、コンピュータ画像生成ソフトウエア)からの画像を処理する。ディジタル画像プロセッサ20を利用してディジタル画像を処理することで、そのディジタル画像の全体の明るさ、色調のスケール、画像の構造などを調節し、見て満足できる画像が画像出力装置30から生成されるようにできる。ディジタル画像プロセッサ20は、全体制御用コンピュータ40(マイクロプロセッサをベースとしたユニットでもよい)とのインターフェイスとしてデータと命令を交換する。全体制御用コンピュータ40とディジタル画像プロセッサ20を異なる2つのマイクロプロセッサにすること、またはそれぞれの機能を単一のマイクロプロセッサで実施させることができる。ディジタル画像プロセッサ20は画像出力装置30(例えば画像を印刷するプリンタ)に画像をしばしば出力する。ディスプレイ装置50がディジタル画像プロセッサ20に電気的に接続されていて、ソフトウエアに付随するユーザー関連情報を例えばグラフィカル・ユーザー・インターフェイスによって表示する。全体制御用コンピュータ40を通じてキーボード60もマイクロプロセッサをベースとしたユニット20に接続されているため、ユーザーはソフトウエアに情報を入力することができる。従来技術でよく知られているように、入力するのにキーボード60の代わりにマウスを利用してディスプレイ装置50上のセレクタを移動させ、そのセレクタが重なったアイテムを選択することができる。   The present invention can be realized as computer hardware and a computerized device. For example, the method of the present invention can be implemented in a digital camera, digital printer, Internet server, kiosk, personal computer. Referring to FIG. 1, a computer system that implements the present invention is shown. While this computer system is shown for purposes of illustrating a preferred embodiment, the present invention is not limited to the illustrated computer system, and any electronic processing system (eg, digital camera, home computer, The invention can be used in kiosks, small or large photofinishers), or any other system for processing digital images. The computer system includes a microprocessor-based unit 20 (also referred to herein as a digital image processor) for performing installation and processing of software programs, as well as other processing functions. The digital image processor 20 processes an image from the image acquisition device 10 (eg, camera, scanner, computer image generation software). By processing the digital image using the digital image processor 20, the overall brightness, tone scale, image structure, etc. of the digital image are adjusted, and a satisfactory image is generated from the image output device 30. You can make it. The digital image processor 20 exchanges data and instructions as an interface with the overall control computer 40 (which may be a microprocessor-based unit). The overall control computer 40 and the digital image processor 20 can be two different microprocessors, or each function can be implemented by a single microprocessor. The digital image processor 20 often outputs the image to an image output device 30 (eg, a printer that prints the image). A display device 50 is electrically connected to the digital image processor 20 and displays user-related information associated with the software, for example, via a graphical user interface. Since the keyboard 60 is also connected to the microprocessor-based unit 20 through the overall control computer 40, the user can input information to the software. As is well known in the prior art, it is possible to move a selector on the display device 50 using a mouse instead of the keyboard 60 for input, and select an item on which the selector overlaps.

ソフトウエア・プログラムとそれ以外の情報を全体制御用コンピュータ40とディジタル画像プロセッサ20に入力する手段として、一般にソフトウエアが収容されているコンパクト・ディスク-読み出し専用メモリ(CD-ROM)を全体制御用コンピュータ40に挿入する。それに加え、フロッピー(登録商標)・ディスクもソフトウエア・プログラムを収容することができるため、そのソフトウエア・プログラムを入力するのにそのフロッピー(登録商標)・ディスクを全体制御用コンピュータ40に挿入する。さらに、従来技術でよく知られているように、全体制御用コンピュータ40をプログラムしてソフトウエア・プログラムを内部に記憶させることができる。全体制御用コンピュータ40は、外部ネットワーク(例えばローカル・エリア・ネットワークやインターネット)に接続することができる(例えば電話線や無線接続)。   As a means of inputting software programs and other information to the computer 40 and the digital image processor 20 for general control, a compact disk-read-only memory (CD-ROM) that generally contains software is used for overall control. Insert into computer 40. In addition, since the floppy disk can also accommodate a software program, the floppy disk is inserted into the overall control computer 40 for inputting the software program. . Further, as is well known in the prior art, the overall control computer 40 can be programmed to store a software program therein. The overall control computer 40 can be connected to an external network (for example, a local area network or the Internet) (for example, a telephone line or a wireless connection).

画像は、パーソナル・コンピュータ・カード(PCカード)を通じてディスプレイ装置50にも表示することができる。PCカードは例えば以前知られていた(パーソナル・コンピュータ・メモリ・カード国際協会の仕様に基づく)PCMCIAカードであり、ディジタル化された画像が電子的な形態でそのカードの中に含まれている。   The image can also be displayed on the display device 50 through a personal computer card (PC card). A PC card is, for example, a previously known PCMCIA card (based on the specification of the Personal Computer Memory Card International Association), in which a digitized image is contained in the card in electronic form.

画像出力装置30は最終画像を提供する。画像出力装置30は、プリンタにすること、または紙や他のハード・コピー最終画像を提供する他の出力手段にすることができる。画像出力装置30は、ディジタル・ファイルとして最終画像を提供する出力装置にすることもできる。画像出力装置30は、出力を組み合わせること(CDやDVDといったメモリ・ユニット上のプリントされた画像と、ディジタル・ファイル)もできる。   The image output device 30 provides the final image. The image output device 30 can be a printer or other output means for providing a paper or other hard copy final image. The image output device 30 can also be an output device that provides the final image as a digital file. The image output device 30 can also combine outputs (printed images on a memory unit such as a CD or DVD and a digital file).

ディジタル画像は、1つ以上のディジタル画像チャネルまたはカラー成分を含んでいる。各ディジタル画像チャネルは、画素の2次元アレイである。各画素値は、画像取得装置が画素の物理的領域に対応して受け取る光の量と関係している。カラー画像の用途では、ディジタル画像は、赤、緑、青のディジタル画像チャネルからなることがしばしばある。一連のディジタル画像として動画の用途を考えることができる。当業者であれば、この明細書で言及した任意の用途のために本発明をディジタル画像チャネルに適用できることが理解できよう。ディジタル画像チャネルを行と列に配置した画素値の2次元アレイとして説明しているが、当業者であれば、本発明を、同じ効果を持つ直線で囲まれていないアレイに適用できることが理解できよう。当業者であれば、元の画素値を以下に説明するディジタル画像処理ステップにおいて処理した画素値で置き換えることは、同じ処理ステップを、元の画素値を保持しながら処理した画素値を有する新しいディジタル画像を生成させると記述することと機能的に同等であることも理解できよう。   A digital image includes one or more digital image channels or color components. Each digital image channel is a two-dimensional array of pixels. Each pixel value is related to the amount of light that the image acquisition device receives corresponding to the physical area of the pixel. In color image applications, a digital image often consists of red, green and blue digital image channels. The use of moving images can be considered as a series of digital images. One skilled in the art will appreciate that the present invention can be applied to digital image channels for any of the applications mentioned in this specification. Although described as a two-dimensional array of pixel values with digital image channels arranged in rows and columns, those skilled in the art will appreciate that the present invention can be applied to arrays that are not surrounded by straight lines with the same effect. Like. A person skilled in the art can replace the original pixel value with the pixel value processed in the digital image processing step described below to replace the same processing step with a new digital having the processed pixel value while retaining the original pixel value. You will also understand that creating an image is functionally equivalent to describing it.

本発明をソフトウエアとハードウエアの組み合わせで実現できることと、本発明が、互いに物理的に接続された複数の装置や、同じ物理的位置に存在している複数の装置に限定されないことにも注意されたい。図1に示した装置のうちの1つ以上を離して配置し、ネットワークを通じて接続することができる。その装置のうちの1つ以上を、直接に、またはネットワークを通じ、例えばラジオ周波数のリンクによって無線接続することができる。   Note that the present invention can be realized by a combination of software and hardware, and that the present invention is not limited to a plurality of devices physically connected to each other or a plurality of devices existing at the same physical location. I want to be. One or more of the devices shown in FIG. 1 can be remotely located and connected through a network. One or more of the devices can be wirelessly connected directly or through a network, for example by a radio frequency link.

本発明は、ユーザーのさまざまな文脈と環境で利用することができる。文脈と環境の例として、大型のディジタル写真仕上げ店(例えばフィルムを受け取り、ディジタル処理し、プリント・アウトするといった処理ステップまたは処理段階が含まれる)、小型のディジタル写真仕上げ店(フィルムを受け取り、ディジタル処理し、プリント・アウトする)、家庭でのプリント(家庭でフィルムまたはディジタル画像を走査し、ディジタル処理し、プリント・アウトする)、デスクトップ・ソフトウエア(アルゴリズムをディジタル印刷に適用して品質を向上させる、または単にディジタル印刷を変化させるソフトウエア)、ディジタル処理の実行(媒体から、またはウェブを通じてディジタル画像を受け取り、ディジタル処理し、画像をディジタル形態で媒体に出力するか、画像をディジタル形態でウェブに出力するか、ハード-コピー・プリントにする)、キオスク(ディジタル入力または走査された入力を受け取り、ディジタル処理し、ディジタル形態またはハード・コピーで出力する)、携帯装置(例えば、処理ユニット、表示ユニット、処理の指示を与えるためのユニットのいずれかとして使用できるPDAまたは携帯電話)、ワールド・ワイド・ウェブを通じて提供されるサービスなどがある。   The present invention can be utilized in a variety of user contexts and environments. Examples of contexts and environments include large digital photofinishing stores (including processing steps or processing steps such as receiving, digitally processing, and printing out a film), small digital photofinishing stores (receiving film, digitally Processing and printing out), printing at home (scanning film or digital images at home, digital processing and printing out), desktop software (algorithm applied to digital printing to improve quality) Software that simply changes digital printing, performs digital processing (receives digital images from the media or through the web, digitally processes them, outputs the images to the media in digital form, or images in digital form to the web Output to Or a hard-copy print), kiosk (receives digital input or scanned input, digitally processes and outputs in digital form or hard copy), portable device (eg, processing unit, display unit, PDAs or mobile phones that can be used as any of the units to give processing instructions), services offered through the World Wide Web, and so on.

本発明は、それぞれの場合に、独立型のものにすること、またはより大きなシステム・ソリューションの1つの要素にすることができる。さらに、人とのインターフェイス(例えば走査や入力、ディジタル処理、ユーザーに対する表示(必要な場合)、ユーザーの要求または処理命令の入力(必要な場合)、出力)は、それぞれ、同じ装置上と同じ物理的位置にあってもよいし、異なる装置上と異なる物理的位置にあってもよく、装置間と場所間の通信は、公的なネットワーク接続、私的なネットワーク接続、媒体に基づいたやり取りのいずれかを通じて実現できる。本発明の上記の説明に合致している場合には、本発明の方法を完全に自動化すること、ユーザー入力にすること(完全な手入力または一部を手入力にすること)、結果をユーザーまたは操作者が許諾/拒絶すること、メタデータ(ユーザーが供給できるメタデータ、測定装置(例えばカメラ)によって供給されるメタデータ、アルゴリズムによって決定されるメタデータ)による支援が受けられるようにすることができる。さらに、作業の流れに関するさまざまなユーザー・インターフェイス・スキームとのインターフェイスにアルゴリズムを用いることができる。   The present invention can be independent in each case, or can be an element of a larger system solution. In addition, the human interface (eg, scanning and input, digital processing, display to the user (if necessary), user request or processing command input (if necessary), output), respectively, is the same physical on the same device. May be in different locations, on different devices, and in different physical locations, and communication between devices and locations may involve public network connections, private network connections, and medium-based exchanges. It can be realized through either. If in accordance with the above description of the present invention, the method of the present invention is fully automated, user input (complete manual input or partial manual input), and results are Or allowing the operator to accept / reject, metadata (metadata that can be supplied by the user, metadata supplied by the measuring device (eg camera), metadata determined by the algorithm) Can do. In addition, algorithms can be used to interface with various user interface schemes related to workflow.

本発明には、この明細書に記載した実施態様の組み合わせが含まれる。“特別な1つの実施態様”などへの言及は、本発明の少なくとも1つの実施態様に存在する特徴への言及を意味する。“一実施態様”または“特別な実施態様”などに別々に言及している場合、必ずしも同じ実施態様に言及しているわけではない。しかしそのような実施態様は、特に断わっている場合や当業者にとって明らかである場合を除き、互いに両立しないわけではない。   The present invention includes combinations of the embodiments described in this specification. Reference to “a particular embodiment” or the like means a reference to a feature present in at least one embodiment of the invention. Where reference is made separately to "one embodiment" or "special embodiment", it does not necessarily refer to the same embodiment. However, such embodiments are not incompatible with each other, unless expressly stated otherwise or apparent to those skilled in the art.

本発明の一実施態様を図2に示してある。ディジタル画像またはビデオ104が分析され、その中に含まれている人物が誰であるかが認識される。たまったディジタル画像またはビデオ104に含まれる人物を認識することで、ディジタル画像またはビデオ104に関するデータベース120を作ることと、ディジタル画像またはビデオ104に含まれる人物が誰であるかを明らかにすることができる。その結果、データベース120に質問122を投げかけることにより、探している人物を含む画像とビデオを見いだすことができる。データベース120は任意の形態にできる。さらに、例えばディジタル画像またはビデオ104のファイルのヘッダに人物分類118を挿入することにより、データベース120を多くの記憶位置に分散させることができる。例えば“ジム”という画像を探す質問122により、興味の対象である人物“ジム”を含む一群のディジタル画像またはビデオ104を含む質問回答124が返ってくる。その質問回答124は戻すことができる。質問回答124は、求める人物を含む一群のディジタル画像またはビデオ104である。   One embodiment of the present invention is shown in FIG. The digital image or video 104 is analyzed to recognize who is included in it. Recognizing the person included in the accumulated digital image or video 104 can create a database 120 for the digital image or video 104 and reveal who the person included in the digital image or video 104 is it can. As a result, by asking the question 122 to the database 120, it is possible to find images and videos including the person who is looking for. Database 120 can be in any form. Further, the database 120 can be distributed over a number of storage locations, for example by inserting a person classification 118 into the header of a digital image or video 104 file. For example, a question 122 looking for an image “gym” returns a question answer 124 that includes a group of digital images or videos 104 that include the person “gym” of interest. The question answer 124 can be returned. The question answer 124 is a group of digital images or videos 104 containing the desired person.

ディジタル画像またはビデオ104は取得時刻取出装置108に移される。取得時刻取出装置108は、ディジタル画像またはビデオ104が取得された時刻を明らかにし、画像取得時刻112を出力する。ディジタル画像またはビデオ104の画像取得時刻112は、取得時刻取出装置108によっていくつかある方法のうちの1つを利用して明らかにされる。取得時刻はディジタル画像またはビデオ104のファイルのヘッダに埋め込まれていることがしばしばある。画像またはビデオの取得装置は、その画像またはビデオに付随する情報を例えば(www.exif.orgに記載されている)EXIF画像形式でファイルのヘッダに記憶させることができる。“日付/時刻”入力は、画像が取得された日付と時刻に関する。ディジタル画像またはビデオが走査フィルムから得られ、その画像の通常は左下隈に印刷されている日付(取得時刻になされることがしばしばある)を検出することによって画像取得時刻112が明らかになる場合がある。写真が印刷される日付は、そのプリントの背面に印刷されることがしばしばある。あるいはフィルムが取得の日付などの情報を記憶するための磁気層を備えているようなフィルム・システムもある。取得時刻取出装置108は、画像の画像取得時刻112を取り出すための最適な方法を利用する。ディジタル画像104の供給源はディジタル・カメラであることが好ましく、取得時刻取出装置108は画像ファイル情報から取得時刻を取り出すことが好ましい。   The digital image or video 104 is transferred to the acquisition time retrieval device 108. The acquisition time extraction device 108 clarifies the time when the digital image or video 104 was acquired and outputs the image acquisition time 112. The image acquisition time 112 of the digital image or video 104 is revealed by the acquisition time retrieval device 108 using one of several methods. The acquisition time is often embedded in the header of the digital image or video 104 file. The image or video acquisition device can store information associated with the image or video in the header of the file, for example in the EXIF image format (described at www.exif.org). The “Date / Time” input relates to the date and time when the image was acquired. The image acquisition time 112 may be revealed by detecting the date (which is often done at the acquisition time) when a digital image or video is obtained from the scanning film and is usually printed on the lower left side of the image. is there. The date on which the photo is printed is often printed on the back of the print. There are also film systems in which the film includes a magnetic layer for storing information such as the date of acquisition. The acquisition time extraction device 108 uses an optimum method for extracting the image acquisition time 112 of the image. The source of the digital image 104 is preferably a digital camera, and the acquisition time extraction device 108 preferably extracts the acquisition time from the image file information.

画像取得時刻112は、2004年3月27日午前10時17分のように時刻を分まで正確に示すことができる。あるいは画像取得時刻112は、2004年や2004年3月などのように、そこまでは細かくしないこともできる。画像取得時刻112は、95%の信頼度で2004年3月27日±2日のように確率分布関数の形態にすることができる。画像取得時刻112は、個人認識分類装置114に入力される。   The image acquisition time 112 can accurately indicate the time up to the minute, such as 10:17 am on March 27, 2004. Alternatively, the image acquisition time 112 may not be as detailed as in 2004 or March 2004. The image acquisition time 112 can be in the form of a probability distribution function, such as March 27 ± 2 of 2004, with 95% confidence. The image acquisition time 112 is input to the personal recognition classification device 114.

ディジタル画像またはビデオ104は、入力として人物発見装置106にも入力され、そのディジタル画像またはビデオに含まれる人物が自動的に検出される。人物発見装置106は、そのディジタル画像またはビデオに含まれる1人以上の人物に関して人物の特徴110を同定する。人物は顔の検出によって見いだされることが好ましい。人の顔を検出する方法はディジタル画像処理の分野でよく知られている。例えば画像に含まれる人の顔を見いだす1つの顔検出法が以下の論文に記載されている:Jones, M.J.、Viola, P.、「迅速なマルチ-ビュー顔検出」、コンピュータ・ビジョンとパターン認識に関するIEEE会議(CVPR)、2003年6月。さらに、顔が検出されると、よく知られた方法(例えばYuille他、「変形可能なテンプレートを用いた顔からの特徴取り出し」、Int. Journal of Comp. Vis.、第8巻、第2号、1992年、99〜111ページ)を利用して顔の特徴(例えば目、鼻、口など)がある位置を特定することもできる。著者は、口、目、虹彩/強膜の境界を特定するためにテンプレートの一致によるエネルギー最少化を利用した方法を記載している。顔の特徴は、T.F. CootesとC.J. Taylorが「制約のあるアクティブな外見モデル」(第8回コンピュータ・ビジョンに関する国際会議、第1巻、748〜754ページ、IEEEコンピュータ学会出版、2001年7月)に記載しているアクティブな外見モデルを利用して見いだすこともできる。この好ましい実施態様では、BolinとChenが「ポートレート画像のための顔の特徴発見自動化システム」(IS&T PICS会議のプロシーディング、2002年)に記載している人の顔のアクティブな形状モデルに基づいて顔の特徴点を特定する方法が利用されている。   The digital image or video 104 is also input as an input to the person finding device 106, and the person included in the digital image or video is automatically detected. Person discovery device 106 identifies person features 110 with respect to one or more persons included in the digital image or video. The person is preferably found by detecting the face. Methods for detecting human faces are well known in the field of digital image processing. For example, one face detection method for finding human faces in images is described in the following papers: Jones, MJ, Viola, P., "Rapid Multi-View Face Detection", Computer Vision and Pattern Recognition IEEE Conference (CVPR) on June 2003. Furthermore, when a face is detected, well-known methods (eg Yuille et al., “Feature extraction from faces using deformable templates”, Int. Journal of Comp. Vis., Vol. 8, No. 2) 1992, pp. 99-111), it is also possible to specify the position where facial features (for example, eyes, nose, mouth, etc.) are present. The author describes a method that uses energy minimization by template matching to identify mouth, eye, and iris / sclera boundaries. The facial features are TF Cootes and CJ Taylor's “Constrained Active Appearance Model” (8th International Conference on Computer Vision, Vol. 1, pp. 748-754, published by IEEE Computer Society, July 2001) It can also be found using the active appearance model described in. In this preferred embodiment, based on the human face active shape model described by Bolin and Chen in "Facial Feature Discovery Automated System for Portrait Images" (Procedure at IS & T PICS Conference, 2002). A method for identifying facial feature points is used.

人物発見装置106は、この人物発見装置106によって検出された人物の定量的な記述である人物の特徴110を出力する。人物発見装置106は、検出されたそれぞれの人について1セットの人物の特徴110を出力することが好ましい。人物の特徴は、特定の顔の特徴に関する82個の特徴点の位置であることが好ましい。その特徴点は、Cootesらの上記のアクティブな外見モデルと同様の方法を用いて見いだされる。ある1つの顔の画像に関する顔の特徴点をイラストとして図3Aと図3Bに示してある。あるいは人物の特徴110はさらに、目の色、皮膚の色、顔の形などの定量化可能な記述子を用いて表現することができる。人物の特徴は、特定の特徴点の間の距離、または特定の特徴点を接続した線同士がなす角度にすることもできる。色の情報は、人物発見装置106によって人物と顔の特徴が特定されると、ディジタル画像またはビデオ104から容易に取り出すことができる。人物の特徴110は、個人認識分類装置114に入力される。   The person finding device 106 outputs a person feature 110 that is a quantitative description of the person detected by the person finding device 106. The person finding device 106 preferably outputs a set of person features 110 for each detected person. The human feature is preferably the location of 82 feature points for a particular facial feature. The features are found using a method similar to the above-described active appearance model of Cootes et al. FIG. 3A and FIG. 3B show facial feature points related to a single facial image as illustrations. Alternatively, the human features 110 can be further expressed using quantifiable descriptors such as eye color, skin color, face shape, and the like. The feature of the person can be a distance between specific feature points or an angle formed by lines connecting the specific feature points. Color information can be easily retrieved from the digital image or video 104 once the person and facial features are identified by the person finding device 106. The person feature 110 is input to the personal recognition classifier 114.

あるいはいろいろな顔の特徴を利用することもできる。例えばM. TurkとA. Pentlandが「認識のための固有顔」(Journal of Cognitive Neuroscience、第3巻、第1号、71〜86ページ、1991年)に記載している顔の類似性計量に基づいた一実施態様が可能である。顔記述子は、1つの顔の画像を、顔の外見の変動を記述する一群の主要成分関数に射影することによって得られる。任意の2つの顔の類似性は、それぞれの顔を同じ関数群に射影することによって得られた特徴についてユークリッド距離を計算することによって測定される。この場合、外見モデルは、同じ顔に関する複数の画像をこれら主要成分関数に射影したものの平均値と共分散を記述することができる。(例えば図5の人物分類装置132によって計算される)類似性計量は、新しい顔のマハラノビス距離をモデルの平均値に対して計算することができる。   Alternatively, various facial features can be used. For example, the facial similarity metric described by M. Turk and A. Pentland in “Eigenfaces for Recognition” (Journal of Cognitive Neuroscience, Vol. 3, No. 1, pp. 71-86, 1991) One embodiment based on this is possible. A face descriptor is obtained by projecting an image of a face into a group of principal component functions that describe the variation in facial appearance. The similarity between any two faces is measured by calculating the Euclidean distance for the features obtained by projecting each face onto the same set of functions. In this case, the appearance model can describe the average value and covariance of a plurality of images related to the same face projected onto these principal component functions. A similarity metric (e.g., calculated by the person classifier 132 of FIG. 5) can calculate the Mahalanobis distance of the new face against the average value of the model.

外見モデルと類似性測定は、互いに共通性のないいくつかのタイプの特徴(例えば固有顔、顔の測定値、色/肌理の情報、ウエーブレットの特徴など)の組み合わせを含むことができよう。ディジタル・データベースに記憶されている1セットの外見モデル1161〜116Nが個人認識分類装置114に入力されると、人物発見装置106によって検出されて人物の特徴110によって表わされた人物が誰であるかが特定される。外見モデル1161〜116Nは、興味の対象である特定の人物に関する1セットの特徴を含んでいる。さらに、それぞれの外見モデルには時刻が付随している。外見モデル1161〜116Nは、興味の対象である人物の特定の時刻または年齢における外見(顔であることが好ましい)を表わしている。外見モデルについて以下に詳細に説明する。興味の対象である人物は、たまったディジタル画像とビデオ104の中で同定することが重要な人物である。例えば小さな子どもたちのいる家庭では、それぞれの子どもが興味の対象である人物になろう。なぜなら、ディジタル媒体コレクションのそれぞれの写真とビデオ104に現われるそれぞれの子どもを同定することが、一家の主にとって有用かつ価値のあることだろうからである。個人認識分類装置114の目的は、外見モデル1161〜116N、画像取得時刻112、人物の特徴110のうちの1つ以上を利用して、人物発見装置106によって検出された人物が興味の対象である人物であるかどうかを明らかにすることである。これは、検出された人物に関する人物の特徴110を興味の対象である人物の外見モデル116の特徴と比較することによって実現される。個人認識分類装置114は、人物分類118を出力する。人物分類118は、人物発見装置106によって検出された人物が興味の対象である人物であることの確からしさ(確率)であることが好ましい。人物分類118は、人物の特徴110に関係する人物が興味の対象である人物であるかどうかに関する個人認識分類装置114の決定を示す2値インディケータ(例えば真または偽)にすることができる。 Appearance models and similarity measures could include combinations of several types of features that are not in common with each other (eg, eigenfaces, facial measurements, color / texture information, wavelet features, etc.). When a set of appearance models 116 1 -116 N stored in a digital database is input to the personal recognition classifier 114, who is detected by the person finding device 106 and represented by the person features 110? Is specified. The appearance models 116 1 to 116 N include a set of features relating to a specific person of interest. In addition, each appearance model is accompanied by a time. The appearance models 116 1 to 116 N represent the appearance (preferably a face) of a person who is interested in a specific time or age. The appearance model will be described in detail below. The person of interest is an important person to identify in the collected digital image and video 104. For example, in a family with small children, each child will be the person of interest. This is because identifying each child appearing in each photo and video 104 of the digital media collection would be useful and valuable to the family's owner. The purpose of the personal recognition and classification device 114 is to use the one or more of the appearance models 116 1 to 116 N , the image acquisition time 112, and the human feature 110 as a target for the person detected by the person discovery device 106. It is to clarify whether it is a person. This is accomplished by comparing the person's characteristics 110 for the detected person with the characteristics of the person's appearance model 116 of interest. The personal recognition classification device 114 outputs the person classification 118. The person classification 118 is preferably the probability (probability) that the person detected by the person finding device 106 is the person of interest. The person classification 118 can be a binary indicator (eg, true or false) that indicates a determination of the personal recognition classifier 114 as to whether the person associated with the person feature 110 is the person of interest.

たまったそれぞれの写真とビデオ104で検出された各人物に個人認識分類装置114を繰り返して適用することにより、人物発見装置106によって検出されたすべての人物が、興味の対象である特定の人物である確からしさとして分類される。   By applying the personal recognition and classification device 114 repeatedly to each person detected in each collected photo and video 104, all the people detected by the person discovery device 106 are specific persons of interest. Classified as certainty.

さらに、興味の対象である別の人物の外見モデル1171〜117Mも個人認識分類装置114に入力される。人物発見装置106によって見いだされたそれぞれの人物は人物の特徴110を1セット生成させると、個人認識分類装置114が、1セットの人物の特徴110に対応する検出された各人物が興味の対象である人物のうちの誰かであることの確からしさを示す人物分類118を出力する。人物分類は、人物発見装置106によって見いだされた人物に対応する人物の特徴110が興味の対象である特定の人物である確率の集合(興味の対象である人物一人につき1つの確率)であることが好ましい。 Furthermore, appearance models 117 1 to 117 M of other persons who are interested are also input to the personal recognition classification device 114. When each person found by the person finding device 106 generates one set of person features 110, the personal recognition and classification device 114 causes each detected person corresponding to one set of person features 110 to be of interest. A person classification 118 indicating the certainty of being a certain person is output. The person classification is a set of probabilities that the person feature 110 corresponding to the person found by the person finding device 106 is a specific person of interest (one probability for each person of interest). Is preferred.

簡単にまとめると、個人認識分類装置114は、画像取得時刻112と、興味の対象である人物に関する時刻付き外見モデル116の特徴とを利用し、検出された人物が興味の対象であることの確からしさを記述する人物分類118を生成させる。   In summary, the personal recognition and classification device 114 uses the image acquisition time 112 and the features of the time-appearance appearance model 116 relating to the person of interest to confirm that the detected person is the object of interest. A person classification 118 describing the likelihood is generated.

次に、人物分類118に関する情報は、人物の特徴110とともに、またはディジタル画像またはビデオとともに、データベース120に記憶させることができる。興味の対象である特定の人物が含まれた画像またはビデオに対して質問122がなされると、データベース120は検索を行ない、質問に対する適切な回答124が、ユーザー・インターフェイス(例えば図1のディスプレイ装置50)を通じてユーザーに返される。   Information about the person classification 118 can then be stored in the database 120 with the person features 110 or with digital images or videos. When a question 122 is made on an image or video that includes a particular person of interest, the database 120 searches and an appropriate answer 124 to the question is displayed in the user interface (eg, the display device of FIG. 1). 50) returned to the user through.

N個の外見モデル1161〜116Nは、興味の対象である一人の人物の外見を表わす。それぞれの外見モデルには時刻が付随している。例えば外見モデル1161は、興味の対象である人物が1歳のときの外見を表わすことができ、外見モデル1162は、興味の対象である人物が2歳のときの外見を表わすことができる。この例では、付随する時刻は1歳と2歳である。外見モデルに付随する時刻は、興味の対象である人物の年齢にすること、または日付などの絶対時刻にすることができる。画像取得時刻112と同様、外見モデルに付随する時刻は、確率分布関数にすること、または正確(例えば興味の対象である人物の日単位で測定した年齢)または不正確(例えば興味の対象である人物の10年単位で測定した年齢)にすることができる。興味の対象である人物の外見モデルは、その人物の誕生日を含むこともできる。画像取得時刻112および外見モデルに付随する時刻と同様、誕生日は、正確(例えば誕生日が2002年6月26日)または不正確(例えば誕生日が1960年代)にすること、または確率分布関数で表わすことができる。 The N appearance models 116 1 to 116 N represent the appearance of one person who is an object of interest. Each appearance model is accompanied by a time. For example, the appearance model 116 1 can represent the appearance when the person of interest is 1 year old, and the appearance model 116 2 can represent the appearance when the person of interest is 2 years old . In this example, the accompanying times are 1 year old and 2 years old. The time associated with the appearance model can be the age of the person of interest, or an absolute time such as a date. As with image acquisition time 112, the time associated with the appearance model can be a probability distribution function, or accurate (eg, age measured in days of the person of interest) or inaccurate (eg, object of interest). Age measured in 10-year units). The appearance model of the person of interest can also include the person's birthday. As with the image acquisition time 112 and the time associated with the appearance model, the date of birth should be accurate (eg birthday is June 26, 2002) or inaccurate (eg birthday is 1960s), or probability distribution function It can be expressed as

例えば図3Aと図3Bに、興味の対象である特定の人物の2つの異なる外見モデルを示してある。図3Aは、興味の対象である特定の人物が1歳のときの外見モデルのグラフィック表示であり、図3Bは、興味の対象である特定の人物が2歳のときの外見モデルのグラフィック表示である。それぞれの外見モデルのイラストは、顔の輪郭、目と眉の輪郭、鼻の底部の位置を示している。表示は、左目が(0, 0)にあり、右目が(1, 0)にあるように規格化されている。外見モデルでは、目は、成長に伴って顔が変化するため1歳におけるよりも2歳におけるほうが小さく見えることに注意されたい。   For example, FIGS. 3A and 3B show two different appearance models of a particular person of interest. Figure 3A is a graphical representation of the appearance model when the particular person of interest is 1 year old, and Figure 3B is a graphical representation of the appearance model when the particular person of interest is 2 years old. is there. The illustration of each appearance model shows the face contour, the eye and eyebrow contour, and the position of the bottom of the nose. The display is standardized so that the left eye is at (0, 0) and the right eye is at (1, 0). Note that in the appearance model, the eyes appear smaller at age 2 than at age 1 because the face changes with growth.

興味の対象である人物の外見モデルを生成させるための好ましい方法を図4Aと図4Bに示してある。たまったディジタル画像またはビデオ104は、興味の対象である人物が含まれた一群の画像から人物の特徴110を計算することによって処理される。人物発見装置106が画像に含まれる人物を見いだすと、人物の特徴110が計算される。見いだされた人の顔は、似た顔のクラスターに分類される。それぞれのクラスターは、個人を表わすか、個人の特定の1つの外見を表わしていなければならない。これについては、譲受人に譲渡された2003年11月13日に公開のアメリカ合衆国特許出願公開2003/0210808 A1に記載されている。ユーザーは、クラスター化が正確であることと、単一のクラスターに含まれるすべての人物が興味の対象である同一の人物であることを確認する。また、取得時刻取出装置108が、それぞれの画像またはビデオ104に付随する画像取得時刻112を取り出す。画像取得時刻112と人物の特徴110は外見モデル生成装置102に入力される。外見モデル生成装置は、興味の対象である人物に関する1セットの外見モデル1161〜116Nを出力する。興味の対象である人物の誕生日を示すユーザー入力103も外見モデル生成装置102に入力される。外見モデル生成装置は、興味の対象である人物に関する特徴を利用し、1セットの外見モデル1161〜116Nを生成させる。外見モデル生成装置102は、例えば興味の対象である人物が1歳のときのその人物に関して人物発見装置によって検出されたあらゆる事項に付随する特徴を利用し、外見モデル1161を生成させる。外見モデル生成装置102は、次に、興味の対象である人物が2歳のときのその人物に関して人物発見装置によって検出されたあらゆる事項に付随する特徴を利用し、外見モデル1162を生成させる。 A preferred method for generating an appearance model of a person of interest is shown in FIGS. 4A and 4B. The accumulated digital image or video 104 is processed by calculating the person's features 110 from a group of images containing the person of interest. When the person finding device 106 finds a person included in the image, a person feature 110 is calculated. The faces of people found are classified into similar face clusters. Each cluster must represent an individual or represent one particular appearance of an individual. This is described in United States Patent Application Publication 2003/0210808 A1 published on November 13, 2003, assigned to the assignee. The user confirms that the clustering is correct and that all the people in a single cluster are the same person of interest. Also, the acquisition time extraction device 108 extracts the image acquisition time 112 associated with each image or video 104. The image acquisition time 112 and the person feature 110 are input to the appearance model generation device 102. The appearance model generation device outputs a set of appearance models 116 1 to 116 N related to a person who is an object of interest. A user input 103 indicating the birthday of the person who is interested is also input to the appearance model generation device 102. The appearance model generation device generates a set of appearance models 116 1 to 116 N by using features related to a person who is an object of interest. Appearance model generation apparatus 102, for example of interest person using the characteristics associated with all matters detected by the person finding device with respect to that person at the time of 1 year old, to produce the appearance model 116 1. Appearance model generator 102 then utilizes the feature of interest person associated with all matters detected by the person finding device with respect to that person at the time of two years old, to produce the appearance model 116 2.

人の顔は成長期(0歳〜16歳)の間に最も急速に変化するため、子どもに関する外見モデルは、非成長期に関する外見モデルよりも(外見モデルに付随する時刻に関して)時間間隔を短くする必要がある。性能をよくするには、成長期の子どもでは非成長期の大人よりも多数の外見モデルが必要とされる。例えば0歳〜6歳の間は付随する時刻の間隔を1年にして外見モデルを生成させ、16歳〜22歳では間隔を3年ごとにし、それ以降は5年ごとにすることが好ましい。外見モデル116は、興味の対象である人物に関し、その人物の年齢(興味の対象である人物の誕生日がわかっている場合。それ以外は画像取得時刻を用いる)が所定の間隔内にあるあらゆる場面での特徴の平均値と共分散を計算することによって生成させることができる。まとめると、外見モデル116は、顔の定量的な属性を表わす特徴を含んでいる。この好ましい実施態様では、顔のこれらの属性は、顔の特徴(目、鼻、口、額など)に関する測定値である。利用する特徴を表1にリストにしてある。特徴を計算するときには、図4Bに数字で示した顔面上の点を参照する。Arc (Pn, Pm)は、

Figure 2008538998
として定義される。ただし||Pn-P(n+1)||は、顔の特徴点nとmの間のユークリッド距離を意味する。特徴に関するこれらArc長を両目の間の距離で割って顔のサイズの違いを規格化する。点PCは、点0と点1の重心に位置する点である(この点は正確に両目の間にある)。ここで利用する顔の測定値は、人の顔において性別、年齢、魅力、民族を判断するのに関係することがわかっている人体測定値に由来するものである(参考:Farkas(編)による『頭と顔の人体測定』、第2版、レイヴン出版、ニューヨーク、1994年)。 Because the human face changes most rapidly during the growth period (0-16 years), the appearance model for children has a shorter time interval (with respect to the time associated with the appearance model) than the appearance model for the non-growth period There is a need to. For better performance, growing children need more appearance models than non-growing adults. For example, it is preferable to generate an appearance model by setting the accompanying time interval to 1 year between 0 to 6 years, and to every 3 years from 16 to 22 years, and every 5 years thereafter. The appearance model 116 relates to a person who is interested in any person whose age (when the person's birthday of interest is known; otherwise, the image acquisition time is used) is within a predetermined interval. It can be generated by calculating the mean and covariance of the features in the scene. In summary, the appearance model 116 includes features representing quantitative attributes of the face. In this preferred embodiment, these attributes of the face are measurements relating to facial features (eyes, nose, mouth, forehead, etc.). The features used are listed in Table 1. When calculating the features, reference is made to the points on the face indicated by numbers in FIG. 4B. Arc (Pn, Pm)
Figure 2008538998
Is defined as However, || Pn-P (n + 1) || means the Euclidean distance between the facial feature points n and m. Divide these Arc lengths for features by the distance between both eyes to normalize the difference in face size. Point PC is a point located at the center of gravity of points 0 and 1 (this point is exactly between the eyes). The facial measurements used here are derived from human measurements that are known to be related to determining gender, age, attraction, and ethnicity in human faces (reference: Farkas) “Human and Body Measurement of Head and Face,” 2nd edition, Raven Publishing, New York, 1994).

Figure 2008538998
Figure 2008538998

Figure 2008538998
Figure 2008538998

外見モデルは、付随するある時刻における興味の対象である人物の外見を記述する。ある1つの外見モデルは、特定のケースの複数のサブモデルを含むことができる。例えば1つの外見モデルの中に、興味の対象である人物がメガネをかけている1つのサブモデルと、興味の対象である人物がメガネをかけていない第2の外見モデルが存在できる。   The appearance model describes the appearance of a person who is an object of interest at an accompanying time. An appearance model can include multiple submodels for a particular case. For example, in one appearance model, there can be one sub-model in which a person who is interested is wearing glasses and a second appearance model in which the person who is interested is not wearing glasses.

図5に、外見モデル1161〜116Nに付随する時刻が興味の対象である人物の年齢であって、その人物の誕生日がわかっている場合の個人認識分類装置114をより詳しく示してある。年齢計算器126が興味の対象である人物に関して画像取得時の年齢を計算する。例えば画像取得時刻が1999年11月2日であり、興味の対象である人物の誕生日が1977年である場合には、年齢計算器126は、興味の対象である人物の年齢が7976〜8340日(21歳10ヶ月と2日〜22歳10ヶ月と1日)であると決定する。年齢モデラー128は、興味の対象である人物の外見モデル1161〜116Nと、年齢計算器によって計算された興味の対象である人物の年齢とを利用し、年齢指定モデル130を生成させる。年齢モデラー128は、興味の対象である人物に関するN個の外見モデル1161〜116Nの中から時刻(年齢)が付随した外見モデルを選択するにあたって、興味の対象である人物に関して画像取得時の年齢に最もよく一致する外見モデルを選択することが好ましい。例えば興味の対象である人物の年齢が7976〜8340日である場合には、22歳における興味の対象である人物に対応する外見モデルが選択される。 FIG. 5 shows in more detail the personal recognition and classification device 114 when the time associated with the appearance models 116 1 to 116 N is the age of the person of interest and the birthday of the person is known. . The age calculator 126 calculates the age at the time of image acquisition for the person of interest. For example, when the image acquisition time is November 2, 1999 and the birthday of the person who is interested is 1977, the age calculator 126 indicates that the age of the person who is interested is 7976-8340. Determined to be a day (21 years 10 months and 2 days to 22 years 10 months and 1 day). The age modeler 128 generates an age designation model 130 using the appearance models 116 1 to 116 N of the person who is interested and the age of the person who is interested calculated by the age calculator. The age modeler 128 selects the appearance model with the time (age) from among the N appearance models 116 1 to 116 N related to the person who is interested. It is preferred to select the appearance model that best matches the age. For example, when the age of the person who is interested is 7976-8340 days, the appearance model corresponding to the person who is interested in 22 years old is selected.

年齢計算器126が負の時刻を返してくる場合には、これは画像取得時刻が興味の対象である人物の誕生日よりも前であることを意味する。典型的な消費者の画像とビデオでは、個人の誕生前の画像またはビデオがあることは極めて異常である(超音波などの医用イメージング技術は除く)。したがって画像取得時刻112が(外見モデル116に含まれる)興味の対象である人物の誕生日よりも前である場合には、個人認識分類装置114は、人物発見装置106によって検出された人物が興味の対象である人物ではないこと(または興味の対象である人物である確率が非常に小さいかゼロであること)を示す人物分類118を生成させる。同様に、年齢計算器126が、画像取得時に興味の対象である人物の年齢がヒトの予想寿命を超えている(例えば116歳)と判断した場合には、人物分類装置132は、人物発見装置106によって検出された人物が興味の対象である人物ではないこと(または興味の対象である人物である確率が非常に小さいかゼロであること)を示す人物分類118を生成させる。   If the age calculator 126 returns a negative time, this means that the image acquisition time is before the birthday of the person of interest. In typical consumer images and videos, it is extremely unusual to have a pre-birth image or video of an individual (except for medical imaging techniques such as ultrasound). Therefore, when the image acquisition time 112 is before the birthday of the person who is the object of interest (included in the appearance model 116), the personal recognition classifying device 114 is interested in the person detected by the person finding device 106. The person classification 118 indicating that the person is not the person who is the object of (or the probability that the person is the object of interest is very small or zero) is generated. Similarly, when the age calculator 126 determines that the age of the person who is interested in the image acquisition exceeds the expected life of the person (for example, 116 years), the person classifying device 132 is the person finding device. A person classification 118 is generated that indicates that the person detected by 106 is not the person of interest (or the probability of being a person of interest is very small or zero).

あるいは興味の対象である人物に関して時刻が付随した外見モデル116が画像取得時刻112の近くには存在していないこともありうる。例えば興味の対象である特定の人物が、2歳時の興味の対象であるその人物に対応する1つの外見モデル116しか持っていない可能性がある。この外見モデル116は、興味の対象である人物が、22歳のときに取得した画像の中にいる人物であるかどうかを明らかにするのに適切ではなかろう。外見モデル116は、付随する時刻が、興味の対象である人物が0歳〜6歳であるときにはその人物の年齢から1年以内、興味の対象である人物が6歳〜16歳であるときにはその人物の年齢から2年以内、興味の対象である人物が16歳〜22歳であるときにはその人物の年齢から3年以内、興味の対象である人物が22歳を超えているときにはその人物の年齢から5年以内であれば適切である可能性がある。モデルが適切でない場合には、年齢モデラー128が、画像取得時刻112の時点で興味の対象である人物の年齢に最も近い付随する時刻を有する1つ以上の外見モデル1161〜116Nを選択する。年齢モデラー128は、次に、選択した外見モデルを修正し、その外見モデルに付随する時刻と、画像取得時刻112の時点で決定した興味の対象である人物の年齢の差を埋め合わせる。これは、人物の特徴が加齢とともにどのように変化するかに関する生成モデルを用いて実現される。生成モデルは、人が年を取るときの顔の特徴(例えば目、口、鼻など)の平均的な動きの数学的記述である。興味の対象である人物の性別や民族的背景などがわかっているときには、特別なモデルを用いて顔の特徴の動きを記述することができる。この考え方を説明するため、図6に、付随する時刻が3ヶ月の赤ん坊の外見モデルを示してある。赤ん坊から大人になるときの顔の特徴点の動きを備えた生成モデルによってこの外見モデルを修正し、その赤ん坊が図7に示した30歳の大人になったときの年齢指定外見モデル130を形成する。この例では、生成モデルは、赤ん坊から大人になるときの顔の特徴点の変化を示す。しかし加齢に関する似たモデルを用いて任意の2つの年齢(例えば3歳と5歳、または5歳と10歳)の間の顔構造の変化のモデルを作ることができる。さらに、この加齢モデルを用いると、外見モデルに付随する年齢よりも若い年齢指定修正外見モデルを作り出すことができる。例えば30歳という年齢が付随している外見モデルを修正し、興味の対象である人物が5歳のときの年齢指定モデルを作り出すことができる。 Alternatively, the appearance model 116 with the time associated with the person who is the object of interest may not exist near the image acquisition time 112. For example, a specific person who is interested may have only one appearance model 116 corresponding to that person who is interested at the age of two. This appearance model 116 may not be appropriate to determine whether the person of interest is a person in an image acquired at the age of 22. Appearance model 116 indicates that when the person who is interested is 0 to 6 years old, the age of the person is within one year from the age of the person, and when the person who is interested is 6 to 16 years old, Within 2 years from the age of the person, within 3 years from the person's age when the person of interest is between 16 and 22 years old, and when the person of interest is over 22 years of age May be appropriate within 5 years. If the model is not appropriate, the age modeler 128 selects one or more appearance models 116 1 -116 N having an accompanying time closest to the age of the person of interest at the time of image acquisition time 112 . The age modeler 128 then corrects the selected appearance model to make up for the difference between the time associated with the appearance model and the age of the person of interest determined at the image acquisition time 112. This is achieved using a generation model for how a person's characteristics change with age. A generation model is a mathematical description of the average movement of facial features (eg eyes, mouth, nose, etc.) as a person ages. When you know the gender or ethnic background of the person you are interested in, you can use special models to describe the movement of facial features. To illustrate this idea, FIG. 6 shows an appearance model of a baby whose accompanying time is 3 months. This appearance model is modified by a generation model with the movement of facial feature points when a baby becomes an adult, forming the age-specific appearance model 130 when the baby becomes a 30-year-old adult as shown in FIG. To do. In this example, the generation model shows changes in facial feature points as the baby becomes an adult. However, similar models for aging can be used to model changes in facial structure between any two ages (eg, 3 and 5 years, or 5 and 10 years). Furthermore, by using this aging model, an age-specified corrected appearance model that is younger than the age associated with the appearance model can be created. For example, an appearance model associated with the age of 30 years can be modified to create an age specification model when the person of interest is 5 years old.

あるいは年齢指定モデル130は、興味の対象である人物に関する2つ以上の外見モデル1161〜116Nの間を内挿して作ることもできる。例えば興味の対象である人物が4歳のときと8歳のときの外見モデルが存在している。年齢計算器126は、画像が取得されたときに興味の対象である人物が6歳であったと決定する。4歳と8歳のときの外見モデルを(例えば重み付き平均として)組み合わせ、興味の対象である人物が6歳のときの推定年齢指定モデルを作り出すことができる。 Alternatively, the age designation model 130 can be created by interpolating between two or more appearance models 116 1 to 116 N related to the person who is interested. For example, there are appearance models when the person of interest is 4 years old and 8 years old. Age calculator 126 determines that the person of interest is 6 years old when the image is acquired. Appearance models at the age of 4 and 8 can be combined (eg, as a weighted average) to create an estimated age-specific model when the person of interest is 6 years old.

図5に戻ると、上記のいずれかの方法によって生成された年齢指定モデル130は、人物発見装置106によって見いだされた人物の特徴110とともに人物分類装置132に入力されて人物分類118を生成させる。   Returning to FIG. 5, the age designation model 130 generated by any of the above methods is input to the person classification device 132 together with the person feature 110 found by the person discovery device 106 to generate the person classification 118.

質問122は、人物が誰であるかと時刻(絶対時刻または年齢)を含むことができる。質問は、例えば1999年の“ピート”の画像、または34歳のときの“ピート”の画像を探すというものが可能である。人物分類装置132は、ユーザーの画像コレクションから得た顔の画像から計算した顔の測定値と、質問122において特定された年齢のその人物に関して記憶されている外見モデルの間の類似性スコアを計算する。回収された画像のリストが、類似性が低くなる順番でユーザーに提示される。類似性スコアは、所定の顔の測定値とモデルの間の重み付きの差であり、重みは、個人を区別する特定の顔の測定値の重要度に比例する。重みが測定値の分散に基づいている場合には、例えばマハラノビス距離を用いることができる。好ましい一実施態様では、顔の各測定値の間の差の分布が、例えば同じ個人についてと、誰であるかがわかっている顔の画像の大きな集合からの異なる個人について計算される。ゼロ平均ガウス分布を仮定し、顔の各測定値に関して(差が、同一の人物での変動による場合と、異なる人物からの2つの測定値による場合が同じくらいの確率である)等確率点が計算される。未知の差に関して用いられる重みはこの点の逆数であるため、あらゆる差は、等確率の差の分数として表現される。   Question 122 may include who the person is and the time (absolute time or age). The question can be, for example, searching for an image of “Pete” in 1999, or an image of “Pete” at the age of 34. The person classifier 132 calculates a similarity score between the face measurements calculated from the face images obtained from the user's image collection and the appearance model stored for that person at the age specified in the question 122. To do. A list of collected images is presented to the user in order of decreasing similarity. The similarity score is a weighted difference between a given face measurement and the model, and the weight is proportional to the importance of a particular face measurement that distinguishes individuals. If the weight is based on the variance of the measured values, for example, the Mahalanobis distance can be used. In one preferred embodiment, the distribution of differences between face measurements is calculated for different individuals, for example, for the same individual and from a large set of facial images that know who they are. Assuming a zero mean Gaussian distribution, there is an equiprobable point for each measurement of the face (the difference is the same probability if it is due to variations in the same person and two measurements from different people) Calculated. Since the weight used for the unknown difference is the reciprocal of this point, every difference is expressed as a fraction of an equal probability difference.

図8は、外見モデル116に付随する時刻がカレンダーの日付(すなわち絶対時刻)であり、興味の対象である人物の誕生日がわかっていない場合の別の一実施態様を示している。この場合には、時刻モデラー134は、画像取得時刻112に最も近い絶対時刻が付随した外見モデルを選択することにより、時刻指定外見モデル136を生成させる。この時刻指定外見モデル136は次に人物分類装置132に移され、すでに説明したように人物分類118を生成させる。ここでは、興味の対象である人物の誕生日がわかっていないため、興味の対象である人物に関して外見モデル1161〜116Nに付随する時刻以外の時刻における興味の対象である人物の外見モデルを一般的な年齢モデルを用いて作ることはできない。興味の対象である人物の誕生日を年齢推定装置142によって推定できる場合がある。興味の対象である人物の誕生日を年齢推定装置142によってうまく決定できる場合には、その情報を外見モデル116に付加する。すると図5を参照して説明した方法を利用することができる。 FIG. 8 illustrates another embodiment where the time associated with the appearance model 116 is a calendar date (ie, absolute time) and the birthday of the person of interest is not known. In this case, the time modeler 134 generates the time designation appearance model 136 by selecting the appearance model accompanied by the absolute time closest to the image acquisition time 112. This time-designated appearance model 136 is then transferred to the person classification device 132 to generate the person classification 118 as already described. Here, since the birthday of the person who is interested is not known, the appearance model of the person who is interested at a time other than the time associated with the appearance model 116 1 to 116 N for the person who is interested. It cannot be created using a general age model. In some cases, the age estimation device 142 can estimate the birthday of the person who is interested. If the birthday of the person who is interested can be successfully determined by the age estimation device 142, the information is added to the appearance model 116. Then, the method described with reference to FIG. 5 can be used.

年齢推定装置142は、外見モデルに付随する年齢(したがって興味の対象である人物の誕生日)、または外見モデルを導出するもとになるディジタル画像に付随する年齢を決定する。年齢推定装置142は、例えばLoboによってアメリカ合衆国特許第5,781,650号に記載されている方法にすることができる。興味の対象である人物の誕生日の推定の確かさは、年齢推定装置142が多数の画像または多数の外見モデルの年齢を推定し、あらゆる推定の結果を混合することによって改善される。画像間の時間差と外見モデル間の時間差がわかっているため、確かさがさらに改善される。したがって年齢を間違って推定することは、多数の推定値を混合することで排除できる。   The age estimator 142 determines the age associated with the appearance model (and thus the birthday of the person of interest) or the age associated with the digital image from which the appearance model is derived. The age estimation device 142 can be, for example, the method described by Lobo in US Pat. No. 5,781,650. The certainty of the birthday of the person of interest is improved by the age estimator 142 estimating the age of multiple images or multiple appearance models and mixing the results of any estimation. Since the time difference between images and the time difference between appearance models is known, the certainty is further improved. Therefore, estimating the age incorrectly can be eliminated by mixing a large number of estimated values.

図9は、本発明のさらに別の一実施態様を示している。この実施態様では、年齢推定装置142を、検出された人物に関する人物の特徴110や、元のディジタル画像またはビデオ104に適用する。誕生日推定装置144は、年齢推定装置142からの推定年齢と、ディジタル画像またはビデオ104に付随する画像取得時刻112とを利用し、検出された人物の誕生日を推定することができる。すでに説明したように、検出されたこの誕生日は確率分布関数である。検出されたこの誕生日は、人物分類装置146によって興味の対象である人物の外見モデルに付随する誕生日と比較され、人物分類118が生成される。例えば図10は、推定された誕生日と、外見モデルに付随する誕生日を示している。年齢推定装置142は、人物発見装置106によって検出された人物の誕生日が点線で示した分布であることを推定する。外見モデルに付随する誕生日の分布は実線で示してある。人物分類装置146は、誕生日推定装置144からの推定誕生日分布と、外見モデル116に付随する誕生日と(おそらく他の因子も考慮される)に基づいて人物分類(例えば上記の2つの分布の積の平方根の和)を決定する。人物分類装置146は例えば分布の積を計算し、それを、検出された人物が興味の対象である人物である確率または確からしさを示す人物分類118にすることができる。   FIG. 9 shows yet another embodiment of the present invention. In this embodiment, the age estimator 142 is applied to a person feature 110 relating to the detected person and to the original digital image or video 104. The birthday estimation device 144 can estimate the detected person's birthday using the estimated age from the age estimation device 142 and the image acquisition time 112 associated with the digital image or video 104. As already explained, this detected birthday is a probability distribution function. The detected birthday is compared with the birthday associated with the appearance model of the person who is interested by the person classification device 146, and a person classification 118 is generated. For example, FIG. 10 shows the estimated birthday and the birthday associated with the appearance model. The age estimating device 142 estimates that the birthday of the person detected by the person finding device 106 is a distribution indicated by a dotted line. The distribution of birthdays associated with the appearance model is indicated by a solid line. The person classification device 146 is configured to perform person classification (for example, the above two distributions) based on the estimated birthday distribution from the birthday estimation device 144 and the birthday associated with the appearance model 116 (possibly considering other factors). To determine the sum of the square roots of the products. The person classifier 146 may calculate a product of distributions, for example, and turn it into a person class 118 that indicates the probability or likelihood that the detected person is the person of interest.

図9には、興味の対象である人物が、その人物の誕生日よりも前の画像取得日時を有する画像では検出されないことが保証されるという利点がある。説明のため、年齢推定装置142は、画像104の中で人物発見装置106によって発見される可能性のあるどの人物も少なくとも0歳であると単純に推定すると仮定する。次に、誕生日推定装置144が、見いだされた人物の誕生日は画像取得時刻112よりも前でなければならないことを確認する。したがって図9の実施態様では、興味の対象である人物に付随する誕生日よりも前に取得されたどの画像にもその人物が見いだされることはない。個人認識分類装置114は、誕生日が付随している興味の対象である人物を、取得時刻が誕生日よりも後の画像104の中から探し、取得時刻が誕生日よりも前の画像104の中からは探さない。   FIG. 9 has an advantage that it is ensured that a person who is interested is not detected in an image having an image acquisition date and time earlier than the birthday of the person. For purposes of explanation, assume that the age estimator 142 simply estimates that any person in the image 104 that may be discovered by the person finder 106 is at least 0 years old. Next, the birthday estimation device 144 confirms that the found person's birthday must be before the image acquisition time 112. Accordingly, in the embodiment of FIG. 9, the person is not found in any image acquired before the birthday associated with the person of interest. The personal recognition and classification device 114 searches for the person who is the object of interest accompanied by the birthday from the images 104 whose acquisition time is later than the birthday, and for the images 104 whose acquisition time is before the birthday Don't look inside.

この明細書に記載した方法にはいくつかの失敗モードがあることがわかっている。例えばジョージ・ワシントンが21歳のときの銅像の画像を2005年3月14日に取得した場合、図5の年齢計算器126は、興味の対象である人物(ジョージ・ワシントン)が273歳であると計算するため、人物分類装置132は、検出された人物がおそらくジョージ・ワシントンではありえないという人物分類を出力する。なぜなら273歳というのは人の予想寿命をはるかに超えているからである。言い換えるならば、この方法は、ディジタル画像が、実際の人物とは異なる人物の画像である比較的稀なケースではうまくいかない可能性がある。   It has been found that the method described in this specification has several failure modes. For example, if a picture of a statue of George Washington at the age of 21 was acquired on March 14, 2005, the age calculator 126 in FIG. 5 shows that the person of interest (George Washington) is 273 years old. Therefore, the person classification device 132 outputs a person classification that the detected person is probably not George Washington. Because 273 years is far beyond human life expectancy. In other words, this method may not work in the relatively rare case where the digital image is an image of a person different from the actual person.

本発明を実現できるコンピュータ・システムの概略図である。1 is a schematic diagram of a computer system capable of implementing the present invention. 本発明の一実施態様のフロー・チャートである。It is a flow chart of one embodiment of the present invention. 付随する時刻が異なる興味の対象となる一人の人物の外見モデルである。It is an appearance model of one person who is an object of interest with different accompanying time. 付随する時刻が異なる興味の対象となる一人の人物の外見モデルである。It is an appearance model of one person who is an object of interest with different accompanying time. 時刻が付随した外見モデルを作るための本発明の一実施態様のフロー・チャートである。6 is a flow chart of an embodiment of the present invention for creating an appearance model with time attached. 特徴点が標識された対象となる人物の外見モデルである。This is an appearance model of a person whose feature points are labeled. 本発明の一実施態様のより詳細なフロー・チャートである。2 is a more detailed flow chart of one embodiment of the present invention. 子どもに関する外見モデルである。An appearance model for children. 修正した外見モデルであり、図6の子どもが大人になったときに可能な外見を示している。This is a modified appearance model, showing the possible appearance when the child in Figure 6 grows up. 本発明の別の一実施態様のフロー・チャートである。6 is a flow chart of another embodiment of the present invention. 本発明の別の一実施態様のフロー・チャートである。6 is a flow chart of another embodiment of the present invention. 推定された誕生日と外見モデルに付随する誕生日に関する確率分布のグラフである。It is a graph of the probability distribution regarding the estimated birthday and the birthday associated with the appearance model.

符号の説明Explanation of symbols

10 画像取得装置
20 ディジタル画像プロセッサ
30 画像出力装置
40 全体制御用コンピュータ
50 ディスプレイ装置
60 キーボード
82 特徴点
102 外見モデル生成装置
103 ユーザー入力
104 ディジタル画像またはビデオ
106 人物発見装置
108 取得時刻取出装置
110 人物の特徴
112 画像取得時刻
114 個人認識分類装置
116 外見モデル
118 人物分類
120 データベース
122 質問
124 質問回答
126 年齢計算器
128 年齢モデラー
130 年齢指定外見モデル
132 人物分類装置
134 時刻モデラー
136 時刻指定外見モデル
142 年齢推定装置
144 誕生日推定装置
146 人物分類装置
10 Image acquisition device
20 Digital image processor
30 Image output device
40 Computer for overall control
50 display devices
60 keyboard
82 Features
102 Appearance model generator
103 User input
104 Digital image or video
106 Person discovery device
108 Acquisition time retrieval device
110 Characteristic
112 Image acquisition time
114 Personal recognition classification device
116 Appearance model
118 Person classification
120 database
122 Questions
124 questions
126 Age calculator
128 age modeler
130 Age-specified appearance model
132 Person classification device
134 Time Modeler
136 Time specified appearance model
142 Age estimation device
144 Birthday Estimator
146 Person classification device

Claims (24)

長期間にわたって取得したディジタル画像コレクションの中から興味の対象となる特定の少なくとも一人の人物を同定する方法であって、
それぞれのディジタル画像に一人以上の人物が含まれているディジタル画像コレクションを用意するステップと;
付随するある時刻における興味の対象である特定の人物の顔の特徴に関する距離測定値である1セットの特徴を持つ外見モデルをディジタル・データベースに記憶させるステップと;
個人認識分類装置を設け、その個人認識分類装置において、上記外見モデルと上記付随する時刻とを利用して、上記ディジタル画像コレクションの画像の中で興味の対象である上記特定の人物を同定するステップを含む方法。
A method for identifying at least one particular person of interest from a digital image collection acquired over a long period of time, comprising:
Providing a digital image collection in which each digital image includes one or more persons;
Storing in the digital database an appearance model with a set of features that is a distance measure of the facial features of a particular person of interest at an associated time;
A step of providing a personal recognition and classification device, and using the appearance model and the accompanying time in the personal recognition and classification device to identify the specific person of interest in the image of the digital image collection Including methods.
上記ディジタル画像コレクションに含まれる各画像の画像取得時刻がわかっていて、上記個人認識分類装置がその画像取得時刻を利用して興味の対象である上記特定の人物を同定する、請求項1に記載の方法。   2. The image acquisition time of each image included in the digital image collection is known, and the personal recognition and classification device uses the image acquisition time to identify the specific person of interest. the method of. 上記距離測定値が、顔の特徴相互間の距離に関する比または角度である、請求項1に記載の方法。   The method of claim 1, wherein the distance measurement is a ratio or angle with respect to a distance between facial features. 上記顔の特徴に目、鼻、眉、口が含まれる、請求項3に記載の方法。   4. The method of claim 3, wherein the facial features include eyes, nose, eyebrows and mouth. 子どもに関しては、成長期間を通じてより多数の外見モデルを利用する、請求項1に記載の方法。   2. The method of claim 1, wherein for a child, more appearance models are utilized throughout the growth period. 画像取得時刻における興味の対象である上記人物の年齢がわかっていて、上記外見モデルを修正することで、その外見モデルに付随する時刻と興味の対象であるその人物の年齢の間の時間差を埋め合わせる、請求項2に記載の方法。   The age of the person of interest at the time of image acquisition is known and the appearance model is modified to make up for the time difference between the time associated with the appearance model and the age of the person of interest The method according to claim 2. 付随する時刻の異なる少なくとも2つの外見モデルをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising at least two appearance models with different accompanying times. 上記特徴に興味の対象である上記特定の人物の誕生日が含まれる、請求項1に記載の方法。   The method of claim 1, wherein the feature includes a birthday of the particular person of interest. 付随する上記時刻が、カレンダーの日付、または興味の対象である上記特定の人物の年齢である、請求項1に記載の方法。   The method according to claim 1, wherein the accompanying time is a date on a calendar or an age of the specific person of interest. 付随する時刻の異なる少なくとも2つの外見モデルをさらに含んでいて、上記個人認識分類装置が、付随する時刻が画像取得時刻に最も近い外見モデルを用いて興味の対象である上記特定の人物を同定する、請求項2に記載の方法。   Further including at least two appearance models with different accompanying times, the personal recognition and classification device identifies the specific person of interest using an appearance model whose accompanying time is closest to the image acquisition time. The method according to claim 2. 上記外見モデルを修正して年齢指定外見モデルを生成させ、上記個人認識分類装置がその年齢指定外見モデルを用いて興味の対象である上記特定の人物を同定する、請求項2に記載の方法。   3. The method according to claim 2, wherein the appearance model is modified to generate an age-designated appearance model, and the personal recognition classifier uses the age-designated appearance model to identify the specific person of interest. 付随する時刻の異なる少なくとも2つの外見モデルをさらに含んでいて、上記少なくとも2つの外見モデルから年齢指定外見モデルを生成させ、上記個人認識分類装置がその年齢指定外見モデルを用いて興味の対象である上記特定の人物を同定する、請求項2に記載の方法。   It further includes at least two appearance models with different times, and generates an age-designated appearance model from the at least two appearance models, and the personal recognition classifier is an object of interest using the age-designated appearance model. The method according to claim 2, wherein the specific person is identified. 長期間にわたって取得したディジタル画像コレクションの中から興味の対象となる特定の少なくとも一人の人物を同定する方法であって、
それぞれのディジタル画像に一人以上の人物が含まれているディジタル画像コレクションを用意するステップと;
付随するある時刻における興味の対象である特定の人物に関して以前に撮影されたディジタル画像に由来する、その人物の顔の特徴に関する距離測定値である1セットの特徴を持つ外見モデルをディジタル・データベースに記憶させるステップと;
個人認識分類装置を設け、その個人認識分類装置において、上記外見モデルと上記付随する時刻とを利用して、上記ディジタル画像コレクションの画像の中で興味の対象である上記特定の人物を同定するステップを含む方法。
A method for identifying at least one particular person of interest from a digital image collection acquired over a long period of time, comprising:
Providing a digital image collection in which each digital image includes one or more persons;
Appearance model with a set of features that is a distance measurement of the facial features of a person, derived from a previously taken digital image of the specific person of interest at a certain time in the digital database Memorizing step;
A step of providing a personal recognition and classification device, and using the appearance model and the accompanying time in the personal recognition and classification device to identify the specific person of interest in the image of the digital image collection Including methods.
上記ディジタル画像コレクションに、上記記憶ステップで用いた以前に撮影された上記ディジタル画像が含まれる、請求項13に記載の方法。   14. The method of claim 13, wherein the digital image collection includes the previously captured digital image used in the storing step. 上記ディジタル画像コレクションに含まれる各画像の画像取得時刻がわかっていて、上記個人認識分類装置がその画像取得時刻を利用して興味の対象である上記特定の人物を同定する、請求項13に記載の方法。   14. The image acquisition time of each image included in the digital image collection is known, and the personal recognition and classification device uses the image acquisition time to identify the specific person who is interested. the method of. 上記外見モデルを修正して年齢指定外見モデルを生成させ、上記個人認識分類装置がその年齢指定外見モデルを用いて興味の対象である上記特定の人物を同定する、請求項15に記載の方法。   16. The method of claim 15, wherein the appearance model is modified to generate an age-designated appearance model, and the personal recognition and classification device identifies the specific person of interest using the age-designated appearance model. 付随する時刻の異なる少なくとも2つの外見モデルをさらに含んでいて、上記少なくとも2つの外見モデルから年齢指定外見モデルを生成させ、上記個人認識分類装置がその年齢指定外見モデルを用いて興味の対象である上記特定の人物を同定する、請求項15に記載の方法。   It further includes at least two appearance models with different times, and generates an age-designated appearance model from the at least two appearance models, and the personal recognition classifier is an object of interest using the age-designated appearance model. 16. The method of claim 15, wherein the specific person is identified. 付随する時刻の異なる少なくとも2つの外見モデルをさらに含んでいて、上記個人認識分類装置が、付随する時刻が画像取得時刻に最も近い外見モデルを用いて興味の対象である上記特定の人物を同定する、請求項15に記載の方法。   Further including at least two appearance models with different accompanying times, the personal recognition and classification device identifies the specific person of interest using an appearance model whose accompanying time is closest to the image acquisition time. The method of claim 15. 記憶されている上記特徴が、興味の対象である上記特定の人物の顔の特徴に関する測定値であり、上記個人認識分類装置がその顔の特徴を利用する、請求項13に記載の方法。   14. The method according to claim 13, wherein the stored feature is a measurement value relating to a facial feature of the particular person of interest, and the personal recognition classifier utilizes the facial feature. 付随する時刻の異なる少なくとも2つの外見モデルをさらに含む、請求項13に記載の方法。   14. The method of claim 13, further comprising at least two appearance models with different accompanying times. 子どもに関しては、成長期間を通じてより多数の外見モデルを利用する、請求項20に記載の方法。   21. The method of claim 20, wherein for a child, a greater number of appearance models are utilized throughout the growth period. 上記特徴に興味の対象である上記特定の人物の誕生日が含まれる、請求項13に記載の方法。   The method of claim 13, wherein the feature includes a birthday of the particular person of interest. 付随する上記時刻が、カレンダーの日付、または興味の対象である上記特定の人物の年齢である、請求項13に記載の方法。   14. The method of claim 13, wherein the accompanying time is a calendar date or the age of the particular person of interest. 長期間にわたって取得したディジタル画像コレクションの中から興味の対象となる特定の少なくとも一人の人物を同定する方法であって、
各ディジタル画像の取得時刻がわかっているディジタル画像コレクションを用意するステップと;
興味の対象となる上記特定の人物の外見モデルと、興味の対象となるその特定の人物の誕生日とをディジタル・データベースに記憶させるステップと;
取得時刻が興味の対象となるその特定の人物の誕生日よりも後のディジタル画像群の中でだけ興味の対象となるその特定の人物を探すステップを含む方法。
A method for identifying at least one particular person of interest from a digital image collection acquired over a long period of time, comprising:
Providing a digital image collection in which the acquisition time of each digital image is known;
Storing in the digital database the appearance model of the particular person of interest and the birthday of the particular person of interest;
A method comprising the step of searching for a particular person of interest only in a group of digital images whose acquisition time is after the birthday of that particular person of interest.
JP2008508923A 2005-04-28 2006-04-18 Use of time when recognizing a person in an image Pending JP2008538998A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/116,729 US7522773B2 (en) 2005-04-28 2005-04-28 Using time in recognizing persons in images
PCT/US2006/014759 WO2006115939A1 (en) 2005-04-28 2006-04-18 Using time in recognizing persons in images

Publications (2)

Publication Number Publication Date
JP2008538998A true JP2008538998A (en) 2008-11-13
JP2008538998A5 JP2008538998A5 (en) 2009-04-16

Family

ID=36676494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008508923A Pending JP2008538998A (en) 2005-04-28 2006-04-18 Use of time when recognizing a person in an image

Country Status (5)

Country Link
US (1) US7522773B2 (en)
EP (1) EP1877957A1 (en)
JP (1) JP2008538998A (en)
CN (1) CN101167087A (en)
WO (1) WO2006115939A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059940A (en) * 2009-09-09 2011-03-24 Canon Inc Face image extracting device, control method of the same, and control program

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7444017B2 (en) * 2004-11-10 2008-10-28 Eastman Kodak Company Detecting irises and pupils in images of humans
JP2007080184A (en) * 2005-09-16 2007-03-29 Canon Inc Image processor and method
US20070071288A1 (en) * 2005-09-29 2007-03-29 Quen-Zong Wu Facial features based human face recognition method
US20070098303A1 (en) * 2005-10-31 2007-05-03 Eastman Kodak Company Determining a particular person from a collection
US8228382B2 (en) * 2005-11-05 2012-07-24 Ram Pattikonda System and method for counting people
JP5239126B2 (en) * 2006-04-11 2013-07-17 株式会社ニコン Electronic camera
DE602007012246D1 (en) * 2006-06-12 2011-03-10 Tessera Tech Ireland Ltd PROGRESS IN EXTENDING THE AAM TECHNIQUES FROM GRAY CALENDAR TO COLOR PICTURES
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP4456617B2 (en) * 2007-04-16 2010-04-28 富士通株式会社 Similarity analysis device, image display device, and image display program
US20080270880A1 (en) * 2007-04-19 2008-10-30 Lynne Becker System and method for memoralizing predetermined events
US8160371B2 (en) * 2007-12-03 2012-04-17 Honeywell International Inc. System for finding archived objects in video data
US8180112B2 (en) 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
CN103402070B (en) 2008-05-19 2017-07-07 日立麦克赛尔株式会社 Record reproducing device and method
US20090310863A1 (en) * 2008-06-11 2009-12-17 Gallagher Andrew C Finding image capture date of hardcopy medium
US8208695B2 (en) * 2008-09-25 2012-06-26 Cyberlink Corp. Systems and methods for performing image clustering
JP5412133B2 (en) * 2009-02-20 2014-02-12 オリンパスイメージング株式会社 Playback apparatus and playback method
US8655084B2 (en) * 2009-06-23 2014-02-18 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, Reno Hand-based gender classification
US8358855B2 (en) * 2009-07-08 2013-01-22 Honeywell International Inc. Determining probabilities from compared covariance appearance models to detect objects of interest in images
JP4924742B2 (en) * 2010-06-30 2012-04-25 カシオ計算機株式会社 Image processing apparatus and method, and program
US8565539B2 (en) * 2011-05-31 2013-10-22 Hewlett-Packard Development Company, L.P. System and method for determining estimated age using an image collection
JP2013003631A (en) * 2011-06-13 2013-01-07 Sony Corp Information processor, information processing method, information processing system, and program
US9077888B2 (en) * 2011-12-29 2015-07-07 Verizon Patent And Licensing Inc. Method and system for establishing autofocus based on priority
US20150189233A1 (en) * 2012-04-30 2015-07-02 Goggle Inc. Facilitating user interaction in a video conference
US9014509B2 (en) 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Modifying digital images to increase interest level
US8897485B2 (en) 2012-06-29 2014-11-25 Intellectual Ventures Fund 83 Llc Determining an interest level for an image
US8873851B2 (en) 2012-06-29 2014-10-28 Intellectual Ventures Fund 83 Llc System for presenting high-interest-level images
US9014510B2 (en) 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Method for presenting high-interest-level images
WO2014056112A1 (en) 2012-10-10 2014-04-17 Broadbandtv, Corp. Intelligent video thumbnail selection and generation
US10438631B2 (en) 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
US9721143B2 (en) 2014-03-21 2017-08-01 International Business Machines Corporation Modification of visual depictions
US10116901B2 (en) 2015-03-18 2018-10-30 Avatar Merger Sub II, LLC Background modification in video conferencing
US9836669B2 (en) * 2016-02-22 2017-12-05 International Business Machines Corporation Generating a reference digital image based on an indicated time frame and searching for other images using the reference digital image
JP2018081402A (en) * 2016-11-15 2018-05-24 キヤノン株式会社 Image processing system, image processing method, and program
JP6692045B2 (en) 2017-09-28 2020-05-13 パナソニックIpマネジメント株式会社 Authentication device, authentication system, authentication method, and program
CN109960970A (en) * 2017-12-22 2019-07-02 北京京东尚科信息技术有限公司 Face identification method, system, equipment and storage medium based on ASM algorithm
CN109447894A (en) * 2018-08-20 2019-03-08 广州市久邦数码科技有限公司 A kind of image processing method and its system based on data analysis
CN109948671B (en) * 2019-03-04 2021-11-30 腾讯医疗健康(深圳)有限公司 Image classification method, device, storage medium and endoscopic imaging equipment
CN110532965B (en) 2019-08-30 2022-07-26 京东方科技集团股份有限公司 Age identification method, storage medium and electronic device
CN110674744A (en) * 2019-09-24 2020-01-10 京东方科技集团股份有限公司 Age identification method and device and electronic equipment
US10923045B1 (en) * 2019-11-26 2021-02-16 Himax Technologies Limited Backlight control device and method
TWI802906B (en) * 2021-01-28 2023-05-21 旺宏電子股份有限公司 Data recognition device and recognition method thereof
US12354406B2 (en) * 2021-04-23 2025-07-08 Wrethink, Inc. Methods and apparatus for determining the date of a scanned photo from face data and using such date information

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781650A (en) * 1994-02-18 1998-07-14 University Of Central Florida Automatic feature detection and age classification of human faces in digital images
JP2001297090A (en) * 2000-04-13 2001-10-26 Konica Corp Image data retrieval method, image display method, data retrieval system, image editing device and computer readable storage medium
JP2002170119A (en) * 2000-12-01 2002-06-14 Minolta Co Ltd Image recognition device and method and recording medium
JP2003150603A (en) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd Image processing device and program
JP2004297167A (en) * 2003-03-25 2004-10-21 Olympus Corp Image display apparatus and image display system
WO2005031612A1 (en) * 2003-09-26 2005-04-07 Nikon Corporation Electronic image accumulation method, electronic image accumulation device, and electronic image accumulation system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4276570A (en) * 1979-05-08 1981-06-30 Nancy Burson Method and apparatus for producing an image of a person's face at a different age
US6513046B1 (en) * 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
US7376276B2 (en) * 2000-08-29 2008-05-20 Imageid Ltd Indexing, storage and retrieval of digital images
US6922201B2 (en) * 2001-12-05 2005-07-26 Eastman Kodak Company Chronological age altering lenticular image
GB2402535B (en) 2003-06-05 2006-06-21 Canon Kk Image processing
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781650A (en) * 1994-02-18 1998-07-14 University Of Central Florida Automatic feature detection and age classification of human faces in digital images
JP2001297090A (en) * 2000-04-13 2001-10-26 Konica Corp Image data retrieval method, image display method, data retrieval system, image editing device and computer readable storage medium
JP2002170119A (en) * 2000-12-01 2002-06-14 Minolta Co Ltd Image recognition device and method and recording medium
JP2003150603A (en) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd Image processing device and program
JP2004297167A (en) * 2003-03-25 2004-10-21 Olympus Corp Image display apparatus and image display system
WO2005031612A1 (en) * 2003-09-26 2005-04-07 Nikon Corporation Electronic image accumulation method, electronic image accumulation device, and electronic image accumulation system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059940A (en) * 2009-09-09 2011-03-24 Canon Inc Face image extracting device, control method of the same, and control program

Also Published As

Publication number Publication date
CN101167087A (en) 2008-04-23
WO2006115939A1 (en) 2006-11-02
EP1877957A1 (en) 2008-01-16
US20060245624A1 (en) 2006-11-02
US7522773B2 (en) 2009-04-21

Similar Documents

Publication Publication Date Title
JP2008538998A (en) Use of time when recognizing a person in an image
JP4908505B2 (en) Image classification using photographers
JP5123288B2 (en) Form connections between image collections
US6671405B1 (en) Method for automatic assessment of emphasis and appeal in consumer images
US8199979B2 (en) Classification system for consumer digital images using automatic workflow and face detection and recognition
US7551755B1 (en) Classification and organization of consumer digital images using workflow, and face detection and recognition
US7555148B1 (en) Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US8553949B2 (en) Classification and organization of consumer digital images using workflow, and face detection and recognition
US7587068B1 (en) Classification database for consumer digital images
US7558408B1 (en) Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US8180112B2 (en) Enabling persistent recognition of individuals in images
US6738494B1 (en) Method for varying an image processing path based on image emphasis and appeal
US7711145B2 (en) Finding images with multiple people or objects
US20070098303A1 (en) Determining a particular person from a collection
US9177230B2 (en) Demographic analysis of facial landmarks
US20070237355A1 (en) Method and apparatus for adaptive context-aided human classification
JP2011517791A (en) Decoration as event marker
US20060126964A1 (en) Method of and system for image processing and computer program
JP4859057B2 (en) Image processing apparatus, image processing method, program, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111108

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121127