[go: up one dir, main page]

JP2007052575A - Metadata applying device and metadata applying method - Google Patents

Metadata applying device and metadata applying method Download PDF

Info

Publication number
JP2007052575A
JP2007052575A JP2005236357A JP2005236357A JP2007052575A JP 2007052575 A JP2007052575 A JP 2007052575A JP 2005236357 A JP2005236357 A JP 2005236357A JP 2005236357 A JP2005236357 A JP 2005236357A JP 2007052575 A JP2007052575 A JP 2007052575A
Authority
JP
Japan
Prior art keywords
metadata
subject
input
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005236357A
Other languages
Japanese (ja)
Inventor
Mayumi Takeda
真弓 竹田
Yorihiro Yamatani
自広 山谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005236357A priority Critical patent/JP2007052575A/en
Publication of JP2007052575A publication Critical patent/JP2007052575A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a metadata applying device and a metadata applying method for accurately inputting the metadata of an image or an object by a simple method. <P>SOLUTION: This metadata applying device is provided with a display means for displaying an image including an object according to image data; an applying means to which metadata corresponding to the selected object of the image displayed by the display means are input and a meta data recording means for recording the metadata input by the applying means in a recording medium by associating the metadata with the image data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は各種画像データにメタデータを付与するメタデータ付与装置およびメタデータ付与方法に関し、特に、画像や被写体に関するメタデータを正確かつ簡単に入力することが可能なメタデータ付与装置およびメタデータ付与方法に関する。   The present invention relates to a metadata grant apparatus and metadata grant method for giving metadata to various image data, and more particularly, a metadata grant apparatus and metadata grant capable of accurately and easily inputting metadata relating to images and subjects. Regarding the method.

画像データにおける画像や被写体の内容などに応じて、メタデータと呼ばれる属性情報を付与し、このメタデータを画像データに関連づけて記録することが従来から一般に行われている。   Conventionally, attribute information called metadata is given according to the image in the image data, the contents of the subject, and the like, and this metadata is recorded in association with the image data.

なお、このようなメタデータの付与は画像の自動認識による場合と、オペレータによる認識による場合とがある。
このようなメタデータの付与と記録とに付いては、動画の収録時に自動的に行うものが以下の特許文献1に記載されている。
Note that such metadata assignment may be based on automatic recognition of an image or recognition by an operator.
As for the addition and recording of such metadata, what is automatically performed at the time of recording a moving image is described in Patent Document 1 below.

また、オペレータが認識して手動で入力するものとしては、以下の特許文献2や特許文献3などに記載されている。
特開2005−39354号公報(第1頁、図1) 特開2000−57362号公報(第1頁、図1) 特開2001−272963号公報(第1頁、図1)
Further, what is recognized and manually input by the operator is described in Patent Document 2 and Patent Document 3 below.
Japanese Patent Laying-Open No. 2005-39354 (first page, FIG. 1) JP 2000-57362 A (first page, FIG. 1) JP 2001-272963 A (first page, FIG. 1)

以上の特許文献1の自動入力の手法では、画像に含まれる文字情報を自動認識してメタデータを付与しているため、限定された状況でしか動作することができず、かつ、限定されたメタデータしか得ることができないという問題を有している。   In the automatic input method of Patent Document 1 described above, since character information included in an image is automatically recognized and given metadata, it can operate only in a limited situation and is limited. There is a problem that only metadata can be obtained.

以上の特許文献2の手動入力の手法は、画像に含まれるゴミの位置をスタイラスペンなどを用いて指定入力するものである。すなわち、位置情報しか入力できないため、限定されたメタデータである。特許文献3についても、ポインティングデバイスを用いて位置情報を入力するようにしている。   The manual input method of Patent Document 2 described above is to specify and input the position of dust contained in an image using a stylus pen or the like. That is, since only position information can be input, the metadata is limited. Also in Patent Document 3, position information is input using a pointing device.

なお、一般的な画像管理ソフトウェアなどでもメタデータを扱うことが可能になってきており、任意の物体の位置情報や、画像に任意のキーワードを付与するなどが可能になっている。こうしたメタデータの付加に際して、オリジナルファイルにいっさい変更を加えず、カタログと呼ばれるオリジナルファイルとは別のデータベース内に、これらのデータを格納するようにしている。   Note that metadata can also be handled by general image management software or the like, and it is possible to add arbitrary keyword information to the position information of an arbitrary object or an image. When adding such metadata, the original file is not changed at all, and the data is stored in a database called a catalog that is different from the original file.

本発明は以上の課題に鑑みてなされたものであって、画像や被写体のメタデータを簡易な手法で正確に入力することが可能なメタデータ付与装置およびメタデータ付与方法を提供する。   The present invention has been made in view of the above problems, and provides a metadata providing apparatus and a metadata providing method capable of accurately inputting metadata of an image or a subject by a simple method.

すなわち、上記の課題を解決する手段としての本願発明は以下に述べるようなものである。
(1)請求項1記載の発明は、画像データに応じて被写体を含む画像を表示する表示手段と、前記表示手段に表示された画像の選択された被写体に応じたメタデータが入力される付与手段と、前記付与手段から入力された前記メタデータを前記画像データに関連付けて記録媒体に記録するメタデータ記録手段と、を備えたことを特徴とするメタデータ付与装置である。
That is, the present invention as means for solving the above problems is as described below.
(1) According to the first aspect of the present invention, a display unit that displays an image including a subject according to image data, and an input in which metadata corresponding to the selected subject of the image displayed on the display unit is input And a metadata recording unit that records the metadata input from the adding unit on a recording medium in association with the image data.

(2)請求項2記載の発明は、前記表示手段は、表示している被写体の候補をメタデータの選択肢として表示し、前記付与手段は、前記表示手段において表示されている画像に含まれる被写体種類候補が前記選択肢から選択されることと、被写体種類が前記選択肢から選択された場合に該選択肢に対応付けられる画像上の位置もしくは大きさの入力を受け付けること、とが可能に構成されており、前記メタデータ記録手段は、選択された前記選択肢をメタデータとして記録すると共に、前記付与手段により指定された画像上の被写体の位置もしくは大きさを取得してメタデータとして記録する、ことを特徴とする請求項1記載のメタデータ付与装置である。   (2) In the invention according to claim 2, the display unit displays the displayed subject candidates as metadata options, and the adding unit includes the subject included in the image displayed on the display unit. A type candidate is selected from the options, and when a subject type is selected from the options, an input of a position or size on an image associated with the option can be received. The metadata recording means records the selected option as metadata, acquires the position or size of the subject on the image designated by the assigning means, and records it as metadata. The metadata providing apparatus according to claim 1.

(3)請求項3記載の発明は、前記表示手段は、表示している被写体の候補をメタデータの選択肢として表示し、前記付与手段は、前記表示手段において表示されている画像に含まれる被写体種類の候補と被写体部位の候補とが前記選択肢から選択されることと、被写体あるいは被写体部位が前記選択肢から選択された場合に該選択肢に対応付けられる画像上の位置もしくは大きさの入力を受け付けること、とが可能に構成されており、前記メタデータ記録手段は、選択された前記選択肢をメタデータとして記録すると共に、前記付与手段により指定された画像上の被写体の位置もしくは大きさを取得してメタデータとして記録する、ことを特徴とする請求項1記載のメタデータ付与装置である。   (3) In the invention according to claim 3, the display means displays a candidate of a displayed subject as a metadata option, and the assigning means includes a subject included in an image displayed on the display means. The type candidate and the subject part candidate are selected from the options, and when the subject or the subject part is selected from the options, an input of the position or size on the image associated with the option is received. The metadata recording unit records the selected option as metadata and acquires the position or size of the subject on the image designated by the adding unit. The metadata adding apparatus according to claim 1, wherein the metadata adding apparatus records as metadata.

(4)請求項4記載の発明は、前記メタデータ記録手段は、前記被写体の位置もしくは大きさを取得できない場合に、取得できなかった旨を記録する、ことを特徴とする請求項2または請求項3に記載のメタデータ付与装置である。   (4) The invention according to claim 4 is characterized in that, when the metadata recording means cannot acquire the position or size of the subject, it records that the object could not be acquired. Item 4. The metadata providing device according to Item 3.

(5)請求項5記載の発明は、前記表示手段は、前記被写体の位置もしくは大きさを取得できない場合の理由の候補を表示することが可能に構成されており、前記付与手段は、前記表示手段において表示されている理由の候補の入力を受け付けることが可能に構成されている、ことを特徴とする請求項4記載のメタデータ付与装置である。   (5) The invention according to claim 5 is configured such that the display means is capable of displaying a candidate for a reason when the position or size of the subject cannot be obtained, and the giving means includes the display 5. The metadata providing apparatus according to claim 4, wherein the metadata giving apparatus is configured to be able to accept input of a candidate for a reason displayed in the means.

(6)請求項6記載の発明は、前記表示手段は、表示中の画像に加え、前記付与手段で選択あるいは入力された被写体種類と同種の被写体モデルを表示し、前記付与手段は、前記被写体モデルの表示画面上での角度を変更することが可能に構成されており、前記メタデータ記録手段は、前記付与手段により変更された被写体モデルから被写体の角度を取得してメタデータとして記録する、ことを特徴とする請求項1乃至請求項5のいずれかに記載のメタデータ付与装置である。   (6) In the invention according to claim 6, in addition to the image being displayed, the display means displays a subject model of the same type as the subject type selected or input by the assigning means. It is configured to be able to change the angle on the display screen of the model, and the metadata recording unit acquires the angle of the subject from the subject model changed by the providing unit, and records it as metadata. The metadata providing apparatus according to any one of claims 1 to 5, wherein

(7)請求項7記載の発明は、前記メタデータ記録手段は、前記被写体の角度について取得できない場合に、取得できなかった旨を記録する、ことを特徴とする請求項6に記載のメタデータ付与装置である。   (7) The invention according to claim 7 is characterized in that, when the metadata recording unit cannot acquire the angle of the subject, it records that the metadata could not be acquired. It is a grant device.

(8)請求項8記載の発明は、前記表示手段は、前記被写体の角度を取得できない場合の理由の候補を表示することが可能に構成されており、前記付与手段は、前記表示手段において表示されている理由の候補の入力を受け付けることが可能に構成されている、ことを特徴とする請求項7記載のメタデータ付与装置である。   (8) The invention according to claim 8 is configured such that the display means can display a candidate for a reason when the angle of the subject cannot be obtained, and the assigning means displays on the display means The metadata providing apparatus according to claim 7, wherein the metadata adding apparatus is configured to receive an input of a candidate for the reason for being performed.

(9)請求項9記載の発明は、前記付与手段は、任意の文字列の入力を受け付けることが可能に構成されている、ことを特徴とする請求項1乃至請求項8のいずれかに記載のメタデータ付与装置である。   (9) The invention according to claim 9 is configured such that the assigning unit is capable of receiving an input of an arbitrary character string. This is a metadata providing apparatus.

(10)請求項10記載の発明は、前記表示手段は、表示している画像の構図の候補をメタデータの選択肢として表示し、前記付与手段は、前記表示手段において表示されている画像の構図の候補が前記選択肢から選択されることが可能に構成されており、前記メタデータ記録手段は、選択された前記選択肢をメタデータとして記録する、ことを特徴とする請求項1記載のメタデータ付与装置である。   (10) In the invention according to claim 10, the display means displays composition candidates for the displayed image as metadata options, and the assigning means composes the image displayed on the display means. 2. The metadata grant according to claim 1, wherein the candidate is selected from the options, and the metadata recording unit records the selected options as metadata. Device.

(11)請求項11記載の発明は、テスト用画像データを保持しており、該テスト用画像データを前記表示手段に表示させて前記付与手段でメタデータの入力を受け付ける動作を複数回繰り返して実行させ、複数回入力された前記メタデータから、初回の入力値と収束した入力値との差分を補正値として抽出しておき、前記表示手段に通常の画像データを表示して前記付与手段にメタデータが入力された場合に、該メタデータを前記補正値により補正する制御手段を有する、ことを特徴とする請求項1乃至請求項10のいずれかに記載のメタデータ付与装置である。   (11) The invention according to claim 11 holds test image data, and repeats the operation of displaying the test image data on the display unit and receiving the input of metadata by the adding unit a plurality of times. The difference between the first input value and the converged input value is extracted as a correction value from the metadata input multiple times, and normal image data is displayed on the display means to the adding means. 11. The metadata providing apparatus according to claim 1, further comprising a control unit that corrects the metadata with the correction value when the metadata is input.

(12)請求項12記載の発明は、入力された画像データを自動認識し、画像あるいは被写体に応じたメタデータを抽出する自動認識手段と、前記付与手段から入力された前記メタデータと、前記自動認識手段で抽出された前記メタデータとを比較し、前記自動認識についての評価を行う評価手段とを備える、ことを特徴とする請求項1乃至請求項10のいずれかに記載のメタデータ付与装置である。   (12) The invention according to claim 12 is an automatic recognition unit that automatically recognizes input image data and extracts metadata corresponding to an image or a subject, the metadata input from the adding unit, 11. The metadata provision according to claim 1, further comprising: an evaluation unit that compares the metadata extracted by the automatic recognition unit and evaluates the automatic recognition. Device.

(13)請求項13記載の発明は、前記メタデータ記録手段は、前記付与手段から入力された前記メタデータもしくは前記自動認識手段で抽出された前記メタデータの少なくとも一方と、前記比較手段で比較された比較結果データとを、前記画像データに関連付けて記録媒体に記録する、ことを特徴とする請求項12記載のメタデータ付与装置である。   (13) In the invention according to claim 13, the metadata recording means compares the metadata input from the assigning means or at least one of the metadata extracted by the automatic recognition means with the comparison means. 13. The metadata providing apparatus according to claim 12, wherein the compared result data is recorded on a recording medium in association with the image data.

(14)請求項14記載の発明は、前記請求項1乃至請求項13のいずれかに記載のメタデータ付与装置を用いて、画像データに応じて被写体を含む画像を表示し、表示された画像の選択された被写体に応じたメタデータの入力を受け付け、入力された前記メタデータを前記画像データに関連付けて記録媒体に記録する、を備えたことを特徴とするメタデータ付与方法である。   (14) According to the fourteenth aspect of the present invention, an image including a subject is displayed according to image data using the metadata providing apparatus according to any of the first to thirteenth aspects, and the displayed image A metadata providing method comprising: receiving metadata input according to the selected subject, and recording the input metadata in association with the image data on a recording medium.

この発明では、以下のような効果を得ることができる。
(1)請求項1記載の発明では、画像データに応じて被写体を含む画像を表示手段に表示し、表示された画像の選択された被写体に応じたメタデータがオペレータから付与手段を介して入力され、入力されたメタデータをメタデータ記録手段が画像データに関連付けて記録媒体に記録する。
In the present invention, the following effects can be obtained.
(1) According to the first aspect of the present invention, an image including a subject is displayed on the display unit according to the image data, and metadata corresponding to the selected subject of the displayed image is input from the operator via the assigning unit. Then, the metadata recording means records the input metadata on the recording medium in association with the image data.

これにより、画像に関するメタデータを簡易な手法で正確に入力することが可能になる。
(2)請求項2記載の発明では、表示している被写体種類の候補をメタデータの選択肢として表示しておき、被写体種類の候補について選択された選択肢をメタデータとして記録すると共に、指定された画像上の被写体の位置もしくは大きさを取得してメタデータとして記録する。
As a result, it is possible to accurately input metadata about the image by a simple method.
(2) In the invention of claim 2, the displayed subject type candidates are displayed as metadata options, and the options selected for the subject type candidates are recorded as metadata and designated. The position or size of the subject on the image is acquired and recorded as metadata.

これにより、画像に含まれる被写体となっている物体の種類と位置情報とが簡易な手法で正確に入力することが可能になる。
(3)請求項3記載の発明では、表示している被写体種類の候補と被写体部位の候補とをメタデータの選択肢として表示しておき、被写体種類の候補と被写体部位の候補とについて選択された選択肢をメタデータとして記録すると共に、指定された画像上の被写体の位置もしくは大きさを取得してメタデータとして記録する。
As a result, the type and position information of the object that is the subject included in the image can be accurately input by a simple method.
(3) In the invention of claim 3, the displayed subject type candidate and subject part candidate are displayed as metadata options, and the subject type candidate and subject part candidate are selected. The option is recorded as metadata, and the position or size of the subject on the designated image is acquired and recorded as metadata.

これにより、画像に含まれる被写体となっている物体の種類とそれに含まれる各部位と位置情報とについて、簡易な手法で正確に入力することが可能になる。
(4)請求項4記載の発明では、被写体の位置もしくは大きさを取得できない場合に、メタデータ記録手段は、取得できなかった旨を記録する。
This makes it possible to accurately input the type of the object that is the subject included in the image and each part and position information included in the object by a simple method.
(4) In the invention according to claim 4, when the position or size of the subject cannot be acquired, the metadata recording means records that the acquisition was not possible.

これにより、画像の被写体となっている物体の位置もしくは大きさを特定できない場合であっても、その情報を簡単に入力することが可能になる。
(5)請求項5記載の発明では、被写体の位置もしくは大きさを取得できない場合の理由の候補を表示手段で表示し、表示されている理由の候補についてオペレータからの選択を付与手段を介して受け付ける。
Thus, even when the position or size of the object that is the subject of the image cannot be specified, the information can be easily input.
(5) In the invention according to claim 5, candidates for reasons when the position or size of the subject cannot be obtained are displayed on the display means, and the selection of the candidates for reasons displayed is selected from the operator via the assigning means. Accept.

これにより、画像の被写体となっている物体の位置もしくは大きさを特定できない場合であっても、理由の候補の選択によって、その情報を簡単に入力することが可能になる。
(6)請求項6記載の発明では、表示手段で表示中の画像に加え、選択あるいは入力された被写体種類と同種の被写体モデルを表示しておき、オペレータによる付与手段を介しての、被写体モデルの表示画面上での角度の変更の操作を受けて、メタデータ記録手段は、変更された被写体モデルから被写体の角度を取得してメタデータとして記録する。
As a result, even when the position or size of the object that is the subject of the image cannot be specified, the information can be easily input by selecting the reason candidate.
(6) In the invention described in claim 6, in addition to the image being displayed on the display means, a subject model of the same type as the selected or input subject type is displayed, and the subject model is provided via the assigning means by the operator. In response to the operation of changing the angle on the display screen, the metadata recording means acquires the angle of the subject from the changed subject model and records it as metadata.

このように、被写体モデルを表示しておき、被写体モデルの表示画面上での角度の変更の操作を付与手段から受け入れることで、被写体の角度について、簡易な手法で正確に入力することが可能になる。   In this way, by displaying the subject model and accepting an operation for changing the angle on the display screen of the subject model from the assigning means, the angle of the subject can be accurately input by a simple method. Become.

(7)請求項7記載の発明では、被写体の角度について取得できない場合に、取得できなかった旨をメタデータ記録手段が記録する。
これにより、画像の被写体となっている物体の角度について特定できない場合であっても、その情報を簡単に入力することが可能になる。
(7) In the seventh aspect of the invention, when the subject angle cannot be obtained, the metadata recording means records that the subject angle could not be obtained.
Thus, even when the angle of the object that is the subject of the image cannot be specified, the information can be easily input.

(8)請求項8記載の発明では、被写体の角度を取得できない場合の理由の候補を表示手段で表示し、表示されている理由の候補についてオペレータからの選択を付与手段を介して受け付ける。   (8) In the invention according to claim 8, candidates for reasons when the angle of the subject cannot be acquired are displayed on the display means, and selections from the operator are accepted via the assigning means for the displayed reason candidates.

これにより、画像の被写体となっている物体の角度について特定できない場合であっても、理由の候補の選択によって、その情報を簡単に入力することが可能になる。
(9)請求項9記載の発明では、オペレータからの任意の文字列のメタデータの入力を付与手段を介して受け付ける。
As a result, even when the angle of the object that is the subject of the image cannot be specified, the information can be easily input by selecting the candidate for the reason.
(9) In the invention according to claim 9, the input of metadata of an arbitrary character string from the operator is received through the assigning means.

これにより、画像や被写体や被写体部位に関して任意の文字列による各種のメタデータを簡易な手法で入力することが可能になる。
(10)請求項10記載の発明では、表示している画像の構図の候補をメタデータの選択肢として表示手段に表示し、表示されている画像の構図の候補についてオペレータからの選択を付与手段を介して受け付け、画像の構図の候補について選択された選択肢をメタデータとして記録する。
As a result, it is possible to input various types of metadata using an arbitrary character string with respect to an image, a subject, and a subject part by a simple method.
(10) In the invention described in claim 10, the composition candidate of the displayed image is displayed as a metadata option on the display means, and the selection means from the operator is given to the candidate for the composition of the displayed image. The options selected for the image composition candidates are recorded as metadata.

このように、画像と共に構図の候補を表示しておき、構図の候補の選択を付与手段から受け入れることで、画像の構図の候補について、簡易な手法で正確に入力することが可能になる。   In this way, composition candidates are displayed together with images, and selection of composition candidates is accepted from the assigning means, so that image composition candidates can be accurately input by a simple method.

(11)請求項11記載の発明では、テスト用画像データを表示手段に表示させて付与手段でメタデータの入力を受け付ける動作を複数回繰り返して、初回の入力値と収束した入力値との差分を補正値として抽出しておき、通常の画像データを表示手段に表示して付与手段にオペレータからメタデータが入力された場合に、該メタデータを補正値によって補正する。   (11) In the invention described in claim 11, the operation of displaying the test image data on the display means and receiving the metadata input by the assigning means is repeated a plurality of times, and the difference between the initial input value and the converged input value is repeated. Are extracted as correction values, and when normal image data is displayed on the display means and metadata is input from the operator to the assigning means, the metadata is corrected with the correction values.

このように初回の入力値と収束した入力値との差分から補正値を抽出しておいて、通常のメタデータの入力を補正することで、安定した入力値の傾向に応じた補正が可能になり、より正確なメタデータの入力が可能になる。   In this way, by correcting the normal metadata input by extracting the correction value from the difference between the initial input value and the converged input value, it is possible to perform correction according to the tendency of the stable input value. Therefore, more accurate metadata can be input.

(12)請求項12記載の発明では、付与手段を介してオペレータにより入力されたメタデータと、自動認識手段で抽出されたメタデータとを比較し、自動認識についての評価を評価手段にて行う。   (12) In the invention described in claim 12, the metadata inputted by the operator via the assigning means is compared with the metadata extracted by the automatic recognition means, and the evaluation for the automatic recognition is performed by the evaluation means. .

このように、オペレータにより入力されたメタデータと自動認識されたメタデータとを比較することで、自動認識手段で自動認識されたメタデータを評価することが可能になり、統計をとること等により自動認識の弱点などを把握することが可能になる。   Thus, by comparing the metadata input by the operator with the automatically recognized metadata, it becomes possible to evaluate the metadata automatically recognized by the automatic recognition means, and by taking statistics, etc. It becomes possible to grasp the weak points of automatic recognition.

(13)請求項13記載の発明では、付与手段を介してオペレータから入力されたメタデータもしくは自動認識手段で抽出されたメタデータの少なくとも一方と、比較手段で比較された比較結果データとを前記画像データに関連付けて記録媒体に記録する。   (13) In the invention described in claim 13, at least one of the metadata input from the operator via the assigning means or the metadata extracted by the automatic recognition means and the comparison result data compared by the comparison means are It is recorded on a recording medium in association with image data.

このように、オペレータにより入力されたメタデータと自動認識されたメタデータとを比較し、手動入力あるいは自動認識されたメタデータの少なくとも一方と比較結果データとを記録することで、自動認識手段で自動認識されたメタデータを評価することが可能になり、統計をとること等により自動認識の弱点などを把握することが可能になる。   In this way, by comparing the metadata input by the operator with the automatically recognized metadata, and recording at least one of the manually input or automatically recognized metadata and the comparison result data, the automatic recognition means It is possible to evaluate automatically recognized metadata, and it is possible to grasp weak points of automatic recognition by taking statistics and the like.

(14)請求項14記載の発明では、上記(1)〜(13)のいずれかに従い、画像データに応じて被写体を含む画像を表示手段に表示し、表示された画像の選択された被写体に応じたメタデータがオペレータから付与手段を介して入力され、入力されたメタデータをメタデータ記録手段が画像データに関連付けて記録媒体に記録する。   (14) In the invention described in claim 14, according to any one of the above (1) to (13), an image including a subject is displayed on the display unit in accordance with the image data, and the selected subject of the displayed image is displayed. The corresponding metadata is input from the operator via the adding unit, and the metadata recording unit records the input metadata in association with the image data on the recording medium.

これにより、画像や被写体に関するメタデータを簡易な手法で正確に入力することが可能になる。また、画像に含まれる被写体となっている物体の種類とそれに含まれる各部位と位置情報とについて、簡易な手法で正確に入力することが可能になる。   As a result, it is possible to accurately input metadata relating to images and subjects by a simple method. Further, it is possible to accurately input the type of the object that is the subject included in the image and each part and position information included in the object by a simple method.

以下、図面を参照して本発明を実施するための最良の形態(以下、実施形態)を詳細に説明する。
〈第一実施形態〉
まず、図1以降を参照して、本発明のメタデータ付与装置およびメタデータ付与方法をメタデータ付与装置100に適用した場合の第一実施形態の電気的構成の具体例を説明する。
The best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described below in detail with reference to the drawings.
<First embodiment>
First, with reference to FIG. 1 and subsequent drawings, a specific example of the electrical configuration of the first embodiment when the metadata providing apparatus and the metadata providing method of the present invention are applied to the metadata providing apparatus 100 will be described.

すなわち、本実施形態において、メタデータ付与装置の動作はメタデータ付与方法の処理手順であり、メタデータ付与プログラムの実行手順はメタデータ付与装置の動作はまたはメタデータ付与方法の処理手順である。   That is, in the present embodiment, the operation of the metadata providing apparatus is a processing procedure of the metadata providing method, and the execution procedure of the metadata providing program is the operation of the metadata providing apparatus or the processing procedure of the metadata providing method.

〈構成〉
ここで、メタデータ付与装置100は以下の各手段から構成されている。なお、図1は本実施形態のメタデータ付与装置100の主要部分の機能的な構成と共に具体的な回路や装置の一例を示すブロック図である。
<Constitution>
Here, the metadata providing apparatus 100 includes the following units. FIG. 1 is a block diagram showing an example of a specific circuit and apparatus together with a functional configuration of main parts of the metadata providing apparatus 100 of the present embodiment.

また、このメタデータ付与装置100の構成は、メタデータ付与方法を実行するための実現手段であり、また、メタデータ付与プログラムの各ルーチンでもある。
ここで、110は、メタデータ付与装置100内でメタデータ付与のための各種制御を実行する制御部である。この制御部110は、メタデータ付与装置100内にあって、入力されたメタデータを画像データに関連付けて記録媒体に記録するメタデータ記録手段としての制御を行う。
The configuration of the metadata providing apparatus 100 is an implementation means for executing the metadata providing method, and is also each routine of the metadata providing program.
Here, reference numeral 110 denotes a control unit that executes various controls for giving metadata in the metadata giving apparatus 100. The control unit 110 is in the metadata adding apparatus 100 and performs control as a metadata recording unit that records input metadata on a recording medium in association with image data.

また、制御部110は、各部を制御する制御手段の中心部分としてのCPU101と、各種データや各種プログラムが格納されているROM102と、画像データが展開されて処理される作業エリアとしてのRAM103と、を有している。   The control unit 110 includes a CPU 101 as a central part of a control unit that controls each unit, a ROM 102 that stores various data and various programs, a RAM 103 as a work area in which image data is expanded and processed, have.

170はメタデータ付与装置100に対してオペレータ(使用者)が各種指示を入力したり、メタデータ付与の入力を実行する付与手段としての操作部、180はメタデータ付与装置100の動作時におけるメタデータ付与プログラム動作時の各種画像や各種状態を表示する表示手段としての表示部、190は画像データやメタデータなどが記録される記録媒体としてのHDDである。また、200は画像データやメタデータなどが記録される記録媒体としての外部記録装置である。   Reference numeral 170 denotes an operation unit as a granting means for an operator (user) to input various instructions to the metadata granting apparatus 100 or to execute an input of metadata grant, and 180 denotes a meta during operation of the metadata grant apparatus 100. A display unit 190 serving as a display unit that displays various images and various states at the time of the data providing program operation, and an HDD as a recording medium on which image data, metadata, and the like are recorded. Reference numeral 200 denotes an external recording device as a recording medium on which image data, metadata, and the like are recorded.

なお、以上のメタデータ付与装置100では、制御部110またはCPU101の制御2より、以下に述べるような特徴的な動作を行う。
(1)この実施形態では、制御部110の指示により画像データに応じて被写体を含む画像を表示部180に表示し、表示された画像の選択された被写体に応じたメタデータ(被写体を識別する情報としてのメタデータ)がオペレータから操作部170を介して入力され、入力されたメタデータを制御部110が画像データに関連付けてHDD190または外部記憶装置200に記録する。
Note that the metadata providing apparatus 100 described above performs the following characteristic operations from the control unit 110 or the control 2 of the CPU 101.
(1) In this embodiment, an image including a subject is displayed on the display unit 180 in accordance with image data in accordance with an instruction from the control unit 110, and metadata corresponding to the selected subject of the displayed image (identifies the subject). (Metadata as information) is input from the operator via the operation unit 170, and the control unit 110 records the input metadata in the HDD 190 or the external storage device 200 in association with the image data.

(2)この実施形態では、制御部110の指示により被写体種類の候補をメタデータの選択肢として表示しておき、被写体種類の候補について選択された選択肢をメタデータとして記録すると共に、指定された画像上の被写体の位置もしくは大きさを取得してメタデータとして記録する。   (2) In this embodiment, subject type candidates are displayed as metadata options in accordance with instructions from the control unit 110, the options selected for the subject type candidates are recorded as metadata, and a designated image is also displayed. The position or size of the upper subject is acquired and recorded as metadata.

(3)この実施形態では、制御部110の指示により被写体種類の候補と被写体部位の候補とをメタデータの選択肢として表示しておき、被写体種類の候補と被写体部位の候補とについて選択された選択肢をメタデータとして記録すると共に、指定された画像上の被写体の位置もしくは大きさを取得してメタデータとして記録する。   (3) In this embodiment, subject type candidates and subject part candidates are displayed as metadata options according to instructions from the control unit 110, and options selected for subject type candidates and subject part candidates are displayed. Is recorded as metadata, and the position or size of the subject on the designated image is acquired and recorded as metadata.

(4)この実施形態では、被写体の位置もしくは大きさを取得できない場合に、制御部110は、取得できなかった旨を記録する。
(5)この実施形態では、制御部110の指示により被写体の位置もしくは大きさを取得できない場合の理由の候補を表示部180で表示し、表示されている理由の候補についてオペレータからの選択を操作部170を介して受け付ける。
(4) In this embodiment, when the position or size of the subject cannot be acquired, the control unit 110 records that the acquisition has failed.
(5) In this embodiment, a candidate for a reason when the position or size of the subject cannot be acquired according to an instruction from the control unit 110 is displayed on the display unit 180, and the operator selects the displayed reason candidate. It accepts via the part 170.

(6)この実施形態では、制御部110の指示により、表示部180で表示中の画像に加え、選択あるいは入力された被写体種類と同種の被写体モデルを表示しておき、オペレータによる操作部170を介しての、被写体モデルの表示画面上での角度の変更の操作を受けて、制御部110は、変更された被写体モデルから被写体の角度を取得してメタデータとして記録する。   (6) In this embodiment, in accordance with an instruction from the control unit 110, in addition to the image being displayed on the display unit 180, a subject model of the same type as the selected or input subject type is displayed, and the operator operates the operation unit 170. In response to the operation of changing the angle on the display screen of the subject model, the control unit 110 acquires the angle of the subject from the changed subject model and records it as metadata.

(7)この実施形態では、被写体の角度について取得できない場合に、取得できなかった旨を制御部110が記録する。
(8)この実施形態では、制御部110の指示により、被写体の角度を取得できない場合の理由の候補を表示部180で表示し、表示されている理由の候補についてオペレータからの選択を操作部170を介して受け付ける。
(7) In this embodiment, when the subject angle cannot be obtained, the control unit 110 records that the subject angle could not be obtained.
(8) In this embodiment, according to an instruction from the control unit 110, candidates for reasons when the angle of the subject cannot be acquired are displayed on the display unit 180, and selections from the operator for the displayed reason candidates are displayed on the operation unit 170. Accept through.

(9)この実施形態では、制御部110の指示により、オペレータからの任意の文字列のメタデータの入力を操作部170を介して受け付ける。
(10)この実施形態では、制御部110の指示により画像の構図の候補をメタデータの選択肢として表示部180に表示し、表示されている画像の構図の候補についてオペレータからの選択を操作部170を介して受け付け、画像の構図の候補について選択された選択肢をメタデータとして記録する。
(9) In this embodiment, the input of metadata of an arbitrary character string from the operator is received via the operation unit 170 according to an instruction from the control unit 110.
(10) In this embodiment, an image composition candidate is displayed as a metadata option on the display unit 180 according to an instruction from the control unit 110, and the operator selects a displayed image composition candidate from the operator 170. The option selected for the image composition candidate is recorded as metadata.

(11)この実施形態では、制御部110の指示により、テスト用画像データを表示部180に表示させて操作部170でメタデータの入力を受け付ける動作を複数回繰り返して、初回の入力値と収束した入力値との差分を補正値として抽出しておき、通常の画像データを表示部180に表示して操作部170にオペレータからメタデータが入力された場合に、該メタデータを補正値によって補正する。   (11) In this embodiment, the operation of displaying test image data on the display unit 180 and accepting input of metadata by the operation unit 170 in accordance with an instruction from the control unit 110 is repeated a plurality of times, and the initial input value and convergence are obtained. The difference between the input value and the input value is extracted as a correction value. When normal image data is displayed on the display unit 180 and metadata is input from the operator to the operation unit 170, the metadata is corrected with the correction value. To do.

(12)この実施形態では、制御部110の指示により、以上の選択肢の選択や文字入力などによるメタデータを、階層的にXMLなどのマークアップ言語で記述して、画像データに関連付けてHDD190または外部記憶装置200に記録する。   (12) In this embodiment, in accordance with an instruction from the control unit 110, metadata by selecting the above options or inputting characters is described hierarchically in a markup language such as XML, and associated with the image data in the HDD 190 or Record in the external storage device 200.

(13)この実施形態では、制御部110の指示により、メタデータを画像データに関連付けてHDD190または外部記憶装置200に記録する際に、メタデータを画像データ中に付帯情報として記録する。   (13) In this embodiment, when the metadata is associated with the image data and recorded in the HDD 190 or the external storage device 200 in accordance with an instruction from the control unit 110, the metadata is recorded as supplementary information in the image data.

(14)あるいは、この実施形態では、制御部110の指示により、メタデータを画像データに関連付けてHDD190または外部記憶装置200に記録する際に、メタデータを画像データとは別のデータとして記録する。   (14) Alternatively, in this embodiment, when the metadata is recorded in the HDD 190 or the external storage device 200 in association with the image data in accordance with an instruction from the control unit 110, the metadata is recorded as data different from the image data. .

(15)この実施形態では、制御部110の指示により、画像データにメタデータを付与する際に、任意の項目を追加する機能を有する。
(16)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータにより入力されたメタデータと、制御部110内に設けられた自動認識手段で抽出されたメタデータとを比較し、自動認識についての評価を制御部110内に設けられた評価手段にて行う。
(15) This embodiment has a function of adding an arbitrary item when adding metadata to image data according to an instruction from the control unit 110.
(16) In this embodiment, in accordance with an instruction from the control unit 110, metadata input by the operator via the operation unit 170 as described in the above (1) to (15) and the control unit 110 are provided. The metadata extracted by the automatic recognition means is compared, and the automatic recognition is evaluated by the evaluation means provided in the control unit 110.

(17)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータ、もしくは、制御部110内に設けられた自動認識手段で抽出されたメタデータの少なくとも一方と、制御部110内に設けられた比較手段で比較された比較結果データ(一致度、類似度など)とを、画像データに関連付けてHDD190または外部記憶装置200に記録する。   (17) In this embodiment, in accordance with an instruction from the control unit 110, metadata input from the operator via the operation unit 170 as described in (1) to (15) above, or provided in the control unit 110. At least one of the metadata extracted by the automatic recognition means and the comparison result data (matching degree, similarity degree, etc.) compared by the comparing means provided in the control unit 110 are associated with the image data in the HDD 190 or Record in the external storage device 200.

(18)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータ、もしくは、制御部110内に設けられた自動認識手段で抽出されたメタデータの少なくとも一方を記録する際に、制御部110内に設けられた比較手段で比較された比較結果データ(一致度、類似度など)をメタデータに追記する形で記録する。   (18) In this embodiment, in accordance with an instruction from the control unit 110, metadata input from the operator via the operation unit 170 as described in (1) to (15) above, or provided in the control unit 110. When recording at least one of the metadata extracted by the automatic recognition means, the comparison result data (matching degree, similarity degree, etc.) compared by the comparing means provided in the control unit 110 is added to the metadata. Record in the form.

(19)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータと、制御部110内に設けられた自動認識手段で抽出されたメタデータとを比較した場合には、自動認識の条件(用いたプログラムのバージョン,用いた学習データ、評価日など)を、記録されたメタデータに追記する。   (19) In this embodiment, in accordance with an instruction from the control unit 110, metadata input from the operator via the operation unit 170 as described in (1) to (15) above and the control unit 110 are provided. When the metadata extracted by the automatic recognition means is compared, the automatic recognition conditions (the version of the program used, the learning data used, the evaluation date, etc.) are added to the recorded metadata.

(20)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータと、制御部110内に設けられた自動認識手段で抽出されたメタデータとを比較した場合であって、異なった条件で再び評価した場合には、メタデータに追記されている評価結果を、新たに評価した結果によって更新する。   (20) In this embodiment, in accordance with an instruction from the control unit 110, metadata input from the operator via the operation unit 170 as described in the above (1) to (15) and the control unit 110 are provided. When the metadata extracted by the automatic recognition means is compared and evaluated again under different conditions, the evaluation result added to the metadata is updated with the newly evaluated result.

(21)あるいは、この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータと、制御部110内に設けられた自動認識手段で抽出されたメタデータとを比較した場合であって、異なった条件で再び評価した場合には、メタデータに追記されている評価結果を履歴として残しつつ、新たに評価した結果を追記する。   (21) Alternatively, in this embodiment, in accordance with an instruction from the control unit 110, metadata input from the operator via the operation unit 170 as described in (1) to (15) above, and the control unit 110 are provided. In the case of comparing with the metadata extracted by the automatic recognition means, and evaluating again under different conditions, a new evaluation was made while leaving the evaluation results added to the metadata as a history. Append the results.

(22)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータから自動認識に用いる学習データを作成する学習データ作成手段を制御部110内に備え、作成された学習データによって学習する自動認識学習手段を制御部110内に備え、自動認識に関する学習データの作成と学習を行う。   (22) In this embodiment, in accordance with an instruction from the control unit 110, learning data used for automatic recognition is created from metadata input from the operator via the operation unit 170 as described in (1) to (15) above. A learning data creating means is provided in the control unit 110, and an automatic recognition learning means for learning based on the created learning data is provided in the control unit 110 to create and learn learning data related to automatic recognition.

(23)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータから自動認識に用いる辞書データを作成する辞書データ作成手段を制御部110内に備え、作成された辞書データによって自動認識する自動認識手段を制御部110内に備え、辞書データに基づいた自動認識を行う。   (23) In this embodiment, according to an instruction from the control unit 110, dictionary data used for automatic recognition is created from metadata input from the operator via the operation unit 170 as described in (1) to (15) above. A dictionary data creation means is provided in the control unit 110, and an automatic recognition means for automatically recognizing the created dictionary data is provided in the control unit 110 to perform automatic recognition based on the dictionary data.

(24)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータから自動認識に用いるテンプレートを作成するテンプレート作成手段を制御部110内に備え、作成されたテンプレートによってテンプレートマッチング処理をするテンプレートマッチング処理手段を制御部110内に備え、作成したテンプレートによりテンプレートマッチング処理を行う。   (24) In this embodiment, in accordance with an instruction from the control unit 110, a template for creating a template to be used for automatic recognition from metadata input from the operator via the operation unit 170 as described in (1) to (15) above. A creation unit is provided in the control unit 110, and a template matching processing unit that performs a template matching process using the created template is provided in the control unit 110, and a template matching process is performed using the created template.

(25)この実施形態では、制御部110の指示により、以上の(1)〜(15)のように操作部170を介してオペレータから入力されたメタデータに従って画像を分類する画像分類手段を制御部110内に備え、メタデータの作成と該メタデータに基づく画像の分類処理とを実行する。   (25) In this embodiment, in accordance with instructions from the control unit 110, image classification means for classifying images according to metadata input from the operator via the operation unit 170 as in the above (1) to (15) is controlled. It is provided in the unit 110 and executes creation of metadata and image classification processing based on the metadata.

〈動作〉
以上の構成において、制御部110は、メタデータ付与プログラムに従って、以下に述べるような動作を行う。
<Operation>
In the above configuration, the control unit 110 performs the following operation according to the metadata providing program.

まず、制御部110は、HDD190または外部記憶装置200に記憶されている複数の画像データを、たとえば図3に示すように、表示部180に縮小状態で一覧表示し、メタデータを付与すべき画像の選択を受け付ける(図2S1)。   First, the control unit 110 displays a list of a plurality of image data stored in the HDD 190 or the external storage device 200 in a reduced state on the display unit 180 as shown in FIG. Is selected (S1 in FIG. 2).

オペレータがポインティングデバイスを用いて、いずれかの縮小画像をクリックするなどして選択すると、制御部110は選択された画像をメタデータ付与対象画像として、図4のように拡大表示する。この図4では、表示部180の表示画面の中央部左半分にメタデータ付与対象画像が表示された様子を示している。   When the operator uses a pointing device to select one of the reduced images by clicking or the like, the control unit 110 enlarges and displays the selected image as a metadata addition target image as shown in FIG. FIG. 4 shows a state in which the metadata addition target image is displayed on the left half of the central portion of the display screen of the display unit 180.

ここで、制御部110の指示により表示部180の画像の右隣上部に、メタデータ付与対象画像が画像中の主要被写体であるのか背景であるのかといった候補が選択肢として表示されている(図4(1))。   Here, according to an instruction from the control unit 110, candidates such as whether the metadata application target image is the main subject or the background in the image are displayed as options on the upper right side of the image on the display unit 180 (FIG. 4). (1)).

ここでは、オペレータが「主要被写体」をメタデータ付与対象画像として選択したと仮定する(図4(1)で「主要被写体」にチェックマーク)。
すると、制御部110の指示により表示部180の画像の右隣中央部に、メタデータ付与対象画像である主要被写体が、人物・男、人物・女、建物、道路、などのいずれかであるのかといった候補が選択肢として表示されている(図2S3、図4(2))。
Here, it is assumed that the operator has selected “main subject” as the metadata addition target image (“main subject” in FIG. 4A is a check mark).
Then, according to an instruction from the control unit 110, whether the main subject that is the metadata addition target image is a person / male, a person / woman, a building, a road, or the like in the central portion on the right side of the image on the display unit 180. Are displayed as options (FIG. 2 S3, FIG. 4 (2)).

ここでは、オペレータが「人物」「女」をメタデータ付与対象画像の種類として選択したと仮定する(図2S4、図4(2)で「人物」「女」にチェックマーク)。このオペレータからの選択が確定すると(図2S5でOK)、制御部110は次のステップに処理を進める。   Here, it is assumed that the operator has selected “person” and “woman” as the type of metadata assignment target image (check mark “person” and “woman” in FIG. 2 S4 and FIG. 4 (2)). When the selection from the operator is confirmed (OK in FIG. 2 S5), control unit 110 proceeds to the next step.

すると、制御部110の指示により表示部180の右端部に、さらに、メタデータ付与対象画像である主要被写体が、顔、手、胴体、足、などのいずれであるのかといった被写体種類の候補が選択肢として表示されている(図2S6、図4(3))。   Then, in accordance with an instruction from the control unit 110, a candidate for a subject type such as whether the main subject, which is a metadata addition target image, is a face, a hand, a torso, a foot, or the like is selected at the right end of the display unit 180. (FIG. 2 S6, FIG. 4 (3)).

ここでは、オペレータが「顔」をメタデータ付与対象画像の被写体として選択したと仮定する(図2S7、図4(2)で「顔」にチェックマーク)。このオペレータからの選択が確定すると(図2S8でOK)、制御部110は次のステップに処理を進める。   Here, it is assumed that the operator has selected “face” as the subject of the metadata assignment target image (check mark “face” in FIG. 2 S7, FIG. 4B). When the selection from the operator is confirmed (OK in FIG. 2 S8), control unit 110 proceeds to the next step.

すると、制御部110の指示により、表示部180の左下部の縮小された画像上で、被写体の大きさや位置の入力を受け付ける入力画面を表示する(図2S9)。この段階では、たとえば、画面左下の縮小画像(図5(1))上で、オペレータが操作部170のポインティングデバイスなどを用いて、メタデータを付与しようとしている所望の被写体の上に所定の枠を移動させる。   Then, according to an instruction from the control unit 110, an input screen for receiving input of the size and position of the subject is displayed on the reduced image in the lower left portion of the display unit 180 (S9 in FIG. 2). At this stage, for example, on the reduced image (FIG. 5 (1)) on the lower left of the screen, the operator uses a pointing device of the operation unit 170 or the like to place a predetermined frame on a desired subject to which metadata is to be added. Move.

ここで、制御部110は操作部170からの操作を受けて、被写体上の枠の移動に伴い、その枠の部分の拡大画像を表示部180の表示画面の中央左半分に表示する(図5(2))。ここで、オペレータは、操作部170のポインティングデバイスを用いて、被写体の大きさに合致するように枠の大きさを調整する。この図5の場合には、被写体が顔であるので、オペレータはポインティングデバイスを用いて、顔全体を囲うように枠の大きさを調整する。   Here, in response to the operation from the operation unit 170, the control unit 110 displays an enlarged image of the frame portion on the center left half of the display screen of the display unit 180 as the frame on the subject moves (FIG. 5). (2)). Here, the operator uses the pointing device of the operation unit 170 to adjust the size of the frame so as to match the size of the subject. In the case of FIG. 5, since the subject is a face, the operator uses a pointing device to adjust the size of the frame so as to surround the entire face.

以上のようにして、上述したステップで被写体として選択された物体上に、オペレータが位置や大きさを合致させた枠を表示させることで、制御部110は被写体の位置(画像上での位置)と被写体の大きさ(画像上での画素サイズ)を取得する(図2S10)。ここで、制御部110は、以上のように枠によって取得した被写体の大きさに相当する画素サイズを表示部180の表示画面に表示する(図5(3))。   As described above, the control unit 110 displays the position of the subject (position on the image) by displaying the frame whose position and size are matched by the operator on the object selected as the subject in the above-described step. And the size of the subject (pixel size on the image) are acquired (S10 in FIG. 2). Here, the control unit 110 displays the pixel size corresponding to the size of the subject acquired by the frame as described above on the display screen of the display unit 180 (FIG. 5 (3)).

なお、以上のようにオペレータが設定した枠によっては、被写体の顔が髪の毛に隠れたり、障害物によって隠れたり、明るすぎたり、暗すぎたりといった理由で、制御部110が被写体の位置や大きさを取得できない場合もありうる。そのような場合には、制御部110は、その理由の候補となる選択肢を表示部180の表示画面上に表示し(図6(1))、オペレータに選択させる。この場合には、被写体の位置や大きさのメタデータの代わりに、位置や大きさを取得できない理由の選択された選択肢がメタデータとして付与されることになる。   Note that, depending on the frame set by the operator as described above, the control unit 110 may determine the position and size of the subject because the subject's face is hidden by hair, hidden by an obstacle, too bright, or too dark. It may be impossible to obtain In such a case, the control unit 110 displays an option as a candidate for the reason on the display screen of the display unit 180 (FIG. 6 (1)), and causes the operator to select it. In this case, instead of the metadata of the position and size of the subject, the selected option for the reason that the position and size cannot be acquired is given as metadata.

そして、以上のようなオペレータからの操作による被写体の位置と被写体の大きさとの取得が確定すると(図2S11でOK)、制御部110は次のステップに処理を進める。
すると、制御部110の指示により、表示部180の中央部左半分の画像上で、被写体の部位(アイテム)の位置と名称との入力を受け付ける入力画面を表示する(図2S12、図7)。このため、制御部110の指示により、被写体の画像と、それに対応する部位の名称の候補を選択肢として表示部180に表示している。
When acquisition of the position of the subject and the size of the subject by the operation from the operator as described above is confirmed (OK in S11 in FIG. 2), the control unit 110 proceeds to the next step.
Then, according to an instruction from the control unit 110, an input screen for receiving the input of the position and name of the part (item) of the subject is displayed on the image in the left half of the center of the display unit 180 (FIG. 2 S12, FIG. 7). For this reason, in accordance with an instruction from the control unit 110, an image of the subject and a candidate for the name of the corresponding part are displayed on the display unit 180 as options.

この段階では、たとえば、画面中央左側の画像上で、オペレータが操作部170のポインティングデバイスなどを用いて、メタデータを付与しようとしている所望の被写体の部位上の位置をクリックしてドット等を形成する(図7(1))。そして、ドットを形成した被写体の部位に対応する名称の選択肢を選択する(図7(2))。ここでは、被写体の画像上で右目尻の位置にドットを形成し、それに対応して「右目の目尻」という名称の選択肢を選択した様子を一例として示している(図2S13)。なお、被写体の部位の名称の選択肢の選択と、該当する被写体の部位の位置の画像上でのクリックとは、どちらが先であっても、関連付けがなされれば問題はない。   At this stage, for example, on the image on the left side of the center of the screen, the operator uses the pointing device of the operation unit 170 to click on the position on the desired subject to which metadata is to be added to form dots or the like. (FIG. 7 (1)). Then, an option of a name corresponding to the part of the subject on which the dot is formed is selected (FIG. 7 (2)). Here, an example is shown in which dots are formed at the position of the right eye corner on the subject image, and an option named “right eye corner” is selected correspondingly (S13 in FIG. 2). It should be noted that there is no problem as long as the association between the selection of the choice of the name of the part of the subject and the click on the image of the position of the part of the subject is associated.

ここでは、被写体が顔であったため、被写体の部位は、右眉毛、右黒目、右目尻、右目頭、右眼球上端、右眼球下端、左眉毛、左黒目、左目尻、左目頭、左眼球上端、左眼球下端、鼻頭、右鼻端、左鼻端唇、右耳たぶ、左耳たぶ、顎、などとなっている。被写体が他のものである場合には、被写体の部位もそれに応じたものになる。   Here, since the subject was a face, the parts of the subject are the right eyebrows, right black eye, right eye corner, right eye head, right eyeball upper end, right eyeball lower end, left eyebrows, left black eye, left eye corner, left eye head, left eyeball upper end. , Left eyeball lower end, nasal head, right nose end, left nose end lip, right ear lobe, left ear lobe, chin, etc. If the subject is something else, the part of the subject is also corresponding to it.

そして、制御部110の指示により、以上のようなオペレータからの操作による被写体の部位の位置と名称との入力を、必要な分だけ繰り返して実行する(図2S14)。この被写体の部位の入力が確定すると(図2S14でOK)、制御部110は次のステップに処理を進める。   Then, in accordance with an instruction from the control unit 110, the input of the position and name of the subject part by the operation from the operator as described above is repeatedly executed as necessary (S14 in FIG. 2). When the input of the part of the subject is confirmed (OK in FIG. 2 S14), the control unit 110 proceeds to the next step.

ここで、制御部110は、表示部180の表示画面の中央左半分に表示している被写体の拡大画像のそばに、選択あるいは入力された被写体種類と同種の被写体モデルを表示しておく(図2S15、図8(1))。   Here, the control unit 110 displays a subject model of the same type as the selected or input subject type beside the enlarged image of the subject displayed in the center left half of the display screen of the display unit 180 (FIG. 2S15, FIG. 8 (1)).

そして、制御部110の指示により、オペレータによる操作部170のポインティングデバイスなどを介しての、被写体モデルの表示画面上での角度の変更の操作(被写体モデルの回転の操作、図8(2))を受け付ける。そして、メタデータ記録手段としての制御部110は、向きが変更された被写体モデルから被写体の角度を取得してメタデータを生成する(図2S16)。この被写体モデルの角度の入力が確定すると(図2S17でOK)、制御部110は次のステップに処理を進める。   Then, according to an instruction from the control unit 110, an operation for changing the angle on the display screen of the subject model via the pointing device of the operation unit 170 by the operator (operation for rotating the subject model, FIG. 8 (2)). Accept. Then, the control unit 110 serving as the metadata recording unit acquires the angle of the subject from the subject model whose orientation has been changed, and generates metadata (S16 in FIG. 2). When the input of the angle of the subject model is confirmed (OK in FIG. 2 S17), the control unit 110 proceeds to the next step.

なお、以上の入力や選択では、候補となる選択肢を選択するようにしていたが、任意の文字列を受け付けるようにしてもよい。また、初期設定の段階で、任意の項目や任意の候補を追加できるようにしてもよい。   In the above input and selection, a candidate option is selected, but an arbitrary character string may be accepted. Moreover, you may enable it to add an arbitrary item and arbitrary candidates at the stage of initial setting.

以上のようにして、画像の種類、被写体の種類、被写体の位置・大きさ、被写体の部位の種類、被写体の角度についての入力や選択に修正がなければ、制御部110は以上の入力や選択の内容からメタデータを生成する。そして、制御部110は、生成したメタデータをメタデータ付与対象画像と関連づけた状態で、HDD190または外部記憶装置200に記録する。   As described above, if there is no correction in the input and selection of the image type, the type of the subject, the position and size of the subject, the type of the part of the subject, and the angle of the subject, the control unit 110 performs the above input and selection. Generate metadata from the contents of. Then, the control unit 110 records the generated metadata in the HDD 190 or the external storage device 200 in a state in which the generated metadata is associated with the metadata addition target image.

ここで、制御部110の指示により、以上の選択肢の選択や文字入力などによるメタデータを、階層的にXMLなどのマークアップ言語で記述して、画像データに関連付けてHDD190または外部記憶装置200に記録する。   Here, in accordance with an instruction from the control unit 110, metadata based on selection of the above options or character input is hierarchically described in a markup language such as XML, and is associated with the image data in the HDD 190 or the external storage device 200. Record.

図9はマークアップ言語としてXMLによって記述されたメタデータの一例である。ここでは、aaa.jpgという画像データに含まれる被写体として「顔」が選択されており、かつ、被写体の部位として、右眉中央、左眉中央、右目、左目の位置が指定された場合のメタデータの記述の様子を示している。   FIG. 9 is an example of metadata described in XML as a markup language. Here, a meta image when “face” is selected as the subject included in the image data aaa.jpg and the positions of the center of the right eyebrow, the center of the left eyebrow, the right eye, and the left eye are specified as the subject part. The state of data description is shown.

なお、この実施形態では、制御部110の指示により、メタデータを画像データに関連付けてHDD190または外部記憶装置200に記録する際に、メタデータを画像データ中に付帯情報として記録する。この場合、画像データのヘッダなどの内部にメタデータを記録することができる。あるいは、この実施形態では、制御部110の指示により、メタデータを画像データに関連付けてHDD190または外部記憶装置200に記録する際に、メタデータを画像データとは別のデータとして記録するようにしてもよい。   In this embodiment, when the metadata is associated with the image data and recorded in the HDD 190 or the external storage device 200 in accordance with an instruction from the control unit 110, the metadata is recorded in the image data as supplementary information. In this case, metadata can be recorded inside the header of image data. Alternatively, in this embodiment, when the metadata is associated with the image data and recorded in the HDD 190 or the external storage device 200 according to an instruction from the control unit 110, the metadata is recorded as data different from the image data. Also good.

また、図3に示した一覧表示の他の画像についてメタデータ付与を実行するのであれば、制御部110はステップ1に戻り画像の選択から同様の手順を繰り返す(図2S20でY)。他の画像についてのメタデータ付与を実行しないのであれば、以上の処理を終了する(図2S20でY)。   In addition, if metadata addition is to be executed for the other images displayed in the list shown in FIG. 3, the control unit 110 returns to step 1 and repeats the same procedure from the selection of the image (Y in FIG. 2 S20). If the addition of metadata for another image is not executed, the above processing is terminated (Y in FIG. 2).

なお、以上の実施形態において、表示部180の表示画面に表示している画像の「構図」の候補をメタデータの選択肢として表示し、表示されている画像の構図の候補についてオペレータからの選択を操作部170を介して受け付け、画像の構図の候補について選択された選択肢をメタデータとして記録することも可能である。   In the embodiment described above, candidates for the “composition” of the image displayed on the display screen of the display unit 180 are displayed as metadata options, and the operator selects the composition candidate for the displayed image. It is also possible to record, as metadata, options received via the operation unit 170 and selected for image composition candidates.

ここで、「構図」とは、
・風景:上半分空、山、…、
・ポートレイト:一人、二人、三人、…、
・建築物:右半分建物、左半分建物、…、
・光量分布:ストロボ撮影、逆光、…、
などが該当する。
Here, “composition” means
・ Landscape: Upper half sky, mountain, ...
・ Portrait: One, two, three ...
・ Building: right half building, left half building, ...
・ Light intensity distribution: flash photography, backlight, ...
And so on.

このように、画像と共に構図の候補を表示しておき、構図の候補の選択を操作部170から受け入れることで、画像の構図の候補について、簡易な手法で正確に入力することが可能になる。   In this manner, composition candidates are displayed together with images, and selection of composition candidates is accepted from the operation unit 170, so that image composition candidates can be accurately input by a simple method.

以上の実施形態により、画像に関するメタデータを簡易な手法で正確に入力することが可能になる。また、画像に含まれる被写体となっている物体の種類と位置情報とが簡易な手法で正確に入力することが可能になる。また、画像に含まれる被写体となっている物体の種類とそれに含まれる各部位と位置情報とについて、簡易な手法で正確に入力することが可能になる。また、画像の被写体となっている物体の位置もしくは大きさを特定できない場合であっても、その情報を簡単に入力することが可能になる。また、画像の被写体となっている物体の位置もしくは大きさを特定できない場合であっても、理由の候補の選択によって、その情報を簡単に入力することが可能になる。また、被写体の角度について、簡易な手法で正確に入力することが可能になる。また、画像の被写体となっている物体の角度について特定できない場合であっても、その情報を簡単に入力することが可能になる。また、画像の被写体となっている物体の角度について特定できない場合であっても、理由の候補の選択によって、その情報を簡単に入力することが可能になる。また、画像や被写体や被写体部位に関して任意の文字列による各種のメタデータを簡易な手法で入力することが可能になる。   According to the above embodiment, it is possible to accurately input metadata about an image by a simple method. In addition, it is possible to accurately input the type and position information of the object that is the subject included in the image by a simple method. Further, it is possible to accurately input the type of the object that is the subject included in the image and each part and position information included in the object by a simple method. Even when the position or size of the object that is the subject of the image cannot be specified, the information can be easily input. Even when the position or size of the object that is the subject of the image cannot be specified, it is possible to easily input the information by selecting the reason candidate. In addition, the angle of the subject can be accurately input by a simple method. Even if the angle of the object that is the subject of the image cannot be specified, the information can be easily input. Even when the angle of the object that is the subject of the image cannot be specified, it is possible to easily input the information by selecting a candidate for the reason. In addition, it is possible to input various metadata using an arbitrary character string with respect to an image, a subject, and a subject part by a simple method.

なお、以上の実施形態において、位置情報と共に、被写体部分とそれ以外の画像部分とを識別する情報(物体を識別する情報)を、メタデータとして付与して画像データと関連付けて記録するようにしてもよい。   In the above embodiment, information for identifying a subject portion and other image portions (information for identifying an object) is given as metadata and recorded in association with image data together with position information. Also good.

〈第二実施形態〉
例えば、複数のオペレータがメタデータ付与に関する入力作業を行う場合、同じ画像、同じ物体に対して入力した位置情報などがオペレータによって異なる場合がある。また、同じオペレータが、同じ画像、同じ物体に対して入力した位置情報が入力するたびに異なる場合がある。
<Second embodiment>
For example, when a plurality of operators perform input work related to metadata assignment, position information input to the same image and the same object may differ depending on the operator. In addition, there are cases where the same operator inputs position information input to the same image and the same object each time the information is input.

そこで、特定の時刻毎に一度、あるいは、一定時間経過毎に一度、制御部110の指示により、通常のメタデータ付与対象とは別のテスト用画像を表示部180の表示画面に表示する。そして、制御部110は、オペレータに対して、メタデータ付与のための選択肢を入力するようになテスト受付画面を表示部180の表示画面に表示する。   In view of this, a test image different from a normal metadata application target is displayed on the display screen of the display unit 180 in accordance with an instruction from the control unit 110 once every specific time or once every fixed time. Then, the control unit 110 displays, on the display screen of the display unit 180, a test reception screen that allows the operator to input options for adding metadata.

このテスト用画像に基づいて入力されたメタデータの選択肢は、制御部110の指示により、通常のメタデータ付与対象の画像のメタデータとは異なる場所に、入力作業者、入力時間とともにHDD190に記録する。制御部110は、そのメタデータを、蓄積し、入力作業者間、入力時間間での差分、もしくは統計値を検出することによって、オペレータ個人の癖を把握する。差分が大きい人物によって、もしくは、時間帯に入力されたメタデータは信頼度が低いとして、再入力するように画面を制御する。   The options of metadata input based on the test image are recorded in the HDD 190 together with the input worker and the input time in a location different from the metadata of the image to which normal metadata is added according to the instruction of the control unit 110. To do. The control part 110 accumulate | stores the metadata, and grasp | ascertains an operator's personal habit by detecting the difference between input workers, between input time, or a statistics value. The screen is controlled so as to be re-input by assuming that the metadata input by a person with a large difference or in the time zone has low reliability.

または、初回の入力値と収束した入力値との間にずれる傾向がある場合には、その傾向(差分)から補正値を抽出しておく。もしくは、時間と比例して、位置情報が一定方向にずれる傾向がある場合は、制御部110は、その傾向を補正値としてHDD190に記録しておく。そして、通常のメタデータ付与の際に、制御部110は、前記補正値に従って、入力済みの位置情報などのメタデータを修正する。   Alternatively, when there is a tendency to deviate between the initial input value and the converged input value, a correction value is extracted from the tendency (difference). Alternatively, when the position information tends to shift in a certain direction in proportion to time, the control unit 110 records the tendency in the HDD 190 as a correction value. Then, at the time of normal metadata assignment, the control unit 110 modifies metadata such as input position information according to the correction value.

このように、通常のメタデータの入力を、テスト用画像データのメタデータ付与に基づいて得た補正値で補正することで、安定した入力値の傾向に応じた補正が可能になり、より正確なメタデータの入力が可能になる。   In this way, by correcting the normal metadata input with the correction value obtained based on the addition of the metadata of the test image data, it becomes possible to perform correction according to the tendency of the stable input value, and more accurately. Metadata can be input.

〈第三実施形態〉
この第三実施形態では、自動的に画像を認識してメタデータを抽出する自動認識手段を制御部110内に備えておく。
<Third embodiment>
In the third embodiment, the control unit 110 includes automatic recognition means for automatically recognizing an image and extracting metadata.

そして、以上の第一実施形態でオペレータによる選択肢の選択によって得られたメタデータと、自動認識手段により抽出されたメタデータとを比較する比較手段を制御部110内に備えておく。   Then, the control unit 110 is provided with a comparison unit that compares the metadata obtained by the selection of options by the operator in the first embodiment and the metadata extracted by the automatic recognition unit.

さらに、比較手段で比較された結果を用いて、自動認識手段が抽出したメタデータについての評価を行う評価手段を制御部110内に備えておく。
このように、オペレータにより入力されたメタデータと自動認識されたメタデータとを比較することで、自動認識手段で自動認識されたメタデータを評価することが可能になり、統計をとること等により自動認識の弱点などを把握することが可能になる。
Further, the control unit 110 is provided with evaluation means for evaluating the metadata extracted by the automatic recognition means using the result of comparison by the comparison means.
Thus, by comparing the metadata input by the operator with the automatically recognized metadata, it becomes possible to evaluate the metadata automatically recognized by the automatic recognition means, and by taking statistics, etc. It becomes possible to grasp the weak points of automatic recognition.

たとえば、第一実施形態によって、顔を囲む矩形領域をメタデータとして画像に付与する場合を想定する。ここでは、メタデータとして画像に付与された、顔を囲む矩形領域を正解顔領域(図10実線)とする。一方、顔矩形領域を検出する自動認識技術としては、例えば、特開2004−234689号公報に記載されたものを採用することが可能である。この自動認識技術によって得られた顔領域を自動検出顔領域(画像データから自動認識して得られたメタデータ)とする(図10一点鎖線)。   For example, it is assumed that a rectangular region surrounding a face is added to an image as metadata according to the first embodiment. Here, a rectangular area surrounding the face that is given to the image as metadata is a correct face area (solid line in FIG. 10). On the other hand, as an automatic recognition technique for detecting a face rectangular area, for example, a technique described in Japanese Patent Application Laid-Open No. 2004-234689 can be adopted. A face area obtained by this automatic recognition technique is set as an automatically detected face area (metadata obtained by automatic recognition from image data) (one-dot chain line in FIG. 10).

そして、制御部110内の比較手段により、正解顔領域と自動検出顔領域とを比較して、評価値検出率と誤検出数を算出する。検出率は、自動検出顔領域のうち正解領域との重複が最も大きい領域について、次の式によって算出する。
検出率=(正解顔領域と自動検出顔領域の重複面積)/正解領域の面積,
また、誤検出数は、自動検出顔領域のうち正解領域と重複しなかった領域の数をカウントすることによって算出する。なお、ここに示した評価の指標は一例であって、これに限るものではない。この場合、自動検出顔領域、評価値(評価値検出率と誤検出数)をメタデータとして画像に付与する。
Then, the comparison unit in the control unit 110 compares the correct face area and the automatically detected face area to calculate the evaluation value detection rate and the number of erroneous detections. The detection rate is calculated according to the following formula for an area that has the largest overlap with the correct answer area among the automatically detected face areas.
Detection rate = (overlap area between correct face area and automatically detected face area) / area of correct answer area,
Further, the number of erroneous detections is calculated by counting the number of areas that do not overlap with the correct answer area among the automatically detected face areas. The index of evaluation shown here is an example, and the present invention is not limited to this. In this case, the automatically detected face area and the evaluation value (evaluation value detection rate and the number of erroneous detections) are added to the image as metadata.

また、顔を囲む矩形領域以外に、顔に含まれる眉や目の位置ををメタデータとして画像に付与する場合には、位置に関しても同様にして検出率を求める。
以上のようにして、オペレータにより入力(手動入力)されたメタデータと自動認識手段により抽出(自動認識)されたメタデータとを比較・評価した際に、手動入力されたメタデータ、もしくは、自動認識されたメタデータの少なくとも一方と、制御部110内に設けられた比較手段で比較された比較結果データ(一致度、類似度など)とを、画像データに関連付けてHDD190または外部記憶装置200に記録しておく。
In addition to the rectangular area surrounding the face, when the position of eyebrows and eyes included in the face is added to the image as metadata, the detection rate is similarly obtained for the position.
As described above, when the metadata input by the operator (manual input) and the metadata extracted by the automatic recognition means (automatic recognition) are compared and evaluated, the manually input metadata or automatic At least one of the recognized metadata and the comparison result data (matching degree, similarity degree, etc.) compared by the comparison means provided in the control unit 110 are associated with the image data in the HDD 190 or the external storage device 200. Record it.

なお、以上のような評価を行う場合には、比較結果データ(一致度、類似度など)を、本来のメタデータに追記する形で記録することが望ましい。
また、以上のようにして、オペレータにより入力(手動入力)されたメタデータと自動認識手段により抽出(自動認識)されたメタデータとを比較・評価した際に、自動認識の条件(用いたプログラムのバージョン,用いた学習データ、評価日など)を、記録されたメタデータに追記することが望ましい。
In the case of performing the evaluation as described above, it is desirable to record the comparison result data (degree of coincidence, similarity, etc.) in a form that is added to the original metadata.
In addition, when the metadata input by the operator (manual input) and the metadata extracted by the automatic recognition means (automatic recognition) are compared and evaluated as described above, the automatic recognition condition (the program used) Version, learning data used, evaluation date, etc.) should be added to the recorded metadata.

また、以上のようにして、オペレータにより入力(手動入力)されたメタデータと自動認識手段により抽出(自動認識)されたメタデータとを比較・評価した際に、異なった条件で再び評価した場合には、メタデータに追記されている評価結果を、新たに評価した結果によって更新することが望ましい。   In addition, when the metadata input by the operator (manual input) and the metadata extracted by the automatic recognition means (automatic recognition) are compared and evaluated as described above, they are evaluated again under different conditions. Therefore, it is desirable to update the evaluation result added to the metadata with the newly evaluated result.

また、以上のようにして、オペレータにより入力(手動入力)されたメタデータと自動認識手段により抽出(自動認識)されたメタデータとを比較・評価した際に、異なった条件で再び評価した場合には、メタデータに追記されている評価結果を履歴として残しつつ、新たに評価した結果を追記することも望ましい。   In addition, when the metadata input by the operator (manual input) and the metadata extracted by the automatic recognition means (automatic recognition) are compared and evaluated as described above, they are evaluated again under different conditions. It is also desirable to add the newly evaluated result while leaving the evaluation result added to the metadata as a history.

以下の、図11と図12とは、マークアップ言語としてXMLによって記述された一連のメタデータの例である。ここでは、aaa.jpgという画像データに含まれる被写体として「顔」が選択されており、かつ、被写体の部位として、右眉中央、左眉中央、右目、左目の位置が指定された場合のメタデータの記述の様子を示している。そして、図11は正解に関するメタデータの部分であり、図12は自動検出によるメタデータの部分と評価結果(検出率、誤検出数)とを含む部分である。   FIG. 11 and FIG. 12 below are examples of a series of metadata described in XML as a markup language. Here, a meta image when “face” is selected as the subject included in the image data aaa.jpg and the positions of the center of the right eyebrow, the center of the left eyebrow, the right eye, and the left eye are specified as the subject part. The state of data description is shown. FIG. 11 is a metadata portion regarding correct answers, and FIG. 12 is a portion including a metadata portion by automatic detection and an evaluation result (detection rate, number of erroneous detections).

なお、以上の第三実施形態において、正解顔領域と同時に、性別(男性・女性)、眼鏡の有無等の情報もメタデータに付与した場合には、評価結果と性別等の情報を照らし合わせることによって、評価対象となる自動認識手段のアルゴリズムが得意、不得意とする画像の傾向を調査することもできるようになる。   In the third embodiment described above, when information such as gender (male / female) and presence / absence of glasses is added to the metadata at the same time as the correct face area, the evaluation result and information such as gender should be compared. Thus, it becomes possible to investigate the tendency of the image that the algorithm of the automatic recognition means to be evaluated is good at and not good at.

〈第四実施形態〉
この第四実施形態では、以上の第一実施形態のように操作部170を介してオペレータから入力されたメタデータから、メタデータ付与のための自動認識に用いる学習データを作成する学習データ作成手段を制御部110内に備える。そして、この学習データ作成手段により作成された学習データによって学習する自動認識学習手段を更に制御部110内に備える。そして、メタデータ付与に関して、自動認識に関する学習データの作成と、作成された学習データによる学習とを行うようにする。
<Fourth embodiment>
In the fourth embodiment, learning data creating means for creating learning data used for automatic recognition for adding metadata from metadata input from an operator via the operation unit 170 as in the first embodiment described above. Is provided in the control unit 110. The control unit 110 further includes automatic recognition learning means for learning using the learning data created by the learning data creating means. Then, with respect to the addition of metadata, creation of learning data related to automatic recognition and learning using the created learning data are performed.

ここで、以上の第一実施形態で得られた顔領域を用いて、例えば、特開2004−234689号公報に示されるニューラルネットワークの学習データとして入力する顔領域画像を作成する。このようにすることで、メタデータ付与に関して、自動認識に関する学習データの作成と、作成された学習データによる学習とを行うことが可能になる。   Here, using the face area obtained in the first embodiment described above, a face area image to be input as learning data of a neural network disclosed in, for example, Japanese Patent Application Laid-Open No. 2004-234689 is created. By doing in this way, it becomes possible to create learning data related to automatic recognition and to learn using the created learning data with regard to metadata assignment.

〈第五実施形態〉
この第五実施形態では、以上の第一実施形態のように操作部170を介してオペレータから入力されたメタデータから、メタデータ付与のための自動認識に用いる辞書データを作成する辞書データ作成手段を制御部110内に備える。そして、この辞書データ作成手段により作成された辞書データによって自動認識する自動認識手段を制御部110内に備え、辞書データに基づいた自動認識を行う。
<Fifth embodiment>
In the fifth embodiment, as in the first embodiment described above, dictionary data creating means for creating dictionary data used for automatic recognition for adding metadata from metadata input from the operator via the operation unit 170. Is provided in the control unit 110. Then, an automatic recognition unit that automatically recognizes the dictionary data created by the dictionary data creation unit is provided in the control unit 110 to perform automatic recognition based on the dictionary data.

ここで、顔画像画像で認証を行うような場合、予め認証すべき顔画像(もしくは顔の画像から抽出した特徴量)を辞書データとして記録しておく。その辞書データを、第一実施形態で得られた顔領域を用いて作成する。領域と関連させて人名も付与可能になるので、辞書データが作成可能になる。   Here, when authentication is performed using a face image, a face image to be authenticated (or a feature amount extracted from the face image) is recorded as dictionary data in advance. The dictionary data is created using the face area obtained in the first embodiment. Since a person name can be given in association with the area, dictionary data can be created.

〈第六実施形態〉
この第六実施形態では、以上の第一実施形態のように操作部170を介してオペレータから入力されたメタデータから、メタデータ付与のための自動認識に用いるテンプレートを作成するテンプレート作成手段を制御部110内に備える。そして、このテンプレート作成手段により作成されたテンプレートによってテンプレートマッチング処理をするテンプレートマッチング処理手段を更に制御部110内に備える。そして、メタデータ付与に関して、自動認識に関するテンプレートの作成と、作成されたテンプレートによるテンプレートマッチング処理とを行うようにする。
<Sixth embodiment>
In the sixth embodiment, as in the first embodiment described above, the template creation means for creating a template used for automatic recognition for adding metadata is controlled from the metadata input from the operator via the operation unit 170. The unit 110 is provided. The control unit 110 further includes template matching processing means for performing template matching processing using the template created by the template creation means. Then, with respect to metadata assignment, a template relating to automatic recognition and a template matching process using the created template are performed.

たとえば、特開2002−44489号公報に示されているテンプレートマッチングの方法では、色の特徴量が予め定めた範囲内に入っているか否かで肌色領域を判断している。そこで、肌色という色の特徴量を定めるときに、以上の第一実施形態で得られた顔領域内の色の特徴量を抽出し、肌色という特徴量の範囲を定めるようにする。   For example, in the template matching method disclosed in Japanese Patent Laid-Open No. 2002-44489, the skin color region is determined based on whether or not the color feature amount is within a predetermined range. Therefore, when the feature value of the skin color is determined, the feature value of the color in the face area obtained in the first embodiment is extracted, and the feature value range of the skin color is determined.

〈第七実施形態〉
この第七実施形態では、制御部110の指示により、以上の第一実施形態のように操作部170を介してオペレータから入力されたメタデータに従って画像を分類する画像分類手段を制御部110内に備えておく。これにより、メタデータの作成と、作成されたメタデータに基づく画像の分類処理とを実行することが可能になる。
<Seventh embodiment>
In the seventh embodiment, an image classification means for classifying images according to metadata input from an operator via the operation unit 170 as in the first embodiment described above is provided in the control unit 110 according to an instruction from the control unit 110. Prepare. This makes it possible to execute creation of metadata and image classification processing based on the created metadata.

〈その他の実施形態〉
以上の各実施形態では、顔写真や風景写真のような画像を具体例としてきたが、このような種類の画像に限定されるものではない。すなわち、医用画像などにおいて、上述した第一実施形態〜第七実施形態に示したようなメタデータ付与を各種診断に適用することも可能である。
<Other embodiments>
In each of the above embodiments, an image such as a face photograph or a landscape photograph has been taken as a specific example. However, the present invention is not limited to this type of image. That is, in medical images and the like, it is also possible to apply metadata addition as shown in the first embodiment to the seventh embodiment to various diagnoses.

本発明の第一実施形態のメタデータ付与装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the metadata provision apparatus of 1st embodiment of this invention. 本発明の第一実施形態のメタデータ付与装置の動作(メタデータ付与方法の手順、メタデータ付与プログラムの手順)を示すフローチャートである。It is a flowchart which shows operation | movement (the procedure of a metadata provision method, the procedure of a metadata provision program) of the metadata provision apparatus of 1st embodiment of this invention. 本願発明の第一実施形態における表示部における表示の様子を中間調の写真を用いて示す説明図である。It is explanatory drawing which shows the mode of the display in the display part in 1st embodiment of this invention using the photograph of a halftone. 本願発明の第一実施形態における表示部における表示の様子を中間調の写真を用いて示す説明図である。It is explanatory drawing which shows the mode of the display in the display part in 1st embodiment of this invention using the photograph of a halftone. 本願発明の第一実施形態における表示部における表示の様子を中間調の写真を用いて示す説明図である。It is explanatory drawing which shows the mode of the display in the display part in 1st embodiment of this invention using the photograph of a halftone. 本願発明の第一実施形態における表示部における表示の様子を中間調の写真を用いて示す説明図である。It is explanatory drawing which shows the mode of the display in the display part in 1st embodiment of this invention using the photograph of a halftone. 本願発明の第一実施形態における表示部における表示の様子を中間調の写真を用いて示す説明図である。It is explanatory drawing which shows the mode of the display in the display part in 1st embodiment of this invention using the photograph of a halftone. 本願発明の第一実施形態における表示部における表示の様子を中間調の写真を用いて示す説明図である。It is explanatory drawing which shows the mode of the display in the display part in 1st embodiment of this invention using the photograph of a halftone. 本発明の第一実施形態のメタデータ付与装置により付与されたメタデータの記述の一例を示す説明図である。It is explanatory drawing which shows an example of the description of the metadata provided by the metadata provision apparatus of 1st embodiment of this invention. 本願発明の第三実施形態における手動入力と自動認識とによる領域の違いの様子を模式的に示す説明図である。It is explanatory drawing which shows typically the mode of the difference of the area | region by manual input and automatic recognition in 3rd embodiment of this invention. 本発明の第三実施形態のメタデータ付与装置により付与されたメタデータの記述の一例を示す説明図である。It is explanatory drawing which shows an example of the description of the metadata provided by the metadata provision apparatus of 3rd embodiment of this invention. 本発明の第三実施形態のメタデータ付与装置により付与されたメタデータの記述の一例を示す説明図である。It is explanatory drawing which shows an example of the description of the metadata provided by the metadata provision apparatus of 3rd embodiment of this invention.

符号の説明Explanation of symbols

100 メタデータ付与装置
101 CPU
102 ROM
103 RAM
110 制御部
170 操作部
180 表示部
190 HDD
100 Metadata giving device 101 CPU
102 ROM
103 RAM
110 Control unit 170 Operation unit 180 Display unit 190 HDD

Claims (14)

画像データに応じて被写体を含む画像を表示する表示手段と、
前記表示手段に表示された画像の選択された被写体に応じたメタデータが入力される付与手段と、
前記付与手段から入力された前記メタデータを前記画像データに関連付けて記録媒体に記録するメタデータ記録手段と、
を備えたことを特徴とするメタデータ付与装置。
Display means for displaying an image including a subject according to image data;
An adding unit for inputting metadata corresponding to a selected subject of the image displayed on the display unit;
Metadata recording means for associating the metadata input from the assigning means with the image data and recording it on a recording medium;
A metadata providing apparatus comprising:
前記表示手段は、表示している被写体の候補をメタデータの選択肢として表示し、
前記付与手段は、前記表示手段において表示されている画像に含まれる被写体種類の候補が前記選択肢から選択されることと、被写体種類が前記選択肢から選択された場合に該選択肢に対応付けられる画像上の位置もしくは大きさの入力を受け付けること、とが可能に構成されており、
前記メタデータ記録手段は、選択された前記選択肢をメタデータとして記録すると共に、前記付与手段により指定された画像上の被写体の位置もしくは大きさを取得してメタデータとして記録する、
ことを特徴とする請求項1記載のメタデータ付与装置。
The display means displays the displayed subject candidates as metadata options,
The assigning unit is configured to select a subject type candidate included in the image displayed on the display unit from the options, and to display an image associated with the option when a subject type is selected from the options. It is possible to accept input of the position or size of
The metadata recording unit records the selected option as metadata, acquires the position or size of the subject on the image designated by the adding unit, and records it as metadata.
The metadata providing apparatus according to claim 1.
前記表示手段は、表示している被写体の候補をメタデータの選択肢として表示し、
前記付与手段は、前記表示手段において表示されている画像に含まれる被写体種類の候補と被写体部位の候補とが前記選択肢から選択されることと、被写体あるいは被写体部位が前記選択肢から選択された場合に該選択肢に対応付けられる画像上の位置もしくは大きさの入力を受け付けること、とが可能に構成されており、
前記メタデータ記録手段は、選択された前記選択肢をメタデータとして記録すると共に、前記付与手段により指定された画像上の被写体の位置もしくは大きさを取得してメタデータとして記録する、
ことを特徴とする請求項1記載のメタデータ付与装置。
The display means displays the displayed subject candidates as metadata options,
The adding unit is configured to select a subject type candidate and a subject part candidate included in the image displayed on the display unit from the options, and when a subject or a subject part is selected from the options. It is configured to be able to accept an input of a position or size on an image associated with the option,
The metadata recording unit records the selected option as metadata, acquires the position or size of the subject on the image designated by the adding unit, and records it as metadata.
The metadata providing apparatus according to claim 1.
前記メタデータ記録手段は、前記被写体の位置もしくは大きさを取得できない場合に、取得できなかった旨を記録する、
ことを特徴とする請求項2または請求項3に記載のメタデータ付与装置。
The metadata recording means records that the object could not be acquired when the position or size of the subject could not be acquired;
The metadata providing apparatus according to claim 2 or claim 3, wherein
前記表示手段は、前記被写体の位置もしくは大きさを取得できない場合の理由の候補を表示することが可能に構成されており、
前記付与手段は、前記表示手段において表示されている理由の候補の入力を受け付けることが可能に構成されている、
ことを特徴とする請求項4記載のメタデータ付与装置。
The display means is configured to be able to display a candidate for a reason when the position or size of the subject cannot be acquired,
The granting unit is configured to be able to accept an input of a candidate for a reason displayed on the display unit.
The metadata providing apparatus according to claim 4.
前記表示手段は、表示中の画像に加え、前記付与手段で選択あるいは入力された被写体種類と同種の被写体モデルを表示し、
前記付与手段は、前記被写体モデルの表示画面上での角度を変更することが可能に構成されており、
前記メタデータ記録手段は、前記付与手段により変更された被写体モデルから被写体の角度を取得してメタデータとして記録する、
ことを特徴とする請求項1乃至請求項5のいずれかに記載のメタデータ付与装置。
In addition to the image being displayed, the display means displays a subject model of the same type as the subject type selected or input by the assigning means,
The assigning means is configured to be able to change an angle on the display screen of the subject model,
The metadata recording means acquires the angle of the subject from the subject model changed by the giving means and records it as metadata;
The metadata providing apparatus according to any one of claims 1 to 5, wherein
前記メタデータ記録手段は、前記被写体の角度について取得できない場合に、取得できなかった旨を記録する、
ことを特徴とする請求項6に記載のメタデータ付与装置。
The metadata recording means records that the information could not be acquired when the angle of the subject cannot be acquired.
The metadata providing apparatus according to claim 6.
前記表示手段は、前記被写体の角度を取得できない場合の理由の候補を表示することが可能に構成されており、
前記付与手段は、前記表示手段において表示されている理由の候補の入力を受け付けることが可能に構成されている、
ことを特徴とする請求項7記載のメタデータ付与装置。
The display means is configured to be able to display a candidate for a reason when the angle of the subject cannot be acquired,
The granting unit is configured to be able to accept an input of a candidate for a reason displayed on the display unit.
8. The metadata providing apparatus according to claim 7, wherein:
前記付与手段は、任意の文字列の入力を受け付けることが可能に構成されている、
ことを特徴とする請求項1乃至請求項8のいずれかに記載のメタデータ付与装置。
The giving means is configured to be able to accept input of an arbitrary character string.
The metadata providing apparatus according to any one of claims 1 to 8, wherein
前記表示手段は、表示している画像の構図の候補をメタデータの選択肢として表示し、
前記付与手段は、前記表示手段において表示されている画像の構図の候補が前記選択肢から選択されることが可能に構成されており、
前記メタデータ記録手段は、選択された前記選択肢をメタデータとして記録する、ことを特徴とする請求項1記載のメタデータ付与装置。
The display means displays composition candidates of the displayed image as metadata options,
The assigning means is configured such that a composition candidate of an image displayed on the display means can be selected from the options,
The metadata adding apparatus according to claim 1, wherein the metadata recording unit records the selected option as metadata.
テスト用画像データを保持しており、該テスト用画像データを前記表示手段に表示させて前記付与手段でメタデータの入力を受け付ける動作を複数回繰り返して実行させ、複数回入力された前記メタデータから、初回の入力値と収束した入力値との差分を補正値として抽出しておき、前記表示手段に通常の画像データを表示して前記付与手段にメタデータが入力された場合に、該メタデータを前記補正値により補正する制御手段を有する、
ことを特徴とする請求項1乃至請求項10のいずれかに記載のメタデータ付与装置。
The test image data is held, the test image data is displayed on the display means, and the operation of receiving the metadata input by the adding means is repeatedly executed a plurality of times, and the metadata input a plurality of times When the difference between the first input value and the converged input value is extracted as a correction value, normal image data is displayed on the display means, and the metadata is input to the assigning means, the meta data Control means for correcting data by the correction value;
11. The metadata providing apparatus according to claim 1, wherein
入力された画像データを自動認識し、画像あるいは被写体に応じたメタデータを抽出する自動認識手段と、
前記付与手段から入力された前記メタデータと、前記自動認識手段で抽出された前記メタデータとを比較し、前記自動認識についての評価を行う評価手段とを備える、
ことを特徴とする請求項1乃至請求項10のいずれかに記載のメタデータ付与装置。
Automatic recognition means for automatically recognizing input image data and extracting metadata corresponding to the image or subject;
An evaluation unit that compares the metadata input from the assigning unit with the metadata extracted by the automatic recognition unit, and evaluates the automatic recognition;
11. The metadata providing apparatus according to claim 1, wherein
前記メタデータ記録手段は、前記付与手段から入力された前記メタデータもしくは前記自動認識手段で抽出された前記メタデータの少なくとも一方と、前記比較手段で比較された比較結果データとを、前記画像データに関連付けて記録媒体に記録する、
ことを特徴とする請求項12記載のメタデータ付与装置。
The metadata recording means includes at least one of the metadata input from the assigning means or the metadata extracted by the automatic recognition means, and the comparison result data compared by the comparison means. Record to a recording medium in association with
The metadata providing apparatus according to claim 12, wherein:
前記請求項1乃至請求項13のいずれかに記載のメタデータ付与装置を用いて、
画像データに応じて被写体を含む画像を表示し、
表示された画像の選択された被写体に応じたメタデータの入力を受け付け、
入力された前記メタデータを前記画像データに関連付けて記録媒体に記録する、
を備えたことを特徴とするメタデータ付与方法。
Using the metadata providing apparatus according to any one of claims 1 to 13,
Display an image including the subject according to the image data,
Accepts metadata input according to the selected subject in the displayed image,
Recording the input metadata on a recording medium in association with the image data;
A method for providing metadata, comprising:
JP2005236357A 2005-08-17 2005-08-17 Metadata applying device and metadata applying method Pending JP2007052575A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005236357A JP2007052575A (en) 2005-08-17 2005-08-17 Metadata applying device and metadata applying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005236357A JP2007052575A (en) 2005-08-17 2005-08-17 Metadata applying device and metadata applying method

Publications (1)

Publication Number Publication Date
JP2007052575A true JP2007052575A (en) 2007-03-01

Family

ID=37916993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005236357A Pending JP2007052575A (en) 2005-08-17 2005-08-17 Metadata applying device and metadata applying method

Country Status (1)

Country Link
JP (1) JP2007052575A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257471A (en) * 2007-04-04 2008-10-23 Canon Inc Photographic object metadata management system
JP2008299724A (en) * 2007-06-01 2008-12-11 Canon Inc Image information display method, image information processing device, and program
JP2009211156A (en) * 2008-02-29 2009-09-17 Saitama Univ Meta-information adding system, meta-information display system, program for the same systems, and computer readable recording medium having the program recorded thereon
JP2010204796A (en) * 2009-03-02 2010-09-16 Trans Cosmos Inc Device and program for determining input
JP2010539628A (en) * 2007-09-11 2010-12-16 サムスン エレクトロニクス カンパニー リミテッド Multimedia data recording method and apparatus for automatically generating / updating metadata
JP2011048672A (en) * 2009-08-27 2011-03-10 Fujifilm Corp Device, method and program for registering case image
JP2013097631A (en) * 2011-11-02 2013-05-20 Zenrin Datacom Co Ltd Image submission support device, image submission support method and image submission support program
WO2014178105A1 (en) * 2013-04-30 2014-11-06 Necソリューションイノベータ株式会社 Attribute estimation device
JP2016033805A (en) * 2014-07-30 2016-03-10 株式会社バッファロー Information processing device, information processing system, display control method in information processing device and program
WO2018180562A1 (en) * 2017-03-27 2018-10-04 株式会社日立ハイテクノロジーズ Image processing system and computer program for carrying out image process

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257471A (en) * 2007-04-04 2008-10-23 Canon Inc Photographic object metadata management system
JP2008299724A (en) * 2007-06-01 2008-12-11 Canon Inc Image information display method, image information processing device, and program
JP2010539628A (en) * 2007-09-11 2010-12-16 サムスン エレクトロニクス カンパニー リミテッド Multimedia data recording method and apparatus for automatically generating / updating metadata
US8255395B2 (en) 2007-09-11 2012-08-28 Samsung Electronics Co., Ltd. Multimedia data recording method and apparatus for automatically generating/updating metadata
JP2009211156A (en) * 2008-02-29 2009-09-17 Saitama Univ Meta-information adding system, meta-information display system, program for the same systems, and computer readable recording medium having the program recorded thereon
JP2010204796A (en) * 2009-03-02 2010-09-16 Trans Cosmos Inc Device and program for determining input
JP2011048672A (en) * 2009-08-27 2011-03-10 Fujifilm Corp Device, method and program for registering case image
JP2013097631A (en) * 2011-11-02 2013-05-20 Zenrin Datacom Co Ltd Image submission support device, image submission support method and image submission support program
WO2014178105A1 (en) * 2013-04-30 2014-11-06 Necソリューションイノベータ株式会社 Attribute estimation device
JP5965057B2 (en) * 2013-04-30 2016-08-03 Necソリューションイノベータ株式会社 Attribute estimation device
JP2016033805A (en) * 2014-07-30 2016-03-10 株式会社バッファロー Information processing device, information processing system, display control method in information processing device and program
WO2018180562A1 (en) * 2017-03-27 2018-10-04 株式会社日立ハイテクノロジーズ Image processing system and computer program for carrying out image process
JP2018163524A (en) * 2017-03-27 2018-10-18 株式会社日立ハイテクノロジーズ Image processing system and computer program for image processing
TWI697849B (en) * 2017-03-27 2020-07-01 日商日立全球先端科技股份有限公司 Image processing system, memory medium, information acquisition system and data generation system
US11176405B2 (en) 2017-03-27 2021-11-16 Hitachi High-Tech Corporation Image processing system and computer program for performing image processing
US11836906B2 (en) 2017-03-27 2023-12-05 Hitachi High-Tech Corporation Image processing system and computer program for performing image processing

Similar Documents

Publication Publication Date Title
KR102014385B1 (en) Method and apparatus for learning surgical image and recognizing surgical action based on learning
US9977952B2 (en) Organizing images by correlating faces
JP6994588B2 (en) Face feature extraction model training method, face feature extraction method, equipment, equipment and storage medium
US9495583B2 (en) Organizing images by correlating faces
US10964057B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
US20070071319A1 (en) Method, apparatus, and program for dividing images
JP2019058367A (en) Nail contour detection device, claw contour detection method and claw contour detection program
CN110765914B (en) Object gesture labeling method and device, computer equipment and storage medium
CN110826487B (en) Facial expression data acquisition method
JP2016200969A (en) Image processing apparatus, image processing method, and program
JP2007052575A (en) Metadata applying device and metadata applying method
CN111401158A (en) Difficult sample discovery method and device and computer equipment
CN111126157B (en) A data labeling method and device
JP6916849B2 (en) Information processing equipment, information processing methods and information processing programs
US11961601B1 (en) Adaptive user interface for determining errors in performance of activities
US10460155B2 (en) Facial identification techniques
JP2016001467A (en) Image processor, image processing method, and image processing program
US20020051009A1 (en) Method and apparatus for extracting object from video image
JP2019175463A (en) Image search apparatus, image search method, and program
JP2024176485A (en) Work support system, work support method, and work support program
WO2023188160A1 (en) Input assistance device, input assistance method, and non-transitory computer-readable medium
CN119547114A (en) Information processing apparatus, control method therefor, and program
JP2022070553A (en) Information processing device, control method and program
JP2022061396A (en) Information processor, system, control method for information processor, and program