JP4371219B2 - Digital camera - Google Patents
Digital camera Download PDFInfo
- Publication number
- JP4371219B2 JP4371219B2 JP2004137960A JP2004137960A JP4371219B2 JP 4371219 B2 JP4371219 B2 JP 4371219B2 JP 2004137960 A JP2004137960 A JP 2004137960A JP 2004137960 A JP2004137960 A JP 2004137960A JP 4371219 B2 JP4371219 B2 JP 4371219B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- recording
- area
- image
- folder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000605 extraction Methods 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000000034 method Methods 0.000 description 53
- 230000000875 corresponding effect Effects 0.000 description 38
- 230000008569 process Effects 0.000 description 34
- 238000012545 processing Methods 0.000 description 25
- 238000004364 calculation method Methods 0.000 description 22
- 238000012790 confirmation Methods 0.000 description 20
- 244000205754 Colocasia esculenta Species 0.000 description 11
- 235000006481 Colocasia esculenta Nutrition 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 201000005111 ocular hyperemia Diseases 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
Description
本発明は、人物の特徴点を識別し、その識別結果に対応したフォルダに撮影画像データを記録することの出来るデジタルカメラに関する。 The present invention relates to a digital camera capable of identifying feature points of a person and recording photographed image data in a folder corresponding to the identification result.
従来から、指紋あるいは虹彩の特徴点を予め登録しておいてこれと照合することで本人を認証するシステムを初めとして画像データから人物を識別する技術はこれまで多く知られている。特開平9−251534号公報には目、鼻、口等を抽出して特徴点として登録しこれと入力した画像から抽出した特徴点とを比較して当人として識別する方法が詳細に記述されており、特開平10−232934号公報にはこの様にして抽出した特徴点を登録する場合の辞書画像の精度を上げる方法が開示されている。これらの技術をカメラに応用した例を以下に挙げる。 2. Description of the Related Art Conventionally, many techniques for identifying a person from image data have been known, including a system that authenticates a person by registering a fingerprint or iris feature point in advance and collating it with the feature point. Japanese Patent Application Laid-Open No. 9-251534 describes in detail how to identify eyes as a person by extracting eyes, nose, mouth, etc., registering them as feature points, and comparing them with feature points extracted from the input image. Japanese Patent Laid-Open No. 10-232934 discloses a method for increasing the accuracy of a dictionary image when registering feature points extracted in this way. Examples of applying these technologies to cameras are given below.
特開2001−309225号公報には顔認識アルゴリズムにより認識された顔の座標、寸法、目の位置、頭のポーズ等のデータが画像メモリに画像データとともに記録されるカメラが開示されている。特開2002−232761号公報には撮影した画像に予め読み込んでおいた被写体の識別情報を関連付けて記録する画像記録装置が開示されている。特開2002−333652号公報には予め記憶された容貌情報と撮影顔情報を比較し記録信号を発生する撮影装置が開示されている。この容貌情報は優先度とともに記録される。 Japanese Patent Application Laid-Open No. 2001-309225 discloses a camera in which data such as face coordinates, dimensions, eye positions, head poses, and the like recognized by a face recognition algorithm are recorded together with image data in an image memory. Japanese Patent Laid-Open No. 2002-232761 discloses an image recording apparatus that records in association with identification information of a subject that has been read in advance on a captured image. Japanese Patent Application Laid-Open No. 2002-333651 discloses a photographing apparatus that generates a recording signal by comparing preliminarily stored appearance information and photographing face information. This appearance information is recorded together with the priority.
一方、記録時に撮影画像を所定のグループにグループ分けして記録することで再生時の
検索を容易にすることのできるデジタルカメラの技術も従来から開示されている。特開2002−211049号公報には関連性ある撮影画像データを撮影時刻によりグループ化して一元的に管理する画像処理装置が開示されている。特開2003−162709号公報には撮影装置のユーザ操作に伴う状態変更に応じて新規フォルダを作成する画像処理装置が開示されている。特開2003−189215号公報には撮影記録モードと撮影画像を管理するフォルダとを関連づけることの出来る記録装置が開示されている。特開2003−338999号公報には画像データにリンク情報を付加してグループ化する画像ファイリング装置が開示されている。
On the other hand, a technique of a digital camera that can facilitate retrieval at the time of reproduction by grouping and recording captured images into a predetermined group at the time of recording has also been disclosed. Japanese Patent Application Laid-Open No. 2002-211049 discloses an image processing apparatus that groups related photographed image data according to photographing time and manages them centrally. Japanese Patent Application Laid-Open No. 2003-162709 discloses an image processing apparatus that creates a new folder in response to a state change associated with a user operation of an image capturing apparatus. Japanese Patent Application Laid-Open No. 2003-189215 discloses a recording apparatus capable of associating a photographic recording mode with a folder for managing photographic images. Japanese Patent Application Laid-Open No. 2003-338999 discloses an image filing apparatus that adds link information to image data and groups them.
上述した被写体を識別するという技術をカメラに応用するという発明は、従来から大規模なコンピュータシステムで行われていた技術を単にカメラ単独でも行えるようにしたというものである。実際にカメラで被写体の識別技術を使用して撮影を行おうとすると従来にないカメラとしての動作シーケンスが必要となってくる。更に、被写体識別技術を上述したフォルダ作成方法と関連づけて開示した技術はこれまでない。 The invention of applying the above-described technique for identifying a subject to a camera is that a technique that has been conventionally performed in a large-scale computer system can be performed by a camera alone. Actually, when an image is taken with a camera using a subject identification technique, an unprecedented operation sequence as a camera is required. Further, there has been no technology disclosed by associating the subject identification technology with the folder creation method described above.
本発明においては上述した新たな動作シーケンスを取り入れることにより主要被写体に
対応したフォルダに画像データを格納することで再生時の検索を容易することの出来るデジタルカメラを提供することを目的とする。
An object of the present invention is to provide a digital camera that can facilitate retrieval during reproduction by storing image data in a folder corresponding to a main subject by incorporating the above-described new operation sequence.
上記問題点の解決のために、請求項1の発明は、画像データから被写体の特徴部位を抽出する抽出手段と、前記抽出手段が抽出した特徴部位に応じて前記画像データを所定のグループに分類する分類手段と、前記抽出手段によって抽出された特徴部位に予め付与されている優先順位を判別する判別手段と、前記分類手段が分類した分類結果に応じて前記画像データを記録媒体に記録する記録手段と、前記分類手段が分類したグループの画像データを格納するエリアが前記記録媒体にあるかどうかを検出する検出手段と、を備え、前記分類手段は、前記抽出手段が同一の画像データから複数の異なる特徴部位を抽出した場合には、前記分類手段は前記判別手段によってより優先順位が高いと判別された特徴部位に対応したグループに前記画像データを分類し、前記検出手段によって前記グループの画像データを格納するエリアが前記記録媒体に無いことが検出された場合に、前記記録手段は次に優先度の高い特徴部位のグループに対応したエリアに前記画像データを記録することを特徴とする。すなわち、優先順位の高い被写体に対応したフォルダがなかったなら次に優先順位の高いフォルダに格納する。
In order to solve the above problems, the invention of
請求項2の発明は、前記記録手段は、前記画像データを、同一のグループに属する複数の画像データをまとめて格納するためのエリアを備えた記録媒体上の、前記分類手段が分類したグループに対応したエリアに記録することを特徴とする。すなわち、メモリカードに予め作成されているフォルダに画像データを記録する。
The invention of
請求項3に記載の発明は、更に、前記分類手段が分類した画像データをまとめて格納するエリアを前記記録媒体に作成するための作成手段を備えたことを特徴とする。すなわち、抽出し、分類された特徴点に対応したフォルダをメモリカードに自動的に作成することができる。
According to a third aspect of the present invention, the image forming apparatus according to the third aspect further includes a creating unit for creating an area on the recording medium that collectively stores the image data classified by the classifying unit. That is, a folder corresponding to the extracted and classified feature points can be automatically created on the memory card.
以下、図面を参照して本発明の実施の形態を説明する。図1は、本発明のデジタルカメラについてその主要な機能を説明したブロック図である。撮影レンズ101はその焦点距離を連続的に変えるためのズームレンズ、及びピントを調整するフォーカスレンズから構成されている。これらのレンズはドライバ113により駆動される。ここでドライバ113はズームレンズのズーム駆動機構及びその駆動回路と、フォーカスレンズのフォーカス駆動機構及びその駆動回路とを備えていて、それぞれCPU112により制御される。撮影レンズ101は撮像素子103の撮像面上に被写体像を結像する。撮像素子103は撮像面上に結像された被写体像の光強度に応じた電気信号を出力する光電変換撮像素子であり、CCD型やMOS型の固体撮像素子が用いられる。撮像素子103は信号取り出しのタイミングをコントロールするドライバ115により駆動される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating the main functions of the digital camera of the present invention. The taking
撮影レンズ101と撮像素子103との間には絞り102が設けられている。絞り10
2は、絞り機構とその駆動回路を備えたドライバ114により駆動される。固体撮像素子103からの撮像信号はアナログ信号処理回路104に入力され、アナログ信号処理回路104において相関二重サンプリング処理(CDS)等の処理が行われる。アナログ信号処理回路104で処理された撮像信号は、A/D変換器135によりアナログ信号からデジタル信号に変換される。
A
2 is driven by a driver 114 having an aperture mechanism and its drive circuit. The imaging signal from the solid-
A/D変換された信号はデジタル信号処理回路106において輪郭強調、ガンマ補正、ホワイトバランス補正などの種々の画像処理が施される。バッファメモリ105は撮像素子103で撮像された複数フレーム分のデータを記憶することが出来るフレームメモリであり、A/D変換された信号は一旦このバッファメモリ105に記憶される。デジタル信号処理回路106ではバッファメモリ105に記憶されたデータを読み込んで上述した各処理を行い、処理後のデータは再びバッファメモリ105に記憶される。
The A / D converted signal is subjected to various image processing such as edge enhancement, gamma correction, and white balance correction in the digital
CPU112はデジタル信号処理回路106およびドライバ113〜115等と接続さ
れ、カメラが動作する際のシーケンス制御を行う。CPU112のAE演算部1121では撮像素子からの画像信号に基づいて露出演算を行い、AWB演算部1122ではホワイトバランス用パラメータを設定するための演算が行われる。特徴点抽出演算部1123では所定のアルゴリズムに則って画像データの中から被写体の形状、位置、サイズ等の特徴点を抽出する。記憶部1125ではこれら各種演算部で演算された結果を必要に記憶するとともに、特徴点抽出演算部1123によって抽出された特徴点に関する各種情報も記憶する。この情報については後述する。また、抽出された特徴点及びそれの情報についてはユーザが記憶部1125から任意に追加、変更或いは削除することが出来る。
The CPU 112 is connected to the digital
本実施例におけるデジタルカメラのAF方式はコントラスト法を採用している。このコントラスト方式AFについてここで説明する。この方式において、撮像素子103上の像のボケの程度とコントラストの間には相関があり、焦点があったときに像のコントラストが最大になることを利用して焦点あわせを行う。コントラストの大小は撮像信号の高周波成分の大小により評価することが出来る。すなわち、AF演算部1124は不図示のBP
F(バンドパスフィルタ)により撮像信号の高周波成分を抽出し、この絶対値を積分した値を焦点評価値としてこの焦点評価値に基づいてAF演算を行う。CPU112はAF演算部1124の演算結果を用いて撮影レンズ101のフォーカスレンズ位置を調整し、合焦動作を行わせる。
The AF method of the digital camera in this embodiment employs a contrast method. This contrast AF will be described here. In this method, there is a correlation between the degree of blurring of the image on the
A high frequency component of the imaging signal is extracted by F (band pass filter), and an AF calculation is performed based on the focus evaluation value using a value obtained by integrating the absolute value as a focus evaluation value. The CPU 112 adjusts the focus lens position of the photographing
CPU112に接続された操作部材116には、カメラの電源をオンオフする電源スイッチ1161、レリーズ釦に連動してオンオフする半押しスイッチ1162及び全押しスイッチ1163、モニタ109に表示されるカメラを撮影する際の各種メニュー内容を選択するための設定釦1164、再生画像等を更新するアップダウン(U/D)釦1165等が設けられている。設定釦1164では抽出した特徴点に対して名称を付けるためにU/D釦1165を併用してアルファベットやひらがな、カタカナ、簡単な漢字等を選択して設定することもできる。U/D釦1165はそれ以外に、複数抽出された人物から所望の人物を選択したり、撮影時には手動でズームレンズをテレあるいはワイド側に駆動したりするためにも使用される。
The
被写体輝度が低い場合にはストロボ117を発光させる。このストロボにはストロボ使用時に撮影した人物の瞳が赤く撮影されるのを防止あるいは軽減する赤目防止のためや低輝度時に被写体輝度を予め測定するために撮影前に予め補助光を発光するプリ発光機能も備わっている。記憶部1125には前述した特徴点情報以外にAF演算の結果から検出される評価値のピーク値や対応するレンズ位置等も記憶される。デジタル信号処理回路106で各種処理が施された画像データは、一旦バッファメモリ105に記憶された後に、記録・再生信号処理回路110を介してメモリカード等の外部記憶媒体111に記録される。画像データを記憶媒体111に記録する際には、一般的に所定の圧縮形式、例えば、JPEG方式でデータ圧縮が行われる。記録・再生信号処理回路110では、画像データを外部記憶媒体111に記録する際のデータ圧縮及び外部記憶媒体111から再生した圧縮された画像データの伸長処理を行う。
When the subject brightness is low, the
モニタ109は撮像された被写体画像を表示したり撮影や再生させる際の各種の設定メニューを表示したりするための液晶(LCD)表示装置である。ここでは記憶媒体111に記録されている画像データを再生表示する際にも用いられる。モニタ109に画像を表示する場合には、バッファメモリ105の一部であるVRAM107に記憶された画像データを読み出し、D/A変換器108によりデジタル画像データをアナログ映像信号に変換する。そして、そのアナログ映像信号を用いてモニタ109に画像を表示する。
The
ここで、特徴点を抽出する際のバッファメモリ105とVRAM107との関係について説明する。モニタ109で表示用の画像データを再生する場合には撮像素子からは静止画用の画像データから表示用の画像データに間引いたデータが一定の周期(例えば30フレーム/秒)で連続して出力される。この画像データに所定の処理を施し、モニタ109
の縦横画素数に対応した画素数となるように更にデータを間引いてVRAM107に連続して記録する。このVRAM107のデータはD/A変換器108を通してモニタ109に表示画像として再生される。このVRAM107の画像データは特徴点を抽出するためのデータとしても使用する。特徴点を抽出する場合には、まずVRAM107の画像データをバッファメモリ105に所定のタイミングで再度記録する。ここでバッファメモリ105にはVRAM107に記録されているデータのうち中心部の所定の範囲(たとえば縦、横ともに80%)のみ記録する。
Here, the relationship between the
The data is further thinned out so as to have the number of pixels corresponding to the number of vertical and horizontal pixels, and continuously recorded in the
また、このようにVRAM107から再度バッファメモリ105に画像データを記録す
るのは次の理由による。CPU112の演算処理能力が十分高かったならば前述した30フレーム/秒のレートで特徴点を抽出することができるがデジタルカメラに採用されてい
るCPU112の演算能力はそこまで高くないことが多い。それ故、CPU112の演算
能力に応じて特徴点抽出演算にあったレートでVRAM107からバッファメモリ105に画像データを再度記録することで特徴点を抽出する事が可能となる。なお、その場合であってももちろんVRAM105からは通常のレートでモニタ109の表示用画像データが出力されているので表示更新のレートが遅くなることはない。なお、AE演算、AF演算するための画像データは上述した撮像素子103から出力されVRAM107に間引く前のデータを使用する。
The reason why the image data is recorded again from the
この様に特徴点抽出機能を備えた本デジタルカメラにおいて、その特徴点抽出機能を利
用することで撮影前後で効果的に被写体のピントを確認することが可能となる。図2〜図7のフローを使用してこれについて説明する。
In this digital camera having the feature point extraction function in this way, the feature point extraction function can be used to effectively check the focus of the subject before and after shooting. This will be described using the flow of FIGS.
まず図2、図3は撮影動作に関連してピントを確認することを説明したフローである。
ステップS101でデジタルカメラの電源がオンされたことを検出したならばステップS102で特徴点を抽出するための抽出モードに設定されているかどうか判別する。この抽出モードの設定方法の一例としては、設定釦1164を操作してLCDモニタ109に表示させた各種撮影モードの中から抽出モードを選択して設定する(不図示)。ステップS102で抽出モードに設定されていなかったならばステップS108に進む。
First, FIGS. 2 and 3 are flowcharts for explaining that the focus is confirmed in relation to the photographing operation.
If it is detected in step S101 that the power source of the digital camera is turned on, it is determined in step S102 whether or not the extraction mode for extracting feature points is set. As an example of the extraction mode setting method, the extraction mode is selected and set from various shooting modes displayed on the
ステップS102でもし抽出モードに設定されていると判別されたならばステップS1
03に進んで所定のタイミングで撮像素子13の出力から被写体の特徴点を抽出し、LCDモニタ109に撮像素子からのスルー画とともに特徴点が抽出された被写体を識別して表示する。識別表示例を図11に示す。図11において画面中央の人物の顔部分を囲っている実線の四角表示がこの人物の顔が抽出されたことを示している。図11の破線内はこの抽出された人物の顔周辺の拡大表示であるが、この詳細については後述する。
If it is determined in step S102 that the extraction mode is set, step S1 is executed.
Proceeding to 03, the feature point of the subject is extracted from the output of the image sensor 13 at a predetermined timing, and the subject from which the feature point is extracted is identified and displayed on the
ステップS104では抽出した特徴点或いはその特徴点を含む所定エリアをAFエリア
に設定する。被写体が顔のアップなどの場合には更に瞳部分をAFエリアに設定する。また、画面内で複数の特徴点が抽出された場合には、一番面積の大きな特徴点をAFエリアに設定する。或いは前述した記憶部1125に、抽出した特徴点と同一の特徴点が予め記憶されていた場合には、その特徴点に関する情報(例えば優先順位情報等)に応じてAFエリアを設定する。この特徴点情報の詳細については後述する。
In step S104, the extracted feature point or a predetermined area including the feature point is set as the AF area. When the subject is a face up, the pupil portion is further set as the AF area. When a plurality of feature points are extracted in the screen, the feature point having the largest area is set as the AF area. Alternatively, when the same feature point as the extracted feature point is stored in advance in the
ステップS105ではAFエリア内の被写体に対してピント確認をするモードの設定に
なっているかどうか判別する。この場合の設定方法も前述した抽出モードの設定の場合と同様、設定釦1164を操作して表示させた撮影モードの設定メニューの中から、抽出被写体のピントを確認する、という項目を選択する(不図示)。このピント確認及び前述した抽出モードの設定や解除は任意のタイミングで行うことが出来る。もしピント確認しない場合にはステップS107に進み、ピント確認する場合にはステップS106に進む。
In step S105, it is determined whether or not the focus confirmation mode is set for the subject in the AF area. The setting method in this case is the same as in the extraction mode setting described above, and an item for confirming the focus of the extracted subject is selected from the shooting mode setting menu displayed by operating the setting button 1164 ( Not shown). The focus confirmation and the above-described extraction mode can be set or canceled at an arbitrary timing. If the focus is not confirmed, the process proceeds to step S107, and if the focus is confirmed, the process proceeds to step S106.
ピント確認のステップS106においては、図11に示すごとく、抽出した特徴点に基
づいて設定されているAFエリアを含んだ所定範囲をLCDモニタ109上の一部エリアに拡大して全画面データに重畳して表示する。このステップS106の詳細フローについては図4で後述する。ステップS107ではAFエリアとして他の特徴点を選択したかどうか判別する。この選択はU/D釦1165を使って行う。もし他の特徴点を選択しない場合にはステップS108に進み、他の特徴点が選択された場合にはステップS104に戻って選択された特徴点を新たにAFエリアとして設定する。ここまでは半押しSW1162は押されていなくとも良い。
In the focus confirmation step S106, as shown in FIG. 11, a predetermined range including the AF area set based on the extracted feature points is enlarged to a partial area on the
ステップS108では半押しSW1162及び全押しSW1163が押されたかどうか
判別する。もし全押しSW1163が押されていなかったならばステップS102に戻り
、全押しSW1163が押されたと判別されたならば図3ステップS109に進む。
In step S108, it is determined whether the half-press SW 1162 and the full-press SW 1163 are pressed. If the full press SW 1163 has not been pressed, the process returns to step S102. If it is determined that the full press SW 1163 has been pressed, the process proceeds to step S109 in FIG.
ステップS109ではAE演算回路1121の演算結果に応じた所定のシャッタスピー
ドと絞り値とで撮像素子103で被写体の露光を行い、この撮像素子103から出力された画像データをバッファメモリ105に記録する。ステップS110では撮影画像のピント確認をする設定になっているかどうか判別する。この撮影後にピント確認をするかどうかという設定は、前述した抽出モードの設定をするのと同様に撮影前に予め設定釦1164を使用して、撮影後のピント確認を行う、という項目を選択しておく。
In step S <b> 109, the subject is exposed by the
ステップS110でピント確認はしないと判別された場合にはステップS115に進み
、ピント確認をするように設定されていると判別されたならばステップS111に進む。ステップS111のピント確認の詳細は前述したステップS106のピント確認動作と同様、図4で説明する。この時の表示も撮影前のピント確認表示と同様に、図11に示すごとく破線の四角内に拡大表示される。この拡大表示される範囲は、全押しSW1163が押される直前にその位置と大きさを記憶部1125に記憶されていたAFエリアを含んだ所定範囲である。
If it is determined in step S110 that the focus confirmation is not performed, the process proceeds to step S115. If it is determined that the focus confirmation is set, the process proceeds to step S111. Details of the focus confirmation in step S111 will be described with reference to FIG. 4 in the same manner as the focus confirmation operation in step S106 described above. The display at this time is enlarged and displayed in a broken-line square as shown in FIG. 11 as in the focus confirmation display before photographing. This enlarged display range is a predetermined range including the AF area whose position and size are stored in the
もちろん、全押しSW1163が押され、撮影した画像データから特徴点を再度抽出し
た後に、抽出した特徴点に対応した被写体を拡大表示するようにしても良い。その場合には、撮影した全画面から新たに特徴点を抽出するのでなく、撮影前に設定されているAFエリアを含んだ所定範囲のみを抽出する。これにより、抽出に要する時間が短縮される。このように撮影後の画像データから被写体を抽出することで主要被写体が移動したような場合であっても確実に主要被写体部分を拡大表示することが出来る。
Of course, the full-press SW 1163 may be pressed to extract the feature points again from the captured image data, and then the subject corresponding to the extracted feature points may be enlarged and displayed. In that case, instead of newly extracting feature points from the entire captured image, only a predetermined range including the AF area set before imaging is extracted. This shortens the time required for extraction. Thus, by extracting the subject from the image data after shooting, the main subject portion can be surely enlarged and displayed even when the main subject moves.
ステップS112では記録指示がされたかどうか確認する。このピント確認の画面に対
する記録指示方法の一例を図12を使って説明する。図12はピント確認を説明している画面を示す図11に、記録指示メニューを重畳表示させた場合を示している図である。全押しSW1163が押されると、図12のようにLCDモニタ109にはAFエリア周辺の拡大画面が撮影全画面に重畳表示されている画面に更に記録指示の選択メニューが重畳表示される。撮影者はここからU/D釦1165を使用してYESあるいはNOのいずれかを選択する。もしYESを選択した場合はステップS115に進みYESあるいはNOのいずれも選択しなかったならばステップS113に進む。ステップS113ではNOが選択されたかどうか判別する。もしNOが選択されたならばステップS116に進んでバッファメモリ105に記録されている画像データを消去する。この消去方法の一例として、メモリカード111にはバッファメモリ105上の画像データを記録せず、次の撮影による画像データをバッファメモリ105に上書き可能にすることで達成される。
In step S112, it is confirmed whether a recording instruction has been issued. An example of a recording instruction method for the focus confirmation screen will be described with reference to FIG. FIG. 12 is a diagram showing a case where the recording instruction menu is superimposed on FIG. 11 showing the screen explaining the focus confirmation. When the full press SW 1163 is pressed, a selection menu for recording instructions is further superimposed on the screen on which the enlarged screen around the AF area is superimposed on the entire photographing screen on the
ステップS113でNOが選択されなかった場合にはステップS114に進んで撮影が
終了してから一定時間が経過したかどうか判別する。もし一定時間経過していなかったならばステップS112に戻って記録指示を待つ。一定時間経過したならばステップS115に進んでメモリカードへの記録を行う。この様にデフォルトでは図12に示すように二重の四角で囲ったYESが選択されるようになっていて、一旦撮影した画像データは撮影者からの削除指示がない限りはメモリカード111に記録するようにしている。ここで一定時間とは1秒程度であればよいが撮影者の好みに応じてこの時間を変更できるようにしても良い。
If NO is not selected in step S113, the process proceeds to step S114, and it is determined whether or not a predetermined time has elapsed since the photographing was completed. If the predetermined time has not elapsed, the process returns to step S112 to wait for a recording instruction. If the predetermined time has elapsed, the process proceeds to step S115 to record on the memory card. In this way, by default, as shown in FIG. 12, “YES” surrounded by a double square is selected, and once taken image data is recorded in the
画像データにホワイトバランス処理、ガンマ処理、或いは圧縮処理等の記録処理を行っ
た後にステップS115においてメモリカード111の所定のフォルダに画像データを記録する。この記録する際のフォルダに関しては図5あるいは図6を使って詳細に後述する。この様にして記録或いは削除が終了したならば一連の撮影動作を終了する。
After performing recording processing such as white balance processing, gamma processing, or compression processing on the image data, the image data is recorded in a predetermined folder of the
次に図4のフローを使ってこれまで述べてきたピント確認について詳細に説明する。ス
テップS201では撮像素子103で撮影されバッファメモリ105に記録されている画像データの全画角分の画面にAFエリア周辺の所定エリアを拡大した画面をLCDモニタ109に重畳表示する。この表示の一例を図11に示す。図11において画面中央の四角で囲まれた人物の顔部分が抽出された被写体であることを示している。ここではこの抽出された人物の顔部分がAFエリアに設定され、画面右下の破線で囲まれた小画面内にそのAFアリアを含む所定部分が拡大されて表示されている。この重畳表示する位置としてはこの様に右下に限らず、設定釦1164やU/D釦1165を使用して画面内の右上、左下、左上或いは画面中央のいずれかを選択することが出来る。
Next, the focus confirmation described so far will be described in detail using the flow of FIG. In step S <b> 201, a screen obtained by enlarging a predetermined area around the AF area is superimposed on the
拡大表示は電子的に行い、当初表示する際のズーム倍率はデフォルトでは4〜5倍程度
に設定されている。このズーム操作についても、設定釦1164やU/D釦1164を使用する。LCDモニタ109で表示する際には撮像素子103の画像データを間引いて表示しているがこれを間引かない状態すなわち、LCDの解像度と撮像素子103の解像度が等しくなるまで拡大することが出来る。例えば、LCDモニタ109の画素数が10万画素、撮像素子103の画素数が100万画素とすると通常は1/10の解像度でLCDモニタ109に表示しているが、これを最大で10倍までズームアップすることが出来る。
The enlarged display is performed electronically, and the zoom magnification at the time of initial display is set to about 4 to 5 times by default. Also for this zoom operation, the setting button 1164 and the U / D button 1164 are used. When the image is displayed on the
ステップS202では前述したように、画面内での小画面の重畳表示位置を選択したか
どうか判別する。もし選択されていなかったならばステップS204に進み、選択されたならばステップS203に進んでここで選択された位置に拡大小画面を移動させる。ステップS204ではズーム指示がされたかどうか判別する。もしズーム指示されていなかったならばステップS206に進み、指示されたならばステップS205でズーム指示されている限り前述したごとく最大ズーム倍率までズームアップする。
In step S202, as described above, it is determined whether or not the superimposed display position of the small screen in the screen has been selected. If it is not selected, the process proceeds to step S204. If it is selected, the process proceeds to step S203, and the enlarged small screen is moved to the position selected here. In step S204, it is determined whether or not a zoom instruction has been issued. If the zoom is not instructed, the process proceeds to step S206. If instructed, the zoom is zoomed up to the maximum zoom magnification as described above as long as the zoom is instructed in step S205.
ステップS206では重畳表示をやめるように設定したかどうか判別する。これは図2
ステップS105のピント確認設定とは逆の解除設定をすることでなされる。もし重畳表示をやめるよう設定されていなかったならばそのままの表示状態で本ルーチンを終了し、やめるよう設定されたならばステップS207で重畳表示をやめて本ルーチンを終了する。
In step S206, it is determined whether or not it is set to stop the superimposed display. This is shown in FIG.
This is done by performing a cancellation setting opposite to the focus confirmation setting in step S105. If it is not set to stop the superimposed display, this routine is terminated in the display state as it is, and if it is set to stop, the superimposed display is stopped in step S207 and this routine is terminated.
次に、図5、図6を使用して図3ステップS115において記録する際のフォルダの選
択方法について詳細に説明する。従来、撮影した画像データは撮影画像の内容に関係なくデジタルカメラによって自動的に作成された撮影日時に基づいた名称を持ったフォルダに格納されていた。しかしながら、後から画像データを再生する際に沢山の再生画像があった場合などには、この様に単に日時のみで分類され、保存されているとあとから所望の画像を検索するのが煩わしくなってしまう。特に同時期に人物撮影をした画像データがたくさんあった場合には見たい人物の画像データを探し出すことが難しい。これを解決するために本実施例では、撮影した画像データの中の主要被写体に対応したフォルダにそれぞれ自動的に撮影した画像データを格納するようにしている。
Next, a folder selection method for recording in step S115 in FIG. 3 will be described in detail with reference to FIGS. Conventionally, photographed image data is stored in a folder having a name based on the photographing date and time automatically created by a digital camera regardless of the contents of the photographed image. However, when there are a lot of reproduced images when the image data is reproduced later, it is troublesome to search for a desired image later if it is classified and stored only by the date and time. End up. In particular, when there are a lot of image data of a person photographed at the same time, it is difficult to find the image data of the person who wants to see. In order to solve this, in this embodiment, the image data automatically captured is stored in a folder corresponding to the main subject in the captured image data.
図5は主要被写体毎に対応しているそれぞれのフォルダに画像データを格納する場合に
ついて説明しているフローである。図5ステップS301においてまず、デジタルカメラに挿入されているメモリカード111内にあるフォルダ名称を読み込む。ステップS302では選択された特徴点に対応したフォルダがメモリカード111内にあるかどうか判別する。もし対応したフォルダが既にメモリカード111内に存在していたならばステップS304に進み、無かったならばステップS303に進む。ステップS303では選択した特徴点に対応したフォルダを新たにメモリカード111に作成しステップS304に進
む。ステップS304では対応したフォルダにそれぞれの画像データを格納して本ステップを終了する。
FIG. 5 is a flowchart illustrating a case where image data is stored in each folder corresponding to each main subject. In step S301 in FIG. 5, first, the folder name in the
もし画像データから複数の特徴点が抽出された場合であってもここで説明したように選
択された特徴点にのみ着目し、もしその選択した特徴点に対応したフォルダがなかった場合には新たにフォルダ作成するようにすればよい。
Even if multiple feature points are extracted from the image data, pay attention only to the selected feature points as described here, and if there is no folder corresponding to the selected feature points, a new one is added. You can create a folder.
図6は画像データ内に特徴点が複数抽出された場合の他の実施例について説明したフロ
ーである。ここでは特徴点に付与されている優先順位に基づいて所定のフォルダに画像データを格納する方法について説明する。この場合はまず、記憶部1125にデジタルカメラの使用者が予め被写体に対応した特徴点情報を記録しておく。図8に記憶部1125に記録されている特徴点とそれに対応した特徴点情報の記録状態の一例を示す。
FIG. 6 is a flowchart illustrating another embodiment in which a plurality of feature points are extracted from image data. Here, a method for storing image data in a predetermined folder based on the priority order assigned to the feature points will be described. In this case, first, the feature point information corresponding to the subject is recorded in advance in the
図8において特徴点としてTARO、HANAKO、JIRO、SABUROというよ
うにそれぞれ名前が付けられた特徴点が設定された優先順位と共に登録されている。TAROに対する特徴点情報としてはまず、前述したAFエリアを選択する際の優先順位があり、これは第1順位に設定されている。これにより例えばTAROとJIROが同時に撮影画面内に抽出されたとしたらTAROを含むエリアが優先してAFエリアに設定される。この優先順位の設定も設定釦1164及びU/D釦1165を使用して予め行う。この優先順位は任意の時点で変更することが出来る。SABUROのように当初は設定しておかなくとも良い。
In FIG. 8, feature points with names such as TARO, HANAKO, JIRO, and SABURO are registered as feature points together with priority levels set. As the feature point information for TARO, there is a priority order when selecting the AF area described above, and this is set to the first order. Thus, for example, if TARO and JIRO are simultaneously extracted in the shooting screen, the area including TARO is preferentially set as the AF area. This priority order is also set in advance using the setting button 1164 and the U /
TAROの特徴点情報としては、TAROの特徴点を登録した日にちが登録日として次
に記録されている。ここで(1)で示される登録日は最初にTAROを登録した日にちで(2)、(3)は(1)と異なった状態たとえば横向き、後ろ向き、眼鏡着用等の状態で撮影されたTAROの他の特徴点を追加して登録した日にちを示している。このように、眼鏡や髭の有無等によって同一人物としての特徴点を複数登録することで抽出した特徴点に対して人物を識別する確度が向上する。この特徴点についてもその登録内容をLCDモニタ109に表示するとともに任意に追加あるいは削除することが出来る。優先度、登録日以外に簡単なコメントやこの特徴点が検出された場合に有効な記録時あるいは再生時の処理方法(ホワイトバランス設定や輪郭補償処理設定等)、特徴点までの距離等についても記録するようにしても良い。
As the feature point information of TARO, the date when the feature point of TARO is registered is recorded next as the registration date. Here, the registration date indicated by (1) is the date of the first registration of TARO (2), (3) is different from (1), for example, the side of the TARO taken in a sideways, backwards, glasses, etc. It shows the date when other feature points were added and registered. In this way, the accuracy of identifying a person with respect to the extracted feature points is improved by registering a plurality of feature points as the same person depending on the presence or absence of glasses or a bag. The registered content of this feature point can be displayed on the
このようにして登録するよう設定された特徴点の実際のデータは下の特徴点データエリ
アにTARO(1)、HANAKO(1)のように順に記録される。ここで実際のデータとは抽出された特徴点の内両眼の眼幅、目と鼻との相対位置関係、顔の形状等を所定の大きさに規格化したデータである。
The actual data of the feature points set to be registered in this way are recorded in order as TARO (1) and HANAKO (1) in the lower feature point data area. Here, the actual data is data obtained by normalizing the eye width of both eyes of the extracted feature points, the relative positional relationship between the eyes and the nose, the shape of the face, and the like to a predetermined size.
記録部1125にはこれまで述べた特徴点情報、特徴点データ以外に抽出した実際の被
写体の登録時の縮小画像も記録しておいても良い。これによりLCDモニタ109で被写体を確認しながら被写体情報を確実に追加したり削除したりすることが出来る。
The
図6ステップS401においては記憶部1125に記録されている前述した特徴点情報
の中から抽出した特徴点に対応した優先順位情報を判別する。ステップS402ではメモリカード111内に作成されているフォルダを読み込む。ステップS403ではステップS401で判別した優先順位の中から最優先順位を判別し、その特徴点に対応したフォルダがメモリカード111にあるかどうかを判別する。もし対応したフォルダがあった場合にはステップS407に進む。対応したフォルダがなかった場合にはステップS404に進んでここで次の優先順位の特徴点に対応したフォルダがあるかどうか判別する。もしあった場合にはステップS407に進み、無かったならばステップS405に進む。
In step S401 in FIG. 6, priority information corresponding to the feature points extracted from the above-described feature point information recorded in the
ステップS405では抽出した全ての特徴点についてフォルダの有無の判別が終了した
かどうか判別する。もし終了していなかったならばステップS404に戻り、終了していたならばステップS406に進む。ステップS406では抽出した全ての特徴点に対応したフォルダがメモリカード111になかったことから抽出した特徴点の中から最優先順位に相当する特徴点に対応したフォルダを作成してステップS407に進む。ステップS407では抽出した特徴点に対応したフォルダに画像データを書き込んで記録ステップを終了する。
In step S405, it is determined whether the determination of the presence / absence of a folder has been completed for all extracted feature points. If not completed, the process returns to step S404, and if completed, the process proceeds to step S406. In step S406, a folder corresponding to the feature point corresponding to the highest priority is created from the extracted feature points because there is no folder corresponding to all the extracted feature points in the
図6の説明においては、最優先特徴点に対応したフォルダがなかった場合には次の優先
順位の特徴点に対応するフォルダを探していたが、図5で説明したように直ちに最優先特徴点に対応したフォルダを作成しても良い。更に、マニュアルでAFエリアを設定するような場合には、撮影者が複数の被写体の中からAFエリアの被写体として選択した被写体が常に最優先特徴点であるとは限らないのでAFエリアの被写体に対応する特徴点を最優先特徴点としても良い。
In the description of FIG. 6, when there is no folder corresponding to the highest priority feature point, the folder corresponding to the feature point of the next priority is searched. However, as described in FIG. You may create a folder corresponding to. Furthermore, when manually setting the AF area, the subject selected by the photographer as the subject of the AF area from among the plurality of subjects is not always the highest priority feature point. The corresponding feature point may be the highest priority feature point.
また、複数の特徴点が抽出された場合に、全ての抽出した特徴点に対応したフォルダに
それぞれ同一の画像データを格納するようにしても良い。この場合、メモリカード111に対応するフォルダがなかったならばもちろん新たにフォルダを作成する。但し、集合写真等の場合には、フォルダ数が非常に多くなるので最大フォルダ数を決めておくようにする方が好ましい。
Further, when a plurality of feature points are extracted, the same image data may be stored in folders corresponding to all the extracted feature points. In this case, if there is no folder corresponding to the
一方、この様に同一画像データを対応したフォルダにそれぞれ格納する方法は、記録容
量が限られているメモリカード111などでは好ましくない。これを回避する記録方法を次に述べる。まず、画像データは特定の一つのフォルダにのみ格納すると共にその画像データを格納したい他のフォルダ名情報も記録する。一方、その他のフォルダにはその画像データが格納されているフォルダ名情報を格納するようにする。この様に画像データが記録されているフォルダ名のみ記録することで不必要に記録容量を減らすことを防止することが出来る。この様にメモリカード111に画像データを記録した場合、メモリカード111から他の大容量メモリ等に画像データを移動してしまうとそれぞれのフォルダに格納されているフォルダ名情報が無意味になる恐れがある。これを回避するには、メモリカード111から他の大容量メモリに画像データを移動する際に、記録されているフォルダ名情報に基づいて各フォルダ毎に同一の画像データを格納するようにすればよい。
On the other hand, such a method of storing the same image data in the corresponding folder is not preferable for the
図9にはメモリカード111に書き込まれているフォルダ名とそこに格納される画像デ
ータファイル名をツリー構造にして示す。図9において01NIKONという名称のフォルダは抽出モードに設定されずに撮影されたり、抽出モードに設定されて撮影された画像であっても特徴点がなにも抽出されなかった画像データを格納するためのフォルダである。また、画像データから単に特徴点が抽出されただけで名称が付与されていない被写体のみが撮影されている画像データもここに格納する。もちろん、別途、被写体の名称なしの画像データのみ格納するためのフォルダを作成してそこに格納しても良い。この時、このフォルダ名は04NANASHI、画像データのファイル名はDSC04001等、他のフォルダ及び画像データファイルと区別できるような名称が付与される。
FIG. 9 shows the folder names written in the
図9における02TARO或いは03HANAKOというフォルダはそれぞれTARO
或いはHANAKOという人物を最優先して撮影した画像データを格納するフォルダである。
The folders 02TARO and 03HANAKO in FIG.
Alternatively, it is a folder for storing image data obtained by photographing the person HANAKO with the highest priority.
図10はDSC02002という名称の画像データのファイル構造を示している。画像
データファイルは実際の撮像素子から出力される画像データを記録する画像データエリア
とその画像データ内から抽出された特徴点に関する情報とを記録する特徴点情報エリアとから構成される。特徴点情報エリアにはこの場合画像データから抽出されたTARO及びHANAKOに関する優先度、抽出位置座標、特徴点の大きさとこの画像データを撮影した時のAFエリアに関する情報が記録されている。このうち特徴点の大きさ情報としては検出された特徴点を含む長方形の左上及び右下の座標が記録されている。AFエリア情報としても左上及び右下の座標が記録されていて、今の場合、優先度が第1順位のTAROの位置情報及び大きさ情報と同一の情報が記録されている。
FIG. 10 shows the file structure of image data named DSC02002. The image data file is composed of an image data area for recording image data output from an actual image sensor and a feature point information area for recording information about feature points extracted from the image data. In the feature point information area, the priority, the extracted position coordinates, the size of the feature point, and the information about the AF area when this image data is captured are recorded in this case. Among these, as the size information of the feature points, the coordinates of the upper left and lower right corners of the rectangle including the detected feature points are recorded. As the AF area information, the upper left and lower right coordinates are recorded. In this case, the same information as the position information and size information of the TARO having the first priority is recorded.
図10においては抽出した全ての特徴点情報とAFエリア情報を画像データと共に記録
している。この記録されている特徴点情報を判別することにより、複数のフォルダの中に格納されているそれぞれの画像データの中から特定の人物が撮影されている画像データを検索する場合に便利である。これに対してもちろん単に、最優先特徴点(今の場合、TARO)情報のみを画像データと共に記録するようにしていても良い。同様にAFエリア情報のみを画像データと共に記録しても良い。もちろん最優先特徴点情報及びAFエリア情報を両方とも記録しても良い。
In FIG. 10, all extracted feature point information and AF area information are recorded together with image data. By discriminating the recorded feature point information, it is convenient when searching for image data in which a specific person is photographed from the respective image data stored in a plurality of folders. On the other hand, of course, it is possible to record only the highest priority feature point (in this case, TARO) information together with the image data. Similarly, only AF area information may be recorded together with image data. Of course, both top priority feature point information and AF area information may be recorded.
ここまではデジタルカメラにメモリカード111が1枚のみ装着される場合について説
明してきた。これに対して、その記憶容量が異なるだけでなく外観形状や駆動方法が異なるものなど市場には各種のメモリカード111が存在している。それ故、複数の種類のメモリカード111が使用可能なようにデジタルカメラに複数のメモリカード111の装着口を備える場合がある。そのような場合には上述した画像データの分類に従って記録するメモリカード111を変えるようにしても良い。もちろん、それぞれのメモリカード111に記録する際には分類に応じたフォルダを作成する。
Up to this point, the case where only one
次に図7を使用して再生画像のピント確認について説明する。ステップS501でデジ
タルカメラの動作モードが再生モードに設定されているかどうか判別する。この設定はこれまでと同様設定釦1164を使用する。ここで再生モードに設定されていると判別されたならば、ステップS502でメモリカード111から記録されている画像データを読み出す。ステップS503ではピント確認をする設定になっているかどうか判別する。ピント確認の設定になっていなかったならばステップS505に進み、ピント確認設定になっていたならばステップS504に進む。ここでのピント確認動作の内容は図2ステップS106と同様である。但し、再生時には画像データからわざわざ特徴点を抽出する必要はなく、図10で説明した、画像データと共に記録されている最優先特徴点情報或いはAFエリア情報を判別して直ちにピント確認用の小画面を重畳して表示させることが出来る。電子ズームによるズームアップももちろん可能である。
Next, the confirmation of the focus of the reproduced image will be described with reference to FIG. In step S501, it is determined whether the operation mode of the digital camera is set to the playback mode. This setting uses the setting button 1164 as before. If it is determined that the playback mode is set, the image data recorded from the
ピント確認が終了したらステップS505に進み再生モードが終了したかどうか判別す
る。もし再生モードが終了したと判別されたならば本シーケンスを終了し、まだ再生モードを継続中であると判別されたならばステップS502に戻って撮影者の指示に応じて画像の再生を継続する。
When the focus confirmation is completed, the process proceeds to step S505 to determine whether or not the reproduction mode is completed. If it is determined that the playback mode has ended, this sequence ends. If it is determined that the playback mode is still being continued, the process returns to step S502 to continue playback of the image in accordance with the photographer's instruction. .
101 撮影レンズ
102 絞り
103 撮像素子
104 アナログ信号処理部
105 バッファメモリ
106 デジタル信号処理部
108 D/Aコンバータ
109 LCDモニタ
110 記録・再生信号処理部
111 外部記憶媒体
112 CPU
113 レンズ駆動部
114 絞り駆動部
115 撮像素子駆動部
107 VRAM
116 操作部材
117 ストロボ
121 レンズ位置検出部
135 A/Dコンバータ
1121 AE演算部
1122 AWB演算部
1123 特徴点抽出演算部
1124 AF演算部
1125 記憶部
1161 電源スイッチ
1162 半押しスイッチ
1163 全押しスイッチ
1164 設定釦
1165 アップ/ダウン釦
DESCRIPTION OF
113 Lens Drive Unit 114
116
Claims (3)
前記抽出手段が抽出した特徴部位に応じて前記画像データを所定のグループに分類する分類手段と、
前記抽出手段によって抽出された特徴部位に予め付与されている優先順位を判別する判別手段と、
前記分類手段が分類した分類結果に応じて前記画像データを記録媒体に記録する記録手段と、
前記分類手段が分類したグループの画像データを格納するエリアが前記記録媒体にあるかどうかを検出する検出手段と、を備え、
前記分類手段は、前記抽出手段が同一の画像データから複数の異なる特徴部位を抽出した場合には、前記分類手段は前記判別手段によってより優先順位が高いと判別された特徴部位に対応したグループに前記画像データを分類し、
前記検出手段によって前記グループの画像データを格納するエリアが前記記録媒体に無いことが検出された場合に、前記記録手段は次に優先度の高い特徴部位のグループに対応したエリアに前記画像データを記録することを特徴とするデジタルカメラ。 Extracting means for extracting a characteristic part of the subject from the image data;
Classification means for classifying the image data into a predetermined group according to the characteristic part extracted by the extraction means;
A discriminating unit for discriminating a priority given in advance to the characteristic part extracted by the extracting unit;
Recording means for recording the image data on a recording medium according to the classification result classified by the classification means;
Detecting means for detecting whether the recording medium has an area for storing the image data of the group classified by the classification means,
When the extracting unit extracts a plurality of different feature parts from the same image data, the classifying unit assigns the classification unit to a group corresponding to the feature part determined to have a higher priority by the determining unit. Classifying the image data;
When it is detected by the detection means that there is no area for storing the image data of the group in the recording medium, the recording means puts the image data in an area corresponding to a group of feature parts having the next highest priority. A digital camera characterized by recording .
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004137960A JP4371219B2 (en) | 2004-05-07 | 2004-05-07 | Digital camera |
US11/096,066 US20050248681A1 (en) | 2004-05-07 | 2005-04-01 | Digital camera |
EP10178504A EP2259573A3 (en) | 2004-05-07 | 2005-04-28 | Digital Camera |
EP05252664A EP1594311A3 (en) | 2004-05-07 | 2005-04-28 | Digital camera |
CNA2005100687274A CN1694508A (en) | 2004-05-07 | 2005-04-29 | Digital camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004137960A JP4371219B2 (en) | 2004-05-07 | 2004-05-07 | Digital camera |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009142218A Division JP5040964B2 (en) | 2009-06-15 | 2009-06-15 | Digital camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005323014A JP2005323014A (en) | 2005-11-17 |
JP4371219B2 true JP4371219B2 (en) | 2009-11-25 |
Family
ID=35353286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004137960A Expired - Lifetime JP4371219B2 (en) | 2004-05-07 | 2004-05-07 | Digital camera |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4371219B2 (en) |
CN (1) | CN1694508A (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007288409A (en) * | 2006-04-14 | 2007-11-01 | Matsushita Electric Ind Co Ltd | Imaging apparatus with image data classifying function and program |
JP5055939B2 (en) | 2006-10-12 | 2012-10-24 | 株式会社ニコン | Digital camera |
JP5251215B2 (en) * | 2007-04-04 | 2013-07-31 | 株式会社ニコン | Digital camera |
JP5413002B2 (en) * | 2008-09-08 | 2014-02-12 | ソニー株式会社 | Imaging apparatus and method, and program |
CN102196161B (en) * | 2010-03-02 | 2014-10-15 | 佳能企业股份有限公司 | Method for Digital Enlargement of Image and Operation Method of Graphical User Interface |
EP2803963A4 (en) * | 2012-01-12 | 2015-09-30 | Mission Infrared Electro Optics Technology Co Ltd | THERMAL IMAGING DEVICE AND NORMALIZED THERMAL IMAGE TAKING METHOD |
TWI446087B (en) * | 2012-08-03 | 2014-07-21 | Wistron Corp | Image capturing device with auto-focus function and auto-focus method |
CN103903221B (en) * | 2012-12-24 | 2018-04-27 | 腾讯科技(深圳)有限公司 | A kind of Picture Generation Method, device and system |
JP6484682B2 (en) * | 2017-09-11 | 2019-03-13 | マクセル株式会社 | IMAGING DEVICE AND VIDEO DISPLAY METHOD IN IMAGING DEVICE |
-
2004
- 2004-05-07 JP JP2004137960A patent/JP4371219B2/en not_active Expired - Lifetime
-
2005
- 2005-04-29 CN CNA2005100687274A patent/CN1694508A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2005323014A (en) | 2005-11-17 |
CN1694508A (en) | 2005-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101313565B (en) | Electronic camera and image processing device | |
US8379108B2 (en) | Electronic camera that detects and extracts faces | |
US20050248681A1 (en) | Digital camera | |
EP2549438B1 (en) | Apparatus and program for selecting photographic images | |
JP5055939B2 (en) | Digital camera | |
CN102231801A (en) | Electronic camera and image processing device | |
CN105934940B (en) | Image processing apparatus, method and program | |
JP2007310813A (en) | Image retrieving device and camera | |
JP4364466B2 (en) | Imaging device | |
JP2005323015A (en) | Digital camera | |
JP4371219B2 (en) | Digital camera | |
JP5181841B2 (en) | Imaging apparatus, imaging control program, image reproducing apparatus, and image reproducing program | |
JP2015008385A (en) | Image selection device, imaging device, and image selection program | |
JP4432886B2 (en) | Electronic camera | |
JP2001211418A (en) | Electronic camera | |
JP2005045601A (en) | Image photographing apparatus and program | |
JP2007150604A (en) | Electronic camera | |
JP5040964B2 (en) | Digital camera | |
JP4254467B2 (en) | Digital camera | |
JP4306399B2 (en) | Digital camera | |
JP4305119B2 (en) | Digital camera | |
KR101477535B1 (en) | Image searching method and apparatus, digital photographing apparatus using the same | |
JP2011109551A (en) | Image capturing apparatus | |
JP2005057623A (en) | Image data processor | |
JP2010039795A (en) | Data generation device and electronic camera for recognition, data generation program for recognition, and data generation method for recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070404 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20080528 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080529 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20081125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090812 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120911 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4371219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090825 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150911 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150911 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |