[go: up one dir, main page]

JP2014053706A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2014053706A
JP2014053706A JP2012195684A JP2012195684A JP2014053706A JP 2014053706 A JP2014053706 A JP 2014053706A JP 2012195684 A JP2012195684 A JP 2012195684A JP 2012195684 A JP2012195684 A JP 2012195684A JP 2014053706 A JP2014053706 A JP 2014053706A
Authority
JP
Japan
Prior art keywords
imaging
storage
search
response
electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012195684A
Other languages
Japanese (ja)
Inventor
Hisatoshi Omae
寿敏 大前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2012195684A priority Critical patent/JP2014053706A/en
Publication of JP2014053706A publication Critical patent/JP2014053706A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To ensure privacy on the face of a person.SOLUTION: An imager 18 outputs raw image data representing a scene captured on an image pick-up surface. The raw image data thus outputted is processed by a pre-processing circuit 22 and a post-processing circuit 28, and converted into image data of YUV form. A CPU 38 stores the image data of YUV form thus converted on a recording medium 42, in response to arrival at a preset storage time. The CPU 38 also searches a partial image representing the face of a person from the image data converted by the post-processing circuit 28, and delays storage processing of image data in response to search of the partial image.

Description

この発明は、電子カメラに関し、特に撮像シーンから特徴物体を探索する機能を有する、電子カメラに関する。   The present invention relates to an electronic camera, and more particularly to an electronic camera having a function of searching for a characteristic object from an imaging scene.

この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、シーンポジションとして「風景」が選択された状態でレリーズボタンが押圧操作されると、撮影範囲から人物の顔を検出する処理が実行される。   An example of this type of camera is disclosed in Patent Document 1. According to this background art, when the release button is pressed with “landscape” selected as the scene position, a process of detecting a human face from the shooting range is executed.

顔が検出されると、人物のいる風景の撮影に適切な場面設定パラメータに従って1回目の撮影が行われ、次に人物のいない風景の撮影に適切な場面設定パラメータに従って2回目の撮影が行われる。これに対して、顔が検出されなければ、人物のいない風景の撮影に適切な場面設定パラメータに従う単一の撮影が行われる。   When a face is detected, the first shooting is performed according to a scene setting parameter appropriate for shooting a scene with a person, and the second shooting is performed according to a scene setting parameter appropriate for shooting a scene without a person. . On the other hand, if no face is detected, a single shooting is performed in accordance with scene setting parameters suitable for shooting a landscape without a person.

特開2009−33386号公報JP 2009-33386 A

しかし、背景技術では、顔の検出の有無に関わらず少なくとも1回は撮影が行われる。このため、予期せずに撮影範囲に現れた人物のプライバシーの確保の観点では問題がある。   However, in the background art, photographing is performed at least once regardless of whether or not a face is detected. For this reason, there is a problem in terms of ensuring the privacy of a person who appears unexpectedly in the shooting range.

それゆえに、この発明の主たる目的は、特徴物体についてプライバシーを確保することができる、電子カメラを提供することである。   Therefore, a main object of the present invention is to provide an electronic camera that can ensure privacy for a characteristic object.

この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(18)、撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存手段(S49~S51)、特徴物体を表す部分画像を撮像手段から出力された電子画像から探索する探索手段(S63)、および探索手段の探知に応答して保存手段の処理を遅延させる遅延手段(S65~S67, S45)を備える。   An electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes an imaging unit (18) for outputting an electronic image representing a scene captured on an imaging plane, and an electronic image output from the imaging unit. Saving means for saving in response to the arrival of the saving time (S49 to S51), searching means for searching a partial image representing a feature object from an electronic image output from the imaging means (S63), and responding to detection by the searching means Delay means (S65 to S67, S45) for delaying the processing of the storage means.

好ましくは、撮像手段は電子画像を繰り返し出力し、探索手段は部分画像を繰り返し探索し、遅延手段は探索手段の探索結果が探知を示す毎に保存手段の処理を遅延させる。   Preferably, the imaging means repeatedly outputs an electronic image, the search means repeatedly searches for a partial image, and the delay means delays the processing of the storage means every time the search result of the search means indicates detection.

好ましくは、遅延手段の処理に関連してズーム倍率を変更する変更手段(S47)がさらに備えられる。   Preferably, a change means (S47) for changing the zoom magnification in relation to the processing of the delay means is further provided.

好ましくは、保存時刻が指定周期で到来するように時刻設定を施す設定手段(S31)がさらに備えられ、遅延手段による遅延時間は指定周期に相当する時間よりも短い。   Preferably, there is further provided setting means (S31) for setting the time so that the storage time arrives at the specified period, and the delay time by the delay means is shorter than the time corresponding to the specified period.

好ましくは、特徴物体は人物の顔部を含む。   Preferably, the feature object includes a human face.

この発明に従う撮像制御プログラムは、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(18)を備える電子カメラ(10)のプロセッサ(38)に、撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存ステップ(S49~S51)、特徴物体を表す部分画像を撮像手段から出力された電子画像から探索する探索ステップ(S63)、および探索ステップの探知に応答して保存ステップの処理を遅延させる遅延ステップ(S65~S67, S45)を実行させるための、撮像制御プログラムである。   An imaging control program according to the present invention provides an electronic image output from an imaging unit to a processor (38) of an electronic camera (10) including an imaging unit (18) that outputs an electronic image representing a scene captured on the imaging plane. A storage step (S49 to S51) for storing in response to the arrival of the storage time, a search step (S63) for searching a partial image representing a feature object from an electronic image output from the imaging means, and a response to detection of the search step This is an imaging control program for executing delay steps (S65 to S67, S45) for delaying the processing of the storage step.

この発明に従う撮像制御方法は、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(18)を備える電子カメラ(10)によって実行される撮像制御方法であって、撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存ステップ(S49~S51)、特徴物体を表す部分画像を撮像手段から出力された電子画像から探索する探索ステップ(S63)、および探索ステップの探知に応答して保存ステップの処理を遅延させる遅延ステップ(S65~S67, S45)を備える。   An imaging control method according to the present invention is an imaging control method executed by an electronic camera (10) including an imaging means (18) that outputs an electronic image representing a scene captured on an imaging surface, and is output from the imaging means. A storage step (S49 to S51) for storing the electronic image in response to the arrival of the storage time, a search step (S63) for searching the partial image representing the feature object from the electronic image output from the imaging means, and a search step A delay step (S65 to S67, S45) for delaying the processing of the storage step in response to the detection is provided.

この発明に従う外部制御プログラムは、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(18)、およびメモリ(46)に保存された内部制御プログラムに従う処理を実行するプロセッサ(38)を備える電子カメラ(10)に供給される外部制御プログラムであって、撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存ステップ(S49~S51)、特徴物体を表す部分画像を撮像手段から出力された電子画像から探索する探索ステップ(S63)、および探索ステップの探知に応答して保存ステップの処理を遅延させる遅延ステップ(S65~S67, S45)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention includes an imaging means (18) for outputting an electronic image representing a scene captured on an imaging surface, and a processor (38) for executing processing according to an internal control program stored in a memory (46). A storage step (S49 to S51) for storing an electronic image output from the imaging means in response to arrival of a storage time, a partial image representing a characteristic object, which is an external control program supplied to the electronic camera (10) provided Search step (S63) for searching the electronic image output from the imaging means, and a delay step (S65 to S67, S45) for delaying the processing of the storage step in response to detection of the search step in cooperation with the internal control program And an external control program for causing the processor to execute the program.

この発明に従う電子カメラ(10)は、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(18)、外部制御プログラムを取り込む取り込み手段(48)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(46)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(38)を備える電子カメラ(10)であって、外部制御プログラムは、撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存ステップ(S49~S51)、特徴物体を表す部分画像を撮像手段から出力された電子画像から探索する探索ステップ(S63)、および探索ステップの探知に応答して保存ステップの処理を遅延させる遅延ステップ(S65~S67, S45)を内部制御プログラムと協働して実行するプログラムに相当する。   An electronic camera (10) according to the present invention includes an image pickup means (18) for outputting an electronic image representing a scene captured on an image pickup surface, an input means (48) for acquiring an external control program, and an external control acquired by the input means. An electronic camera (10) comprising a processor (38) that executes processing according to a program and an internal control program stored in a memory (46), wherein the external control program stores the electronic image output from the imaging means at a storage time A storage step (S49 to S51) for storing in response to the arrival of a search, a search step (S63) for searching a partial image representing a feature object from an electronic image output from the imaging means, and a storage in response to detection of the search step This corresponds to a program that executes the delay steps (S65 to S67, S45) for delaying the processing of the steps in cooperation with the internal control program.

撮像手段から出力された電子画像は保存時刻の到来に応答して保存されるところ、保存時刻が到来した時点で撮像シーンに特徴物体が存在すれば、保存処理が遅延される。これによって、特徴物体に関するプライバシーが確保される。こうして、撮像性能が向上する。   The electronic image output from the imaging unit is stored in response to the arrival of the storage time. If a feature object exists in the imaging scene when the storage time arrives, the storage process is delayed. This ensures privacy for the feature object. Thus, the imaging performance is improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 図2実施例に適用される顔検出回路の構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a configuration of a face detection circuit applied to the embodiment in FIG. 2; FIG. ノーマル撮像モードの下で捉えられたシーンの一例を示す図解図である。It is an illustration figure which shows an example of the scene caught under normal imaging mode. インターバル撮像モードの下で参照されるレジスタの構成の一例を示す図解図である。It is an illustration figure which shows an example of a structure of the register referred under interval imaging mode. (A)はインターバル撮像モードの下で捉えられたシーンの一例を示す図解図であり、(B)はインターバル撮像モードの下で捉えられたシーンの他の一例を示す図解図である。(A) is an illustrative view showing an example of a scene captured under the interval imaging mode, and (B) is an illustrative view showing another example of a scene captured under the interval imaging mode. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; この発明の他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この発明の電子カメラは、基本的に次のように構成される。撮像手段1は、撮像面で捉えられたシーンを表す電子画像を出力する。保存手段2は、撮像手段1から出力された電子画像を保存時刻の到来に応答して保存する。探索手段3は、特徴物体を表す部分画像を撮像手段1から出力された電子画像から探索する。遅延手段4は、探索手段3の探知に応答して保存手段2の処理を遅延させる。   Referring to FIG. 1, the electronic camera of the present invention is basically configured as follows. The imaging unit 1 outputs an electronic image representing a scene captured on the imaging surface. The storage unit 2 stores the electronic image output from the imaging unit 1 in response to the arrival of the storage time. The search unit 3 searches for a partial image representing the characteristic object from the electronic image output from the imaging unit 1. The delay unit 4 delays the processing of the storage unit 2 in response to the detection of the search unit 3.

撮像手段1から出力された電子画像は保存時刻の到来に応答して保存されるところ、保存時刻が到来した時点で撮像シーンに特徴物体が存在すれば、保存処理が遅延される。これによって、特徴物体に関するプライバシーが確保される。こうして、撮像性能が向上する。
[実施例]
The electronic image output from the imaging unit 1 is stored in response to the arrival of the storage time. However, if a feature object exists in the imaging scene when the storage time arrives, the storage process is delayed. This ensures privacy for the feature object. Thus, the imaging performance is improved.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ20a〜20cによってそれぞれ駆動されるズームレンズ12,フォーカスレンズ14および絞りユニット16を含む。これらの部材を経た光学像は、イメージャ18の撮像面に照射され、光電変換を施される。これによって、光学像に対応する電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a zoom lens 12, a focus lens 14, and an aperture unit 16 that are respectively driven by drivers 20a to 20c. The optical image that has passed through these members is irradiated onto the imaging surface of the imager 18 and subjected to photoelectric conversion. Thereby, a charge corresponding to the optical image is generated.

キー入力装置44に設けられたモードキー44mdによってノーマル撮像モードが選択されると、CPU38は、ノーマル撮像タスクの下で動画取り込み処理を実行するべく、露光動作および電荷読み出し動作の繰り返しをドライバ20dに命令する。ドライバ20dは、図示しないSG(Signal Generator)から1/30秒毎に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ18からは、読み出された電荷に基づく生画像データが30fpsのフレームレートで出力される。   When the normal imaging mode is selected by the mode key 44 md provided on the key input device 44, the CPU 38 repeats the exposure operation and the charge readout operation to the driver 20 d in order to execute the moving image capturing process under the normal imaging task. Command. In response to a vertical synchronization signal Vsync generated every 1/30 seconds from an SG (Signal Generator) (not shown), the driver 20d exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the imager 18, raw image data based on the read electric charges is output at a frame rate of 30 fps.

前処理回路22は、イメージャ18から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路24を通してSDRAM26の生画像エリア26aに書き込まれる。   The preprocessing circuit 22 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the imager 18. The raw image data subjected to these processes is written into the raw image area 26 a of the SDRAM 26 through the memory control circuit 24.

後処理回路28は、生画像エリア26aに格納された生画像データをメモリ制御回路24を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路24によってSDRAM26のYUV画像エリア26bに書き込まれる。   The post-processing circuit 28 reads the raw image data stored in the raw image area 26a through the memory control circuit 24, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. The YUV format image data generated thereby is written into the YUV image area 26 b of the SDRAM 26 by the memory control circuit 24.

LCDドライバ30は、YUV画像エリア26bに格納された画像データをメモリ制御回路24を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ32を駆動する。この結果、撮像面で捉えられたシーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 30 repeatedly reads out the image data stored in the YUV image area 26b through the memory control circuit 24, and drives the LCD monitor 32 based on the read image data. As a result, a real-time moving image (through image) representing the scene captured on the imaging surface is displayed on the monitor screen.

キー入力装置44に設けられたズームボタン44zmが操作されると、CPU38は、ドライバ20aを通してズームレンズ12を光軸方向に移動させる。この結果、スルー画像の倍率が変化する。   When a zoom button 44zm provided on the key input device 44 is operated, the CPU 38 moves the zoom lens 12 in the optical axis direction through the driver 20a. As a result, the magnification of the through image changes.

図3を参照して、撮像面には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において32分割され、1024個の分割エリアによって評価エリアEVAが形成される。また、図2に示す前処理回路22は、上述した処理に加えて、生画像データを簡易的にYデータに変換する簡易Y変換処理を実行する。   Referring to FIG. 3, an evaluation area EVA is assigned to the imaging surface. The evaluation area EVA is divided into 32 in each of the horizontal direction and the vertical direction, and an evaluation area EVA is formed by 1024 divided areas. In addition to the above-described processing, the preprocessing circuit 22 shown in FIG. 2 executes simple Y conversion processing that simply converts raw image data into Y data.

AE/AF評価回路34は、前処理回路22によって生成されたYデータのうち評価エリアEVAに属するYデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、1024個の積分値つまり1024個のAE評価値が、垂直同期信号Vsyncに応答してAE/AF評価回路34から出力される。   The AE / AF evaluation circuit 34 integrates Y data belonging to the evaluation area EVA among the Y data generated by the preprocessing circuit 22 every time the vertical synchronization signal Vsync is generated. Accordingly, 1024 integral values, that is, 1024 AE evaluation values are output from the AE / AF evaluation circuit 34 in response to the vertical synchronization signal Vsync.

AE/AF評価回路34はまた、前処理回路22によって生成されたYデータのうち評価エリアEVAに属するYデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、1024個の積分値つまり1024個のAF評価値が、垂直同期信号Vsyncに応答してAE/AF評価回路34から出力される。   The AE / AF evaluation circuit 34 also integrates the high-frequency component of Y data belonging to the evaluation area EVA among the Y data generated by the preprocessing circuit 22 every time the vertical synchronization signal Vsync is generated. As a result, 1024 integral values, that is, 1024 AF evaluation values are output from the AE / AF evaluation circuit 34 in response to the vertical synchronization signal Vsync.

キー入力装置44に設けられたシャッタボタン44shが非操作状態にあるとき、CPU38は、撮像面に固定的に設定された参照エリアに属する一部のAE評価値をAE/AF評価回路34から出力された1024個のAE評価値の中から抽出し、抽出されたAE評価値に基づいて簡易AE処理を実行する。これによって算出された適正EV値を定義する絞り量および露光時間は、ドライバ20cおよび20dに設定される。これによって、参照エリアに属する画像の明るさが適正値を示すように露光量が調整される。   When the shutter button 44 sh provided on the key input device 44 is in a non-operating state, the CPU 38 outputs a part of the AE evaluation values belonging to the reference area fixedly set on the imaging surface from the AE / AF evaluation circuit 34. The extracted 1024 AE evaluation values are extracted, and simple AE processing is executed based on the extracted AE evaluation values. The aperture amount and the exposure time that define the appropriate EV value calculated in this way are set in the drivers 20c and 20d. Thereby, the exposure amount is adjusted so that the brightness of the image belonging to the reference area shows an appropriate value.

CPU38はさらに、人物の顔部を探索する顔探索処理をノーマル撮像タスクと並列する顔検出タスクの下で繰り返し実行する。顔探索処理にあたっては、垂直同期信号Vsyncがたとえば10回発生する毎に、探索要求が顔検出回路36に向けて発行される。   Further, the CPU 38 repeatedly executes a face search process for searching for a human face under a face detection task in parallel with the normal imaging task. In the face search process, a search request is issued to the face detection circuit 36 every time the vertical synchronization signal Vsync is generated ten times, for example.

顔検出回路36は、図4に示すように構成される。コントローラ36aは、YUV画像エリア26bに矩形の照合枠を割り当て、照合枠に属する一部の画像データをメモリ制御回路24を通して読み出す。読み出された画像データは、SRAM36bを経て照合回路36cに与えられる。   The face detection circuit 36 is configured as shown in FIG. The controller 36a assigns a rectangular collation frame to the YUV image area 26b, and reads out part of the image data belonging to the collation frame through the memory control circuit 24. The read image data is given to the verification circuit 36c via the SRAM 36b.

照合回路36cは、SRAM36bから与えられた画像データを辞書36dに収められた複数の顔画像の各々と照合する。いずれかの顔画像と符合する画像データが探知されると、照合回路36cは、現時点の照合枠の位置およびサイズをレジスタ36eに登録する。   The collation circuit 36c collates the image data given from the SRAM 36b with each of the plurality of face images stored in the dictionary 36d. When image data matching any one of the face images is detected, the matching circuit 36c registers the current position and size of the matching frame in the register 36e.

照合枠は、YUV画像エリア26bの先頭位置(左上位置)から末尾位置(右下位置)に向けて、ラスタ走査態様で既定量ずつ移動する。また、照合枠のサイズは、照合枠が末尾位置に到達する毎に更新される。既定回数のラスタ走査が完了すると、探索終了通知が照合回路36cからCPU38に返送される。   The collation frame moves by a predetermined amount in a raster scanning manner from the head position (upper left position) to the end position (lower right position) of the YUV image area 26b. The size of the verification frame is updated every time the verification frame reaches the end position. When the predetermined number of raster scans are completed, a search end notification is returned from the verification circuit 36c to the CPU 38.

CPU38は、顔検出回路36から返送された探索終了通知に応答して、人物の顔画像が探知されたか否かを判別する。レジスタ36eに登録が存在すれば、CPU38は、顔画像が探知されたことを表明するべくフラグFLGfaceを“1”に設定する。これに対して、レジスタ36eに登録が存在しなければ、CPU38は、顔画像が探知されなかったことを表明するべくフラグFLGfaceを“0”に設定する。   In response to the search end notification returned from the face detection circuit 36, the CPU 38 determines whether a human face image has been detected. If there is a registration in the register 36e, the CPU 38 sets a flag FLGface to “1” to indicate that a face image has been detected. On the other hand, if there is no registration in the register 36e, the CPU 38 sets the flag FLGface to “0” in order to express that the face image has not been detected.

ノーマル撮像タスクに戻って、シャッタボタン44shが半押しされると、CPU38は、フラグFLGfaceの状態とレジスタ36eの記述とを参照して参照エリアを設定する。フラグFLGfaceが“0”を示していれば、顔画像は探索されなかったものとみなされ、撮像面の中央に参照エリアが設定される。これに対して、フラグFLGfaceが“1”を示していれば、顔画像が探知されたものとみなされ、レジスタ36eに記述されたサイズに相当するサイズを有する参照エリアがレジスタ36eに記述された位置に相当する位置に配置される。   Returning to the normal imaging task, when the shutter button 44sh is half-pressed, the CPU 38 sets the reference area with reference to the state of the flag FLGface and the description of the register 36e. If the flag FLGface indicates “0”, it is considered that the face image has not been searched, and a reference area is set at the center of the imaging surface. On the other hand, if the flag FLGface indicates “1”, it is considered that the face image has been detected, and a reference area having a size corresponding to the size described in the register 36e is described in the register 36e. It is arranged at a position corresponding to the position.

したがって、図5に示すシーンが捉えられた状態でシャッタボタン44shが半押しされると、参照エリアは、少年の顔画像を覆うサイズを有して、少年の顔画像の位置に配置される。   Therefore, when the shutter button 44sh is half-pressed in a state where the scene shown in FIG. 5 is captured, the reference area has a size that covers the boy's face image and is arranged at the position of the boy's face image.

参照エリアの設定が完了すると、CPU38は、参照エリアに属する一部のAE評価値を参照した厳格AE処理を実行し、最適EV値を算出する。算出された最適EV値を定義する絞り量および露光時間もまたドライバ20cおよび20dに設定され、これによって参照エリアに属する画像の明るさが最適値を示すように露光量が調整される。   When the setting of the reference area is completed, the CPU 38 executes a strict AE process that refers to a part of the AE evaluation values belonging to the reference area, and calculates an optimal EV value. The aperture amount and the exposure time that define the calculated optimum EV value are also set in the drivers 20c and 20d, and thereby the exposure amount is adjusted so that the brightness of the image belonging to the reference area shows the optimum value.

CPU38はまた、参照エリアに属する一部のAF評価値を参照した厳格AF処理を実行する。フォーカスレンズ14は合焦点の探索のためにドライバ20bによって光軸方向に移動し、これによって発見された合焦点に配置される。この結果、参照エリアに属する画像の鮮鋭度が向上するようにフォーカスが調整される。   The CPU 38 also executes a strict AF process with reference to some AF evaluation values belonging to the reference area. The focus lens 14 is moved in the optical axis direction by the driver 20b in order to search for a focal point, and is arranged at the focal point discovered by this. As a result, the focus is adjusted so that the sharpness of the image belonging to the reference area is improved.

したがって、図5に示すシーンについては、少年の顔画像の明るさが最適値を示すように露光量が調整され、少年の顔画像の鮮鋭度が向上するようにフォーカスが調整される。   Therefore, for the scene shown in FIG. 5, the exposure amount is adjusted so that the brightness of the boy's face image shows the optimum value, and the focus is adjusted so that the sharpness of the boy's face image is improved.

シャッタボタン44shが全押しされると、CPU38は静止画取り込み処理を実行する。この結果、シャッタボタン44shが全押しされた時点のシーンを表す1フレームの画像データがYUV画像エリア26bから静止画像エリア26cに退避される。CPU38は続いて、記録媒体42に画像ファイルを新規に作成し、静止画像エリア26cに退避された画像データの保存をメモリI/F40に命令する。メモリI/F40は、静止画像エリア26cに格納された1フレームの画像データをメモリ制御回路24を通して読み出し、読み出された画像データを新規作成された画像ファイルに保存する。   When the shutter button 44sh is fully pressed, the CPU 38 executes a still image capturing process. As a result, one frame of image data representing the scene at the time when the shutter button 44sh is fully pressed is saved from the YUV image area 26b to the still image area 26c. Subsequently, the CPU 38 creates a new image file on the recording medium 42 and instructs the memory I / F 40 to save the image data saved in the still image area 26c. The memory I / F 40 reads one frame of image data stored in the still image area 26c through the memory control circuit 24, and stores the read image data in a newly created image file.

モードキー44mdによってインターバル撮像モードが選択されると、CPU38は、インターバル撮像タスクの下で撮像インターバル設定(=保存周期および保存フレーム数)を有効化する。保存周期および保存フレーム数は、図6に示すレジスタ38rに記述される。CPU38はまた、記録媒体42に画像ファイルを新規に作成する。   When the interval imaging mode is selected by the mode key 44md, the CPU 38 validates the imaging interval setting (= save period and save frame number) under the interval imaging task. The storage cycle and the number of storage frames are described in the register 38r shown in FIG. The CPU 38 also creates a new image file on the recording medium 42.

なお、インターバル撮影モードは、散歩をするユーザの胸元にディジタルカメラ10を掛け、1分おきに自動的に撮影を行うような場合に選択される。   The interval shooting mode is selected when the digital camera 10 is put on the chest of a user taking a walk and shooting is automatically performed every other minute.

保存周期が到来すると、CPU38は、上述と同様の動画取り込み処理を実行し、これによってイメージャ18から出力された生画像データに基づいて厳格AE処理およびAF処理を実行する。このとき、参照エリアは、撮像面の中央に固定的に割り当てられる。   When the storage cycle arrives, the CPU 38 executes a moving image capturing process similar to that described above, and thereby executes a strict AE process and an AF process based on the raw image data output from the imager 18. At this time, the reference area is fixedly assigned to the center of the imaging surface.

厳格AE処理は生画像データに基づいて作成された1024個のAE評価値のうち参照エリアに属する一部のAE評価値を参照して実行され、AF処理もまた生画像データに基づいて作成された1024個のAF評価値のうち参照エリアに属する一部のAF評価値に基づいて実行される。   The strict AE process is executed with reference to some AE evaluation values belonging to the reference area among the 1024 AE evaluation values created based on the raw image data, and the AF process is also created based on the raw image data. This is executed based on some AF evaluation values belonging to the reference area among the 1024 AF evaluation values.

この結果、参照エリアに属する部分画像の明るさが最適値を示すように露光量が調整され、参照エリアに属する部分画像の鮮鋭度が向上するようにフォーカスレンズ14の配置が調整される。   As a result, the exposure amount is adjusted so that the brightness of the partial image belonging to the reference area shows the optimum value, and the arrangement of the focus lens 14 is adjusted so that the sharpness of the partial image belonging to the reference area is improved.

上述した顔検出タスクは、インターバル撮像モードが選択されたときも、動画取り込み処理と並列して実行される。顔検出回路36は垂直同期信号Vsyncが10回発生する毎に起動され、YUV画像エリア26b上をラスタ走査態様で移動する照合枠内の画像データが辞書36dに収められた複数の顔画像の各々と照合される。いずれかの顔画像と符合する画像データが探知されると、現時点の照合枠の位置およびサイズが顔画像の位置およびサイズとしてレジスタ36eに登録される。フラグFLGfaceは、顔画像の非探知に対応して“0”に設定され、顔画像の探知に対応して“1”に設定される。   The face detection task described above is executed in parallel with the moving image capturing process even when the interval imaging mode is selected. The face detection circuit 36 is activated every time the vertical synchronization signal Vsync is generated 10 times, and each of a plurality of face images in which image data in a collation frame moving in a raster scanning manner on the YUV image area 26b is stored in the dictionary 36d. Is matched. When image data matching any of the face images is detected, the current position and size of the matching frame are registered in the register 36e as the position and size of the face image. The flag FLGface is set to “0” corresponding to the non-detection of the face image, and is set to “1” corresponding to the detection of the face image.

CPU38は、こうして調整されるフラグFLGfaceが“1”を示すとき、撮像シーンに人物の顔部が存在するとみなしてズームレンズ12を光軸方向に既定量だけ移動させる。ズーム倍率の変更または人物自身の移動によって人物の顔部が撮像シーンから外れると、フラグFLGfaceが“1”から“0”に更新される。   When the flag FLGface thus adjusted indicates “1”, the CPU 38 considers that a human face exists in the imaging scene and moves the zoom lens 12 by a predetermined amount in the optical axis direction. When the face part of the person is removed from the imaging scene by changing the zoom magnification or moving the person himself, the flag FLGface is updated from “1” to “0”.

したがって、保存周期が到来した時点で捉えられた撮像シーンが図7(A)に示すシーンであれば、フラグFLGfaceは“1”を示し、ズーム倍率が変更される。ズーム倍率の変更または人物の移動によって撮像シーンが図7(B)に示すシーンに遷移すると、フラグFLGfaceは“1”から“0”に更新される。   Therefore, if the captured scene captured at the time when the storage cycle arrives is the scene shown in FIG. 7A, the flag FLGface indicates “1”, and the zoom magnification is changed. When the imaging scene changes to the scene shown in FIG. 7B by changing the zoom magnification or moving the person, the flag FLGface is updated from “1” to “0”.

CPU38は、フラグFLGfaceの“1”から“0”への更新に応答して静止画取り込み処理を実行する。つまり、静止画取り込み処理の実行タイミングは、フラグFLGfaceが“1”から“0”に更新されるまで遅延される。静止画像エリア26cには、フラグFLGfaceが“1”から“0”に更新された時点のシーンを表す1フレームの画像データが退避される。退避された画像データに人物の顔画像が現れることはなく、見知らぬ人物つまり撮影を承諾していない人物のプライバシーが確保される。   The CPU 38 executes the still image capturing process in response to the update of the flag FLGface from “1” to “0”. That is, the execution timing of the still image capturing process is delayed until the flag FLGface is updated from “1” to “0”. In the still image area 26c, one frame of image data representing a scene at the time when the flag FLGface is updated from “1” to “0” is saved. A face image of a person does not appear in the saved image data, and the privacy of an unknown person, that is, a person who has not accepted photographing, is ensured.

CPU38はその後、静止画像エリア26cに退避された画像データの保存をメモリI/F40に命令する。メモリI/F40は、静止画像エリア26cに格納された1フレームの画像データをメモリ制御回路24を通して読み出し、読み出された画像データをインターバル撮像タスクの起動時に作成された画像ファイルに保存する。動画取り込み処理は保存処理が完了した時点で停止され、これに伴って顔検出タスクも停止される。   Thereafter, the CPU 38 instructs the memory I / F 40 to save the image data saved in the still image area 26c. The memory I / F 40 reads one frame of image data stored in the still image area 26c through the memory control circuit 24, and stores the read image data in an image file created when the interval imaging task is activated. The moving image capturing process is stopped when the storing process is completed, and the face detection task is also stopped accordingly.

動画取り込み処理が開始されてから停止されるまでの上述の処理は、保存周期が到来する毎に繰り返し実行される。インターバル撮像タスクは、画像ファイルに保存された画像データのフレーム数が目標値に達したときに終了される。   The above-described processing from when the moving image capturing processing is started to when it is stopped is repeatedly executed every time the storage cycle comes. The interval imaging task is ended when the number of frames of the image data stored in the image file reaches the target value.

CPU38は、図8に示すノーマル撮像タスク,図9〜図10に示すインターバル撮像タスク,および図11に示す顔検出タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ46に記憶される。   The CPU 38 executes in parallel a plurality of tasks including a normal imaging task shown in FIG. 8, an interval imaging task shown in FIGS. 9 to 10, and a face detection task shown in FIG. Note that control programs corresponding to these tasks are stored in the flash memory 46.

図8を参照して、ステップS1では動画取り込み処理を実行し、ステップS3では顔検出タスクを起動する。ステップS1の処理の結果、撮像面で捉えられたシーンを表す生画像データがイメージセンサ18から繰り返し出力され、出力された生画像データに基づくスルー画像がLCDモニタ32に表示される。また、ステップS3で起動した顔検出タスクによって、YUV画像エリア26bに格納された画像データから人物の顔画像が探索される。   Referring to FIG. 8, a moving image capturing process is executed in step S1, and a face detection task is activated in step S3. As a result of the processing in step S1, raw image data representing a scene captured on the imaging surface is repeatedly output from the image sensor 18, and a through image based on the output raw image data is displayed on the LCD monitor 32. Further, the face detection task activated in step S3 searches for a human face image from the image data stored in the YUV image area 26b.

ステップS5では、シャッタボタン44shが半押しされたか否かを判別する。判別結果がNOであればステップS7に進み、撮像面の中央に固定的に割り当てられた参照エリアに属するAE評価値に基づいて簡易AE処理を実行する。この結果、スルー画像の中央部分の明るさが適正値を示すように露光量が調整される。   In step S5, it is determined whether or not the shutter button 44sh has been half-pressed. If the determination result is NO, the process proceeds to step S7, and simple AE processing is executed based on the AE evaluation value belonging to the reference area fixedly assigned to the center of the imaging surface. As a result, the exposure amount is adjusted so that the brightness of the central portion of the through image shows an appropriate value.

ステップS9ではズームボタン44zmが操作状態であるか否かを判別し、判別結果がNOであればそのままステップS5に戻る一方、判別結果がYESであればステップS11でズームレンズ12を光軸方向に移動させてからステップS5に戻る。ステップS11の処理の結果、スルー画像の倍率が変化する。   In step S9, it is determined whether or not the zoom button 44zm is in the operating state. If the determination result is NO, the process returns to step S5 as it is. If the determination result is YES, the zoom lens 12 is moved in the optical axis direction in step S11. After the movement, the process returns to step S5. As a result of the processing in step S11, the magnification of the through image changes.

ステップS5の判別結果がNOからYESに更新されるとステップS13に進み、フラグFLGfaceの状態とレジスタ36eの記述とを参照して参照エリアを設定する。フラグFLGfaceが“0”を示していれば、つまり顔画像が探知されなければ、参照エリアは撮像面の中央に設定される。これに対して、フラグFLGfaceが“1”を示していれば、つまり顔画像が探知されれば、参照エリアは、レジスタ36eに記述されたサイズに相当するサイズに調整され、レジスタ36eに記述された位置に相当する位置に配置される。   When the determination result of step S5 is updated from NO to YES, the process proceeds to step S13, and the reference area is set by referring to the state of the flag FLGface and the description of the register 36e. If the flag FLGface indicates “0”, that is, if no face image is detected, the reference area is set at the center of the imaging surface. On the other hand, if the flag FLGface indicates “1”, that is, if a face image is detected, the reference area is adjusted to a size corresponding to the size described in the register 36e and described in the register 36e. It is arranged at a position corresponding to the position.

ステップS15では、こうして設定された参照エリアに属するAE評価値およびAF評価値に基づいて、厳格AE処理およびAF処理を実行する。厳格AE処理の結果、参照エリアに属する部分画像の明るさが最適値を示すように露光量が調整される。また、厳格AF処理の結果、参照エリアに属する部分画像の鮮鋭度が向上するようにフォーカスレンズ14の配置が調整される。   In step S15, the strict AE process and the AF process are executed based on the AE evaluation value and the AF evaluation value belonging to the reference area thus set. As a result of the strict AE process, the exposure amount is adjusted so that the brightness of the partial image belonging to the reference area shows the optimum value. Further, as a result of the strict AF process, the arrangement of the focus lens 14 is adjusted so that the sharpness of the partial image belonging to the reference area is improved.

ステップS17ではシャッタボタン44shが全押しされたか否かを判別し、ステップS19ではシャッタボタン44shの操作が解除されたか否かを判別する。ステップS19の判別結果がYESであればそのままステップS5に戻り、ステップS17の判別結果がYESであればステップS21〜S25の処理を経てステップS5に戻る。   In step S17, it is determined whether or not the shutter button 44sh is fully pressed. In step S19, it is determined whether or not the operation of the shutter button 44sh is released. If the determination result of step S19 is YES, it will return to step S5 as it is, and if the determination result of step S17 is YES, it will return to step S5 through the process of steps S21-S25.

ステップS21では、静止画取り込み処理を実行する。この結果、シャッタボタン44shが全押しされた時点のシーンを表す1フレームの画像データがYUV画像エリア26bから静止画像エリア26cに退避される。ステップS23では記録媒体42に画像ファイルを新規に作成し、ステップS25では静止画像エリア26cに退避された画像データの保存をメモリI/F40に命令する。メモリI/F40は、静止画像エリア26cに格納された1フレームの画像データをメモリ制御回路24を通して読み出し、読み出された画像データをステップS23で作成された画像ファイルに保存する。   In step S21, a still image capturing process is executed. As a result, one frame of image data representing the scene at the time when the shutter button 44sh is fully pressed is saved from the YUV image area 26b to the still image area 26c. In step S23, a new image file is created on the recording medium 42. In step S25, the memory I / F 40 is instructed to save the image data saved in the still image area 26c. The memory I / F 40 reads one frame of image data stored in the still image area 26c through the memory control circuit 24, and stores the read image data in the image file created in step S23.

図9を参照して、ステップS31では撮像インターバル設定(=保存周期および保存フレーム数)を有効化し、ステップS33では記録媒体42に画像ファイルを新規に作成する。ステップS35では保存周期が到来したか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS37で動画取り込み処理を実行するとともに、ステップS39で顔検出タスクを起動する。   Referring to FIG. 9, in step S31, the imaging interval setting (= storage cycle and number of storage frames) is validated, and in step S33, a new image file is created on the recording medium. In step S35, it is repeatedly determined whether or not the storage cycle has come. If the determination result is updated from NO to YES, the moving image capturing process is executed in step S37, and the face detection task is started in step S39.

ステップS37の処理の結果、撮像面で捉えられたシーンを表す生画像データがイメージセンサ18から繰り返し出力され、出力された生画像データに基づくスルー画像がLCDモニタ32に表示される。また、ステップS39で起動した顔検出タスクによって、YUV画像エリア26bに格納された画像データから人物の顔画像が探索される。   As a result of the processing in step S37, raw image data representing a scene captured on the imaging surface is repeatedly output from the image sensor 18, and a through image based on the output raw image data is displayed on the LCD monitor 32. Further, the face detection task activated in step S39 searches for a human face image from the image data stored in the YUV image area 26b.

ステップS41では厳格AE処理を実行し、ステップS43ではAF処理を実行する。このとき、参照エリアは、撮像面の中央に固定的に割り当てられる。厳格AE処理は参照エリアに属するAE評価値に基づいて実行され、この結果、参照エリアに属する部分画像の明るさが最適値を示すように露光量が調整される。AF処理もまた参照エリアに属するAF評価値に基づいて実行され、この結果、参照エリアに属する部分画像の鮮鋭度が向上するようにフォーカスレンズ14の配置が調整される。   In step S41, strict AE processing is executed, and in step S43, AF processing is executed. At this time, the reference area is fixedly assigned to the center of the imaging surface. The strict AE process is executed based on the AE evaluation value belonging to the reference area, and as a result, the exposure amount is adjusted so that the brightness of the partial image belonging to the reference area shows the optimum value. The AF process is also executed based on the AF evaluation value belonging to the reference area. As a result, the arrangement of the focus lens 14 is adjusted so that the sharpness of the partial image belonging to the reference area is improved.

ステップS45では、フラグFLGfaceが“0”を示すか否かを判別する。判別結果がNOであれば、顔画像が探知されたとみなし、ステップS47でズームレンズ12を光軸方向に既定量だけ移動させる。ステップS49以降の処理は、ズームレンズ12の移動に伴って遅延される。移動が完了するとステップS45に戻り、フラグFLGfaceの状態を再度判別する。ズーム倍率の変更または人物自身の移動によって人物の顔部が撮像シーンから外れると、顔画像が探知されなくなり、フラグFLGfaceが“1”から“0”に更新される。このとき、処理はステップS45からステップS49に進む。   In step S45, it is determined whether or not the flag FLGface indicates “0”. If the determination result is NO, it is considered that the face image has been detected, and the zoom lens 12 is moved by a predetermined amount in the optical axis direction in step S47. The processing after step S49 is delayed as the zoom lens 12 moves. When the movement is completed, the process returns to step S45, and the state of the flag FLGface is determined again. If the face part of the person moves out of the imaging scene due to the change of the zoom magnification or the movement of the person itself, the face image is not detected and the flag FLGface is updated from “1” to “0”. At this time, the process proceeds from step S45 to step S49.

ステップS49では、静止画取り込み処理を実行する。この結果、フラグFLGfaceが“1”から“0”に更新された時点のシーンを表す1フレームの画像データがYUV画像エリア26bから静止画像エリア26cに退避される。   In step S49, a still image capturing process is executed. As a result, one frame of image data representing the scene at the time when the flag FLGface is updated from “1” to “0” is saved from the YUV image area 26b to the still image area 26c.

ステップS51では静止画像エリア26cに退避された画像データの保存をメモリI/F40に命令する。メモリI/F40は、静止画像エリア26cに格納された1フレームの画像データをメモリ制御回路24を通して読み出し、読み出された画像データをステップS33で作成された画像ファイルに保存する。   In step S51, the memory I / F 40 is instructed to save the image data saved in the still image area 26c. The memory I / F 40 reads one frame of image data stored in the still image area 26c through the memory control circuit 24, and saves the read image data in the image file created in step S33.

ステップS53の処理が完了すると、ステップS53で顔検出タスクを停止し、ステップS55で動画取り込み処理を停止する。ステップS57では、保存フレーム数が目標値に達したか否かを判別する。判別結果がNOであればステップS35に戻り、判別結果がYESであればインターバル撮像タスクを終了する。   When the process of step S53 is completed, the face detection task is stopped in step S53, and the moving image capturing process is stopped in step S55. In step S57, it is determined whether or not the number of stored frames has reached a target value. If the determination result is NO, the process returns to step S35, and if the determination result is YES, the interval imaging task is ended.

図11を参照して、ステップS61では、垂直同期信号VsyncがN回(N:たとえば10)発生したか否かを判別する。判別結果がNOからYESに更新されるとステップS63に進み、顔探索処理のために探索要求を顔検出回路36に向けて発行する。   Referring to FIG. 11, in step S61, it is determined whether or not the vertical synchronization signal Vsync has been generated N times (N: for example, 10). When the determination result is updated from NO to YES, the process proceeds to step S63, and a search request is issued to the face detection circuit 36 for face search processing.

顔検出回路36は、レジスタ36eの初期化を経て、YUV画像エリア26b上の照合枠をラスタ走査態様で既定量ずつ移動させる。顔検出回路36はまた、照合枠に属する一部の画像データを辞書36dに収められた複数の顔画像と照合する。いずれかの顔画像と符合する画像データが探知されると、顔検出回路36は、顔画像が探知されたとみなし、現時点の照合枠の位置およびサイズをレジスタ36eに登録する。探索終了通知は、既定回数のラスタ走査が完了したときに、顔検出回路36からCPU38に返送される。   The face detection circuit 36 moves the collation frame on the YUV image area 26b by a predetermined amount in a raster scanning manner after initialization of the register 36e. The face detection circuit 36 also collates a part of the image data belonging to the collation frame with a plurality of face images stored in the dictionary 36d. When image data matching any one of the face images is detected, the face detection circuit 36 considers that the face image has been detected, and registers the current position and size of the collation frame in the register 36e. The search end notification is returned from the face detection circuit 36 to the CPU 38 when a predetermined number of raster scans have been completed.

顔検出回路36から探索終了通知が返送されると、顔画像が探知されたか否かをステップS65で判別する。レジスタ36fに登録が存在すれば、顔画像が探知されたとみなし、ステップS67でフラグFLGfaceを“1”に設定する。これに対して、レジスタ36eに登録が存在しなければ、顔画像が探知されなかったとみなし、ステップS69でフラグFLGfaceを“0”に設定する。ステップS67またはS69の処理が完了すると、ステップS61に戻る。   When a search end notification is returned from the face detection circuit 36, it is determined in step S65 whether or not a face image has been detected. If registration exists in the register 36f, it is considered that a face image has been detected, and the flag FLGface is set to "1" in step S67. On the other hand, if there is no registration in the register 36e, it is considered that the face image has not been detected, and the flag FLGface is set to “0” in step S69. When the process of step S67 or S69 is completed, the process returns to step S61.

以上の説明から分かるように、イメージャ18は、撮像面で捉えられたシーンを表す生画像データを出力する。出力された生画像データは、前処理回路22および後処理回路28の処理を経てYUV形式の画像データに変換される。CPU38は、こうして変換されたYUV形式の画像データを事前に設定された保存時刻の到来に応答して記録媒体42に保存される(S49~S51)。CPU38はまた、人物の顔部(特徴物体)を表す部分画像を後処理回路28によって変換された画像データから探索し(S63)、部分画像の探知に応答して画像データの保存処理を遅延させる(S65~S67, S45)。   As can be understood from the above description, the imager 18 outputs raw image data representing a scene captured on the imaging surface. The output raw image data is converted into YUV format image data through the processing of the pre-processing circuit 22 and the post-processing circuit 28. The CPU 38 stores the thus-converted image data in the YUV format in the recording medium 42 in response to arrival of a preset storage time (S49 to S51). The CPU 38 also searches for the partial image representing the human face (characteristic object) from the image data converted by the post-processing circuit 28 (S63), and delays the image data storage process in response to the detection of the partial image. (S65 ~ S67, S45).

イメージャ18によって捉えられた撮像シーンを表す画像データは保存時刻の到来に応答して保存されるところ、保存時刻が到来した時点で撮像シーンに人物の顔部が存在すれば、保存処理が遅延される。これによって、人物の顔に関するプライバシーが確保される。   The image data representing the captured scene captured by the imager 18 is stored in response to the arrival of the storage time. If the person's face exists in the captured scene when the storage time arrives, the storage process is delayed. The As a result, privacy regarding the face of the person is ensured.

なお、この実施例では、人物の顔部を探索するようにしているが、探索の対象は動物の顔部であってもよく、さらには顔部以外の物体であってもよい。また、この実施例では、調整すべき撮像条件として露光量およびフォーカスを想定しているが、これに白バランスを追加するようにしてもよい。   In this embodiment, the face of a person is searched, but the search target may be an animal face or an object other than a face. In this embodiment, the exposure amount and focus are assumed as imaging conditions to be adjusted. However, white balance may be added thereto.

さらに、この実施例では、撮像シーンから人物の顔部が検出されたときに必ずズーム倍率を変更するようにしている。しかし、撮像シーンに現れた人物の顔部は、ディジタルカメラ10の移動および/または撮像シーンに現れた人物の移動によって撮像シーンから外れる可能性がある。したがって、保存される画像データに人物の顔画像が現れる事態を回避するには、少なくとも静止画取り込み処理のタイミングを遅延されればよく、ズーム倍率の変更は必須の処理ではない。   Furthermore, in this embodiment, the zoom magnification is always changed when a human face is detected from the imaged scene. However, there is a possibility that the face of a person appearing in the imaging scene may be removed from the imaging scene due to the movement of the digital camera 10 and / or the movement of the person appearing in the imaging scene. Therefore, in order to avoid a situation in which a person's face image appears in the stored image data, it is sufficient to delay at least the timing of the still image capturing process, and changing the zoom magnification is not an essential process.

また、この実施例では、ノーマル撮像モードが選択されたときは動画取り込み処理が継続的に実行されるのに対して、インターバル撮像モードが選択されると、動画取り込み処理は保存周期が到来する毎に(つまり間欠的なタイミングで)実行される。しかし、動画取り込み処理は、インターバル撮像モードが選択されている期間において継続的に実行するようにしてもよい。この場合、図9に示すステップS37はステップS31およびS33の間に移動し、ステップS55はステップS57の後段に移動する。これによって、SDRAM26への画像データの書き込みはインターバル撮像モードが選択されている限り継続的に実行され、このうちステップS45の判別結果がYESと判断された時点の1フレームの画像データが画像ファイルに保存される。   In this embodiment, when the normal imaging mode is selected, the moving image capturing process is continuously executed. On the other hand, when the interval imaging mode is selected, the moving image capturing process is performed every time the storage cycle arrives. (Ie, at intermittent timing). However, the moving image capturing process may be continuously executed during a period in which the interval imaging mode is selected. In this case, step S37 shown in FIG. 9 moves between steps S31 and S33, and step S55 moves to the subsequent stage of step S57. As a result, the writing of the image data to the SDRAM 26 is continuously executed as long as the interval imaging mode is selected. Among these, one frame of image data at the time when the determination result of step S45 is determined to be YES is stored in the image file. Saved.

また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ46に予め記憶される。しかし、図12に示すように通信I/F52をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ46に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 46 in advance. However, as shown in FIG. 12, a communication I / F 52 is provided in the digital camera 10 and a part of the control program is prepared in the flash memory 46 from the beginning as an internal control program, while another part of the control program is prepared as an external control program. May be acquired from an external server. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

さらに、この実施例では、CPU38によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   Furthermore, in this embodiment, the processing executed by the CPU 38 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルカメラ
18 …イメージャ
22 …前処理回路
34 …AE/AF評価回路
36 …顔検出回路
38 …CPU
DESCRIPTION OF SYMBOLS 10 ... Digital camera 18 ... Imager 22 ... Pre-processing circuit 34 ... AE / AF evaluation circuit 36 ... Face detection circuit 38 ... CPU

Claims (9)

撮像面で捉えられたシーンを表す電子画像を出力する撮像手段、
前記撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存手段、
特徴物体を表す部分画像を前記撮像手段から出力された電子画像から探索する探索手段、および
前記探索手段の探知に応答して前記保存手段の処理を遅延させる遅延手段を備える、電子カメラ。
Imaging means for outputting an electronic image representing a scene captured on the imaging surface;
Storage means for storing the electronic image output from the imaging means in response to the arrival of the storage time;
An electronic camera comprising: search means for searching a partial image representing a characteristic object from an electronic image output from the imaging means; and delay means for delaying processing of the storage means in response to detection by the search means.
前記撮像手段は前記電子画像を繰り返し出力し、
前記探索手段は前記部分画像を繰り返し探索し、
前記遅延手段は前記探索手段の探索結果が探知を示す毎に前記保存手段の処理を遅延させる、請求項1記載の電子カメラ。
The imaging means repeatedly outputs the electronic image,
The search means repeatedly searches the partial image,
The electronic camera according to claim 1, wherein the delay unit delays the processing of the storage unit every time the search result of the search unit indicates detection.
前記遅延手段の処理に関連してズーム倍率を変更する変更手段をさらに備える、請求項1または2記載の電子カメラ。   The electronic camera according to claim 1, further comprising changing means for changing a zoom magnification in relation to processing of the delay means. 前記保存時刻が指定周期で到来するように時刻設定を施す設定手段をさらに備え、
前記遅延手段による遅延時間は前記指定周期に相当する時間よりも短い、請求項1ないし3のいずれかに記載の電子カメラ。
Further comprising setting means for performing time setting so that the storage time arrives at a specified cycle;
The electronic camera according to claim 1, wherein a delay time by the delay means is shorter than a time corresponding to the specified period.
前記特徴物体は人物の顔部を含む、請求項1ないし4のいずれかに記載の電子カメラ。   The electronic camera according to claim 1, wherein the characteristic object includes a human face. 撮像面で捉えられたシーンを表す電子画像を出力する撮像手段を備える電子カメラのプロセッサに、
前記撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存ステップ、
特徴物体を表す部分画像を前記撮像手段から出力された電子画像から探索する探索ステップ、および
前記探索ステップの探知に応答して前記保存ステップの処理を遅延させる遅延ステップを実行させるための、撮像制御プログラム。
In a processor of an electronic camera including an imaging unit that outputs an electronic image representing a scene captured on the imaging surface,
A storage step of storing the electronic image output from the imaging means in response to the arrival of a storage time;
Imaging control for executing a search step for searching a partial image representing a characteristic object from an electronic image output from the imaging means, and a delay step for delaying the processing of the storage step in response to detection of the search step program.
撮像面で捉えられたシーンを表す電子画像を出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、
前記撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存ステップ、
特徴物体を表す部分画像を前記撮像手段から出力された電子画像から探索する探索ステップ、および
前記探索ステップの探知に応答して前記保存ステップの処理を遅延させる遅延ステップを備える、撮像制御方法。
An imaging control method executed by an electronic camera including an imaging unit that outputs an electronic image representing a scene captured on an imaging surface,
A storage step of storing the electronic image output from the imaging means in response to the arrival of a storage time;
An imaging control method, comprising: a search step of searching for a partial image representing a characteristic object from an electronic image output from the imaging means; and a delay step of delaying the processing of the storage step in response to detection of the search step.
撮像面で捉えられたシーンを表す電子画像を出力する撮像手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
前記撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存ステップ、
特徴物体を表す部分画像を前記撮像手段から出力された電子画像から探索する探索ステップ、および
前記探索ステップの探知に応答して前記保存ステップの処理を遅延させる遅延ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An external control program supplied to an electronic camera comprising an imaging means for outputting an electronic image representing a scene captured on an imaging surface, and a processor for executing processing according to an internal control program stored in a memory,
A storage step of storing the electronic image output from the imaging means in response to the arrival of a storage time;
In cooperation with the internal control program, a search step for searching for a partial image representing a characteristic object from the electronic image output from the imaging means, and a delay step for delaying the processing of the storage step in response to detection of the search step An external control program for causing the processor to execute the program.
撮像面で捉えられたシーンを表す電子画像を出力する撮像手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
前記外部制御プログラムは、
前記撮像手段から出力された電子画像を保存時刻の到来に応答して保存する保存ステップ、
特徴物体を表す部分画像を前記撮像手段から出力された電子画像から探索する探索ステップ、および
前記探索ステップの探知に応答して前記保存ステップの処理を遅延させる遅延ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。
Imaging means for outputting an electronic image representing a scene captured on the imaging surface;
An electronic camera comprising a capturing unit that captures an external control program, and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
A storage step of storing the electronic image output from the imaging means in response to the arrival of a storage time;
In cooperation with the internal control program, a search step for searching for a partial image representing a characteristic object from the electronic image output from the imaging means, and a delay step for delaying the processing of the storage step in response to detection of the search step An electronic camera equivalent to a program to be executed.
JP2012195684A 2012-09-06 2012-09-06 Electronic camera Pending JP2014053706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012195684A JP2014053706A (en) 2012-09-06 2012-09-06 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012195684A JP2014053706A (en) 2012-09-06 2012-09-06 Electronic camera

Publications (1)

Publication Number Publication Date
JP2014053706A true JP2014053706A (en) 2014-03-20

Family

ID=50611795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012195684A Pending JP2014053706A (en) 2012-09-06 2012-09-06 Electronic camera

Country Status (1)

Country Link
JP (1) JP2014053706A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005363A (en) * 2015-06-05 2017-01-05 カシオ計算機株式会社 Notification control apparatus, notification control method, and program
US10284732B2 (en) 2016-11-30 2019-05-07 Microsoft Technology Licensing, Llc Masking latency in USB photo capture

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005363A (en) * 2015-06-05 2017-01-05 カシオ計算機株式会社 Notification control apparatus, notification control method, and program
US10284732B2 (en) 2016-11-30 2019-05-07 Microsoft Technology Licensing, Llc Masking latency in USB photo capture

Similar Documents

Publication Publication Date Title
JP4974812B2 (en) Electronic camera
JP2011182151A (en) Image composing apparatus
JP5178441B2 (en) Electronic camera
JP4059704B2 (en) Video camera
US20110273578A1 (en) Electronic camera
JP2014053706A (en) Electronic camera
JP2012074894A (en) Electronic camera
JP6199065B2 (en) Electronic camera
JP2013225020A (en) Electronic camera
JP2012217106A (en) Image processing apparatus
US20110109760A1 (en) Electronic camera
JP2010200195A (en) Electronic camera
JP2012129796A (en) Image processing device
JP5644180B2 (en) Imaging apparatus, imaging method, and program
JP2013143755A (en) Electronic camera
JP2009145622A (en) Electronic camera
US20130016242A1 (en) Electronic camera
JP2014174217A (en) Electronic camera
JP2014030095A (en) Electronic camera
JP5356162B2 (en) Object image search device
JP2005323144A (en) Electronic camera
JP2013128254A (en) Electronic camera
JP2014036321A (en) Electron camera
JP5926039B2 (en) Image recording device
JP2014202863A (en) Electronic camera