JP4970716B2 - Electronic camera - Google Patents
Electronic camera Download PDFInfo
- Publication number
- JP4970716B2 JP4970716B2 JP2004254396A JP2004254396A JP4970716B2 JP 4970716 B2 JP4970716 B2 JP 4970716B2 JP 2004254396 A JP2004254396 A JP 2004254396A JP 2004254396 A JP2004254396 A JP 2004254396A JP 4970716 B2 JP4970716 B2 JP 4970716B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- unit
- instruction
- electronic camera
- composition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Description
本発明は、構図アシスト用のフレームを表示可能な電子カメラに関する。 The present invention relates to an electronic camera capable of displaying a composition assist frame.
従来より、撮影者が撮影の構図を決定しやすいようにするために、構図アシスト用のフレームを表示する電子カメラが知られている(例えば、特許文献1参照)。構図アシスト用のフレームは、例えば、被写体人物を収めるための枠を画像の左右のいずれかに偏って配置させたものである。この構図アシスト用のフレームでは、人物とは反対側から画像の中央に亘って空間ができるので、この空間に風景を効果的に収めることができる。この構図アシスト用のフレームを用いる場合、画像の中央、即ち、風景側に被写体の顔を向かせることで、落ち着いた雰囲気を演出することが多い。 2. Description of the Related Art Conventionally, an electronic camera that displays a composition assist frame is known in order to make it easier for a photographer to determine a composition for photographing (see, for example, Patent Document 1). The composition assist frame is, for example, one in which a frame for accommodating a subject person is arranged so as to be biased to either the left or right of the image. In this composition assisting frame, a space is created from the opposite side of the person to the center of the image, so that the landscape can be effectively accommodated in this space. When this composition assist frame is used, a calm atmosphere is often produced by directing the subject's face toward the center of the image, that is, the landscape side.
一般に、構図アシスト用のフレームは、電子カメラの背面の液晶表示装置に、被写体のスルー画と重ねて表示される。撮影の際は、表示画像における被写体の位置及び大きさが構図アシスト用のフレームに合うように、電子カメラの向き、撮影レンズのズーム位置、被写体と電子カメラとの距離などを変えていた。そして、構図アシスト用のフレームに被写体画像が合ったところで撮影していた。
上述のように構図アシスト用のフレームを用いる場合、撮影者は、液晶表示装置を見ながら撮影するが、太陽光が当たる等によって液晶表示装置が見づらいことがある。このような撮影条件の下では、撮影者は、被写体人物が構図アシスト用のフレームに収まっているか否かの確認はできても、被写体人物の顔の向き等の細かい点の確認は困難である。このため、例えば前述したように被写体人物を偏って配置させる構図アシスト用のフレームを用いる場合、被写体人物の顔が風景の方を向いていないことに気づかずに撮影してしまうことがあった。従って、容易な方法により、撮影者が意図する構図に撮像画像をできる限り近づけることが望まれていた。 When the composition assist frame is used as described above, the photographer shoots while looking at the liquid crystal display device, but the liquid crystal display device may be difficult to see due to sunlight. Under such shooting conditions, the photographer can confirm whether or not the subject person is within the composition assist frame, but it is difficult to confirm details such as the orientation of the subject person's face. . For this reason, for example, when using a composition assisting frame in which the subject person is biased as described above, the subject person may be photographed without noticing that the face of the subject person is not facing the landscape. Therefore, it has been desired to bring the captured image as close as possible to the composition intended by the photographer by an easy method.
本発明の目的は、構図アシスト用のフレームを表示可能な電子カメラにおいて、表示装置が見づらい条件の下でも、撮影者が意図する構図に撮像画像を近づける技術を提供することである。 An object of the present invention is to provide a technique for bringing a captured image closer to a composition intended by a photographer in an electronic camera capable of displaying a composition assisting frame even under conditions where the display device is difficult to see.
請求項1に記載の電子カメラは、撮影の構図を決定するためのガイド表示を行う表示部と、被写体を撮像して画像データを生成する撮像部と、前記画像データにおける、前記被写体の特徴部位を抽出する抽出部と、装置の正面側に配置され、前記ガイド表示が示す前記撮影の構図に前記被写体を近づけるための指示を出力する指示部とを備え、前記表示部は、前記ガイド表示を行うための所定のフレームに基づいてガイド表示を行い、前記所定のフレームは、当該所定のフレームに対する被写体状態を示す付帯情報が関連付けられてプログラムメモリに記憶され、前記指示部は、前記抽出された前記被写体の特徴部位及び前記付帯情報に基づいて、前記指示を前記被写体に視認可能に出力し、前記ガイド表示が示す前記撮影の構図に前記被写体を近づけるための指示と、前記付帯情報に基づく指示とを、前記被写体の視認により識別可能に出力することを特徴とする。The electronic camera according to claim 1, a display unit that performs guide display for determining a composition of shooting, an imaging unit that captures an image of a subject and generates image data, and a characteristic part of the subject in the image data And an instruction unit that is arranged on the front side of the apparatus and outputs an instruction to bring the subject closer to the photographing composition indicated by the guide display, and the display unit displays the guide display. Guide display is performed based on a predetermined frame to be performed, and the predetermined frame is associated with auxiliary information indicating a subject state with respect to the predetermined frame and stored in a program memory, and the instruction unit extracts the extracted information Based on the characteristic part of the subject and the incidental information, the instruction is output to the subject so as to be visible, and the subject composition is displayed in the photographing composition indicated by the guide display. Instructions and to approximate, the instructions and based on the supplementary information, and outputs to be identified by visual recognition of the object.
請求項2の発明は、請求項1記載の電子カメラにおいて、以下の点を特徴とする。第1に、抽出部は、被写体の顔領域を抽出する。第2に、指示部は、抽出された顔領域に基づいて、画像データが示す画像における被写体の視線の方向を被写体状態として推定して、被写体状態を撮影の構図に近づけるための指示を出力する。
The invention of
請求項3の発明は、請求項1または請求項2の電子カメラにおいて、指示部は、被写体に対して音声による指示を出力する第1の出力部と、撮影者に対して音声による指示を出力する第2の出力部とを備えたことを特徴とする。 According to a third aspect of the present invention, in the electronic camera according to the first or second aspect, the instruction unit outputs a voice instruction to the photographer and a first output unit that outputs a voice instruction to the subject. And a second output unit .
請求項4の発明は、請求項1〜請求項3のいずれかの電子カメラにおいて、以下の点を特徴とする。第1に、抽出された被写体の特徴部位に基づいて、被写体が撮影の構図に合致したか否かを判定し、合致したと判定した後、被写体が撮影合図動作を行ったか否かを抽出された被写体の特徴部位に基づいて判定する動作判定部を備えている。第2に、撮影合図動作を行ったと動作判定部が判定したときから、予め定められた時間経過後に、撮影を開始する。 According to a fourth aspect of the present invention, the electronic camera according to any one of the first to third aspects is characterized by the following points. First, based on the extracted characteristic part of the subject, it is determined whether or not the subject matches the shooting composition. After determining that the subject matches, it is extracted whether or not the subject has performed a shooting cue operation. An operation determination unit for determining based on the characteristic part of the subject . Second, shooting is started after elapse of a predetermined time from when the operation determination unit determines that the shooting cue operation has been performed.
本発明の電子カメラでは、表示部は、撮影の構図を決定するためのガイド表示を行い、抽出部は、撮像により得られた画像データから被写体の領域を抽出する。指示部は、抽出された被写体の領域に基づいて、被写体を撮影の構図に近づけるための指示を出力する。従って、被写体または撮影者がこの指示に従うだけで、ガイド表示が見づらい場合でも、撮影者が意図する構図に撮像画像を近づけることができる。 In the electronic camera of the present invention, the display unit performs guide display for determining the composition of shooting, and the extraction unit extracts a region of the subject from the image data obtained by imaging. The instruction unit outputs an instruction for bringing the subject closer to the shooting composition based on the extracted subject region. Therefore, even if the subject or the photographer only follows this instruction and the guide display is difficult to see, the captured image can be brought close to the composition intended by the photographer.
以下、図面を用いて本発明の実施の形態を説明する。
<本実施形態の構成>
図1は、本実施形態における電子カメラのブロック図である。図に示すように、電子カメラ12は、交換可能な撮影レンズ14と、フォーカルプレーンシャッタ16と、CCD(撮像素子)18と、アナログ信号処理部20と、A/D変換部22と、タイミングジェネレータ26と、絞り駆動機構28と、シャッタ制御部30と、レンズ駆動部32と、指示部34と、MPU(Micro Processor Unit)38と、操作部40と、システムバス44と、画像処理部46と、画像メモリ48と、プログラムメモリ50と、モニタ制御部54と、液晶モニタ(Liquid Crystal Display)56と、カードインターフェース58と、交換可能なメモリカード(記録媒体)60とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Configuration of this embodiment>
FIG. 1 is a block diagram of the electronic camera in the present embodiment. As shown in the figure, the electronic camera 12 includes an interchangeable photographing lens 14, a focal plane shutter 16, a CCD (imaging device) 18, an analog
撮影レンズ14は、レンズ群66と、絞り68とを有するズームレンズであり、ピント位置をずらすことなく焦点距離(即ち、画角)を調節可能である。レンズ駆動部32は、MPU38からの指令に従って、レンズ群66を光軸方向に移動させてピントを合わせ、また、焦点距離を調節する。絞り駆動機構28は、MPU38からの指令に従って絞り68を調節して、撮影レンズ14を透過する光量を調節する。シャッタ制御部30は、MPU38からの指令に従って、フォーカルプレーンシャッタ16の先幕及び後幕(図示せず)の走行を制御する。アナログ信号処理部20及びA/D変換部22は、CCD18からの画素出力に、クランプ処理、感度補正処理、A/D変換などを施し、デジタルの画像データを生成する。MPU38は、システムバス44を介して電子カメラ12のシステム制御を行う。操作部40は、不図示の電源釦、撮影モード選択釦、レリーズ釦などの設定用の釦群を有している。
The photographing lens 14 is a zoom lens having a lens group 66 and a diaphragm 68, and can adjust the focal length (that is, the angle of view) without shifting the focus position. The
本実施形態の電子カメラ12は、従来の撮影モードに加えて、シーンアシスト+顔認識モード、第1セルフ撮影モード、第2セルフ撮影モードの3つの撮影モードを有することを主な特徴とする。以下、これら3つの撮影モードについて説明する。シーンアシスト+顔認識モードでは、構図アシスト用のフレームが表示され、撮影者及び被写体人物に対して移動等の指示が行われる。第1、第2セルフ撮影モードは、同様に構図アシスト用のフレームを表示するものであるが、撮影者自身が被写体であることを想定したものである。即ち、第1または第2セルフ撮影モードに設定し、撮影者が撮影範囲に入ると、ガイド表示等により撮影者に移動等の指示が行われる。この後、セルフタイマーにより自動的に撮影される。 The electronic camera 12 of the present embodiment is mainly characterized by having three shooting modes of a scene assist + face recognition mode, a first self shooting mode, and a second self shooting mode in addition to the conventional shooting mode. Hereinafter, these three shooting modes will be described. In the scene assist + face recognition mode, a composition assist frame is displayed, and instructions such as movement are given to the photographer and the subject person. In the first and second self-photographing modes, a frame for composition assistance is displayed in the same manner, but it is assumed that the photographer himself is the subject. That is, when the first or second self-photographing mode is set and the photographer enters the photographing range, the photographer is instructed to move or the like by a guide display or the like. Thereafter, the image is automatically taken by a self-timer.
これら3つの撮影モードでは、液晶モニタ56上において、撮影者により選択された構図アシスト用のフレームが被写体画像と重ねて表示される。図2は、プログラムメモリ50に予め記憶されている構図アシスト用のフレーム(点線部分)の数例を示している。図2(a)は被写体人物を右にして、画面の左から中央に亘って風景を収めることを想定したものである。図2(b)は、図2(a)で被写体人物を左にしたものである。図2(c)は、ポートレートを撮る際に被写体人物の顔や上半身の配置の目安に用いるものである。図2(d)は、ツーショット用のものである。
In these three shooting modes, the composition assist frame selected by the photographer is displayed on the
そして、プログラムメモリ50は、これら4つの構図アシスト用のフレームに対してそれぞれ以下の付帯情報を記憶している。なお、付帯情報は、被写体人物の顔の向き及び視線の方向はどちら向きが望ましいかを示すものである。図2(a)の構図アシスト用のフレームの付帯情報は、被写体人物の顔の向き及び視線の方向はやや左向きが望ましいというものである。これは、画像の左側から中央に亘って空間ができるので、空間側に被写体人物の顔を向かせた方が落ち着いた雰囲気を演出できるからである。図2(b)の構図アシスト用のフレームの付帯情報は、被写体人物の顔の向き及び視線の方向はやや右向きが望ましいというものである。図2(c)の構図アシスト用のフレームの付帯情報は、被写体人物の顔の向き及び視線の方向は正面向きが望ましいというものである。図2(d)の構図アシスト用のフレームの付帯情報は、右側の被写体人物の顔の向き及び視線の方向はやや左向きが望ましく、左側の被写体人物の顔の向き及び視線の方向はやや右向きが望ましいというものである。これは、互いに向き合った方が親しげな雰囲気を演出できるからである。
The
指示部34は、被写体人物の位置等が構図アシスト用のフレーム及びその付帯情報に合致するように、移動等の指示を行う。この指示は、音声や、電子カメラ12のカメラボディの正面に設けられた発光部の点灯及び点滅で行われる。図3は、電子カメラ12の正面図である。図に示すように、指示部34は、正面側音声出力窓72、第1発光部Sa、第2発光部Sb、第3発光部Sc、第4発光部Sd、第5発光部Seをカメラボディの正面に有している。なお、図には示していないが、指示部34は、カメラボディの背面側に背面側音声出力窓74を有している。第1〜第4発光部Sa〜Sdは、第5発光部Seの位置を基準として、上下左右の方向にそれぞれ配置されている。第1発光部Sa、第2発光部Sb、第3発光部Sc、第4発光部Sdは、出光面が三角形であり、第5発光部Seは出光面が円形である。第1〜第5発光部Sa〜Seは、発光ダイオードにより例えば緑色に発光する。
The instructing
図4は、第1〜第5発光部Sa〜Seの指示内容を示す表である。第1発光部Sa、第2発光部Sb、第3発光部Sc、第4発光部Sdは、点滅することにより、被写体人物に対して移動の指示を行う。第1発光部Saが点滅している場合、電子カメラ12に近づく方向の移動指示(前への移動指示)を示す。第3発光部Scが点滅している場合、電子カメラ12から遠ざかる方向の移動指示(後ろへの移動指示)を示す。第2発光部Sbが点滅している場合、カメラボディの正面を見ていると思われる被写体人物に対しては、右への移動指示となる。なお、左右の方向は、カメラボディの背面の液晶モニタ56を見ている撮影者と、カメラボディの正面を見ている被写体人物とで逆になる。第4発光部Sdが点滅している場合、カメラボディの正面を見ていると思われる被写体人物に対しては、左への移動指示となる。 FIG. 4 is a table showing the instruction contents of the first to fifth light emitting units Sa to Se. The first light-emitting unit Sa, the second light-emitting unit Sb, the third light-emitting unit Sc, and the fourth light-emitting unit Sd instruct the subject person to move by blinking. When the first light emitting unit Sa blinks, a movement instruction in the direction approaching the electronic camera 12 (an instruction to move forward) is indicated. When the third light emitting unit Sc is blinking, a movement instruction in the direction away from the electronic camera 12 (rear movement instruction) is shown. When the second light emitting unit Sb is blinking, an instruction to move to the right is given to a subject person who seems to be looking at the front of the camera body. Note that the left and right directions are reversed between the photographer looking at the liquid crystal monitor 56 on the back of the camera body and the subject person looking at the front of the camera body. When the fourth light emitting unit Sd is blinking, an instruction to move to the left is given to a subject person who seems to be looking at the front of the camera body.
また、第1発光部Sa、第2発光部Sb、第3発光部Sc、第4発光部Sdは、点灯することにより、被写体人物に対して顔の向きの指示を行う。第1発光部Saが点灯している場合、顔をもっと上に向ける指示を示す。第3発光部Scが点灯している場合、顔をもっと下に向ける指示を示す。第2発光部Sbが点灯している場合、顔をもっと右に向ける指示を示す。第4発光部Sdが点灯している場合、顔をもっと左に向ける指示を示す。第5発光部Seは、被写体人物の位置、被写体人物の顔の向き、及び被写体人物の視線の方向が選択されている構図アシスト用のフレームに合致したときに、例えば緑色に点灯する。 In addition, the first light-emitting unit Sa, the second light-emitting unit Sb, the third light-emitting unit Sc, and the fourth light-emitting unit Sd turn on to instruct the subject person about the face direction. When the first light emitting unit Sa is lit, an instruction to turn the face upward is shown. When the third light emitting unit Sc is lit, an instruction to turn the face further downward is shown. When the second light emitting unit Sb is lit, an instruction to turn the face to the right is shown. When the fourth light emitting unit Sd is lit, an instruction to turn the face to the left is shown. The fifth light emitting unit Se is lit in green, for example, when the position of the subject person, the orientation of the face of the subject person, and the direction of the line of sight of the subject person match the selected composition assisting frame.
<本実施形態の動作説明>
図5、図6、図7は、本実施形態の電子カメラ12の動作を示す流れ図である。図5は、動作フローの導入部分であり、シーンアシスト+顔認識モードでの動作内容を主に示す。図6は、図5において、第1セルフ撮影モードに設定された後の動作内容を示す。図7は、図5において、第2セルフ撮影モードに設定された後の動作内容を示す。以下、図に示すステップ番号に従って、電子カメラ12の動作を説明する。
<Description of operation of this embodiment>
5, 6 and 7 are flowcharts showing the operation of the electronic camera 12 of the present embodiment. FIG. 5 is an introduction part of the operation flow, and mainly shows the operation contents in the scene assist + face recognition mode. FIG. 6 shows the operation content after setting the first self-photographing mode in FIG. FIG. 7 shows the operation content after the second self-photographing mode is set in FIG. The operation of the electronic camera 12 will be described below according to the step numbers shown in the figure.
[ステップS1]電子カメラ12の電源釦がオンされると、電源オン処理が行われる。この後、ユーザは、操作部40の釦群を操作して、撮影モードなどを設定する。撮影者は、シーンアシスト+顔認識モード、第1セルフ撮影モード、第2セルフ撮影モードのいずれかに設定する場合、このときに構図アシスト用のフレームを選択可能である。そして、ステップS2に進む。
[Step S1] When the power button of the electronic camera 12 is turned on, a power-on process is performed. Thereafter, the user operates the button group of the
[ステップS2]MPU38は、シーンアシスト+顔認識モードに設定されているか否かを判定する。シーンアシスト+顔認識モードに設定されている場合、ステップS6に進み、そうでない場合、ステップS3に進む。
[ステップS3]MPU38は、第1セルフ撮影モードに設定されているか否かを判定する。第1セルフ撮影モードに設定されている場合、図6のステップS16に進み、そうでない場合、ステップS4に進む。
[Step S2] The
[Step S3] The
[ステップS4]MPU38は、第2セルフ撮影モードに設定されているか否かを判定する。第2セルフ撮影モードに設定されている場合、図7のステップS27に進み、そうでない場合、ステップS5に進む。
[ステップS5]設定された撮影モードでの撮影が行われ、電子カメラの動作は終了する。この場合の動作は公知なので、説明を省略する。
[Step S4] The
[Step S5] Shooting in the set shooting mode is performed, and the operation of the electronic camera ends. Since the operation in this case is publicly known, the description is omitted.
[ステップS6]MPU38は、CCD18の電子シャッタ動作により、予め設定されたフレームレート(例えば30fps)でスルー画用の連写撮影を開始させる。そして、連続的に生成される複数の画像データは、画像処理部46により色補間などの画像処理を施された後、画像メモリ48に取り込まれ、液晶モニタ56にスルー画表示される。このとき、選択されている構図アシスト用のフレームもスルー画に重ねて表示される。この動作の詳細は公知なので説明を省略する。そして、ステップS7に進む。
[Step S6] The
[ステップS7]スルー画用の連写開始から所定時間経過後に、MPU38は、スルー画用に生成された複数の画像データの内、最新のものを画像メモリ56から読み込む。なお、後述するステップS10を介して再度ステップS7に到達する場合には、所定時間の経過を待たずに最新のものを読み込んでもよい。そして、MPU38は、読み込んだ画像データが示す画像における、被写体人物の顔領域を抽出する。
[Step S7] After a predetermined time has elapsed since the start of continuous shooting for through images, the
具体的には、選択されている構図アシスト用のフレームが示す顔の枠内において、唇、目、眉毛等の顔の特徴点を探し、枠内になければ、枠外に範囲を広げて探す。唇の位置は、例えば、周囲よりもやや赤い領域を検出することで判定できる。目の位置は、例えば、瞳に相当する黒く丸い部分と、その両側の白い部分とを検出することで判定できる。両眉毛の位置は、例えば、両目の上方において周囲よりもやや黒い2つの領域を検出することで判定できる。そして、これら顔の特徴点を内側に含むと共にほぼ肌色と見なせる領域を検出し、これにより画像における顔の位置、及び顔の領域面積を判定する。そして、ステップS8に進む。 Specifically, facial feature points such as lips, eyes, and eyebrows are searched for in the face frame indicated by the selected composition assisting frame, and if not, the range is searched outside the frame. The position of the lips can be determined, for example, by detecting an area slightly redder than the surroundings. The position of the eyes can be determined, for example, by detecting a black round part corresponding to the pupil and white parts on both sides thereof. The position of both eyebrows can be determined, for example, by detecting two areas slightly blacker than the surroundings above the eyes. Then, an area that includes these facial feature points on the inside and can be regarded almost as a skin color is detected, and thereby the position of the face in the image and the area of the face area are determined. Then, the process proceeds to step S8.
[ステップS8]MPU38は、選択されている構図アシスト用のフレーム及びその付帯情報と、抽出した顔領域とを比較する。この比較は、画像における顔の領域面積、顔の位置、視線の方向、顔の向きの4点から行われる。以下、これら4点を合わせて被写体状態という。そして、MPU38は、被写体状態と、構図アシスト用のフレーム及びその付帯情報とが合致しているか否かを判定し、合致しない場合、どのようにずれているかを判定して指示部34に伝達する。以下、図2(a)の構図アシスト用のフレームが選択されている場合を例に挙げて、この判定方法を説明する。ここで、図8(a)は、液晶モニタ56に表示される画像の一例である。
[Step S8] The
MPU38は、第1に、顔の領域面積について判定する。図8(a)の場合、画像における被写体人物の顔領域は、構図アシスト用のフレームが示す顔の枠よりも小さい。従って、MPU38は、顔の領域面積については、合致しておらず、小さいと判定する。
MPU38は、第2に、顔の位置について判定する。図8(a)の場合、画像における被写体人物の顔領域は、構図アシスト用のフレームが示す顔の枠よりも右に位置している。従って、MPU38は、顔の位置については、合致しておらず、右にずれていると判定する。
First, the
Second, the
MPU38は、第3に、視線の方向について判定する。図9は、視線の方向の判定方法を示す説明図である。MPU38は、まず、先に検出した瞳の両側の白い領域(白目に相当)の面積比を判定する。図9(a)に示すように、瞳の右側の白目の面積と、左側の白目の面積とが等しければ、右も左も向いていないと判定する。図9(b)に示すように、瞳の右側の白目の面積が左側より小さければ右を向いていると判定する。図9(c)に示すように、瞳の左側の白目の面積が右側より小さければ左を向いていると判定する。図9(d)に示すように、瞳の外縁の下側のカーブが見えていれば、上を向いていると判定する。図9(e)に示すように、瞳の外縁の上側のカーブが見えていれば、下を向いていると判定する。図9(a)のように、右も左も向いていないと判定されており、さらに、瞳の外縁の上下のカーブが見えない場合、正面を向いていると判定される。そして、図8(a)の場合、被写体人物の視線は、正面方向に向けられている。一方、この構図アシスト用のフレームの付帯情報は、前述したように、『被写体人物の顔の向き及び視線の方向はやや左向きが望ましい』というものである。従って、MPU38は、視線の方向については、合致しておらず、もっと左を向くべきであると判定する。
Third, the
MPU38は、第4に、顔の向きについて判定する。図10は、顔の向きの判定方法を示す説明図である。MPU38は、まず、画像における両目の面積を比較する。図10(a)に示すように、画像において右側の目の面積の方が左側の目の面積より小さい場合、右を向いていると判定する。一方、図10(b)に示すように、画像において左側の目の面積の方が右側の目の面積より小さい場合、左を向いていると判定する。顔が上を向いているか下を向いているかは、例えば、先に判定した視線の方向と同じ方向に判定すればよい。そして、図8(a)の場合、被写体人物の顔は、正面を向いている。従って、MPU38は、顔の向きついては、構図アシスト用のフレームの付帯情報と合致しておらず、もっと左を向くべきであると判定する。
Fourth, the
図8(b)は、図2(d)に示したツーショット用の構図アシスト用のフレームが選択されている場合の液晶モニタ56の表示例である。図8(b)の例では、どちらの被写体人物の被写体状態も、構図アシスト用のフレーム及びその付帯情報と合致していると判定される。以上のように被写体状態を判定後、ステップS9に進む。
[ステップS9]ステップS8において、構図アシスト用のフレーム及びその付帯情報と、被写体状態とが合致していると判定された場合、ステップS11に進む。そうでない場合、ステップS10に進む。
FIG. 8B is a display example of the liquid crystal monitor 56 when the two-shot composition assist frame shown in FIG. 2D is selected. In the example of FIG. 8B, it is determined that the subject state of either subject person matches the composition assisting frame and its accompanying information. After determining the subject state as described above, the process proceeds to step S9.
[Step S9] If it is determined in step S8 that the composition assisting frame and its accompanying information match the subject state, the process proceeds to step S11. Otherwise, the process proceeds to step S10.
[ステップS10]指示部34は、ステップS8でのMPU38の判定結果に基づいて、被写体人物及び撮影者に指示を行う。顔の向きに関しては、第1〜第4発光部Sa〜Sdにより、被写体人物に対して指示する。視線の方向に関しては、正面側音声出力窓72により、被写体人物に対して指示する。移動方向に関しては、背面側音声出力窓74により、撮影者に対して指示する。
[Step S10] The
顔の領域面積が小さいと判定された場合、指示部34は、例えば『カメラを前に移動して下さい』という音声を背面側音声出力窓74から発し、撮影者に対して前への移動指示を行う。顔の領域面積が大きいと判定された場合、同様に、『カメラを後ろ移動して下さい』等の音声を発すればよい。
被写体人物の顔領域が構図アシスト用のフレームの顔部分よりも右にずれていると判定された場合、指示部34は、例えば『カメラを右に移動して下さい』という音声を背面側音声出力窓74から発し、電子カメラ12を右に移動させるように撮影者に指示する。顔領域が構図アシスト用のフレームの顔部分よりも左にずれていると判定された場合、同様に、『カメラを左に移動して下さい』等の音声を発すればよい。
When it is determined that the face area is small, the instructing
When it is determined that the face area of the subject person is shifted to the right from the face portion of the composition assisting frame, the
視線の方向について、もっと左を向くべきであると判定された場合、指示部34は、例えば『もう少し視線を右に向けて下さい』等の音声を正面側音声出力窓72から発し、被写体人物に対して視線の方向の指示を行う。なお、MPU38が左または右として処理する方向は、カメラボディの背面の液晶モニタ56の表示画像を見る場合の左右方向である。従って、MPU38の判定結果として出力される左右方向は、カメラボディの正面を見ている被写体人物にとっての左右方向とは逆になる。これは、本ステップで後述する被写体人物への顔の向きの指示と、ステップS20での被写体人物への移動方向の指示においても同様である。
When it is determined that the direction of the line of sight should be directed further to the left, the instructing
視線の方向がもっと上、下、または右を向くべきであると判定された場合も、同様に正面側音声出力窓72から音声を発すればよい。なお、被写体人物に対する視線の方向の指示は、第1〜第4発光部Sa〜Sdを、移動の指示とは別の色で発光させることで行ってもよい。例えば第1〜第4発光部Sa〜Sdのいずれかをオレンジ色で点灯させることで、視線をもっと上、右、下、または左に向けることを指示すればよい。但し、視線の方向に対する指示は、音声の方が望ましいと考えられる。なぜなら、例えば被写体人物が右や左を向いていたら、電子カメラ12が視界に入らないからである。 Similarly, when it is determined that the direction of the line of sight should be more upward, downward, or right, the sound may be emitted from the front-side audio output window 72 in the same manner. Note that the direction of the line of sight for the subject person may be performed by causing the first to fourth light emitting units Sa to Sd to emit light in a color different from the movement instruction. For example, any one of the first to fourth light emitting units Sa to Sd may be lit in orange to indicate that the line of sight is directed further upward, right, lower, or left. However, it is considered that an instruction for the direction of the line of sight is more preferable. This is because, for example, if the subject person faces right or left, the electronic camera 12 does not enter the field of view.
顔の向きについて、もっと上を向くべきであると判定された場合、指示部34は、第1発光部Saを点灯させることで、顔をもっと上に向けるように被写体人物に指示する。顔をもっと下に向けるべきであると判定された場合、指示部34は、第3発光部Scを点灯させることで、顔をもっと下に向けるように被写体人物に指示する。顔をもっと左に向けるべきであると判定された場合、指示部34は、第2発光部Sbを点灯させることで、顔をもっと右に向けるように被写体人物に指示する。顔をもっと右に向けるべきであると判定された場合、指示部34は、第4発光部Sdを点灯させることで、顔をもっと左に向けるように被写体人物に指示する。この後、撮影者及び被写体人物は、指示に従って、撮影の構図に近づける。そして、ステップS6に戻る。
When it is determined that the face should be directed upward, the
なお、ツーショット用の構図アシスト用のフレームが選択されている場合、被写体人物は2人と考えられるので、第1〜第4発光部Sa〜Sdの指示がどちらの被写体人物に対してなのかが分からないおそれがある。この場合、全ての指示は、正面側音声出力窓72からの音声により、2人の被写体人物に対して別々に行えばよい。例えば、『右側の人はもっと前に移動して下さい。左側の人はもっと右を向いて下さい』等である。或いは、カメラボディの正面側に第1〜第5発光部Sa〜Seと同様のものをもう1つ設けることで、2人の被写体人物に対して別々に指示してもよい。 Note that when the two-shot composition assist frame is selected, it is considered that there are two subject persons, so which subject person the instructions of the first to fourth light emitting units Sa to Sd are directed to. There is a risk of not knowing. In this case, all the instructions may be performed separately for the two subject persons by the sound from the front-side sound output window 72. For example, “The person on the right should move forward. The person on the left should turn to the right. ” Or you may instruct | indicate separately with respect to two subject persons by providing another thing similar to 1st-5th light emission part Sa-Se on the front side of a camera body.
[ステップS11]指示部34は、第5発光部Seを点灯させることにより、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致したことを被写体人物に知らせる。また、指示部34は、『合致しました』等の音声を背面側音声出力窓74から発することにより、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致したことを撮影者に知らせる。そして、ステップS12に進む。
[Step S11] The instructing
[ステップS12]MPU38は、レリーズ釦が全押しされたか否かを判定する。全押しされた場合、ステップS15に進み、そうでない場合、ステップS13に進む。
[ステップS13]MPU38は、ステップS6〜S9と同様の動作により、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致しているか否かを判定し、合致しない場合、どのようにずれているかを判定して指示部34に伝達する。合致している場合、ステップS12に戻り、合致してない場合、ステップS14に進む。
[Step S12] The
[Step S13] The
[ステップS14]指示部34は、例えば『ずれました』などの音声を正面側音声出力窓72及び背面側音声出力窓74の両方から同時に発することにより、ずれたことを撮影者及び被写体人物に知らせる。同時に、指示部34は、第5発光部Seを消灯させる。この後、MPU38は、どのようにずれたのかを指示部34に伝達し、ステップS10に戻る。
[Step S14] The instructing
[ステップS15]公知の動作により静止画撮影が行われ、静止画の画像データが生成される。画像処理部52は、生成された画像データに、ホワイトバランス調整、色補間、色補正、輪郭強調、ガンマ補正、画像圧縮などの画像処理を施す。この後、画像データは、カードインターフェース64を介してメモリカード68に記録される。これにより、電子カメラ12の動作は終了する。 [Step S15] Still image shooting is performed by a known operation, and image data of a still image is generated. The image processing unit 52 performs image processing such as white balance adjustment, color interpolation, color correction, contour enhancement, gamma correction, and image compression on the generated image data. Thereafter, the image data is recorded on the memory card 68 via the card interface 64. Thereby, the operation of the electronic camera 12 ends.
[ステップS16]図6のステップS16〜ステップS26は、第1セルフ撮影モードでの処理である。撮影者は、ステップS1で撮影モードを第1セルフ撮影モードに設定した後、電子カメラ12の撮影範囲に移動する。この後、ステップS16では、電子カメラ12はステップS6と同様の処理を行う。そして、ステップS17に進む。
[ステップS17〜S19]電子カメラ12は、ステップS7〜S9と同様の処理を行う。そして、ステップS18において、構図アシスト用のフレーム及びその付帯情報と、被写体状態とが合致していると判定された場合、ステップS21に進む。そうでない場合、ステップS20に進む。
[Step S16] Steps S16 to S26 in FIG. 6 are processes in the first self-photographing mode. In step S1, the photographer sets the shooting mode to the first self-shooting mode, and then moves to the shooting range of the electronic camera 12. Thereafter, in step S16, the electronic camera 12 performs the same process as in step S6. Then, the process proceeds to step S17.
[Steps S17 to S19] The electronic camera 12 performs the same processing as steps S7 to S9. If it is determined in step S18 that the composition assisting frame and its accompanying information match the subject state, the process proceeds to step S21. Otherwise, the process proceeds to step S20.
[ステップS20]指示部34は、ステップS18でのMPU38の判定結果に基づいて、撮影者である被写体人物に移動等の指示を行う。
顔の領域面積が小さいと判定された場合、指示部34は、第1発光部Saを点滅させることで、電子カメラ12に近づく方向の移動(前への移動)を指示する。顔の領域面積が大きいと判定された場合、指示部34は、第3発光部Scを点滅させることで、電子カメラ12から遠ざかる方向の移動(後ろへの移動)を指示する。被写体人物の顔領域が構図アシスト用のフレームの顔部分よりも右にずれていると判定された場合、指示部34は、第2発光部Sbを点滅させることで、『右への移動』を被写体人物に指示する。ここでの『右への移動』は、前記したようにMPU38が左として処理している方向への移動である。顔領域が構図アシスト用のフレームの顔部分よりも左にずれていると判定された場合、第4発光部Sdを点滅させることで、左への移動を指示する。視線の方向、及び顔の向きについては、ステップS10と同様に指示する。そして、ステップS16に戻る。
[Step S20] The
When it is determined that the face area is small, the
[ステップS21]指示部34は、第5発光部Seを点灯させることにより、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致したことを被写体人物に知らせる。なお、『合致しました』等の音声を正面側音声出力窓72から発することにより知らせてもよい。MPU38は、合致を知らせたときを基準(時刻ゼロ)として、経過時間のカウントを開始する。そして、ステップS22に進む。
[Step S21] The instructing
[ステップS22]MPU38は、ステップS16〜S19と同様の動作により、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致しているか否かを判定する。合致しない場合、ステップS23に進み、合致している場合、ステップS24に進む。
[ステップS23]指示部34は、例えば『ずれました』などの音声を正面側音声出力窓72から発すると共に第5発光部Seを消灯させることにより、ずれたことを知らせる。この後、MPU38は、どのようにずれたのかを指示部34に伝達し、ステップS20に戻る。
[Step S22] The
[Step S23] The instructing
[ステップS24]MPU38は、合致を知らせたときからの経過時間が所定時間Aに達したか否かを判定する。ここでの所定時間Aは、撮影者に入力させて設定してもよいし、プログラムメモリ50に予め記憶されているもの(例えば5秒)を用いてもよい。所定時間に達した場合、ステップS25に進み、そうでない場合、ステップS22に戻る。
[ステップS25]MPU38は、セルフタイマーをスタートさせる。ここでのセルフタイマーは、所定時間B経過後に、ステップS26に進んで自動的に撮影を開始するものである。この所定時間Bは、撮影者に入力させて設定してもよいし、プログラムメモリ50に予め記憶されているもの(例えば3秒)を用いてもよい。
[Step S24] The
[Step S25] The
[ステップS26]電子カメラ12は、ステップS15と同様の処理により静止画撮影を行った後、動作を終了する。
[ステップS27〜S30]図7のステップS27〜ステップS35は、第2セルフ撮影モードでの処理である。ステップS27〜S30では、電子カメラ12は、ステップS16〜S19と同様の処理を行う。そして、ステップS29において、構図アシスト用のフレーム及びその付帯情報と、被写体状態とが合致していると判定された場合、ステップS32に進む。そうでない場合、ステップS31に進む。
[Step S26] The electronic camera 12 shoots a still image by the same process as in step S15, and then ends the operation.
[Steps S27 to S30] Steps S27 to S35 in FIG. 7 are processes in the second self-photographing mode. In steps S27 to S30, the electronic camera 12 performs the same processing as steps S16 to S19. If it is determined in step S29 that the composition assisting frame and its accompanying information match the subject state, the process proceeds to step S32. Otherwise, the process proceeds to step S31.
[ステップS31]指示部34は、ステップS29でのMPU38の判定結果に基づいて、ステップS20と同様に、撮影者である被写体人物に移動等の指示を行う。
[ステップS32]指示部34は、ステップS21と同様に、被写体状態が構図アシスト用のフレーム及びその付帯情報に合致したことを被写体人物に知らせる。そして、ステップS33に進む。
[Step S31] Based on the determination result of the
[Step S32] As in step S21, the
[ステップS33]ステップS33〜S35の処理は、被写体が撮影合図動作を行ったか否かを判定する処理である。本実施形態では、目を3回閉じる動作を撮影合図動作の一例として挙げて説明する。ステップS33では、電子カメラ12は、ステップS6と同様に所定のフレームレートでスルー画用の連写撮影を行う。また、MPU38は、連写撮影の開始に同期して、連写撮影期間のカウントを開始する。
[Step S33] The processing of steps S33 to S35 is processing for determining whether or not the subject has performed a shooting cue operation. In the present embodiment, the operation of closing the eyes three times will be described as an example of the photographing cue operation. In step S33, the electronic camera 12 performs continuous shooting for through images at a predetermined frame rate, as in step S6. The
[ステップS34]連写撮影期間が所定時間C(例えば3秒)に達したとき、MPU38は、連写撮影期間のカウントをリセットした後、連写撮影期間のカウントを再度開始すると共にステップS35に処理を移行する。なお、連写撮影期間のカウントのリセット後も、連写撮影は継続して行われる。
[ステップS35]MPU38は、連写撮影期間のカウント開始後に生成される画像データを画像メモリ48から読み込み、この画像データから動作判定用の画像領域を抽出して、これを画像メモリ48に記憶させる。ここでの動作判定用の画像領域は、目を3回閉じる動作の判定用なので、ステップS28で検出した両目を含む領域であり、顔の全領域の半分あれば十分である。このように画像データを読み込んで画像領域を抽出する動作を、連写撮影期間のカウント開始後に生成される全ての画像データに対して行う。なお、ステップS34、S35の処理が再度行われる場合、一度読み込んだ画像データは読み込まない。また、ここで読み込む画像データ数は、生成される全てに限定されるものではない。MPU38の処理速度等に応じて任意に設定すればよく、例えば、生成される全ての内3コマに1コマの割合で読み込んでもよい。
[Step S34] When the continuous shooting period reaches a predetermined time C (for example, 3 seconds), the
[Step S35] The
次に、MPU38は、各画像領域を時間順に並べて、撮影合図動作が行われたか否かを判定する。具体的には例えば、瞳及び白目が消えて再度現れることが3回繰り返されているか否かを判定すればよい。目を閉じたときに瞳上に現れる肌の色と、瞳または白目の色とは、互いに大きく異なるので、この動作は、色の違いから判定可能である。
そして、撮影合図動作を行ってないと判定された場合、ステップS34に戻る。なお、以上の動作判定の処理期間においても、連写撮影による画像データの生成、及び連写撮影期間のカウントは継続されている。また、所定時間Cは、この動作判定に要する期間よりも十分長く設定されている。撮影合図動作を行ったと判定された場合、連写撮影及び連写撮影期間のカウントを停止後、ステップS25に進む。この後、前述と同様に撮影が行われ、電子カメラ12の動作は終了する。以上が本実施形態の電子カメラ12の動作説明である。
Next, the
If it is determined that the shooting signal operation is not performed, the process returns to step S34. Note that generation of image data by continuous shooting and counting of the continuous shooting period are continued even during the above-described operation determination processing period. The predetermined time C is set to be sufficiently longer than the period required for this operation determination. If it is determined that the shooting cue operation has been performed, the process proceeds to step S25 after stopping the continuous shooting and counting of the continuous shooting period. Thereafter, shooting is performed in the same manner as described above, and the operation of the electronic camera 12 ends. The above is the description of the operation of the electronic camera 12 of the present embodiment.
<本実施形態の効果>
構図アシスト用のフレームを用いる従来の撮影モードでは、被写体人物の顔認識は行われなかった。このため、被写体人物の顔の向きや視線の方向といった細かい点については、液晶表示装置上に写る被写体画像を見ることにより撮影者が確認していた。従って、液晶表示装置が見づらい場合、撮影者が意図する構図と、撮像画像とが大きく異なることがあった。
<Effect of this embodiment>
In the conventional photographing mode using the composition assist frame, the face recognition of the subject person is not performed. For this reason, the photographer has confirmed details such as the direction of the face of the subject person and the direction of the line of sight by looking at the subject image on the liquid crystal display device. Therefore, when it is difficult to see the liquid crystal display device, the composition intended by the photographer may be greatly different from the captured image.
一方、本実施形態のシーンアシスト+顔認識モード、第1セルフ撮影モード、及び第2セルフ撮影モードでは、被写体人物の顔領域を抽出し、顔の領域面積、顔の位置、視線の方向、顔の向きを判定する。これに基づいて、構図アシスト用のフレーム及びその付帯情報と、被写体状態とが合致しているか否か、合致していない場合にはどのようにずれているかを判定する。合致している場合にはその旨を音声や第5発光部Seの点灯により知らせ、合致していない場合にはどのようにすべきかを指示する。 On the other hand, in the scene assist + face recognition mode, the first self-photographing mode, and the second self-photographing mode of the present embodiment, the face area of the subject person is extracted, and the face area area, face position, line-of-sight direction, face Determine the direction. Based on this, it is determined whether or not the composition assisting frame and its accompanying information match the subject state, and if they do not match, how they are shifted. If they do match, the fact is notified by voice or lighting of the fifth light emitting unit Se, and if they do not match, an instruction is given as to what should be done.
従って、太陽光が当たる等により液晶モニタ56が見えなくても、撮影者及び被写体人物の少なくともいずれかが電子カメラ12の指示に従うだけで、撮影者が意図する構図で撮影できる。また、視線の方向や顔の向きといった細かい点まで指示を行うので、雰囲気のある写真が撮れる。さらに、第1及び第2セルフ撮影モードでは、電子カメラ12の指示に従うだけで、自分が意図する構図の写真を1人で撮ることができる。この結果、ユーザの利便性は大いに向上する。 Therefore, even if the liquid crystal monitor 56 is not visible due to sunlight, at least one of the photographer and the subject person can follow the instructions of the electronic camera 12 and can photograph with the composition intended by the photographer. In addition, since detailed instructions such as the direction of gaze and the direction of the face are given, a photograph with an atmosphere can be taken. Furthermore, in the first and second self-photographing modes, the photographer can take a picture of the composition intended by himself by simply following the instructions of the electronic camera 12. As a result, user convenience is greatly improved.
<本実施形態の補足事項>
[1]なお、シーンアシスト+顔認識モードでは、移動方向の指示を撮影者に対して行い、電子カメラ12を移動させることで画像における被写体人物の位置を調整する例を述べた。本発明は、かかる実施形態に限定されるものではない。例えばステップS20と同様の方法により被写体人物に対して移動方向の指示を行い、被写体人物に移動してもらうことで画像における被写体人物の位置を調整してもよい。また、撮影者に対する移動の指示は、音声でなくガイド表示により行ってもよい。具体的に例えば、カメラボディの背面側に第1〜第5発光部Sa〜Seと同様のものを設けることで実施できる。また、第1及び第2セルフ撮影モードでは、被写体人物に対する移動方向の指示、及び顔の向きの指示を第1〜第5発光部Sa〜Seにより行う例を述べたが、これらの指示は音声により行ってもよい。
<Supplementary items of this embodiment>
[1] In the scene assist + face recognition mode, an example in which the direction of movement is instructed to the photographer and the position of the subject person in the image is adjusted by moving the electronic camera 12 has been described. The present invention is not limited to such an embodiment. For example, the position of the subject person in the image may be adjusted by instructing the subject person in the direction of movement in the same manner as in step S20 and having the subject person move. In addition, the movement instruction to the photographer may be given by guide display instead of voice. Specifically, for example, the same thing as the first to fifth light emitting portions Sa to Se can be provided on the back side of the camera body. In the first and second self-photographing modes, an example in which the moving direction and the face direction are instructed to the subject person by the first to fifth light emitting units Sa to Se has been described. May be performed.
[2]撮影合図動作として、目を3回閉じる動作を挙げた。本発明は、かかる実施形態に限定されるものではない。例えば、顔の正面で手を3回振る動作でもよい。この場合も、連写により生成される画像を時間順に並べた場合に、瞳及び白目が手で覆われて見えない画像が飛び飛びにあるので、動作を判定できる。なお、撮影合図動作は、色の違いから動きを検出できる動作である方が、画像処理により判定しやすいので望ましいと考えられる。 [2] As the shooting signal operation, an operation of closing the eyes three times is given. The present invention is not limited to such an embodiment. For example, an operation of shaking the hand three times in front of the face may be used. Also in this case, when images generated by continuous shooting are arranged in time order, an image that is not visible because the pupils and white eyes are covered with hands can be determined. In addition, it is considered that the shooting cue operation is an operation that can detect a motion from a difference in color because it can be easily determined by image processing.
[3]ステップS7において、スルー画用に生成される複数の画像データの内最新のものを読み込んで、顔認識等の処理を行う例を述べた。本発明は、かかる実施形態に限定されるものではない。MPU38が読み込む画像データは、MPU38の処理速度等に応じて任意に設定すればよい。例えば1秒に1コマの割合で画像データを読み込んで、1秒おきに指示内容を更新してもよい。
[3] The example in which, in step S7, the latest one of the plurality of image data generated for the through image is read and processing such as face recognition is performed. The present invention is not limited to such an embodiment. The image data read by the
[4]被写体人物の顔の向き及び視線の方向はどちら向きが望ましいかを示す付帯情報としてプログラムメモリ50に予め記憶されたものを用い、これに従って指示を行う例を述べた。本発明は、かかる実施形態に限定されるものではない。各構図アシスト用のフレームの付帯情報は、撮影者の入力により設定するようにしてもよい。また、構図アシスト用のフレームも、撮影者の入力により所望のものを用いるようにしてもよい。
[4] An example has been described in which information stored in advance in the
[5]最後に、請求項と本実施形態との対応関係を説明する。なお、以下に示す対応関係は、参考のために示した一解釈であり、本発明を限定するものではない。
請求項記載のガイド表示は、構図アシスト用のフレームに対応する。
請求項記載の表示部は、液晶モニタ56に対応する。
請求項記載の撮像部は、撮影レンズ14と、フォーカルプレーンシャッタ16と、CCD18と、アナログ信号処理部20と、A/D変換部22と、タイミングジェネレータ26と、これらに画像データを生成させるMPU38の機能とに対応する。
[5] Finally, the correspondence between the claims and the present embodiment will be described. In addition, the correspondence shown below is one interpretation shown for reference, and does not limit the present invention.
The guide display described in the claims corresponds to a frame for composition assistance.
The display unit described in the claims corresponds to the
The imaging unit described in the claims includes an imaging lens 14, a focal plane shutter 16, a
請求項記載の抽出部は、画像データにおける被写体人物の顔領域を抽出するMPU38の機能に対応する(ステップS5参照)。
請求項記載の指示部は、『顔の領域面積、顔の位置、視線の方向、顔の向きを判定して、これら4点(被写体状態)と、構図アシスト用のフレーム及びその付帯情報とが合致しているか否かを判定するMPU38の機能と、指示部34と』に対応する(ステップS6参照)。
The extraction unit described in the claims corresponds to the function of the
The instructing unit described in the claims determines that “the area of the face, the position of the face, the direction of the line of sight, and the direction of the face are determined, and these four points (subject state), the frame for assisting composition, and its supplementary information. This corresponds to the function of the
請求項記載の動作判定部は、『被写体状態が構図アシスト用のフレーム及びその付帯情報に合致しているか否かを判定し、合致したと判定した後、被写体が撮影合図動作を行ったか否かを判定するMPU38の機能』に対応する(ステップS27〜S29、S34、S35参照)。
請求項記載の予め定められた時間は、所定時間Bに対応する(ステップS25参照)。
The operation determination unit described in the claims determines whether or not the subject state matches the frame for assisting composition and its accompanying information, and after determining that the subject matches, whether or not the subject has performed a shooting cue operation. Corresponds to the “function of the
The predetermined time described in the claims corresponds to the predetermined time B (see step S25).
以上詳述したように本発明は、電子カメラの分野において大いに利用可能である。 As described above in detail, the present invention can be used greatly in the field of electronic cameras.
12 電子カメラ
14 撮影レンズ
16 フォーカルプレーンシャッタ
18 CCD
20 アナログ信号処理部
22 A/D変換部
26 タイミングジェネレータ
28 絞り駆動機構
30 シャッタ制御部
32 レンズ駆動部
34 指示部
38 MPU
40 操作部
44 システムバス
46 画像処理部
48 画像メモリ
50 プログラムメモリ
54 モニタ制御部
56 液晶モニタ
58 カードインターフェース
60 メモリカード
66 レンズ群
68 絞り
72 正面側音声出力窓
74 背面側音声出力窓
12 Electronic Camera 14 Shooting Lens 16
20 Analog signal processing unit 22 A /
40 operation unit 44
Claims (4)
被写体を撮像して画像データを生成する撮像部と、
前記画像データにおける、前記被写体の特徴部位を抽出する抽出部と、
装置の正面側に配置され、前記ガイド表示が示す前記撮影の構図に前記被写体を近づけるための指示を出力する指示部とを備え、
前記表示部は、前記ガイド表示を行うための所定のフレームに基づいてガイド表示を行い、
前記所定のフレームは、当該所定のフレームに対する被写体状態を示す付帯情報が関連付けられてプログラムメモリに記憶され、
前記指示部は、前記抽出された前記被写体の特徴部位及び前記付帯情報に基づいて、前記指示を前記被写体に視認可能に出力し、前記ガイド表示が示す前記撮影の構図に前記被写体を近づけるための指示と、前記付帯情報に基づく指示とを、前記被写体の視認により識別可能に出力する
ことを特徴とする電子カメラ。 A display unit for displaying a guide for determining a composition of shooting;
An imaging unit that images a subject and generates image data;
An extraction unit for extracting a characteristic part of the subject in the image data;
An instruction unit that is arranged on the front side of the apparatus and outputs an instruction to bring the subject closer to the photographing composition indicated by the guide display;
The display unit performs guide display based on a predetermined frame for performing the guide display,
The predetermined frame is stored in the program memory in association with incidental information indicating a subject state with respect to the predetermined frame ,
The instruction unit outputs the instruction to the subject so as to be visible based on the extracted characteristic part of the subject and the incidental information, and brings the subject closer to the photographing composition indicated by the guide display. An electronic camera that outputs an instruction and an instruction based on the incidental information so as to be identifiable by visual recognition of the subject.
前記抽出部は、前記被写体の顔領域を抽出し、
前記指示部は、抽出された前記顔領域に基づいて、前記画像データが示す画像における前記被写体の視線の方向を被写体状態として推定して、前記被写体状態を前記撮影の構図に近づけるための指示を出力する
ことを特徴とする電子カメラ。 The electronic camera according to claim 1.
The extraction unit extracts a face area of the subject,
The instruction unit estimates the direction of the line of sight of the subject in the image indicated by the image data as a subject state based on the extracted face area, and gives an instruction to bring the subject state closer to the composition of the shooting. An electronic camera characterized by output.
前記指示部は、前記被写体に対して音声による指示を出力する第1の出力部と、撮影者に対して音声による指示を出力する第2の出力部とを備えた
ことを特徴とする電子カメラ。 The electronic camera according to claim 1 or 2,
The instruction unit includes an electronic camera that includes a first output unit that outputs a voice instruction to the subject, and a second output unit that outputs a voice instruction to the photographer. .
抽出された前記被写体の特徴部位に基づいて、前記被写体が前記撮影の構図に合致したか否かを判定し、合致したと判定した後、前記被写体が撮影合図動作を行ったか否かを抽出された前記被写体の特徴部位に基づいて判定する動作判定部を備え、
前記撮影合図動作を行ったと前記動作判定部が判定したときから、予め定められた時間経過後に、撮影を開始する
ことを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 3,
Based on the extracted characteristic part of the subject, it is determined whether or not the subject matches the shooting composition, and after determining that it matches, whether or not the subject has performed a shooting cue operation is extracted. An operation determination unit for determining based on a characteristic part of the subject,
An electronic camera, wherein shooting is started after a predetermined time has elapsed from when the operation determination unit determines that the shooting signal operation has been performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004254396A JP4970716B2 (en) | 2004-09-01 | 2004-09-01 | Electronic camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004254396A JP4970716B2 (en) | 2004-09-01 | 2004-09-01 | Electronic camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006074368A JP2006074368A (en) | 2006-03-16 |
JP4970716B2 true JP4970716B2 (en) | 2012-07-11 |
Family
ID=36154508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004254396A Expired - Lifetime JP4970716B2 (en) | 2004-09-01 | 2004-09-01 | Electronic camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4970716B2 (en) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4864502B2 (en) * | 2006-03-23 | 2012-02-01 | 富士フイルム株式会社 | Imaging apparatus and imaging condition guide method |
JP4891674B2 (en) * | 2006-06-30 | 2012-03-07 | オリンパスイメージング株式会社 | camera |
JP4463792B2 (en) | 2006-09-29 | 2010-05-19 | 富士フイルム株式会社 | Imaging device |
JP4904243B2 (en) | 2007-10-17 | 2012-03-28 | 富士フイルム株式会社 | Imaging apparatus and imaging control method |
KR100840023B1 (en) * | 2007-11-13 | 2008-06-20 | (주)올라웍스 | How to help frame your face when taking self-portraits |
JP4944055B2 (en) * | 2008-03-19 | 2012-05-30 | 富士フイルム株式会社 | Imaging apparatus and imaging control method |
JP5493284B2 (en) * | 2008-03-31 | 2014-05-14 | カシオ計算機株式会社 | Imaging apparatus, imaging method, and program |
US8477207B2 (en) | 2008-06-06 | 2013-07-02 | Sony Corporation | Image capturing apparatus, image capturing method, and computer program |
JP5251547B2 (en) | 2008-06-06 | 2013-07-31 | ソニー株式会社 | Image photographing apparatus, image photographing method, and computer program |
JP5152583B2 (en) * | 2008-09-26 | 2013-02-27 | カシオ計算機株式会社 | Imaging apparatus, imaging guide method, and program |
KR101030652B1 (en) * | 2008-12-16 | 2011-04-20 | 아이리텍 잉크 | Apparatus and method for acquiring high quality eye image for iris recognition |
JP5325626B2 (en) * | 2009-03-25 | 2013-10-23 | オリンパスイメージング株式会社 | Camera and subject tracking method |
JP5385032B2 (en) * | 2009-07-08 | 2014-01-08 | ソニーモバイルコミュニケーションズ株式会社 | Imaging apparatus and imaging control method |
JP5709500B2 (en) * | 2010-12-09 | 2015-04-30 | 株式会社ザクティ | Electronic camera |
US9374517B2 (en) | 2012-10-12 | 2016-06-21 | Ebay Inc. | Guided photography and video on a mobile device |
KR102093647B1 (en) * | 2013-02-22 | 2020-03-26 | 삼성전자 주식회사 | Apparatus and method for shooting an image in a device having a camera |
KR101431651B1 (en) | 2013-05-14 | 2014-08-22 | 중앙대학교 산학협력단 | Apparatus and method for mobile photo shooting for a blind person |
JP6257198B2 (en) * | 2013-07-22 | 2018-01-10 | キヤノン株式会社 | Optical apparatus, control method therefor, and control program |
WO2015056466A1 (en) * | 2013-10-16 | 2015-04-23 | オリンパスイメージング株式会社 | Display device, image generation device, display method and program |
JP5702037B1 (en) * | 2013-10-30 | 2015-04-15 | オリンパスイメージング株式会社 | Imaging apparatus, imaging method, and program |
WO2015064144A1 (en) | 2013-10-30 | 2015-05-07 | オリンパスイメージング株式会社 | Image capturing device, image capturing method, and program |
JP6555632B2 (en) * | 2014-08-20 | 2019-08-07 | リコーイメージング株式会社 | Interchangeable lens camera |
JP6640460B2 (en) * | 2015-03-30 | 2020-02-05 | 富士フイルム株式会社 | Image capturing apparatus, image capturing method, program, and recording medium |
WO2021002320A1 (en) * | 2019-07-02 | 2021-01-07 | 株式会社Nttドコモ | Control device |
JP6733945B1 (en) * | 2019-11-20 | 2020-08-05 | 株式会社エクサウィザーズ | Imaging device, information processing device, method and program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0652362B2 (en) * | 1986-04-24 | 1994-07-06 | オリンパス光学工業株式会社 | Camera with self-mode function |
JPH01310332A (en) * | 1988-06-09 | 1989-12-14 | Olympus Optical Co Ltd | Camera |
JPH0473731A (en) * | 1990-07-16 | 1992-03-09 | Nikon Corp | Camera instructing change of composition |
JP3412238B2 (en) * | 1993-03-31 | 2003-06-03 | 株式会社ニコン | Camera with composition advice function |
JPH10243274A (en) * | 1997-02-25 | 1998-09-11 | Sanyo Electric Co Ltd | Image-photographing device |
JP2000244800A (en) * | 1999-02-22 | 2000-09-08 | Victor Co Of Japan Ltd | Image pickup device |
JP2001215403A (en) * | 2000-02-01 | 2001-08-10 | Canon Inc | Image pickup device and automatic focus detection method |
JP2001357404A (en) * | 2000-06-14 | 2001-12-26 | Minolta Co Ltd | Picture extracting device |
JP4421151B2 (en) * | 2001-09-17 | 2010-02-24 | 株式会社リコー | Digital camera imaging device |
JP4364465B2 (en) * | 2001-09-18 | 2009-11-18 | 株式会社リコー | Imaging device |
JP2003224761A (en) * | 2002-01-28 | 2003-08-08 | Konica Corp | Imaging apparatus |
-
2004
- 2004-09-01 JP JP2004254396A patent/JP4970716B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2006074368A (en) | 2006-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4970716B2 (en) | Electronic camera | |
KR101817657B1 (en) | Digital photographing apparatus splay apparatus and control method thereof | |
JP4442330B2 (en) | Electronic camera and electronic camera system | |
US9210318B2 (en) | Imaging device and imaging method | |
US20120154547A1 (en) | Imaging device, control method thereof, and program | |
JP2010252046A (en) | Image pickup apparatus | |
JP2010147715A (en) | Imager | |
JP4802058B2 (en) | Mobile phone with camera and imaging method thereof | |
JP4652998B2 (en) | Imaging device | |
JP4891674B2 (en) | camera | |
JP2003224761A (en) | Imaging apparatus | |
JP2009239347A (en) | Image processor and image processing program | |
US11523048B2 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
JP4717867B2 (en) | Imaging apparatus and imaging method | |
JP2014143595A (en) | Image recorder | |
JP4973427B2 (en) | Camera with projector | |
JP2014053863A (en) | Photographing apparatus | |
KR101724754B1 (en) | A imaging system of the vehicle around image using the motion recognition | |
JPWO2019065820A1 (en) | Imaging device and its control method and control program | |
JP2010034837A (en) | Electronic camera | |
JP2013135398A (en) | Image composition device | |
JP2011066828A (en) | Imaging device, imaging method and program | |
JP2010034838A (en) | Electronic camera | |
JP2013074428A (en) | Self-photographing determination device, imaging apparatus, program, and self-photographing determination method | |
US11671708B2 (en) | Imaging device, control method for imaging device, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100329 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100720 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20100906 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20110121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120405 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4970716 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |