JP2008011457A - Camera - Google Patents
Camera Download PDFInfo
- Publication number
- JP2008011457A JP2008011457A JP2006182520A JP2006182520A JP2008011457A JP 2008011457 A JP2008011457 A JP 2008011457A JP 2006182520 A JP2006182520 A JP 2006182520A JP 2006182520 A JP2006182520 A JP 2006182520A JP 2008011457 A JP2008011457 A JP 2008011457A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image data
- face
- subject
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 19
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000003825 pressing Methods 0.000 claims description 4
- 241001504424 Zosteropidae Species 0.000 claims 1
- 230000001815 facial effect Effects 0.000 abstract 2
- 230000008921 facial expression Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 26
- 235000002673 Dioscorea communis Nutrition 0.000 description 17
- 241000544230 Dioscorea communis Species 0.000 description 17
- 208000035753 Periorbital contusion Diseases 0.000 description 17
- 241001469893 Oxyzygonectes dovii Species 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 210000004709 eyebrow Anatomy 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000001235 sensitizing effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明はカメラに関し、より詳しくは、撮影時に最適な撮影タイミングを逃さない為の機能を有するカメラに関する。 The present invention relates to a camera, and more particularly to a camera having a function for not missing an optimal shooting timing during shooting.
近年のカメラは、画像処理回路の高機能化や撮像素子の読み出し機能の高速化によって、大量の画像データを短時間で取得することが可能となった。しかしながら、画像データを記録するメモリの容量制限、及び取得した大量の画像データの中から所望の画像データを検索するという煩雑さ等に起因して、大量の画像データを短時間で取得することができるというメリットが有効に利用されていない。 Recent cameras have been able to acquire a large amount of image data in a short time by increasing the functionality of an image processing circuit and increasing the speed of a reading function of an image sensor. However, it is possible to acquire a large amount of image data in a short time due to the limited capacity of the memory for recording the image data and the complexity of searching for the desired image data from the acquired large amount of image data. The advantage of being able to do so is not being used effectively.
ところで、例えば人物を被写体として撮影する場合に、所謂カメラ目線(被写体である人物の視線が当該カメラに向かっている状態;以下同様)の被写体を撮影する為に、例えば以下のような技術が提案されている。 By the way, when photographing a person as a subject, for example, the following technique is proposed in order to photograph a subject with a so-called camera line of sight (a state where the subject's line of sight is facing the camera; the same applies hereinafter). Has been.
まず、特許文献1に開示されている撮像装置は、撮影時に被写体の注意を喚起する為に所定の音声パターンを発するスピーカ、及び被写体の目線を撮影レンズ近傍に向けさせる為の発光装置を具備している。
First, an imaging device disclosed in
また、特許文献2に開示された映像記録再生装置は、被写体である子供のカメラ目線を長時間得る為に、撮影時に子供の注意を引くような画像データを表示する為の液晶モニタを具備する。そして、撮影時には上記液晶モニタを、被写体である子供の方向へ向ける。
しかしながら、上記特許文献1に開示された技術のように、撮影時に被写体の注意を喚起する為に所定の音声パターンをスピーカで発することは、単に撮影者が撮影時に自分で声を発して被写体の注意を喚起することと同等レベルの域を出ていない。
However, as in the technique disclosed in
さらに、被写体の目線を撮影レンズ近傍に向けさせる為の発光装置に関しても、新たに上記発光装置を設けなくてはならないことに起因するコスト等に見合った効果を発揮するとは考えられない。 Furthermore, regarding a light-emitting device for directing the subject's line of sight toward the vicinity of the taking lens, it is not considered that an effect commensurate with the cost and the like resulting from the necessity to newly provide the light-emitting device is exhibited.
また、上記特許文献2に開示された技術によれば、被写体である子供のカメラ目線を得ることはできても、子供の目線はあくまでも上記液晶モニタに表示される例えばアニメキャラクタ等にある。したがって、被写体である子供が不自然な表情及び目線となることは否めない。
Further, according to the technique disclosed in
本発明は、上記の事情に鑑みてなされたもので、大量の画像データを短時間で取得することができるという近年のカメラの長所を有効に利用することで、単純な構造で、カメラ目線且つ自然な表情の被写体人物を容易に撮影することができるカメラを提供することを目的とする。 The present invention has been made in view of the above circumstances, and by effectively utilizing the advantages of a recent camera that a large amount of image data can be acquired in a short time, with a simple structure, It is an object of the present invention to provide a camera that can easily photograph a subject person with a natural expression.
上記の目的を達成するために、本発明の第1の態様によるカメラは、被写体からの光束を受けて像信号を出力する像信号形成部と、上記像信号形成部の出力する像信号をデジタル信号である画像データに変換する信号変換部とを具備するカメラにおいて、上記画像データから、上記被写体である人物の顔の部分を検出する顔検出部と、上記顔検出部によって検出された上記顔の部分から、鼻部の検出、眼部の検出、該眼部による視線の向きの判定、及び上記顔部の向きの判定を行う顔パーツ判別部と、上記顔パーツ判別部によって検出された上記視線の向き及び上記顔部の向きに基づいて、上記被写体である人物の視線が当該カメラに対して向けられているか否かを判定する判定手段と、を具備することを特徴とする。 In order to achieve the above object, a camera according to a first aspect of the present invention includes an image signal forming unit that receives a light beam from a subject and outputs an image signal, and digitally outputs an image signal output from the image signal forming unit. In a camera including a signal conversion unit that converts image data that is a signal, a face detection unit that detects a face portion of a person that is the subject from the image data, and the face detected by the face detection unit A face part discriminating unit for detecting a nose part, detecting an eye part, determining a direction of a gaze by the eye part, and determining a direction of the face part, and the face part discriminating part And determining means for determining whether the line of sight of the person as the subject is directed toward the camera based on the direction of the line of sight and the direction of the face.
本発明によれば、単純な構造で、カメラ目線且つ自然な表情の被写体人物を容易に撮影することができるカメラを提供することができる。 According to the present invention, it is possible to provide a camera that can easily photograph a subject person with a simple structure and a natural look.
以下、図面を参照して、本発明の一実施形態に係るカメラを説明する。 A camera according to an embodiment of the present invention will be described below with reference to the drawings.
[第1実施形態]
図1は、本第1実施形態に係るカメラのシステム構成の概念を示すブロック図である。同図に示すように、本第1実施形態に係るカメラは、MPU(Micro Processing Unit)1と、レリーズスイッチ1aと、各種操作スイッチ1cと、撮影レンズ2と、ピント合わせ部2aと、ズーム制御部2bと、AFE(Analogue Front End)回路3と、撮像素子3aと、マイク3bと、補助光照射部4aと、顔検出部4bと、輪郭検出部4cと、顔パーツ判別部4dと、信号処理回路5と、処理補助ブロック5aと、RAM(Random Access Memory)6と、メモリ7と、表示部8と、スピーカ8aと、プリント信号出力部8bと、無線通信部8cと、フラッシュROM(Flash Read Only Memory)9とを具備する。なお、参照符号1bが付されているのは、連写撮影スイッチであり、後述する第2実施形態に係るカメラが具備する。したがって、連写撮影スイッチ1bについては、第2実施形態において詳述する。以下、上記の各構成部材を詳細に説明する。
[First Embodiment]
FIG. 1 is a block diagram showing the concept of the system configuration of the camera according to the first embodiment. As shown in the figure, the camera according to the first embodiment includes an MPU (Micro Processing Unit) 1, a
まず、上記MPU1は、マイクロコントローラ等から成る制御部である。そして、上記MPU1には、上記レリーズスイッチ1a及び上記各種操作スイッチ1cが接続されている。そして、上記MPU1は、上記レリーズスイッチ1a及び上記各種操作スイッチ1cの状態を検出し、該検出の結果に基づき、後述するフローチャートの動作制御プログラム(上記フラッシュROM9に格納)に従って、各構成部材をシーケンシャルに制御する。
First, the MPU 1 is a control unit composed of a microcontroller or the like. The
ここで、上記レリーズスイッチ1aは、レリーズ操作の為のスイッチである。上記各種操作スイッチ1cは、レリーズ操作やモード切り換え操作以外の各種操作を行う為のスイッチである。
Here, the
まず、上記撮影レンズ2を介して当該カメラに入射した被写体11の像は、例えばCCDやCMOSセンサ等からなる上記撮像素子3aにより電気信号に変換される。ここで、上記撮影レンズ2としては、AFの為のズームレンズ等を想定している。また、上記撮影レンズ2のピント合わせ制御は、上記ピント合わせ部2aによって行われる。さらに、上記撮影レンズ2の画角の切り換え判定は、上記ズーム制御部2bによって行われる。
First, an image of the
ところで、上記撮像素子3aの取得した電気信号は、上記AFE回路3によって読み出されてA/D変換等が施され、デジタル画像信号である画像データとなる。この画像データはその後、上記信号処理回路5に入力される。なお、露出レベルの切り換えの制御も、上記AFE回路3によって行われる。
By the way, the electrical signal acquired by the imaging device 3a is read out by the AFE circuit 3 and subjected to A / D conversion or the like, and becomes image data which is a digital image signal. This image data is then input to the
上記信号処理回路5に入力された画像データは、上記信号処理回路5において色補正及び信号圧縮処理等の所定の処理を施された後、上記メモリ7に記録される。なお、上記信号処理回路5には、露出レベルを変更した後の増感処理、画像処理時における補正のかけ方の変更、及び画像データの圧縮率を変更する為の上記処理補助ブロック5aが設けられている。
The image data input to the
さらに、本第1実施形態に係るカメラでは、音声入力の為の上記マイク3bが設けられている。このマイク3bによって取得した音声信号である音声データも、上記画像データと同様に上記信号処理回路5にて信号圧縮処理等が施され、上記メモリ7に記録される。ここで、上記画像データ及び上記音声データは、その処理時及び記録時等においては、適宜上記RAM6に格納される。
Furthermore, the camera according to the first embodiment is provided with the
ところで、本第1実施形態に係るカメラでは、撮影して取得した画像データは、上記プリント信号出力部8bや上記無線通信部8cによって、当該カメラの外部へ送信することができる。この無線通信部8cは、例えば本第1実施形態に係るカメラと同様又は類似のシステム構成(上記無線通信部8cを具備するシステム構成)を有するカメラ等との無線通信を可能にする部材である。したがって、上記無線通信部8cによって、他のカメラとの画像データ等の送受信が可能となる。
By the way, in the camera according to the first embodiment, image data acquired by photographing can be transmitted to the outside of the camera by the print
また、上記表示部8はLCD(Liquid Crystal Display)等からなり、画像データ等を逐次再生表示させることが出来る部材である。例えば、上記メモリ7に圧縮して記録された上記画像データは、上記信号処理回路5によって読み出され且つ伸張処理等が施された後、上記表示部8に再生表示される。また、上記表示部8は、所謂ライブビュー表示にも用いることができ、ユーザーは、上記表示部8を参照しながら、上記被写体11の変化状態を確認しつつ撮影を行うことが出来る。
The
さらに、上記スピーカ8aは、上記音声データを再生する為の部材である。ここで、上記音声データの再生の際には、上記メモリ7に記録された上記音声データが、上記信号処理回路5によって読み出された後、スピーカ8aによって出力される。
Further, the speaker 8a is a member for reproducing the audio data. Here, when reproducing the audio data, the audio data recorded in the
ところで、上記補助光照射部4aは、被写体11に向って補助光を照射する為の部材である。この補助光照射部4によって、露出の不足を補ったり、被写体11の影を消したりすることができる。
By the way, the auxiliary
また、上記顔検出部4bは、上記信号処理回路5から出力される画像データを解析し、当該画像データにおける被写体中に人物がいるか否かの判定、及び当該画像データの被写体中に人物がいる場合には、その人物における顔部の位置や大きさ等の判定を行う。なお、被写体である人物(以降、被写体人物と称する)における顔部の範囲は、顔部の主要な色等から判定することができる。ここで、画像データの解析には、例えば人間の顔の特徴等を用いる。
The
上記輪郭検出部4cは、画像データにシャープネス強調処理を施して、当該画像データ中の被写体の輪郭の形状を判定する為の部材である。そして、上記顔パーツ判別部4dは、上記顔検出部4bによって検出された被写体人物の顔部における眼部、眉部及び鼻部等の各種顔パーツの位置の判定、上記被写体人物の顔部の向きの判定、上記眼部による視線の向きの判定、及び上記被写体人物の視線が当該カメラに対して向けられているか否かの判定等を行う部材である。
The contour detection unit 4c is a member for performing sharpness enhancement processing on the image data and determining the shape of the contour of the subject in the image data. Then, the face
以下、上記顔パーツ判別部4dによる被写体人物の各種顔パーツの位置の判定方法の1つである、色に基づいた判定方法について説明する。まず、被写体人物における顔部の中央付近を上下方向に走るコントラストの強い部分を、鼻部であると判定する。さらに、この鼻部の左右両脇部分における上部付近に存在する白色の部分は、白目部であると判定することができる。そして、上記白目部であると判定した白色の部分に囲まれた黒色の部分を、黒目部であると判定することができる(以降、白目部と黒目部とから構成される部分を眼部と称する)。なお、上記顔パーツ判別部4dによる各種判定結果は、上記顔検出部4bに出力される。このように、本第1実施形態に係るカメラによれば、撮影画面内における被写体人物の顔部の位置、鼻部の位置、白目部の位置、黒目部の位置等を判定することができる。
Hereinafter, a determination method based on color, which is one of the determination methods of the positions of various face parts of the subject person by the face
以下、本第1実施形態に係るカメラにおける上記顔パーツ判別部4dによる、被写体人物の顔部における眼部、眉部及び鼻部等の各種顔パーツの位置の判定、上記被写体人物の顔部の向きの判定、及び上記眼部による視線の向きの判定について、図2乃至図6を参照して詳細に説明する。
Hereinafter, the face
図2(a),(b)は、人物が被写体である画像データを示している。まず、被写体人物の顔部を判定する為には、図3(a),(b)に示すように、眉部や眼部による横長の影と鼻部による縦長の影とによって構成されるT字型の影を、図2(a),(b)に示す画像データから抽出する。ここで、顔部の画像データは、図2(a),(b)に示す画像データから、例えば輝度情報のみを抽出して処理することで得られる。このようにして被写体人物の顔部を検出し、更に色情報より肌色に近い色を有する部分のみを抽出することで、被写体人物の顔部の詳細な範囲(図3(a),(b)に示す斜線部参照)を検出することができる。 2A and 2B show image data in which a person is a subject. First, in order to determine the face portion of the subject person, as shown in FIGS. 3A and 3B, T composed of a horizontally long shadow by the eyebrows and eyes and a vertically long shadow by the nose. A character-shaped shadow is extracted from the image data shown in FIGS. Here, the face image data is obtained by extracting and processing only luminance information from the image data shown in FIGS. 2A and 2B, for example. By detecting the face portion of the subject person in this way and extracting only the portion having a color close to the skin color from the color information, the detailed range of the face portion of the subject person (FIGS. 3A and 3B). Can be detected).
そして、図3(a),(b)に示すように、顔部(上下方向の長さF)を上下方向に2分割した場合の分割線上における明るさをx軸方向(左右方向)に分析すると、図4(a),(b)に示すグラフのようになる。図4(a),(b)に示すグラフから分かるように、顔部を上下方向に2分割した場合の分割線上における明るさをx軸方向に分析することで、顔部における鼻筋の影の部分の座標x3を検出することができる。 Then, as shown in FIGS. 3A and 3B, the brightness on the dividing line when the face (length F in the vertical direction) is divided into two in the vertical direction is analyzed in the x-axis direction (left and right direction). Then, the graphs shown in FIGS. 4A and 4B are obtained. As can be seen from the graphs shown in FIGS. 4 (a) and 4 (b), by analyzing the brightness on the dividing line in the x-axis direction when the face is divided into two in the vertical direction, the shadow of the nasal muscles in the face is analyzed. The coordinates x3 of the part can be detected.
さらに、図3(a),(b)及び図4(a),(b)から分かるように、顔部がx1乃至x2の範囲であることに鑑みて、
x3<1/2(x1+x2)
であれば、当該顔部は向かって左向き(図3(a)参照)、
x3>1/2(x1+x2)
であれば、当該顔部は向かって右向き(図3(b)参照)であると判定する。
Further, as can be seen from FIGS. 3A and 3B and FIGS. 4A and 4B, in view of the fact that the face is in the range of x1 to x2,
x3 <1/2 (x1 + x2)
If so, the face is facing left (see FIG. 3A),
x3> 1/2 (x1 + x2)
If so, it is determined that the face is facing right (see FIG. 3B).
以上のようにして、被写体人物の顔の向きを判定することができる。 As described above, the orientation of the face of the subject person can be determined.
以下、図5(a)乃至(c)及び図6(a)乃至(c)を参照して、被写体人物の視線の方向を、眼部における明るさ分布を利用して検出する方法について詳細に説明する。 Hereinafter, with reference to FIGS. 5A to 5C and FIGS. 6A to 6C, a method for detecting the direction of the line of sight of the subject person using the brightness distribution in the eye part will be described in detail. explain.
ここで、図5(a)は黒目部の左右どちら側にも白目部が存在している場合(被写体が当該カメラに対してカメラ目線である場合)、(b)は黒目部の右側(向かって右側)に白目部が存在している場合(被写体が向かって左側を見ている場合)、(c)は黒目部の左側(向かって左側)に白目部が存在している場合(被写体が向かって右側を見ている場合)の眼部を示す図である。 Here, FIG. 5A shows a case where a white-eye portion is present on both the left and right sides of the black-eye portion (when the subject is a camera line of sight with respect to the camera), and FIG. Right side) (when the subject is looking at the left side), (c) is when the white side is present at the left side (left side) of the black eye (when the subject is It is a figure which shows the eye part of the case of looking at the right side.
そして、図6(a)乃至(c)は、それぞれ図5(a)乃至(c)に示す眼部における破線y3上における明るさ分布を示すグラフである。なお、図6(a)乃至(c)に示すグラフにおける座標x1及びx3は、それぞれ図4(a)及び(b)に示すグラフにおけるx1,x3と対応した座標である。すなわち、座標x1は、顔部と、向かって左側の背景との境界のx座標である。また、座標x3は、顔部における上記鼻部の影の部分のx座標である。ここで、図5に示すように、眼部における左右両端のx座標を、それぞれ座標x4、座標x5とする。 6A to 6C are graphs showing the brightness distribution on the broken line y3 in the eye part shown in FIGS. 5A to 5C, respectively. Note that the coordinates x1 and x3 in the graphs shown in FIGS. 6A to 6C are coordinates corresponding to x1 and x3 in the graphs shown in FIGS. 4A and 4B, respectively. That is, the coordinate x1 is the x coordinate of the boundary between the face portion and the background on the left side. The coordinate x3 is an x coordinate of the shadow portion of the nose portion in the face portion. Here, as shown in FIG. 5, the x-coordinates at the left and right ends of the eye part are defined as coordinates x4 and x5, respectively.
図6に示すような明るさ分布のグラフによって、所定の幅を有し且つ周囲よりも明るいピークとして被写体人物の白目部を検出することができ、また黒目部の偏り具合によって被写体人物の視線の向きも検出することができる。以下、黒目部の偏り具合による被写体人物の視線の向きの検出について詳細に説明する。 The brightness distribution graph as shown in FIG. 6 can detect the white part of the subject person as a peak having a predetermined width and brighter than the surroundings, and the gaze of the subject person can be detected by the degree of deviation of the black part. The direction can also be detected. Hereinafter, detection of the direction of the line of sight of the subject person based on the degree of deviation of the black eye part will be described in detail.
まず、黒目部が左右どちらにも偏らずに存在している場合、すなわち被写体人物が当該カメラの方向を向いている場合、図6(a)に示すように、白目部による明るさのピークが2つ存在し、この2つのピークに挟まれるように黒目部による暗い部分が存在する。 First, in the case where the black eye part exists without being biased to the left or right, that is, when the subject person faces the direction of the camera, as shown in FIG. There are two, and there is a dark part due to the black eye part so as to be sandwiched between these two peaks.
また、黒目部が向かって左側に偏って存在している場合、すなわち被写体人物が向かって左側を見ている場合、図6(b)に示すように、白目部による明るさのピークは1つしか存在せず且つ該ピークは座標x4と座標x5との中点よりも座標x5側に存在する。 Further, when the black eye portion is biased toward the left side, that is, when the subject person is looking toward the left side, as shown in FIG. 6B, there is one brightness peak due to the white eye portion. However, the peak exists on the coordinate x5 side with respect to the midpoint of the coordinates x4 and x5.
さらに、黒目部が向かって右側に偏って存在している場合、すなわち被写体人物が向かって右側を見ている場合、図6(c)に示すように、白目部による明るさのピークは1つしか存在せず且つ該ピークは座標x4と座標x5との中点よりも座標x4側に存在する。 Further, when the black eye portion is biased toward the right side, that is, when the subject person is looking at the right side, as shown in FIG. 6C, there is one brightness peak due to the white eye portion. However, the peak exists on the coordinate x4 side with respect to the midpoint of the coordinates x4 and x5.
以上説明したように、被写体人物の顔部の向き及び視線の向きを、顔部及び眼部における明るさの分布パターンによって検出できるので、被写体人物が当該カメラの方を見ているか否かを判定(図7に示すフローチャートを参照して詳述する)することができる。 As described above, the orientation of the face of the subject person and the direction of the line of sight can be detected by the brightness distribution pattern in the face and eyes, so it is determined whether the subject person is looking at the camera. (Detailed with reference to the flowchart shown in FIG. 7).
なお、上述したような白目部及び黒目部の検出を行う為には、顔部の範囲すなわち図3(a),(b)に示す例ではx1乃至x3若しくはx3乃至x2且つy1乃至y2の範囲における明るさの分布を調べればよい。 In order to detect the white eye and the black eye as described above, in the example shown in FIGS. 3A and 3B, the range of x1 to x3 or x3 to x2 and y1 to y2 is used. What is necessary is just to examine the brightness distribution at.
以下、本第1実施形態に係るカメラのMPU1による撮影シーケンスの一例を、図7に示すフローチャートを参照して説明する。なお、本第1実施形態に係るカメラにおける各構成部材の動作については、図1を参照して上述した通りであるので、ここでは撮影シーケンスの流れを中心に説明する。
Hereinafter, an example of a shooting sequence by the
まず、不図示の電源スイッチがONされると、初期設定を行う(ステップS101)。なお、このステップS101における初期設定としては、例えば当該カメラの各部の初期化や、上記撮影レンズ2のレンズ位置の初期化等を挙げることができる。このステップS101における処理を終えた後、操作チェックを行う(ステップS102)。このステップS102においては、当該カメラのデフォルト状態に対してユーザーによって加えられた変更をチェックする。
First, when a power switch (not shown) is turned on, initial setting is performed (step S101). Note that examples of the initial setting in step S101 include initialization of each part of the camera, initialization of the lens position of the photographing
そして、上記撮像素子3aの取得した電気信号を、上記AFE回路3によって読み出し且つA/D変換等を施してデジタル画像信号である画像データを生成し、上記表示部8に表示させる(ステップS1)。 Then, the electrical signal acquired by the imaging device 3a is read out by the AFE circuit 3 and subjected to A / D conversion or the like to generate image data which is a digital image signal and displayed on the display unit 8 (step S1). .
すなわち、上記ステップS1は、所謂ライブビュー表示を開始するステップである。したがって、上記ステップS1以降では、ユーザーは、上記表示部8におけるライブビュー表示を参照しながら、フレーミングやレリーズタイミングの決定を行うことができる。
That is, step S1 is a step of starting so-called live view display. Therefore, after step S1, the user can determine framing and release timing while referring to the live view display on the
つづいて、ユーザーによって上記レリーズスイッチ1aの押操作が為されたか(撮影操作が為されたか)否かを判定する(ステップS2)。このステップS2をNOに分岐する場合は、後述するステップS9へ移行する。
Subsequently, it is determined whether or not the user has pressed the
上記ステップS2をYESに分岐する場合は、所定の撮影動作によって撮影を行い、且つ該撮影によって取得した画像データを、上記メモリ7におけるメモリ1領域へ記録する(ステップS3)。その後、上記レリーズスイッチ1aがユーザーによる押操作から解放されたか否かを判定する(ステップS4)。このステップS4をNOに分岐する場合は、上記ステップS3へ戻る。すなわち、上記レリーズスイッチ1aがユーザーによる押操作から解放されるまで、上記ステップS3における処理を繰り返し行う。
When step S2 is branched to YES, shooting is performed by a predetermined shooting operation, and image data obtained by the shooting is recorded in the
一方、上記ステップS4をYESに分岐する場合は、上記ステップS3において取得した画像データを、上記表示部8に表示させる(ステップS5)。その後、不図示のタイマーによって時間を計測し、所定時間経過前にユーザーによって何らかの操作が為されたか否かを判断する(ステップS103)。このステップS103において、ユーザーによる操作が何ら行われないまま所定時間経過したと判断した場合は、スリープモードとして省電力動作に移行する。一方、上記ステップS103において、所定時間経過前にユーザーによって何らかの操作が行われたと判断した場合は、上記ステップS102へ戻る。 On the other hand, when step S4 is branched to YES, the image data acquired in step S3 is displayed on the display unit 8 (step S5). Thereafter, the time is measured by a timer (not shown), and it is determined whether or not any operation has been performed by the user before the predetermined time has elapsed (step S103). In this step S103, when it is determined that the predetermined time has passed without any operation by the user, the mode is shifted to the power saving operation as the sleep mode. On the other hand, if it is determined in step S103 that an operation has been performed by the user before the predetermined time has elapsed, the process returns to step S102.
ところで、上記ステップS2をNOに分岐する場合には、上記顔検出部4bによって、上記信号処理回路5から出力される画像データを解析し、当該画像データの被写体中に人物がいるか否かの判定、及び当該画像データの被写体中に人物がいる場合には、その顔部を検出する(ステップS9)。
When step S2 is branched to NO, the
つづいて、このステップS9において、顔部の検出に成功したか否かを判定する(ステップS10)。このステップS10をNOに分岐する場合は、上記ステップS1へ戻る。一方、上記ステップS10をYESに分岐する場合は、図3及び図4を参照して説明したようにして、上記顔パーツ判別部4dによって顔部の向きの検出を行う(ステップS11)。
Subsequently, in step S9, it is determined whether or not the face portion has been successfully detected (step S10). When step S10 is branched to NO, the process returns to step S1. On the other hand, when step S10 is branched to YES, the face
上記ステップS11にて行った顔部の向きの判定の結果、顔部が当該カメラの方向を向いているか否かを判定する(ステップS12)。このステップS12をYESに分岐する場合は、図5(a)乃至(c)及び図6(a)乃至(c)を参照して説明したようにして、上記顔パーツ判別部4dによって、黒目部の左右両隣に白目部が存在しているか否かを判定する(ステップS13)。このステップS13をYESに分岐する場合は、被写体がカメラ目線であるので、当該画像データを上記メモリ7におけるメモリ2領域へ記録する(ステップS14)。そして、被写体がカメラ目線となっていることを、上記表示部8に表示する(ステップS14−1)。
As a result of the determination of the orientation of the face performed in step S11, it is determined whether or not the face is facing the camera (step S12). When step S12 is branched to YES, as described with reference to FIGS. 5 (a) to (c) and FIGS. 6 (a) to (c), the face
上記ステップS13をNOに分岐する場合、及び上記ステップS14における処理を行った後、上記メモリ7における上記メモリ2領域に所定の空き容量が残っているかどうかを判定する(ステップS18)。このステップS18をNOに分岐する場合は、上記メモリ7における上記メモリ2領域に記録された画像データを、記録日時の古い順に所定枚数消去する(ステップS19)。
When step S13 is branched to NO and after performing the process in step S14, it is determined whether or not a predetermined free space remains in the
上記ステップS18をYESに分岐する場合または上記ステップS19の処理を終えた後は、上記ステップS1へ戻る。 When step S18 is branched to YES or after the process of step S19 is completed, the process returns to step S1.
ところで、上記ステップS12をNOに分岐する場合、上記ステップS11において行った顔部の向きの判定の結果、被写体の顔部が向かって右側を向いて(図2(b)参照)いるか否かを判定する(ステップS15)。このステップS15をYESに分岐する場合、図5(a)乃至(c)及び図6(a)乃至(c)を参照して説明したように上記顔パーツ判別部4dによって、黒目部の向かって右側に白目部が存在(図5(b)参照)しているか否かを判定する(ステップS16)。このステップS16をYESに分岐する場合は、図2(b)に示すように顔部が向かって右側を向いた状態で、図5(b)に示すように視線は向かって左側を向いているような状態となっている。この状態は、被写体人物が当該カメラに対してカメラ目線であると考えられるので、上記ステップS14へ移行する。一方、上記ステップS16をNOに分岐する場合は、上記ステップS18へ移行する。
By the way, when step S12 is branched to NO, as a result of the determination of the face direction performed in step S11, it is determined whether or not the face of the subject is facing right (see FIG. 2B). Determination is made (step S15). When step S15 is branched to YES, as described with reference to FIGS. 5A to 5C and FIGS. 6A to 6C, the face
また、上記ステップS15をNOに分岐する場合は、被写体人物の顔部が向かって左側を向いて(図2(a)参照)いる場合である。したがって、図5(a)乃至(c)及び図6(a)乃至(c)を参照して説明したように、上記顔パーツ判別部4dによって、黒目部の向かって左側に白目部が存在(図5(c)参照)しているか否かを判定する(ステップS17)。
Further, the case where the step S15 is branched to NO is a case where the face portion of the subject person faces leftward (see FIG. 2A). Therefore, as described with reference to FIGS. 5A to 5C and FIGS. 6A to 6C, the face
このステップS17をYESに分岐する場合は、図2(a)に示すように顔部が向かって左側を向いた状態で、図5(c)に示すように視線は向かって右側を向いているような状態となっている。この状態は、被写体人物が当該カメラに対してカメラ目線であると考えられるので、上記ステップS14へ移行する。一方、上記ステップS17をNOに分岐する場合は、上記ステップS18へ移行する。 When step S17 is branched to YES, the face is facing left as shown in FIG. 2A, and the line of sight is facing right as shown in FIG. 5C. It is in such a state. In this state, since it is considered that the subject person is looking at the camera with respect to the camera, the process proceeds to step S14. On the other hand, when step S17 is branched to NO, the process proceeds to step S18.
以上、図7に示すフローチャートを参照して説明した撮影シーケンスを実行することによって、被写体人物がカメラ目線となった時のシャッターチャンスを逃さずに撮影することができる。なお、図7に示すフローチャートにおいては、被写体がカメラ目線となった場合には、当該画像データを上記メモリ2領域へ記録(ステップS14)した後に、被写体がカメラ目線である旨を上記表示部8に表示(ステップS14−1)したが、これに限らず、被写体がカメラ目線であることを検出した場合には、上記のタイミング以外のタイミングでその旨を上記表示部8に表示しても勿論よい。
As described above, by executing the shooting sequence described with reference to the flowchart shown in FIG. 7, it is possible to take a picture without missing a photo opportunity when the subject person looks at the camera. In the flowchart shown in FIG. 7, when the subject is looking at the camera, the
以下、図8に示すフローチャートを参照して、本第1実施形態に係るカメラにおけるMPU1による画像データの取捨選択処理について説明する。なお、この画像データの取捨選択処理は、本第1実施形態においては、図7に示すフローチャートにおける上記ステップS5にて行うとする。
Hereinafter, with reference to the flowchart shown in FIG. 8, the image data sorting process by the
図7に示すフローチャートにおける上記ステップS3で取得した画像データ(ユーザーのレリーズ操作によって撮影され、上記メモリ7における上記メモリ1領域に記録された画像データ)に対して、上記顔検出部4bによって被写体人物の顔部の検出を行い、且つ上記顔パーツ判別部4dによって上記被写体人物の顔部の向きの判定、上記眼部による視線の向きの判定、及び上記被写体人物の視線が当該カメラに対して向けられているか否かの判定を行う(ステップS20)。
For the image data (image data taken by the user's release operation and recorded in the
そして、上記ステップS20における判定結果に基づいて、被写体人物の顔部を検出することができたか否かを判断する(ステップS21)。このステップS21をYESに分岐する場合は、上記ステップS20における判定結果に基づいて、眼部を検出することができたか否かを判断する(ステップS22)。このステップS22をYESに分岐する場合は、上記ステップS20における判定結果に基づいて、被写体人物が当該カメラに対してカメラ目線であるか否かを判断する(ステップS23)。なお、被写体人物が当該カメラに対してカメラ目線であるか否かの判断方法は、上述した通りである。 Then, based on the determination result in step S20, it is determined whether or not the face portion of the subject person has been detected (step S21). When step S21 is branched to YES, it is determined whether or not the eye has been detected based on the determination result in step S20 (step S22). When step S22 is branched to YES, it is determined based on the determination result in step S20 whether or not the subject person is looking at the camera with respect to the camera (step S23). Note that the method for determining whether or not the subject person is looking at the camera is as described above.
上記ステップS23をYESに分岐する場合は、当該画像データを、上記表示部8に所定の大きさで(後述するステップS25における画像データの表示よりも大きく)表示させる(ステップS24)。
When step S23 is branched to YES, the image data is displayed on the
ところで、上記ステップS21をNOに分岐する場合、上記ステップS22をNOに分岐する場合、及び上記ステップS23をNOに分岐する場合は、当該画像データを上記表示部8に所定の大きさで(上記ステップS24における画像データの表示よりも小さく)表示させる(ステップS25)。
By the way, when step S21 is branched to NO, when step S22 is branched to NO, and when step S23 is branched to NO, the image data is displayed on the
上記ステップS24または上記ステップS25における処理を行った後は、上記メモリ7における上記メモリ1領域に記録された全ての画像データについて、上記ステップS20乃至上記ステップS23における処理を行ったか否かを判断する(ステップS26)。このステップS26をNOに分岐する場合、上記メモリ7における上記メモリ1領域に記録された画像データの中から、次に上記ステップS20乃至上記ステップS23における処理を行う候補の画像データを決定する(ステップS27)。そして、上記ステップS20へ移行する。
After performing the processing in step S24 or step S25, it is determined whether or not the processing in steps S20 to S23 has been performed for all the image data recorded in the
つまり、図7に示すフローチャートにおける上記ステップS3で上記メモリ1領域に記録された全ての画像データに対し、上記ステップS20乃至上記ステップS23における処理を行う。
That is, the processing in steps S20 to S23 is performed on all the image data recorded in the
ところで、上記ステップS26をYESに分岐する場合、上記ステップS24における処理を行った(当該カメラに対して被写体人物がカメラ目線の画像データが存在した)か否かを判断する(ステップS31)。このステップS31をNOに分岐する場合は、上記メモリ7における上記メモリ2領域に記録された画像データを、上記表示部8に表示させる(ステップS32)。
When step S26 is branched to YES, it is determined whether or not the processing in step S24 has been performed (image data of the subject person looking at the camera is present for the camera) (step S31). When step S31 is branched to NO, the image data recorded in the
なお、上記メモリ7における上記メモリ2領域に記録された画像データは、図7に示すフローチャートにおける上記ステップS14で、カメラ目線時の被写体人物を、上記MPU1の判断によって撮影して取得した画像データである。
Note that the image data recorded in the
上記ステップS31をYESに分岐する場合、または上記ステップS32における処理を実行した後には、ユーザーが所望の画像データを選択するステップであるステップS33に移行する。 When step S31 is branched to YES, or after the processing in step S32 is executed, the process proceeds to step S33, which is a step in which the user selects desired image data.
上記ステップS33に、上記ステップS31をYESに分岐することで移行した場合には、上記ステップS24にて上記表示部8に表示させた画像データの中から所望の画像データを、ユーザーが上記各種スイッチ1cを操作して選択する(ステップS33)。
When the process proceeds to the step S33 by branching the step S31 to YES, the user selects desired image data from the image data displayed on the
上記ステップS33に、上記ステップS32における処理を行った後に移行した場合には、上記ステップS32にて上記表示部8に表示させた画像データの中から所望の画像データを、ユーザーが上記各種スイッチ1cを操作して選択する(ステップS33)。
When the process proceeds to step S33 after performing the process in step S32, the user selects desired image data from the image data displayed on the
上記ステップS33における処理を実行した後、上記メモリ7における上記メモリ1領域及び上記メモリ2領域に記録された画像データのうち、上記ステップS33においてユーザーによって選択された画像データ以外の画像データを消去する操作がユーザーによって行われたか否かを判断する(ステップS34)。
After executing the process in step S33, image data other than the image data selected by the user in step S33 is erased from the image data recorded in the
上記ステップS34をYESに分岐する場合は、上記ステップS33においてユーザーによって選択された画像データを、上記メモリ7におけるメモリ3領域に記録する(ステップS35)。一方、上記ステップS34をNOに分岐する場合は、上記メモリ7における上記メモリ1領域に記録された画像データを、全て上記メモリ3領域に記録する(ステップS36)。
When step S34 is branched to YES, the image data selected by the user in step S33 is recorded in the memory 3 area of the memory 7 (step S35). On the other hand, when step S34 is branched to NO, all the image data recorded in the
上記ステップS35または上記ステップS36における処理を行った後、上記メモリ1領域または上記メモリ2領域に記録された画像データのうち、上記ステップS33においてユーザーによって選択された画像データ以外の画像データを消去する(ステップS37)。そして、図7に示すフローチャートに戻る。
After performing the process in step S35 or step S36, image data other than the image data selected by the user in step S33 is erased from the image data recorded in the
以上説明したように、本第1実施形態によれば、単純な構造で、カメラ目線且つ自然な表情の被写体人物を容易に撮影することができるカメラを提供することができる。 As described above, according to the first embodiment, it is possible to provide a camera that can easily shoot a subject person with a simple structure and a natural look.
具体的には、本第1実施形態に係るカメラでは、ユーザーによる撮影操作が為されなくても、被写体人物が当該カメラに対してカメラ目線となった時には撮影動作を実行して画像データを取得し、上記メモリ7における上記メモリ1領域に記録する。したがって、被写体人物が当該カメラに対してカメラ目線となった時のシャッターチャンスを逃すことが無い。
Specifically, in the camera according to the first embodiment, even when no shooting operation is performed by the user, when the subject person is looking at the camera with respect to the camera, the shooting operation is performed to acquire the image data. Then, it is recorded in the
すなわち、本第1実施形態に係るカメラによれば、撮影の初心者であっても、シャッターチャンスを逃さずに、カメラ目線である被写体人物を容易に撮影することができ、見ごたえのある印象的な一瞬を捉えた写真を得ることができる。 That is, according to the camera according to the first embodiment, even a novice photographer can easily photograph a subject person who is looking at the camera without missing a photo opportunity, and is impressive and impressive. You can get a picture of the moment.
また、被写体がカメラ目線になるとその旨が上記表示部8に表示されるので、被写体がカメラ目線であることが画像だけでは視覚的に判別しにくい場合であっても、被写体がカメラ目線であることを容易に認識して撮影を行うことができる。
In addition, when the subject is looking at the camera, that fact is displayed on the
また、本第1実施形態に係るカメラでは、図7に示すフローチャートにおける上記ステップS19及び図8に示すフローチャートにおける上記ステップS37のように、上記メモリ7に記録された画像データのうち不要な画像データを消去するステップを設けている。したがって、ユーザーは、上記メモリ7が容量オーバーとなることを気にすること無く、撮影を行うことができる。
Further, in the camera according to the first embodiment, unnecessary image data among the image data recorded in the
なお、上記第1実施形態においては、被写体人物が1人の場合を想定していたが、例えば図9(a)に示すように被写体人物が複数の場合にも、上記第1実施形態を適用することができるのは勿論である。この場合、例えば被写体人物全員が、当該カメラに対してカメラ目線となった時に、上記MPU1の判断による撮影動作を実行するとしてもよい。
In the first embodiment, it is assumed that there is one subject person. However, for example, as shown in FIG. 9A, the first embodiment is applied to a case where there are a plurality of subject persons. Of course you can. In this case, for example, when all of the subject persons are looking at the camera with respect to the camera, the shooting operation based on the determination of the
また、図9(b)に示すように、被写体である人物が動いているようなシーンにおいては、被写体人物が当該カメラに対してカメラ目線となるのは一瞬である為、上記第1実施形態に係るカメラの有する効果は、特に有効となる。 Further, as shown in FIG. 9B, in a scene in which a person who is a subject is moving, the subject person is instantaneously looking at the camera with respect to the camera. The effect which the camera which concerns on has is especially effective.
なお、図8に示すフローチャートにおいては、被写体人物の顔部及び眼部に関する各種判定を、上記ステップS21乃至上記ステップS23において3段階で行っているが、上記撮像素子3aの性能や上記MPU1の処理スピードによっては、より細かな判定を行っても勿論よい。
In the flowchart shown in FIG. 8, various determinations relating to the face and eye of the subject person are performed in three stages in steps S21 to S23, but the performance of the image sensor 3a and the processing of the
[第2実施形態]
次に、本発明の第2実施形態に係るカメラについて説明する。なお、本第2実施形態に係るカメラは、レリーズスイッチとして、上記第1実施形態に係るカメラが具備するレリーズスイッチ1aの他に、更に連写撮影スイッチ1bを具備する(図10参照)。ここで、上記連写撮影スイッチ1bは、図1に示すように上記MPU1に接続されて設けられている。そして、本第2実施形態に係るカメラでは、上記連写撮影スイッチ1bがユーザーによって一回押し込まれると、所定枚数だけ連写撮影が為される。
[Second Embodiment]
Next, a camera according to a second embodiment of the present invention will be described. The camera according to the second embodiment further includes a
なお、本第2実施形態に係るカメラは、図7及び図8に示すフローチャートを参照して説明した上記第1実施形態に係るカメラの動作制御と同様の動作制御に加えて、図11に示すフローチャートを参照して後述する本第2実施形態に係るカメラに特有の連写撮影シーケンスを実行することができる。 The camera according to the second embodiment is shown in FIG. 11 in addition to the same operation control as that of the camera according to the first embodiment described with reference to the flowcharts shown in FIGS. A continuous shooting sequence peculiar to the camera according to the second embodiment described later with reference to the flowchart can be executed.
ここで、本第2実施形態においては、上記メモリ7は、仮記録メモリ領域と本記録メモリ領域とを有する。なお、上記仮記録メモリ領域は、上記第1実施形態における上記メモリ1領域及び上記メモリ2領域に対応し、上記本記録メモリ領域は、上記第1実施形態における上記メモリ3領域に対応する。
Here, in the second embodiment, the
したがって、本第2実施形態に係るカメラにて、図7及び図8に示すフローチャートを参照して説明した上記第1実施形態に係るカメラの動作制御を行う場合には、上記メモリ1領域及び上記メモリ2領域を仮記録メモリ領域に、上記メモリ3領域を本記録メモリ領域に読み替える。
Therefore, in the camera according to the second embodiment, when the operation control of the camera according to the first embodiment described with reference to the flowcharts shown in FIGS. The
以下、本第2実施形態に係るカメラのMPU1による連写撮影シーケンスを、図11に示すフローチャートを参照して説明する。
Hereinafter, a continuous shooting sequence by the
まず、不図示の電源スイッチがONされると、初期設定を行う(ステップS101)。なお、このステップS101における初期設定としては、例えば当該カメラの各部の初期化や、上記撮影レンズ2のレンズ位置の初期化等を挙げることができる。このステップS101における処理を終えた後、操作チェックを行う(ステップS102)。このステップS102においては、当該カメラのデフォルト状態に対してユーザーによって加えられた変更をチェックする。
First, when a power switch (not shown) is turned on, initial setting is performed (step S101). Note that examples of the initial setting in step S101 include initialization of each part of the camera, initialization of the lens position of the photographing
つづいて、上記撮像素子3aの取得した電気信号を、上記AFE回路3によって読み出し且つA/D変換等を施してデジタル画像信号である画像データを生成し、上記表示部8に表示させる(ステップS41)。すなわち、上記ステップS41は、図7に示すフローチャートにおける上記ステップS1と同様、所謂ライブビュー表示を開始するステップである。 Subsequently, the electrical signal acquired by the imaging device 3a is read by the AFE circuit 3 and subjected to A / D conversion or the like to generate image data as a digital image signal, which is displayed on the display unit 8 (step S41). ). That is, step S41 is a step of starting so-called live view display, similar to step S1 in the flowchart shown in FIG.
そして、ユーザーによって上記レリーズスイッチ1aの押操作が為されたか(撮影操作が為されたか)否かを判定する(ステップS42)。このステップS42をNOに分岐する場合は、後述するステップS51へ移行する。
Then, it is determined whether or not the user has pressed the
上記ステップS42をYESに分岐する場合は、所定の撮影動作によって撮影を行う(ステップS43)。そして、上記ステップS43で撮影によって取得した画像データを、上記メモリ7における上記本記録メモリ領域へ記録する(ステップS44)。その後、不図示のタイマーによって時間を計測し、所定時間経過前にユーザーによって何らかの操作が為されたか否かを判断する(ステップS103)。 When step S42 is branched to YES, the image is shot by a predetermined shooting operation (step S43). Then, the image data acquired by photographing in step S43 is recorded in the main recording memory area in the memory 7 (step S44). Thereafter, the time is measured by a timer (not shown), and it is determined whether or not any operation has been performed by the user before the predetermined time has elapsed (step S103).
このステップS103において、ユーザーによる操作が何ら行われないまま所定時間経過したと判断した場合には、スリープモードとして省電力動作に移行する。一方、上記ステップS103において、所定時間経過前にユーザーによって何らかの操作が行われたと判断した場合は、上記ステップS102へ戻る。 In this step S103, when it is determined that the predetermined time has passed without any operation by the user, the mode is shifted to the power saving operation as the sleep mode. On the other hand, if it is determined in step S103 that an operation has been performed by the user before the predetermined time has elapsed, the process returns to step S102.
ところで、上記ステップS42をNOに分岐する場合は、ユーザーによって上記連写撮影スイッチ1bの押操作が為されたか(連写撮影操作が為されたか)否かを判定する(ステップS51)。このステップS51をNOに分岐する場合は、後述するステップS61へ移行する。
When step S42 is branched to NO, it is determined whether or not the user has pressed the
上記ステップS51をYESに分岐する場合、上記仮記録メモリ領域の容量が所定容量以上残っていない状態であるか否か、すなわち上記仮記録メモリ領域に記録されている画像データ等を消去する必要があるか否かを判断する(ステップS52)。このステップS52をYESに分岐する場合は、上記仮記録メモリ領域に記録された画像データ等を消去する(ステップS53)。 When step S51 is branched to YES, it is necessary to delete whether or not the capacity of the temporary recording memory area is not over a predetermined capacity, that is, the image data recorded in the temporary recording memory area. It is determined whether or not there is (step S52). When step S52 is branched to YES, the image data and the like recorded in the temporary recording memory area are deleted (step S53).
上記ステップS52をNOに分岐する場合、または上記ステップS53における処理を実行した後は、所定の撮影動作によって連写撮影を行う(ステップS54)。さらに、このステップS54における連写撮影によって取得した画像データを、上記メモリ7における上記仮記録メモリ領域に記録する(ステップS55)。そして、上記ステップS103へ移行する。 When step S52 is branched to NO or after the processing in step S53 is executed, continuous shooting is performed by a predetermined shooting operation (step S54). Further, the image data acquired by the continuous shooting in step S54 is recorded in the temporary recording memory area in the memory 7 (step S55). Then, the process proceeds to step S103.
ところで、上記ステップS51をNOに分岐する場合、ユーザーによって上記各種操作スイッチ1cの操作が為されて、表示モードへのモード切り換えが行われたか否かを判断する(ステップS61)。ここで、表示モードとは、上記仮記録メモリ領域に記録された画像データを上記表示部8に表示させ、上記仮記録メモリ領域に記録された画像データの中から所望の画像データを、ユーザーが選択して上記本記録メモリ領域に記録させることができるモードである。このステップS61をNOに分岐する場合は、上記ステップS41へ移行する。
When step S51 is branched to NO, it is determined whether the user has operated the various operation switches 1c to switch the mode to the display mode (step S61). Here, the display mode means that the image data recorded in the temporary recording memory area is displayed on the
上記ステップS61をYESに分岐する場合、上記ステップS55において上記仮記録メモリに記録された画像データを、上記表示部8に表示させる(ステップS62)。ここで、ユーザーは、上記表示部8に表示された画像データを参照して、所望の画像データを上記スイッチ1cの操作によって選択する。
When step S61 is branched to YES, the image data recorded in the temporary recording memory in step S55 is displayed on the display unit 8 (step S62). Here, the user refers to the image data displayed on the
その後、ユーザーによって例えば上記レリーズスイッチ1aが押操作されることで、ユーザーによって選択された上記所望の画像データを、上記メモリ7における上記本記録メモリ領域に記録する(ステップS63)。なお、このようにユーザーによって選択された上記所望の画像データを、上記メモリ7における上記本記録メモリ領域に記録する操作を行う為の専用スイッチを別途設けても勿論よい。
Thereafter, when the user presses the
以上説明したように、本第2実施形態によれば、上記第1実施形態に係るカメラと同様の効果を奏する上に、連写撮影可能であり且つメモリを有効に利用可能なカメラを提供することができる。 As described above, according to the second embodiment, in addition to the same effects as the camera according to the first embodiment, a camera capable of continuous shooting and capable of effectively using a memory is provided. be able to.
以上、第1実施形態及び第2実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形及び応用が可能なことは勿論である。 As mentioned above, although this invention was demonstrated based on 1st Embodiment and 2nd Embodiment, this invention is not limited to embodiment mentioned above, A various deformation | transformation and application are within the range of the summary of this invention. Of course it is possible.
さらに、上述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.
1…MPU、 1a…レリーズスイッチ、 1b…連写撮影スイッチ、 1c…各種操作スイッチ、 2…撮影レンズ、 2a…ピント合わせ部、 2b…ズーム制御部、 3…AFE回路、 3a…撮像素子、 3b…マイク、 4a…補助光照射部、 4b…顔検出部、 4c…輪郭検出部、 4d…顔パーツ判別部、 4…補助光照射部、 5…信号処理回路、 5a…処理補助ブロック、 6…RAM、 7…メモリ、 8…表示部、 8a…スピーカ、 8b…プリント信号出力部、 8c…無線通信部、 9…フラッシュROM。
DESCRIPTION OF
Claims (7)
上記画像データから、上記被写体である人物の顔の部分を検出する顔検出部と、
上記顔検出部によって検出された上記顔の部分から、鼻部の検出、眼部の検出、該眼部による視線の向きの判定、及び上記顔部の向きの判定を行う顔パーツ判別部と、
上記顔パーツ判別部によって検出された上記視線の向き及び上記顔部の向きに基づいて、上記被写体である人物の視線が当該カメラに対して向けられているか否かを判定する判定手段と、
を具備することを特徴とするカメラ。 In a camera including an image signal forming unit that receives a light beam from a subject and outputs an image signal, and a signal conversion unit that converts the image signal output from the image signal forming unit into image data that is a digital signal.
A face detection unit for detecting a face portion of the person as the subject from the image data;
From the face part detected by the face detection unit, a nose part detection, an eye part detection, a gaze direction determination by the eye part, and a face part determination part for determining the face direction;
Determining means for determining whether the line of sight of the person as the subject is directed toward the camera based on the direction of the line of sight detected by the face part determining unit and the direction of the face;
A camera comprising:
上記判定手段によって、上記被写体である人物の視線が当該カメラに対して向けられていると判定された画像データのみを選択して上記表示部に表示する表示制御部と、
を更に具備することを特徴とする請求項1に記載のカメラ。 A display for displaying image data;
A display control unit that selects only the image data determined by the determination unit to determine that the line of sight of the person who is the subject is directed toward the camera; and
The camera according to claim 1, further comprising:
一回の押操作で複数回の撮影を行う為の第2のレリーズスイッチと、
上記第1のレリーズスイッチが押操作されることで撮影した画像データを記録する為の第1のメモリと、
上記第2のレリーズスイッチが押操作されることで撮影した画像データを記録する為の第2のメモリと、
上記第2のメモリに記録されている画像データを上記第1のメモリに転送する転送制御スイッチと、
を具備することを特徴とする請求項1に記載のカメラ。 A first release switch for performing one shot with a single push operation;
A second release switch for shooting multiple times with a single press,
A first memory for recording image data taken by pressing the first release switch;
A second memory for recording image data taken by pressing the second release switch;
A transfer control switch for transferring image data recorded in the second memory to the first memory;
The camera according to claim 1, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006182520A JP4891674B2 (en) | 2006-06-30 | 2006-06-30 | camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006182520A JP4891674B2 (en) | 2006-06-30 | 2006-06-30 | camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008011457A true JP2008011457A (en) | 2008-01-17 |
JP4891674B2 JP4891674B2 (en) | 2012-03-07 |
Family
ID=39069197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006182520A Expired - Fee Related JP4891674B2 (en) | 2006-06-30 | 2006-06-30 | camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4891674B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009231878A (en) * | 2008-03-19 | 2009-10-08 | Seiko Epson Corp | Image processing unit and image processing method |
JP2011160219A (en) * | 2010-02-01 | 2011-08-18 | Olympus Imaging Corp | Imaging apparatus, and imaging method of the same |
JP2014053965A (en) * | 2013-12-03 | 2014-03-20 | Olympus Imaging Corp | Subject state determination method |
WO2014091667A1 (en) * | 2012-12-10 | 2014-06-19 | 日本電気株式会社 | Analysis control system |
WO2014097530A1 (en) * | 2012-12-19 | 2014-06-26 | 日本電気株式会社 | Analysis process control system |
JP2016100800A (en) * | 2014-11-25 | 2016-05-30 | カシオ計算機株式会社 | Imaging apparatus, imaging method, and program |
JP2016181773A (en) * | 2015-03-23 | 2016-10-13 | カシオ計算機株式会社 | Display control device, display control method, and program |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108156387A (en) * | 2018-01-12 | 2018-06-12 | 深圳奥比中光科技有限公司 | Terminate the device and method of camera shooting automatically by detecting eye sight line |
CN108200340A (en) * | 2018-01-12 | 2018-06-22 | 深圳奥比中光科技有限公司 | The camera arrangement and photographic method of eye sight line can be detected |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07143471A (en) * | 1993-11-18 | 1995-06-02 | Canon Inc | Image pickup device and electronic communication conference system |
JP2000209483A (en) * | 1999-01-18 | 2000-07-28 | Nikon Corp | Electronic camera with picture selection function and storage medium recording its program |
JP2001051338A (en) * | 1999-08-12 | 2001-02-23 | Canon Inc | Camera |
JP2001078136A (en) * | 1999-09-01 | 2001-03-23 | Olympus Optical Co Ltd | Electronic camera |
JP2006074368A (en) * | 2004-09-01 | 2006-03-16 | Nikon Corp | Electronic camera |
JP2006119408A (en) * | 2004-10-22 | 2006-05-11 | Sony Corp | Video display method and device |
-
2006
- 2006-06-30 JP JP2006182520A patent/JP4891674B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07143471A (en) * | 1993-11-18 | 1995-06-02 | Canon Inc | Image pickup device and electronic communication conference system |
JP2000209483A (en) * | 1999-01-18 | 2000-07-28 | Nikon Corp | Electronic camera with picture selection function and storage medium recording its program |
JP2001051338A (en) * | 1999-08-12 | 2001-02-23 | Canon Inc | Camera |
JP2001078136A (en) * | 1999-09-01 | 2001-03-23 | Olympus Optical Co Ltd | Electronic camera |
JP2006074368A (en) * | 2004-09-01 | 2006-03-16 | Nikon Corp | Electronic camera |
JP2006119408A (en) * | 2004-10-22 | 2006-05-11 | Sony Corp | Video display method and device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009231878A (en) * | 2008-03-19 | 2009-10-08 | Seiko Epson Corp | Image processing unit and image processing method |
JP2011160219A (en) * | 2010-02-01 | 2011-08-18 | Olympus Imaging Corp | Imaging apparatus, and imaging method of the same |
WO2014091667A1 (en) * | 2012-12-10 | 2014-06-19 | 日本電気株式会社 | Analysis control system |
US10229327B2 (en) | 2012-12-10 | 2019-03-12 | Nec Corporation | Analysis control system |
WO2014097530A1 (en) * | 2012-12-19 | 2014-06-26 | 日本電気株式会社 | Analysis process control system |
JP2014053965A (en) * | 2013-12-03 | 2014-03-20 | Olympus Imaging Corp | Subject state determination method |
JP2016100800A (en) * | 2014-11-25 | 2016-05-30 | カシオ計算機株式会社 | Imaging apparatus, imaging method, and program |
JP2016181773A (en) * | 2015-03-23 | 2016-10-13 | カシオ計算機株式会社 | Display control device, display control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4891674B2 (en) | 2012-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7346654B2 (en) | Image processing device, imaging device, control method, program, and storage medium | |
JP4891674B2 (en) | camera | |
JP4944055B2 (en) | Imaging apparatus and imaging control method | |
KR101817657B1 (en) | Digital photographing apparatus splay apparatus and control method thereof | |
JP4829186B2 (en) | Imaging device | |
US8350918B2 (en) | Image capturing apparatus and control method therefor | |
US20130113940A1 (en) | Imaging device and subject detection method | |
JP5228354B2 (en) | Digital camera | |
KR20100027700A (en) | Photographing method and apparatus | |
JP2007236008A (en) | Camera with image display | |
JP3971240B2 (en) | Camera with advice function | |
JP2006145629A (en) | Imaging apparatus | |
JP2009171428A (en) | Control method and program for digital camera apparatus and electronic zoom | |
KR20130005883A (en) | A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method | |
JP4717867B2 (en) | Imaging apparatus and imaging method | |
JP4000176B1 (en) | camera | |
JP4905124B2 (en) | Image display device, image display method, and program | |
JP2011239267A (en) | Imaging apparatus and image processing apparatus | |
JP2012257112A (en) | Imaging apparatus and program | |
JP4717840B2 (en) | Imaging apparatus and control method thereof | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP4540657B2 (en) | Camera and shooting program | |
JP2008136074A5 (en) | ||
JP4336186B2 (en) | Image correction apparatus and imaging apparatus | |
JP4701122B2 (en) | camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111213 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111216 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4891674 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141222 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |