[go: up one dir, main page]

JP2008011457A - Camera - Google Patents

Camera Download PDF

Info

Publication number
JP2008011457A
JP2008011457A JP2006182520A JP2006182520A JP2008011457A JP 2008011457 A JP2008011457 A JP 2008011457A JP 2006182520 A JP2006182520 A JP 2006182520A JP 2006182520 A JP2006182520 A JP 2006182520A JP 2008011457 A JP2008011457 A JP 2008011457A
Authority
JP
Japan
Prior art keywords
camera
image data
face
subject
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006182520A
Other languages
Japanese (ja)
Other versions
JP4891674B2 (en
Inventor
Atsushi Maruyama
淳 丸山
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2006182520A priority Critical patent/JP4891674B2/en
Publication of JP2008011457A publication Critical patent/JP2008011457A/en
Application granted granted Critical
Publication of JP4891674B2 publication Critical patent/JP4891674B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera with a simple structure capable of easily photographing an object person on a camera eye line and with a natural facial expression. <P>SOLUTION: The camera is provided with a face detection section 4b for detecting a facial part of the object person, a face part discrimination section 4d that detects a nose part, detects eye parts from the facial part detected by the face detection section 4b, discriminates a direction of an eye line by the eye parts, and discriminates a direction of the face part, and an MPU 1 for discriminating whether or not the eye line of the person being the object is directed to the camera on the basis of the direction of the eye line and the direction of the face part detected by the face part discrimination section 4d. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明はカメラに関し、より詳しくは、撮影時に最適な撮影タイミングを逃さない為の機能を有するカメラに関する。   The present invention relates to a camera, and more particularly to a camera having a function for not missing an optimal shooting timing during shooting.

近年のカメラは、画像処理回路の高機能化や撮像素子の読み出し機能の高速化によって、大量の画像データを短時間で取得することが可能となった。しかしながら、画像データを記録するメモリの容量制限、及び取得した大量の画像データの中から所望の画像データを検索するという煩雑さ等に起因して、大量の画像データを短時間で取得することができるというメリットが有効に利用されていない。   Recent cameras have been able to acquire a large amount of image data in a short time by increasing the functionality of an image processing circuit and increasing the speed of a reading function of an image sensor. However, it is possible to acquire a large amount of image data in a short time due to the limited capacity of the memory for recording the image data and the complexity of searching for the desired image data from the acquired large amount of image data. The advantage of being able to do so is not being used effectively.

ところで、例えば人物を被写体として撮影する場合に、所謂カメラ目線(被写体である人物の視線が当該カメラに向かっている状態;以下同様)の被写体を撮影する為に、例えば以下のような技術が提案されている。   By the way, when photographing a person as a subject, for example, the following technique is proposed in order to photograph a subject with a so-called camera line of sight (a state where the subject's line of sight is facing the camera; the same applies hereinafter). Has been.

まず、特許文献1に開示されている撮像装置は、撮影時に被写体の注意を喚起する為に所定の音声パターンを発するスピーカ、及び被写体の目線を撮影レンズ近傍に向けさせる為の発光装置を具備している。   First, an imaging device disclosed in Patent Document 1 includes a speaker that emits a predetermined sound pattern to alert a subject at the time of photographing, and a light emitting device for directing the subject's eye line to the vicinity of the photographing lens. ing.

また、特許文献2に開示された映像記録再生装置は、被写体である子供のカメラ目線を長時間得る為に、撮影時に子供の注意を引くような画像データを表示する為の液晶モニタを具備する。そして、撮影時には上記液晶モニタを、被写体である子供の方向へ向ける。
特開2003−78792号公報 特開2003−101842号公報
In addition, the video recording / reproducing apparatus disclosed in Patent Document 2 includes a liquid crystal monitor for displaying image data that attracts children's attention at the time of shooting in order to obtain a camera's eyes as a subject for a long time. . At the time of photographing, the liquid crystal monitor is directed toward the child who is the subject.
JP 2003-78792 A Japanese Patent Laid-Open No. 2003-101842

しかしながら、上記特許文献1に開示された技術のように、撮影時に被写体の注意を喚起する為に所定の音声パターンをスピーカで発することは、単に撮影者が撮影時に自分で声を発して被写体の注意を喚起することと同等レベルの域を出ていない。   However, as in the technique disclosed in Patent Document 1, when a predetermined sound pattern is emitted from a speaker in order to call attention to a subject at the time of shooting, the photographer simply speaks by himself at the time of shooting. Not out of the same level as calling attention.

さらに、被写体の目線を撮影レンズ近傍に向けさせる為の発光装置に関しても、新たに上記発光装置を設けなくてはならないことに起因するコスト等に見合った効果を発揮するとは考えられない。   Furthermore, regarding a light-emitting device for directing the subject's line of sight toward the vicinity of the taking lens, it is not considered that an effect commensurate with the cost and the like resulting from the necessity to newly provide the light-emitting device is exhibited.

また、上記特許文献2に開示された技術によれば、被写体である子供のカメラ目線を得ることはできても、子供の目線はあくまでも上記液晶モニタに表示される例えばアニメキャラクタ等にある。したがって、被写体である子供が不自然な表情及び目線となることは否めない。   Further, according to the technique disclosed in Patent Document 2, although the child's eyes can be obtained as a subject, the eyes of the child are, for example, an animation character displayed on the liquid crystal monitor. Therefore, it cannot be denied that the child who is the subject has an unnatural expression and eyes.

本発明は、上記の事情に鑑みてなされたもので、大量の画像データを短時間で取得することができるという近年のカメラの長所を有効に利用することで、単純な構造で、カメラ目線且つ自然な表情の被写体人物を容易に撮影することができるカメラを提供することを目的とする。   The present invention has been made in view of the above circumstances, and by effectively utilizing the advantages of a recent camera that a large amount of image data can be acquired in a short time, with a simple structure, It is an object of the present invention to provide a camera that can easily photograph a subject person with a natural expression.

上記の目的を達成するために、本発明の第1の態様によるカメラは、被写体からの光束を受けて像信号を出力する像信号形成部と、上記像信号形成部の出力する像信号をデジタル信号である画像データに変換する信号変換部とを具備するカメラにおいて、上記画像データから、上記被写体である人物の顔の部分を検出する顔検出部と、上記顔検出部によって検出された上記顔の部分から、鼻部の検出、眼部の検出、該眼部による視線の向きの判定、及び上記顔部の向きの判定を行う顔パーツ判別部と、上記顔パーツ判別部によって検出された上記視線の向き及び上記顔部の向きに基づいて、上記被写体である人物の視線が当該カメラに対して向けられているか否かを判定する判定手段と、を具備することを特徴とする。   In order to achieve the above object, a camera according to a first aspect of the present invention includes an image signal forming unit that receives a light beam from a subject and outputs an image signal, and digitally outputs an image signal output from the image signal forming unit. In a camera including a signal conversion unit that converts image data that is a signal, a face detection unit that detects a face portion of a person that is the subject from the image data, and the face detected by the face detection unit A face part discriminating unit for detecting a nose part, detecting an eye part, determining a direction of a gaze by the eye part, and determining a direction of the face part, and the face part discriminating part And determining means for determining whether the line of sight of the person as the subject is directed toward the camera based on the direction of the line of sight and the direction of the face.

本発明によれば、単純な構造で、カメラ目線且つ自然な表情の被写体人物を容易に撮影することができるカメラを提供することができる。   According to the present invention, it is possible to provide a camera that can easily photograph a subject person with a simple structure and a natural look.

以下、図面を参照して、本発明の一実施形態に係るカメラを説明する。   A camera according to an embodiment of the present invention will be described below with reference to the drawings.

[第1実施形態]
図1は、本第1実施形態に係るカメラのシステム構成の概念を示すブロック図である。同図に示すように、本第1実施形態に係るカメラは、MPU(Micro Processing Unit)1と、レリーズスイッチ1aと、各種操作スイッチ1cと、撮影レンズ2と、ピント合わせ部2aと、ズーム制御部2bと、AFE(Analogue Front End)回路3と、撮像素子3aと、マイク3bと、補助光照射部4aと、顔検出部4bと、輪郭検出部4cと、顔パーツ判別部4dと、信号処理回路5と、処理補助ブロック5aと、RAM(Random Access Memory)6と、メモリ7と、表示部8と、スピーカ8aと、プリント信号出力部8bと、無線通信部8cと、フラッシュROM(Flash Read Only Memory)9とを具備する。なお、参照符号1bが付されているのは、連写撮影スイッチであり、後述する第2実施形態に係るカメラが具備する。したがって、連写撮影スイッチ1bについては、第2実施形態において詳述する。以下、上記の各構成部材を詳細に説明する。
[First Embodiment]
FIG. 1 is a block diagram showing the concept of the system configuration of the camera according to the first embodiment. As shown in the figure, the camera according to the first embodiment includes an MPU (Micro Processing Unit) 1, a release switch 1a, various operation switches 1c, a photographing lens 2, a focusing unit 2a, and zoom control. Unit 2b, AFE (Analogue Front End) circuit 3, image sensor 3a, microphone 3b, auxiliary light irradiation unit 4a, face detection unit 4b, contour detection unit 4c, face part determination unit 4d, signal A processing circuit 5, a processing auxiliary block 5a, a RAM (Random Access Memory) 6, a memory 7, a display unit 8, a speaker 8a, a print signal output unit 8b, a wireless communication unit 8c, a flash ROM (Flash) Read Only Memory) 9. Reference numeral 1b denotes a continuous shooting switch, which is provided in a camera according to a second embodiment to be described later. Therefore, the continuous shooting switch 1b will be described in detail in the second embodiment. Hereafter, each said structural member is demonstrated in detail.

まず、上記MPU1は、マイクロコントローラ等から成る制御部である。そして、上記MPU1には、上記レリーズスイッチ1a及び上記各種操作スイッチ1cが接続されている。そして、上記MPU1は、上記レリーズスイッチ1a及び上記各種操作スイッチ1cの状態を検出し、該検出の結果に基づき、後述するフローチャートの動作制御プログラム(上記フラッシュROM9に格納)に従って、各構成部材をシーケンシャルに制御する。   First, the MPU 1 is a control unit composed of a microcontroller or the like. The MPU 1 is connected to the release switch 1a and the various operation switches 1c. Then, the MPU 1 detects the state of the release switch 1a and the various operation switches 1c, and sequentially sets each component according to the operation control program (stored in the flash ROM 9) of the flowchart described later based on the detection result. To control.

ここで、上記レリーズスイッチ1aは、レリーズ操作の為のスイッチである。上記各種操作スイッチ1cは、レリーズ操作やモード切り換え操作以外の各種操作を行う為のスイッチである。   Here, the release switch 1a is a switch for a release operation. The various operation switches 1c are switches for performing various operations other than the release operation and the mode switching operation.

まず、上記撮影レンズ2を介して当該カメラに入射した被写体11の像は、例えばCCDやCMOSセンサ等からなる上記撮像素子3aにより電気信号に変換される。ここで、上記撮影レンズ2としては、AFの為のズームレンズ等を想定している。また、上記撮影レンズ2のピント合わせ制御は、上記ピント合わせ部2aによって行われる。さらに、上記撮影レンズ2の画角の切り換え判定は、上記ズーム制御部2bによって行われる。   First, an image of the subject 11 that has entered the camera via the photographing lens 2 is converted into an electrical signal by the image pickup device 3a formed of, for example, a CCD or a CMOS sensor. Here, it is assumed that the photographing lens 2 is a zoom lens for AF or the like. The focusing control of the photographic lens 2 is performed by the focusing unit 2a. Further, the determination of the angle of view of the photographing lens 2 is performed by the zoom control unit 2b.

ところで、上記撮像素子3aの取得した電気信号は、上記AFE回路3によって読み出されてA/D変換等が施され、デジタル画像信号である画像データとなる。この画像データはその後、上記信号処理回路5に入力される。なお、露出レベルの切り換えの制御も、上記AFE回路3によって行われる。   By the way, the electrical signal acquired by the imaging device 3a is read out by the AFE circuit 3 and subjected to A / D conversion or the like, and becomes image data which is a digital image signal. This image data is then input to the signal processing circuit 5. The exposure level switching control is also performed by the AFE circuit 3.

上記信号処理回路5に入力された画像データは、上記信号処理回路5において色補正及び信号圧縮処理等の所定の処理を施された後、上記メモリ7に記録される。なお、上記信号処理回路5には、露出レベルを変更した後の増感処理、画像処理時における補正のかけ方の変更、及び画像データの圧縮率を変更する為の上記処理補助ブロック5aが設けられている。   The image data input to the signal processing circuit 5 is subjected to predetermined processing such as color correction and signal compression processing in the signal processing circuit 5 and then recorded in the memory 7. The signal processing circuit 5 is provided with the processing auxiliary block 5a for sensitizing processing after changing the exposure level, changing the correction method during image processing, and changing the compression rate of the image data. It has been.

さらに、本第1実施形態に係るカメラでは、音声入力の為の上記マイク3bが設けられている。このマイク3bによって取得した音声信号である音声データも、上記画像データと同様に上記信号処理回路5にて信号圧縮処理等が施され、上記メモリ7に記録される。ここで、上記画像データ及び上記音声データは、その処理時及び記録時等においては、適宜上記RAM6に格納される。   Furthermore, the camera according to the first embodiment is provided with the microphone 3b for voice input. Audio data, which is an audio signal acquired by the microphone 3b, is subjected to signal compression processing and the like by the signal processing circuit 5 and recorded in the memory 7 in the same manner as the image data. Here, the image data and the audio data are appropriately stored in the RAM 6 at the time of processing and recording.

ところで、本第1実施形態に係るカメラでは、撮影して取得した画像データは、上記プリント信号出力部8bや上記無線通信部8cによって、当該カメラの外部へ送信することができる。この無線通信部8cは、例えば本第1実施形態に係るカメラと同様又は類似のシステム構成(上記無線通信部8cを具備するシステム構成)を有するカメラ等との無線通信を可能にする部材である。したがって、上記無線通信部8cによって、他のカメラとの画像データ等の送受信が可能となる。   By the way, in the camera according to the first embodiment, image data acquired by photographing can be transmitted to the outside of the camera by the print signal output unit 8b and the wireless communication unit 8c. The wireless communication unit 8c is a member that enables wireless communication with, for example, a camera having a system configuration similar to or similar to the camera according to the first embodiment (system configuration including the wireless communication unit 8c). . Accordingly, the wireless communication unit 8c can transmit and receive image data and the like with other cameras.

また、上記表示部8はLCD(Liquid Crystal Display)等からなり、画像データ等を逐次再生表示させることが出来る部材である。例えば、上記メモリ7に圧縮して記録された上記画像データは、上記信号処理回路5によって読み出され且つ伸張処理等が施された後、上記表示部8に再生表示される。また、上記表示部8は、所謂ライブビュー表示にも用いることができ、ユーザーは、上記表示部8を参照しながら、上記被写体11の変化状態を確認しつつ撮影を行うことが出来る。   The display unit 8 is composed of an LCD (Liquid Crystal Display) or the like, and is a member capable of sequentially reproducing and displaying image data and the like. For example, the image data compressed and recorded in the memory 7 is read by the signal processing circuit 5 and subjected to decompression processing and the like, and is reproduced and displayed on the display unit 8. The display unit 8 can also be used for so-called live view display, and the user can take a picture while checking the change state of the subject 11 while referring to the display unit 8.

さらに、上記スピーカ8aは、上記音声データを再生する為の部材である。ここで、上記音声データの再生の際には、上記メモリ7に記録された上記音声データが、上記信号処理回路5によって読み出された後、スピーカ8aによって出力される。   Further, the speaker 8a is a member for reproducing the audio data. Here, when reproducing the audio data, the audio data recorded in the memory 7 is read by the signal processing circuit 5 and then output by the speaker 8a.

ところで、上記補助光照射部4aは、被写体11に向って補助光を照射する為の部材である。この補助光照射部4によって、露出の不足を補ったり、被写体11の影を消したりすることができる。   By the way, the auxiliary light irradiation unit 4 a is a member for irradiating auxiliary light toward the subject 11. This auxiliary light irradiation unit 4 can compensate for the lack of exposure or erase the shadow of the subject 11.

また、上記顔検出部4bは、上記信号処理回路5から出力される画像データを解析し、当該画像データにおける被写体中に人物がいるか否かの判定、及び当該画像データの被写体中に人物がいる場合には、その人物における顔部の位置や大きさ等の判定を行う。なお、被写体である人物(以降、被写体人物と称する)における顔部の範囲は、顔部の主要な色等から判定することができる。ここで、画像データの解析には、例えば人間の顔の特徴等を用いる。   The face detection unit 4b analyzes the image data output from the signal processing circuit 5, determines whether or not there is a person in the subject in the image data, and has a person in the subject of the image data. In this case, the position and size of the face of the person are determined. It should be noted that the range of the face portion of the person who is the subject (hereinafter referred to as the subject person) can be determined from the main color of the face portion. Here, for example, the characteristics of a human face are used for the analysis of the image data.

上記輪郭検出部4cは、画像データにシャープネス強調処理を施して、当該画像データ中の被写体の輪郭の形状を判定する為の部材である。そして、上記顔パーツ判別部4dは、上記顔検出部4bによって検出された被写体人物の顔部における眼部、眉部及び鼻部等の各種顔パーツの位置の判定、上記被写体人物の顔部の向きの判定、上記眼部による視線の向きの判定、及び上記被写体人物の視線が当該カメラに対して向けられているか否かの判定等を行う部材である。   The contour detection unit 4c is a member for performing sharpness enhancement processing on the image data and determining the shape of the contour of the subject in the image data. Then, the face part determination unit 4d determines the positions of various face parts such as the eye part, the eyebrow part, and the nose part in the face part of the subject person detected by the face detection part 4b, and determines the face part of the subject person part. It is a member that performs determination of orientation, determination of the direction of the line of sight by the eye, determination of whether or not the line of sight of the subject person is directed toward the camera, and the like.

以下、上記顔パーツ判別部4dによる被写体人物の各種顔パーツの位置の判定方法の1つである、色に基づいた判定方法について説明する。まず、被写体人物における顔部の中央付近を上下方向に走るコントラストの強い部分を、鼻部であると判定する。さらに、この鼻部の左右両脇部分における上部付近に存在する白色の部分は、白目部であると判定することができる。そして、上記白目部であると判定した白色の部分に囲まれた黒色の部分を、黒目部であると判定することができる(以降、白目部と黒目部とから構成される部分を眼部と称する)。なお、上記顔パーツ判別部4dによる各種判定結果は、上記顔検出部4bに出力される。このように、本第1実施形態に係るカメラによれば、撮影画面内における被写体人物の顔部の位置、鼻部の位置、白目部の位置、黒目部の位置等を判定することができる。   Hereinafter, a determination method based on color, which is one of the determination methods of the positions of various face parts of the subject person by the face part determination unit 4d, will be described. First, a strong contrast portion that runs in the vertical direction near the center of the face portion of the subject person is determined to be the nose portion. Furthermore, it is possible to determine that the white part existing near the upper part of the left and right side parts of the nose part is a white eye part. Then, the black portion surrounded by the white portion determined to be the white eye portion can be determined to be the black eye portion (hereinafter, the portion composed of the white eye portion and the black eye portion is referred to as the eye portion). Called). Various determination results by the face part determination unit 4d are output to the face detection unit 4b. As described above, the camera according to the first embodiment can determine the position of the face of the subject person, the position of the nose, the position of the white eye, the position of the black eye, etc. in the shooting screen.

以下、本第1実施形態に係るカメラにおける上記顔パーツ判別部4dによる、被写体人物の顔部における眼部、眉部及び鼻部等の各種顔パーツの位置の判定、上記被写体人物の顔部の向きの判定、及び上記眼部による視線の向きの判定について、図2乃至図6を参照して詳細に説明する。   Hereinafter, the face part determination unit 4d in the camera according to the first embodiment determines the position of various face parts such as an eye part, an eyebrow part, and a nose part in the face part of the subject person, and determines the face part of the subject person part. The determination of the direction and the determination of the direction of the line of sight by the eye part will be described in detail with reference to FIGS.

図2(a),(b)は、人物が被写体である画像データを示している。まず、被写体人物の顔部を判定する為には、図3(a),(b)に示すように、眉部や眼部による横長の影と鼻部による縦長の影とによって構成されるT字型の影を、図2(a),(b)に示す画像データから抽出する。ここで、顔部の画像データは、図2(a),(b)に示す画像データから、例えば輝度情報のみを抽出して処理することで得られる。このようにして被写体人物の顔部を検出し、更に色情報より肌色に近い色を有する部分のみを抽出することで、被写体人物の顔部の詳細な範囲(図3(a),(b)に示す斜線部参照)を検出することができる。   2A and 2B show image data in which a person is a subject. First, in order to determine the face portion of the subject person, as shown in FIGS. 3A and 3B, T composed of a horizontally long shadow by the eyebrows and eyes and a vertically long shadow by the nose. A character-shaped shadow is extracted from the image data shown in FIGS. Here, the face image data is obtained by extracting and processing only luminance information from the image data shown in FIGS. 2A and 2B, for example. By detecting the face portion of the subject person in this way and extracting only the portion having a color close to the skin color from the color information, the detailed range of the face portion of the subject person (FIGS. 3A and 3B). Can be detected).

そして、図3(a),(b)に示すように、顔部(上下方向の長さF)を上下方向に2分割した場合の分割線上における明るさをx軸方向(左右方向)に分析すると、図4(a),(b)に示すグラフのようになる。図4(a),(b)に示すグラフから分かるように、顔部を上下方向に2分割した場合の分割線上における明るさをx軸方向に分析することで、顔部における鼻筋の影の部分の座標x3を検出することができる。   Then, as shown in FIGS. 3A and 3B, the brightness on the dividing line when the face (length F in the vertical direction) is divided into two in the vertical direction is analyzed in the x-axis direction (left and right direction). Then, the graphs shown in FIGS. 4A and 4B are obtained. As can be seen from the graphs shown in FIGS. 4 (a) and 4 (b), by analyzing the brightness on the dividing line in the x-axis direction when the face is divided into two in the vertical direction, the shadow of the nasal muscles in the face is analyzed. The coordinates x3 of the part can be detected.

さらに、図3(a),(b)及び図4(a),(b)から分かるように、顔部がx1乃至x2の範囲であることに鑑みて、
x3<1/2(x1+x2)
であれば、当該顔部は向かって左向き(図3(a)参照)、
x3>1/2(x1+x2)
であれば、当該顔部は向かって右向き(図3(b)参照)であると判定する。
Further, as can be seen from FIGS. 3A and 3B and FIGS. 4A and 4B, in view of the fact that the face is in the range of x1 to x2,
x3 <1/2 (x1 + x2)
If so, the face is facing left (see FIG. 3A),
x3> 1/2 (x1 + x2)
If so, it is determined that the face is facing right (see FIG. 3B).

以上のようにして、被写体人物の顔の向きを判定することができる。   As described above, the orientation of the face of the subject person can be determined.

以下、図5(a)乃至(c)及び図6(a)乃至(c)を参照して、被写体人物の視線の方向を、眼部における明るさ分布を利用して検出する方法について詳細に説明する。   Hereinafter, with reference to FIGS. 5A to 5C and FIGS. 6A to 6C, a method for detecting the direction of the line of sight of the subject person using the brightness distribution in the eye part will be described in detail. explain.

ここで、図5(a)は黒目部の左右どちら側にも白目部が存在している場合(被写体が当該カメラに対してカメラ目線である場合)、(b)は黒目部の右側(向かって右側)に白目部が存在している場合(被写体が向かって左側を見ている場合)、(c)は黒目部の左側(向かって左側)に白目部が存在している場合(被写体が向かって右側を見ている場合)の眼部を示す図である。   Here, FIG. 5A shows a case where a white-eye portion is present on both the left and right sides of the black-eye portion (when the subject is a camera line of sight with respect to the camera), and FIG. Right side) (when the subject is looking at the left side), (c) is when the white side is present at the left side (left side) of the black eye (when the subject is It is a figure which shows the eye part of the case of looking at the right side.

そして、図6(a)乃至(c)は、それぞれ図5(a)乃至(c)に示す眼部における破線y3上における明るさ分布を示すグラフである。なお、図6(a)乃至(c)に示すグラフにおける座標x1及びx3は、それぞれ図4(a)及び(b)に示すグラフにおけるx1,x3と対応した座標である。すなわち、座標x1は、顔部と、向かって左側の背景との境界のx座標である。また、座標x3は、顔部における上記鼻部の影の部分のx座標である。ここで、図5に示すように、眼部における左右両端のx座標を、それぞれ座標x4、座標x5とする。   6A to 6C are graphs showing the brightness distribution on the broken line y3 in the eye part shown in FIGS. 5A to 5C, respectively. Note that the coordinates x1 and x3 in the graphs shown in FIGS. 6A to 6C are coordinates corresponding to x1 and x3 in the graphs shown in FIGS. 4A and 4B, respectively. That is, the coordinate x1 is the x coordinate of the boundary between the face portion and the background on the left side. The coordinate x3 is an x coordinate of the shadow portion of the nose portion in the face portion. Here, as shown in FIG. 5, the x-coordinates at the left and right ends of the eye part are defined as coordinates x4 and x5, respectively.

図6に示すような明るさ分布のグラフによって、所定の幅を有し且つ周囲よりも明るいピークとして被写体人物の白目部を検出することができ、また黒目部の偏り具合によって被写体人物の視線の向きも検出することができる。以下、黒目部の偏り具合による被写体人物の視線の向きの検出について詳細に説明する。   The brightness distribution graph as shown in FIG. 6 can detect the white part of the subject person as a peak having a predetermined width and brighter than the surroundings, and the gaze of the subject person can be detected by the degree of deviation of the black part. The direction can also be detected. Hereinafter, detection of the direction of the line of sight of the subject person based on the degree of deviation of the black eye part will be described in detail.

まず、黒目部が左右どちらにも偏らずに存在している場合、すなわち被写体人物が当該カメラの方向を向いている場合、図6(a)に示すように、白目部による明るさのピークが2つ存在し、この2つのピークに挟まれるように黒目部による暗い部分が存在する。   First, in the case where the black eye part exists without being biased to the left or right, that is, when the subject person faces the direction of the camera, as shown in FIG. There are two, and there is a dark part due to the black eye part so as to be sandwiched between these two peaks.

また、黒目部が向かって左側に偏って存在している場合、すなわち被写体人物が向かって左側を見ている場合、図6(b)に示すように、白目部による明るさのピークは1つしか存在せず且つ該ピークは座標x4と座標x5との中点よりも座標x5側に存在する。   Further, when the black eye portion is biased toward the left side, that is, when the subject person is looking toward the left side, as shown in FIG. 6B, there is one brightness peak due to the white eye portion. However, the peak exists on the coordinate x5 side with respect to the midpoint of the coordinates x4 and x5.

さらに、黒目部が向かって右側に偏って存在している場合、すなわち被写体人物が向かって右側を見ている場合、図6(c)に示すように、白目部による明るさのピークは1つしか存在せず且つ該ピークは座標x4と座標x5との中点よりも座標x4側に存在する。   Further, when the black eye portion is biased toward the right side, that is, when the subject person is looking at the right side, as shown in FIG. 6C, there is one brightness peak due to the white eye portion. However, the peak exists on the coordinate x4 side with respect to the midpoint of the coordinates x4 and x5.

以上説明したように、被写体人物の顔部の向き及び視線の向きを、顔部及び眼部における明るさの分布パターンによって検出できるので、被写体人物が当該カメラの方を見ているか否かを判定(図7に示すフローチャートを参照して詳述する)することができる。   As described above, the orientation of the face of the subject person and the direction of the line of sight can be detected by the brightness distribution pattern in the face and eyes, so it is determined whether the subject person is looking at the camera. (Detailed with reference to the flowchart shown in FIG. 7).

なお、上述したような白目部及び黒目部の検出を行う為には、顔部の範囲すなわち図3(a),(b)に示す例ではx1乃至x3若しくはx3乃至x2且つy1乃至y2の範囲における明るさの分布を調べればよい。   In order to detect the white eye and the black eye as described above, in the example shown in FIGS. 3A and 3B, the range of x1 to x3 or x3 to x2 and y1 to y2 is used. What is necessary is just to examine the brightness distribution at.

以下、本第1実施形態に係るカメラのMPU1による撮影シーケンスの一例を、図7に示すフローチャートを参照して説明する。なお、本第1実施形態に係るカメラにおける各構成部材の動作については、図1を参照して上述した通りであるので、ここでは撮影シーケンスの流れを中心に説明する。   Hereinafter, an example of a shooting sequence by the MPU 1 of the camera according to the first embodiment will be described with reference to a flowchart shown in FIG. Note that the operation of each component in the camera according to the first embodiment is as described above with reference to FIG. 1, and here, the flow of the imaging sequence will be mainly described.

まず、不図示の電源スイッチがONされると、初期設定を行う(ステップS101)。なお、このステップS101における初期設定としては、例えば当該カメラの各部の初期化や、上記撮影レンズ2のレンズ位置の初期化等を挙げることができる。このステップS101における処理を終えた後、操作チェックを行う(ステップS102)。このステップS102においては、当該カメラのデフォルト状態に対してユーザーによって加えられた変更をチェックする。   First, when a power switch (not shown) is turned on, initial setting is performed (step S101). Note that examples of the initial setting in step S101 include initialization of each part of the camera, initialization of the lens position of the photographing lens 2, and the like. After completing the processing in step S101, an operation check is performed (step S102). In step S102, changes made by the user to the default state of the camera are checked.

そして、上記撮像素子3aの取得した電気信号を、上記AFE回路3によって読み出し且つA/D変換等を施してデジタル画像信号である画像データを生成し、上記表示部8に表示させる(ステップS1)。   Then, the electrical signal acquired by the imaging device 3a is read out by the AFE circuit 3 and subjected to A / D conversion or the like to generate image data which is a digital image signal and displayed on the display unit 8 (step S1). .

すなわち、上記ステップS1は、所謂ライブビュー表示を開始するステップである。したがって、上記ステップS1以降では、ユーザーは、上記表示部8におけるライブビュー表示を参照しながら、フレーミングやレリーズタイミングの決定を行うことができる。   That is, step S1 is a step of starting so-called live view display. Therefore, after step S1, the user can determine framing and release timing while referring to the live view display on the display unit 8.

つづいて、ユーザーによって上記レリーズスイッチ1aの押操作が為されたか(撮影操作が為されたか)否かを判定する(ステップS2)。このステップS2をNOに分岐する場合は、後述するステップS9へ移行する。   Subsequently, it is determined whether or not the user has pressed the release switch 1a (whether a shooting operation has been performed) (step S2). When step S2 is branched to NO, the process proceeds to step S9 described later.

上記ステップS2をYESに分岐する場合は、所定の撮影動作によって撮影を行い、且つ該撮影によって取得した画像データを、上記メモリ7におけるメモリ1領域へ記録する(ステップS3)。その後、上記レリーズスイッチ1aがユーザーによる押操作から解放されたか否かを判定する(ステップS4)。このステップS4をNOに分岐する場合は、上記ステップS3へ戻る。すなわち、上記レリーズスイッチ1aがユーザーによる押操作から解放されるまで、上記ステップS3における処理を繰り返し行う。   When step S2 is branched to YES, shooting is performed by a predetermined shooting operation, and image data obtained by the shooting is recorded in the memory 1 area of the memory 7 (step S3). Thereafter, it is determined whether or not the release switch 1a is released from the pressing operation by the user (step S4). When step S4 is branched to NO, the process returns to step S3. That is, the process in step S3 is repeated until the release switch 1a is released from the pressing operation by the user.

一方、上記ステップS4をYESに分岐する場合は、上記ステップS3において取得した画像データを、上記表示部8に表示させる(ステップS5)。その後、不図示のタイマーによって時間を計測し、所定時間経過前にユーザーによって何らかの操作が為されたか否かを判断する(ステップS103)。このステップS103において、ユーザーによる操作が何ら行われないまま所定時間経過したと判断した場合は、スリープモードとして省電力動作に移行する。一方、上記ステップS103において、所定時間経過前にユーザーによって何らかの操作が行われたと判断した場合は、上記ステップS102へ戻る。   On the other hand, when step S4 is branched to YES, the image data acquired in step S3 is displayed on the display unit 8 (step S5). Thereafter, the time is measured by a timer (not shown), and it is determined whether or not any operation has been performed by the user before the predetermined time has elapsed (step S103). In this step S103, when it is determined that the predetermined time has passed without any operation by the user, the mode is shifted to the power saving operation as the sleep mode. On the other hand, if it is determined in step S103 that an operation has been performed by the user before the predetermined time has elapsed, the process returns to step S102.

ところで、上記ステップS2をNOに分岐する場合には、上記顔検出部4bによって、上記信号処理回路5から出力される画像データを解析し、当該画像データの被写体中に人物がいるか否かの判定、及び当該画像データの被写体中に人物がいる場合には、その顔部を検出する(ステップS9)。   When step S2 is branched to NO, the face detection unit 4b analyzes the image data output from the signal processing circuit 5, and determines whether or not there is a person in the subject of the image data. If there is a person in the subject of the image data, the face portion is detected (step S9).

つづいて、このステップS9において、顔部の検出に成功したか否かを判定する(ステップS10)。このステップS10をNOに分岐する場合は、上記ステップS1へ戻る。一方、上記ステップS10をYESに分岐する場合は、図3及び図4を参照して説明したようにして、上記顔パーツ判別部4dによって顔部の向きの検出を行う(ステップS11)。   Subsequently, in step S9, it is determined whether or not the face portion has been successfully detected (step S10). When step S10 is branched to NO, the process returns to step S1. On the other hand, when step S10 is branched to YES, the face part determination unit 4d detects the orientation of the face as described with reference to FIGS. 3 and 4 (step S11).

上記ステップS11にて行った顔部の向きの判定の結果、顔部が当該カメラの方向を向いているか否かを判定する(ステップS12)。このステップS12をYESに分岐する場合は、図5(a)乃至(c)及び図6(a)乃至(c)を参照して説明したようにして、上記顔パーツ判別部4dによって、黒目部の左右両隣に白目部が存在しているか否かを判定する(ステップS13)。このステップS13をYESに分岐する場合は、被写体がカメラ目線であるので、当該画像データを上記メモリ7におけるメモリ2領域へ記録する(ステップS14)。そして、被写体がカメラ目線となっていることを、上記表示部8に表示する(ステップS14−1)。   As a result of the determination of the orientation of the face performed in step S11, it is determined whether or not the face is facing the camera (step S12). When step S12 is branched to YES, as described with reference to FIGS. 5 (a) to (c) and FIGS. 6 (a) to (c), the face part discriminating unit 4d performs the black eye portion. It is determined whether or not white eye portions exist on both the left and right sides (step S13). When step S13 is branched to YES, the subject is the camera line of sight, so the image data is recorded in the memory 2 area of the memory 7 (step S14). Then, the display unit 8 displays that the subject is looking at the camera (step S14-1).

上記ステップS13をNOに分岐する場合、及び上記ステップS14における処理を行った後、上記メモリ7における上記メモリ2領域に所定の空き容量が残っているかどうかを判定する(ステップS18)。このステップS18をNOに分岐する場合は、上記メモリ7における上記メモリ2領域に記録された画像データを、記録日時の古い順に所定枚数消去する(ステップS19)。   When step S13 is branched to NO and after performing the process in step S14, it is determined whether or not a predetermined free space remains in the memory 2 area in the memory 7 (step S18). When step S18 is branched to NO, a predetermined number of image data recorded in the memory 2 area of the memory 7 is erased in order from the oldest recording date (step S19).

上記ステップS18をYESに分岐する場合または上記ステップS19の処理を終えた後は、上記ステップS1へ戻る。   When step S18 is branched to YES or after the process of step S19 is completed, the process returns to step S1.

ところで、上記ステップS12をNOに分岐する場合、上記ステップS11において行った顔部の向きの判定の結果、被写体の顔部が向かって右側を向いて(図2(b)参照)いるか否かを判定する(ステップS15)。このステップS15をYESに分岐する場合、図5(a)乃至(c)及び図6(a)乃至(c)を参照して説明したように上記顔パーツ判別部4dによって、黒目部の向かって右側に白目部が存在(図5(b)参照)しているか否かを判定する(ステップS16)。このステップS16をYESに分岐する場合は、図2(b)に示すように顔部が向かって右側を向いた状態で、図5(b)に示すように視線は向かって左側を向いているような状態となっている。この状態は、被写体人物が当該カメラに対してカメラ目線であると考えられるので、上記ステップS14へ移行する。一方、上記ステップS16をNOに分岐する場合は、上記ステップS18へ移行する。   By the way, when step S12 is branched to NO, as a result of the determination of the face direction performed in step S11, it is determined whether or not the face of the subject is facing right (see FIG. 2B). Determination is made (step S15). When step S15 is branched to YES, as described with reference to FIGS. 5A to 5C and FIGS. 6A to 6C, the face part determination unit 4d moves toward the black eye portion. It is determined whether or not a white eye portion exists on the right side (see FIG. 5B) (step S16). When this step S16 is branched to YES, the line of sight faces the left side as shown in FIG. 5 (b) with the face portion facing the right side as shown in FIG. 2 (b). It is in such a state. In this state, since it is considered that the subject person is looking at the camera with respect to the camera, the process proceeds to step S14. On the other hand, when step S16 is branched to NO, the process proceeds to step S18.

また、上記ステップS15をNOに分岐する場合は、被写体人物の顔部が向かって左側を向いて(図2(a)参照)いる場合である。したがって、図5(a)乃至(c)及び図6(a)乃至(c)を参照して説明したように、上記顔パーツ判別部4dによって、黒目部の向かって左側に白目部が存在(図5(c)参照)しているか否かを判定する(ステップS17)。   Further, the case where the step S15 is branched to NO is a case where the face portion of the subject person faces leftward (see FIG. 2A). Therefore, as described with reference to FIGS. 5A to 5C and FIGS. 6A to 6C, the face part determination unit 4d has a white eye portion on the left side of the black eye portion ( It is determined whether or not (see FIG. 5C) (step S17).

このステップS17をYESに分岐する場合は、図2(a)に示すように顔部が向かって左側を向いた状態で、図5(c)に示すように視線は向かって右側を向いているような状態となっている。この状態は、被写体人物が当該カメラに対してカメラ目線であると考えられるので、上記ステップS14へ移行する。一方、上記ステップS17をNOに分岐する場合は、上記ステップS18へ移行する。   When step S17 is branched to YES, the face is facing left as shown in FIG. 2A, and the line of sight is facing right as shown in FIG. 5C. It is in such a state. In this state, since it is considered that the subject person is looking at the camera with respect to the camera, the process proceeds to step S14. On the other hand, when step S17 is branched to NO, the process proceeds to step S18.

以上、図7に示すフローチャートを参照して説明した撮影シーケンスを実行することによって、被写体人物がカメラ目線となった時のシャッターチャンスを逃さずに撮影することができる。なお、図7に示すフローチャートにおいては、被写体がカメラ目線となった場合には、当該画像データを上記メモリ2領域へ記録(ステップS14)した後に、被写体がカメラ目線である旨を上記表示部8に表示(ステップS14−1)したが、これに限らず、被写体がカメラ目線であることを検出した場合には、上記のタイミング以外のタイミングでその旨を上記表示部8に表示しても勿論よい。   As described above, by executing the shooting sequence described with reference to the flowchart shown in FIG. 7, it is possible to take a picture without missing a photo opportunity when the subject person looks at the camera. In the flowchart shown in FIG. 7, when the subject is looking at the camera, the display unit 8 indicates that the subject is looking at the camera after recording the image data in the memory 2 area (step S14). (Step S14-1). However, the present invention is not limited to this, and when it is detected that the subject is the camera's line of sight, the fact may be displayed on the display unit 8 at a timing other than the above timing. Good.

以下、図8に示すフローチャートを参照して、本第1実施形態に係るカメラにおけるMPU1による画像データの取捨選択処理について説明する。なお、この画像データの取捨選択処理は、本第1実施形態においては、図7に示すフローチャートにおける上記ステップS5にて行うとする。   Hereinafter, with reference to the flowchart shown in FIG. 8, the image data sorting process by the MPU 1 in the camera according to the first embodiment will be described. In the first embodiment, this image data sorting process is performed in step S5 in the flowchart shown in FIG.

図7に示すフローチャートにおける上記ステップS3で取得した画像データ(ユーザーのレリーズ操作によって撮影され、上記メモリ7における上記メモリ1領域に記録された画像データ)に対して、上記顔検出部4bによって被写体人物の顔部の検出を行い、且つ上記顔パーツ判別部4dによって上記被写体人物の顔部の向きの判定、上記眼部による視線の向きの判定、及び上記被写体人物の視線が当該カメラに対して向けられているか否かの判定を行う(ステップS20)。   For the image data (image data taken by the user's release operation and recorded in the memory 1 area in the memory 7) acquired in step S3 in the flowchart shown in FIG. The face part discriminating unit 4d determines the face direction of the subject person, the eye direction of the subject person, and the subject person's line of sight is directed toward the camera. It is determined whether or not it has been performed (step S20).

そして、上記ステップS20における判定結果に基づいて、被写体人物の顔部を検出することができたか否かを判断する(ステップS21)。このステップS21をYESに分岐する場合は、上記ステップS20における判定結果に基づいて、眼部を検出することができたか否かを判断する(ステップS22)。このステップS22をYESに分岐する場合は、上記ステップS20における判定結果に基づいて、被写体人物が当該カメラに対してカメラ目線であるか否かを判断する(ステップS23)。なお、被写体人物が当該カメラに対してカメラ目線であるか否かの判断方法は、上述した通りである。   Then, based on the determination result in step S20, it is determined whether or not the face portion of the subject person has been detected (step S21). When step S21 is branched to YES, it is determined whether or not the eye has been detected based on the determination result in step S20 (step S22). When step S22 is branched to YES, it is determined based on the determination result in step S20 whether or not the subject person is looking at the camera with respect to the camera (step S23). Note that the method for determining whether or not the subject person is looking at the camera is as described above.

上記ステップS23をYESに分岐する場合は、当該画像データを、上記表示部8に所定の大きさで(後述するステップS25における画像データの表示よりも大きく)表示させる(ステップS24)。   When step S23 is branched to YES, the image data is displayed on the display unit 8 at a predetermined size (larger than the display of image data in step S25 described later) (step S24).

ところで、上記ステップS21をNOに分岐する場合、上記ステップS22をNOに分岐する場合、及び上記ステップS23をNOに分岐する場合は、当該画像データを上記表示部8に所定の大きさで(上記ステップS24における画像データの表示よりも小さく)表示させる(ステップS25)。   By the way, when step S21 is branched to NO, when step S22 is branched to NO, and when step S23 is branched to NO, the image data is displayed on the display unit 8 in a predetermined size (as described above). It is displayed (smaller than the display of the image data in step S24) (step S25).

上記ステップS24または上記ステップS25における処理を行った後は、上記メモリ7における上記メモリ1領域に記録された全ての画像データについて、上記ステップS20乃至上記ステップS23における処理を行ったか否かを判断する(ステップS26)。このステップS26をNOに分岐する場合、上記メモリ7における上記メモリ1領域に記録された画像データの中から、次に上記ステップS20乃至上記ステップS23における処理を行う候補の画像データを決定する(ステップS27)。そして、上記ステップS20へ移行する。   After performing the processing in step S24 or step S25, it is determined whether or not the processing in steps S20 to S23 has been performed for all the image data recorded in the memory 1 area of the memory 7. (Step S26). When step S26 is branched to NO, candidate image data to be processed next in steps S20 to S23 is determined from the image data recorded in the memory 1 area of the memory 7 (step S20). S27). Then, the process proceeds to step S20.

つまり、図7に示すフローチャートにおける上記ステップS3で上記メモリ1領域に記録された全ての画像データに対し、上記ステップS20乃至上記ステップS23における処理を行う。   That is, the processing in steps S20 to S23 is performed on all the image data recorded in the memory 1 area in step S3 in the flowchart shown in FIG.

ところで、上記ステップS26をYESに分岐する場合、上記ステップS24における処理を行った(当該カメラに対して被写体人物がカメラ目線の画像データが存在した)か否かを判断する(ステップS31)。このステップS31をNOに分岐する場合は、上記メモリ7における上記メモリ2領域に記録された画像データを、上記表示部8に表示させる(ステップS32)。   When step S26 is branched to YES, it is determined whether or not the processing in step S24 has been performed (image data of the subject person looking at the camera is present for the camera) (step S31). When step S31 is branched to NO, the image data recorded in the memory 2 area of the memory 7 is displayed on the display unit 8 (step S32).

なお、上記メモリ7における上記メモリ2領域に記録された画像データは、図7に示すフローチャートにおける上記ステップS14で、カメラ目線時の被写体人物を、上記MPU1の判断によって撮影して取得した画像データである。   Note that the image data recorded in the memory 2 area of the memory 7 is image data acquired by photographing the subject person at the time of looking at the camera according to the judgment of the MPU 1 in the step S14 in the flowchart shown in FIG. is there.

上記ステップS31をYESに分岐する場合、または上記ステップS32における処理を実行した後には、ユーザーが所望の画像データを選択するステップであるステップS33に移行する。   When step S31 is branched to YES, or after the processing in step S32 is executed, the process proceeds to step S33, which is a step in which the user selects desired image data.

上記ステップS33に、上記ステップS31をYESに分岐することで移行した場合には、上記ステップS24にて上記表示部8に表示させた画像データの中から所望の画像データを、ユーザーが上記各種スイッチ1cを操作して選択する(ステップS33)。   When the process proceeds to the step S33 by branching the step S31 to YES, the user selects desired image data from the image data displayed on the display unit 8 in the step S24. Select 1c by operating (step S33).

上記ステップS33に、上記ステップS32における処理を行った後に移行した場合には、上記ステップS32にて上記表示部8に表示させた画像データの中から所望の画像データを、ユーザーが上記各種スイッチ1cを操作して選択する(ステップS33)。   When the process proceeds to step S33 after performing the process in step S32, the user selects desired image data from the image data displayed on the display unit 8 in step S32 and the various switches 1c. To select (step S33).

上記ステップS33における処理を実行した後、上記メモリ7における上記メモリ1領域及び上記メモリ2領域に記録された画像データのうち、上記ステップS33においてユーザーによって選択された画像データ以外の画像データを消去する操作がユーザーによって行われたか否かを判断する(ステップS34)。   After executing the process in step S33, image data other than the image data selected by the user in step S33 is erased from the image data recorded in the memory 1 area and the memory 2 area in the memory 7. It is determined whether or not the operation has been performed by the user (step S34).

上記ステップS34をYESに分岐する場合は、上記ステップS33においてユーザーによって選択された画像データを、上記メモリ7におけるメモリ3領域に記録する(ステップS35)。一方、上記ステップS34をNOに分岐する場合は、上記メモリ7における上記メモリ1領域に記録された画像データを、全て上記メモリ3領域に記録する(ステップS36)。   When step S34 is branched to YES, the image data selected by the user in step S33 is recorded in the memory 3 area of the memory 7 (step S35). On the other hand, when step S34 is branched to NO, all the image data recorded in the memory 1 area of the memory 7 is recorded in the memory 3 area (step S36).

上記ステップS35または上記ステップS36における処理を行った後、上記メモリ1領域または上記メモリ2領域に記録された画像データのうち、上記ステップS33においてユーザーによって選択された画像データ以外の画像データを消去する(ステップS37)。そして、図7に示すフローチャートに戻る。   After performing the process in step S35 or step S36, image data other than the image data selected by the user in step S33 is erased from the image data recorded in the memory 1 area or the memory 2 area. (Step S37). And it returns to the flowchart shown in FIG.

以上説明したように、本第1実施形態によれば、単純な構造で、カメラ目線且つ自然な表情の被写体人物を容易に撮影することができるカメラを提供することができる。   As described above, according to the first embodiment, it is possible to provide a camera that can easily shoot a subject person with a simple structure and a natural look.

具体的には、本第1実施形態に係るカメラでは、ユーザーによる撮影操作が為されなくても、被写体人物が当該カメラに対してカメラ目線となった時には撮影動作を実行して画像データを取得し、上記メモリ7における上記メモリ1領域に記録する。したがって、被写体人物が当該カメラに対してカメラ目線となった時のシャッターチャンスを逃すことが無い。   Specifically, in the camera according to the first embodiment, even when no shooting operation is performed by the user, when the subject person is looking at the camera with respect to the camera, the shooting operation is performed to acquire the image data. Then, it is recorded in the memory 1 area of the memory 7. Therefore, a photo opportunity is not missed when the subject person is looking at the camera.

すなわち、本第1実施形態に係るカメラによれば、撮影の初心者であっても、シャッターチャンスを逃さずに、カメラ目線である被写体人物を容易に撮影することができ、見ごたえのある印象的な一瞬を捉えた写真を得ることができる。   That is, according to the camera according to the first embodiment, even a novice photographer can easily photograph a subject person who is looking at the camera without missing a photo opportunity, and is impressive and impressive. You can get a picture of the moment.

また、被写体がカメラ目線になるとその旨が上記表示部8に表示されるので、被写体がカメラ目線であることが画像だけでは視覚的に判別しにくい場合であっても、被写体がカメラ目線であることを容易に認識して撮影を行うことができる。   In addition, when the subject is looking at the camera, that fact is displayed on the display unit 8, so even if it is difficult to visually determine that the subject is from the camera only by the image alone, the subject is at the camera. It is possible to easily recognize this and perform shooting.

また、本第1実施形態に係るカメラでは、図7に示すフローチャートにおける上記ステップS19及び図8に示すフローチャートにおける上記ステップS37のように、上記メモリ7に記録された画像データのうち不要な画像データを消去するステップを設けている。したがって、ユーザーは、上記メモリ7が容量オーバーとなることを気にすること無く、撮影を行うことができる。   Further, in the camera according to the first embodiment, unnecessary image data among the image data recorded in the memory 7 as in step S19 in the flowchart shown in FIG. 7 and step S37 in the flowchart shown in FIG. A step of erasing is provided. Therefore, the user can take a picture without worrying about the capacity of the memory 7 being over.

なお、上記第1実施形態においては、被写体人物が1人の場合を想定していたが、例えば図9(a)に示すように被写体人物が複数の場合にも、上記第1実施形態を適用することができるのは勿論である。この場合、例えば被写体人物全員が、当該カメラに対してカメラ目線となった時に、上記MPU1の判断による撮影動作を実行するとしてもよい。   In the first embodiment, it is assumed that there is one subject person. However, for example, as shown in FIG. 9A, the first embodiment is applied to a case where there are a plurality of subject persons. Of course you can. In this case, for example, when all of the subject persons are looking at the camera with respect to the camera, the shooting operation based on the determination of the MPU 1 may be executed.

また、図9(b)に示すように、被写体である人物が動いているようなシーンにおいては、被写体人物が当該カメラに対してカメラ目線となるのは一瞬である為、上記第1実施形態に係るカメラの有する効果は、特に有効となる。   Further, as shown in FIG. 9B, in a scene in which a person who is a subject is moving, the subject person is instantaneously looking at the camera with respect to the camera. The effect which the camera which concerns on has is especially effective.

なお、図8に示すフローチャートにおいては、被写体人物の顔部及び眼部に関する各種判定を、上記ステップS21乃至上記ステップS23において3段階で行っているが、上記撮像素子3aの性能や上記MPU1の処理スピードによっては、より細かな判定を行っても勿論よい。   In the flowchart shown in FIG. 8, various determinations relating to the face and eye of the subject person are performed in three stages in steps S21 to S23, but the performance of the image sensor 3a and the processing of the MPU 1 are performed. Of course, a finer determination may be made depending on the speed.

[第2実施形態]
次に、本発明の第2実施形態に係るカメラについて説明する。なお、本第2実施形態に係るカメラは、レリーズスイッチとして、上記第1実施形態に係るカメラが具備するレリーズスイッチ1aの他に、更に連写撮影スイッチ1bを具備する(図10参照)。ここで、上記連写撮影スイッチ1bは、図1に示すように上記MPU1に接続されて設けられている。そして、本第2実施形態に係るカメラでは、上記連写撮影スイッチ1bがユーザーによって一回押し込まれると、所定枚数だけ連写撮影が為される。
[Second Embodiment]
Next, a camera according to a second embodiment of the present invention will be described. The camera according to the second embodiment further includes a continuous shooting switch 1b as a release switch in addition to the release switch 1a included in the camera according to the first embodiment (see FIG. 10). Here, the continuous shooting switch 1b is connected to the MPU 1 as shown in FIG. In the camera according to the second embodiment, when the continuous shooting switch 1b is pressed once by the user, a predetermined number of continuous shooting is performed.

なお、本第2実施形態に係るカメラは、図7及び図8に示すフローチャートを参照して説明した上記第1実施形態に係るカメラの動作制御と同様の動作制御に加えて、図11に示すフローチャートを参照して後述する本第2実施形態に係るカメラに特有の連写撮影シーケンスを実行することができる。   The camera according to the second embodiment is shown in FIG. 11 in addition to the same operation control as that of the camera according to the first embodiment described with reference to the flowcharts shown in FIGS. A continuous shooting sequence peculiar to the camera according to the second embodiment described later with reference to the flowchart can be executed.

ここで、本第2実施形態においては、上記メモリ7は、仮記録メモリ領域と本記録メモリ領域とを有する。なお、上記仮記録メモリ領域は、上記第1実施形態における上記メモリ1領域及び上記メモリ2領域に対応し、上記本記録メモリ領域は、上記第1実施形態における上記メモリ3領域に対応する。   Here, in the second embodiment, the memory 7 has a temporary recording memory area and a main recording memory area. The temporary recording memory area corresponds to the memory 1 area and the memory 2 area in the first embodiment, and the main recording memory area corresponds to the memory 3 area in the first embodiment.

したがって、本第2実施形態に係るカメラにて、図7及び図8に示すフローチャートを参照して説明した上記第1実施形態に係るカメラの動作制御を行う場合には、上記メモリ1領域及び上記メモリ2領域を仮記録メモリ領域に、上記メモリ3領域を本記録メモリ領域に読み替える。   Therefore, in the camera according to the second embodiment, when the operation control of the camera according to the first embodiment described with reference to the flowcharts shown in FIGS. The memory 2 area is replaced with a temporary recording memory area, and the memory 3 area is replaced with a main recording memory area.

以下、本第2実施形態に係るカメラのMPU1による連写撮影シーケンスを、図11に示すフローチャートを参照して説明する。   Hereinafter, a continuous shooting sequence by the MPU 1 of the camera according to the second embodiment will be described with reference to a flowchart shown in FIG.

まず、不図示の電源スイッチがONされると、初期設定を行う(ステップS101)。なお、このステップS101における初期設定としては、例えば当該カメラの各部の初期化や、上記撮影レンズ2のレンズ位置の初期化等を挙げることができる。このステップS101における処理を終えた後、操作チェックを行う(ステップS102)。このステップS102においては、当該カメラのデフォルト状態に対してユーザーによって加えられた変更をチェックする。   First, when a power switch (not shown) is turned on, initial setting is performed (step S101). Note that examples of the initial setting in step S101 include initialization of each part of the camera, initialization of the lens position of the photographing lens 2, and the like. After completing the processing in step S101, an operation check is performed (step S102). In step S102, changes made by the user to the default state of the camera are checked.

つづいて、上記撮像素子3aの取得した電気信号を、上記AFE回路3によって読み出し且つA/D変換等を施してデジタル画像信号である画像データを生成し、上記表示部8に表示させる(ステップS41)。すなわち、上記ステップS41は、図7に示すフローチャートにおける上記ステップS1と同様、所謂ライブビュー表示を開始するステップである。   Subsequently, the electrical signal acquired by the imaging device 3a is read by the AFE circuit 3 and subjected to A / D conversion or the like to generate image data as a digital image signal, which is displayed on the display unit 8 (step S41). ). That is, step S41 is a step of starting so-called live view display, similar to step S1 in the flowchart shown in FIG.

そして、ユーザーによって上記レリーズスイッチ1aの押操作が為されたか(撮影操作が為されたか)否かを判定する(ステップS42)。このステップS42をNOに分岐する場合は、後述するステップS51へ移行する。   Then, it is determined whether or not the user has pressed the release switch 1a (whether a shooting operation has been performed) (step S42). When step S42 is branched to NO, the process proceeds to step S51 described later.

上記ステップS42をYESに分岐する場合は、所定の撮影動作によって撮影を行う(ステップS43)。そして、上記ステップS43で撮影によって取得した画像データを、上記メモリ7における上記本記録メモリ領域へ記録する(ステップS44)。その後、不図示のタイマーによって時間を計測し、所定時間経過前にユーザーによって何らかの操作が為されたか否かを判断する(ステップS103)。   When step S42 is branched to YES, the image is shot by a predetermined shooting operation (step S43). Then, the image data acquired by photographing in step S43 is recorded in the main recording memory area in the memory 7 (step S44). Thereafter, the time is measured by a timer (not shown), and it is determined whether or not any operation has been performed by the user before the predetermined time has elapsed (step S103).

このステップS103において、ユーザーによる操作が何ら行われないまま所定時間経過したと判断した場合には、スリープモードとして省電力動作に移行する。一方、上記ステップS103において、所定時間経過前にユーザーによって何らかの操作が行われたと判断した場合は、上記ステップS102へ戻る。   In this step S103, when it is determined that the predetermined time has passed without any operation by the user, the mode is shifted to the power saving operation as the sleep mode. On the other hand, if it is determined in step S103 that an operation has been performed by the user before the predetermined time has elapsed, the process returns to step S102.

ところで、上記ステップS42をNOに分岐する場合は、ユーザーによって上記連写撮影スイッチ1bの押操作が為されたか(連写撮影操作が為されたか)否かを判定する(ステップS51)。このステップS51をNOに分岐する場合は、後述するステップS61へ移行する。   When step S42 is branched to NO, it is determined whether or not the user has pressed the continuous shooting switch 1b (whether the continuous shooting operation has been performed) (step S51). When step S51 is branched to NO, the process proceeds to step S61 described later.

上記ステップS51をYESに分岐する場合、上記仮記録メモリ領域の容量が所定容量以上残っていない状態であるか否か、すなわち上記仮記録メモリ領域に記録されている画像データ等を消去する必要があるか否かを判断する(ステップS52)。このステップS52をYESに分岐する場合は、上記仮記録メモリ領域に記録された画像データ等を消去する(ステップS53)。   When step S51 is branched to YES, it is necessary to delete whether or not the capacity of the temporary recording memory area is not over a predetermined capacity, that is, the image data recorded in the temporary recording memory area. It is determined whether or not there is (step S52). When step S52 is branched to YES, the image data and the like recorded in the temporary recording memory area are deleted (step S53).

上記ステップS52をNOに分岐する場合、または上記ステップS53における処理を実行した後は、所定の撮影動作によって連写撮影を行う(ステップS54)。さらに、このステップS54における連写撮影によって取得した画像データを、上記メモリ7における上記仮記録メモリ領域に記録する(ステップS55)。そして、上記ステップS103へ移行する。   When step S52 is branched to NO or after the processing in step S53 is executed, continuous shooting is performed by a predetermined shooting operation (step S54). Further, the image data acquired by the continuous shooting in step S54 is recorded in the temporary recording memory area in the memory 7 (step S55). Then, the process proceeds to step S103.

ところで、上記ステップS51をNOに分岐する場合、ユーザーによって上記各種操作スイッチ1cの操作が為されて、表示モードへのモード切り換えが行われたか否かを判断する(ステップS61)。ここで、表示モードとは、上記仮記録メモリ領域に記録された画像データを上記表示部8に表示させ、上記仮記録メモリ領域に記録された画像データの中から所望の画像データを、ユーザーが選択して上記本記録メモリ領域に記録させることができるモードである。このステップS61をNOに分岐する場合は、上記ステップS41へ移行する。   When step S51 is branched to NO, it is determined whether the user has operated the various operation switches 1c to switch the mode to the display mode (step S61). Here, the display mode means that the image data recorded in the temporary recording memory area is displayed on the display unit 8, and the user selects desired image data from the image data recorded in the temporary recording memory area. This mode can be selected and recorded in the recording memory area. When step S61 is branched to NO, the process proceeds to step S41.

上記ステップS61をYESに分岐する場合、上記ステップS55において上記仮記録メモリに記録された画像データを、上記表示部8に表示させる(ステップS62)。ここで、ユーザーは、上記表示部8に表示された画像データを参照して、所望の画像データを上記スイッチ1cの操作によって選択する。   When step S61 is branched to YES, the image data recorded in the temporary recording memory in step S55 is displayed on the display unit 8 (step S62). Here, the user refers to the image data displayed on the display unit 8 and selects desired image data by operating the switch 1c.

その後、ユーザーによって例えば上記レリーズスイッチ1aが押操作されることで、ユーザーによって選択された上記所望の画像データを、上記メモリ7における上記本記録メモリ領域に記録する(ステップS63)。なお、このようにユーザーによって選択された上記所望の画像データを、上記メモリ7における上記本記録メモリ領域に記録する操作を行う為の専用スイッチを別途設けても勿論よい。   Thereafter, when the user presses the release switch 1a, for example, the desired image data selected by the user is recorded in the main recording memory area in the memory 7 (step S63). Of course, a dedicated switch for performing the operation of recording the desired image data selected by the user in the main recording memory area in the memory 7 may be provided separately.

以上説明したように、本第2実施形態によれば、上記第1実施形態に係るカメラと同様の効果を奏する上に、連写撮影可能であり且つメモリを有効に利用可能なカメラを提供することができる。   As described above, according to the second embodiment, in addition to the same effects as the camera according to the first embodiment, a camera capable of continuous shooting and capable of effectively using a memory is provided. be able to.

以上、第1実施形態及び第2実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形及び応用が可能なことは勿論である。   As mentioned above, although this invention was demonstrated based on 1st Embodiment and 2nd Embodiment, this invention is not limited to embodiment mentioned above, A various deformation | transformation and application are within the range of the summary of this invention. Of course it is possible.

さらに、上述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

図1は、本発明の第1実施形態に係るカメラのシステム構成の概念を示すブロック図。FIG. 1 is a block diagram showing a concept of a system configuration of a camera according to the first embodiment of the present invention. 図2(a)及び(b)は、人物が被写体である画像データを示す図。FIGS. 2A and 2B are diagrams showing image data in which a person is a subject. 図3(a)及び(b)は、眉部や眼部による横長の影と鼻部による縦長の影とによって構成されるT字型の影を抽出した画像データを示す図。FIGS. 3A and 3B are diagrams showing image data obtained by extracting a T-shaped shadow composed of a horizontally long shadow by the eyebrows and eyes and a vertically long shadow by the nose. 図4は、被写体人物の顔部を上下方向に2分割した場合の分割線上における明るさをx軸方向(左右方向)に分析したグラフ。FIG. 4 is a graph obtained by analyzing the brightness on the dividing line in the x-axis direction (left-right direction) when the face of the subject person is divided into two in the vertical direction. 図5(a)は、黒目部の左右どちら側にも白目部が存在している場合(被写体が当該カメラに対してカメラ目線である場合)の眼部を示す図。図5(b)は黒目部の向かって右側に白目部が存在している場合(被写体が向かって左側を見ている場合)の眼部を示す図。図5(c)は黒目部の向かって左側に白目部が存在している場合(被写体が向かって右側を見ている場合)の眼部を示す図。FIG. 5A is a diagram showing an eye part when a white eye part exists on either the left or right side of the black eye part (when the subject is a camera line of sight with respect to the camera). FIG. 5B is a diagram showing an eye part when a white eye part is present on the right side of the black eye part (when the subject is looking at the left side). FIG. 5C is a diagram showing an eye part when a white eye part is present on the left side of the black eye part (when the subject is looking at the right side). 図6(a)乃至(c)は、それぞれ図5(a)乃至(c)に示す眼部における破線y3上における明るさ分布を示すグラフ。FIGS. 6A to 6C are graphs showing the brightness distribution on the broken line y3 in the eye part shown in FIGS. 5A to 5C, respectively. 図7は、本発明の第1実施形態に係るカメラのMPUによる撮影シーケンスのフローチャートを示す図。FIG. 7 is a view showing a flowchart of a photographing sequence by the MPU of the camera according to the first embodiment of the present invention. 図8は、本発明の第1実施形態に係るカメラにおけるMPUによる画像データの取捨選択処理(詳細は後述)のフローチャートを示す図。FIG. 8 is a flowchart of image data selection processing (details will be described later) by the MPU in the camera according to the first embodiment of the present invention. 図9(a)は、被写体人物が複数の場合の画像データの一例を示す図。図9(b)は、被写体人物が動いている場合の画像データの一例を示す図。FIG. 9A is a diagram illustrating an example of image data when there are a plurality of subject persons. FIG. 9B is a diagram illustrating an example of image data when the subject person is moving. 本発明の第2実施形態に係るカメラの具備するレリーズスイッチ及び連写撮影スイッチを示す図。The figure which shows the release switch and continuous shooting switch which the camera which concerns on 2nd Embodiment of this invention comprises. 本発明の第2実施形態に係るカメラのMPUによる連写撮影シーケンスのフローチャートを示す図。The figure which shows the flowchart of the continuous shooting imaging | photography sequence by MPU of the camera which concerns on 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1…MPU、 1a…レリーズスイッチ、 1b…連写撮影スイッチ、 1c…各種操作スイッチ、 2…撮影レンズ、 2a…ピント合わせ部、 2b…ズーム制御部、 3…AFE回路、 3a…撮像素子、 3b…マイク、 4a…補助光照射部、 4b…顔検出部、 4c…輪郭検出部、 4d…顔パーツ判別部、 4…補助光照射部、 5…信号処理回路、 5a…処理補助ブロック、 6…RAM、 7…メモリ、 8…表示部、 8a…スピーカ、 8b…プリント信号出力部、 8c…無線通信部、 9…フラッシュROM。     DESCRIPTION OF SYMBOLS 1 ... MPU, 1a ... Release switch, 1b ... Continuous shooting switch, 1c ... Various operation switches, 2 ... Shooting lens, 2a ... Focusing part, 2b ... Zoom control part, 3 ... AFE circuit, 3a ... Imaging element, 3b , Microphone, 4a, auxiliary light irradiation unit, 4b, face detection unit, 4c, contour detection unit, 4d, face part determination unit, 4 ... auxiliary light irradiation unit, 5 ... signal processing circuit, 5a ... processing auxiliary block, 6 ... RAM, 7 ... Memory, 8 ... Display unit, 8a ... Speaker, 8b ... Print signal output unit, 8c ... Wireless communication unit, 9 ... Flash ROM.

Claims (7)

被写体からの光束を受けて像信号を出力する像信号形成部と、上記像信号形成部の出力する像信号をデジタル信号である画像データに変換する信号変換部とを具備するカメラにおいて、
上記画像データから、上記被写体である人物の顔の部分を検出する顔検出部と、
上記顔検出部によって検出された上記顔の部分から、鼻部の検出、眼部の検出、該眼部による視線の向きの判定、及び上記顔部の向きの判定を行う顔パーツ判別部と、
上記顔パーツ判別部によって検出された上記視線の向き及び上記顔部の向きに基づいて、上記被写体である人物の視線が当該カメラに対して向けられているか否かを判定する判定手段と、
を具備することを特徴とするカメラ。
In a camera including an image signal forming unit that receives a light beam from a subject and outputs an image signal, and a signal conversion unit that converts the image signal output from the image signal forming unit into image data that is a digital signal.
A face detection unit for detecting a face portion of the person as the subject from the image data;
From the face part detected by the face detection unit, a nose part detection, an eye part detection, a gaze direction determination by the eye part, and a face part determination part for determining the face direction;
Determining means for determining whether the line of sight of the person as the subject is directed toward the camera based on the direction of the line of sight detected by the face part determining unit and the direction of the face;
A camera comprising:
上記顔パーツ判別部は、上記鼻部と上記眼部との位置関係に基づいて、上記顔部の向きの判定を行うことを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the face part determination unit determines the orientation of the face part based on a positional relationship between the nose part and the eye part. 上記顔パーツ判別部は、黒目と白目との位置関係に基づいて、上記眼部による視線の向きの判定を行うことを特徴とする請求項1に記載のカメラ。   The camera according to claim 1, wherein the face part determination unit determines the direction of the line of sight by the eye based on a positional relationship between black eyes and white eyes. 上記顔パーツ判別部は、上記顔部の向きと上記眼部による視線の向きとが互いに逆向きである時には、上記被写体である人物の視線が当該カメラに対して向けられていると判定することを特徴とする請求項1に記載のカメラ。   The face part determination unit determines that the line of sight of the person who is the subject is directed toward the camera when the direction of the face part and the direction of the line of sight by the eye part are opposite to each other. The camera according to claim 1. 画像データを表示する表示部と、
上記判定手段によって、上記被写体である人物の視線が当該カメラに対して向けられていると判定された画像データのみを選択して上記表示部に表示する表示制御部と、
を更に具備することを特徴とする請求項1に記載のカメラ。
A display for displaying image data;
A display control unit that selects only the image data determined by the determination unit to determine that the line of sight of the person who is the subject is directed toward the camera; and
The camera according to claim 1, further comprising:
一回の押操作で一回の撮影を行う為の第1のレリーズスイッチと、
一回の押操作で複数回の撮影を行う為の第2のレリーズスイッチと、
上記第1のレリーズスイッチが押操作されることで撮影した画像データを記録する為の第1のメモリと、
上記第2のレリーズスイッチが押操作されることで撮影した画像データを記録する為の第2のメモリと、
上記第2のメモリに記録されている画像データを上記第1のメモリに転送する転送制御スイッチと、
を具備することを特徴とする請求項1に記載のカメラ。
A first release switch for performing one shot with a single push operation;
A second release switch for shooting multiple times with a single press,
A first memory for recording image data taken by pressing the first release switch;
A second memory for recording image data taken by pressing the second release switch;
A transfer control switch for transferring image data recorded in the second memory to the first memory;
The camera according to claim 1, further comprising:
上記判定手段によって上記被写体である人物の視線が当該カメラに対して向けられていると判定されたことを表示する判定表示手段を更に具備することを特徴とする請求項1に記載のカメラ。   2. The camera according to claim 1, further comprising determination display means for displaying that the determination means determines that the line of sight of the person as the subject is directed toward the camera.
JP2006182520A 2006-06-30 2006-06-30 camera Expired - Fee Related JP4891674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006182520A JP4891674B2 (en) 2006-06-30 2006-06-30 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006182520A JP4891674B2 (en) 2006-06-30 2006-06-30 camera

Publications (2)

Publication Number Publication Date
JP2008011457A true JP2008011457A (en) 2008-01-17
JP4891674B2 JP4891674B2 (en) 2012-03-07

Family

ID=39069197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006182520A Expired - Fee Related JP4891674B2 (en) 2006-06-30 2006-06-30 camera

Country Status (1)

Country Link
JP (1) JP4891674B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231878A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method
JP2011160219A (en) * 2010-02-01 2011-08-18 Olympus Imaging Corp Imaging apparatus, and imaging method of the same
JP2014053965A (en) * 2013-12-03 2014-03-20 Olympus Imaging Corp Subject state determination method
WO2014091667A1 (en) * 2012-12-10 2014-06-19 日本電気株式会社 Analysis control system
WO2014097530A1 (en) * 2012-12-19 2014-06-26 日本電気株式会社 Analysis process control system
JP2016100800A (en) * 2014-11-25 2016-05-30 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP2016181773A (en) * 2015-03-23 2016-10-13 カシオ計算機株式会社 Display control device, display control method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108156387A (en) * 2018-01-12 2018-06-12 深圳奥比中光科技有限公司 Terminate the device and method of camera shooting automatically by detecting eye sight line
CN108200340A (en) * 2018-01-12 2018-06-22 深圳奥比中光科技有限公司 The camera arrangement and photographic method of eye sight line can be detected

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07143471A (en) * 1993-11-18 1995-06-02 Canon Inc Image pickup device and electronic communication conference system
JP2000209483A (en) * 1999-01-18 2000-07-28 Nikon Corp Electronic camera with picture selection function and storage medium recording its program
JP2001051338A (en) * 1999-08-12 2001-02-23 Canon Inc Camera
JP2001078136A (en) * 1999-09-01 2001-03-23 Olympus Optical Co Ltd Electronic camera
JP2006074368A (en) * 2004-09-01 2006-03-16 Nikon Corp Electronic camera
JP2006119408A (en) * 2004-10-22 2006-05-11 Sony Corp Video display method and device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07143471A (en) * 1993-11-18 1995-06-02 Canon Inc Image pickup device and electronic communication conference system
JP2000209483A (en) * 1999-01-18 2000-07-28 Nikon Corp Electronic camera with picture selection function and storage medium recording its program
JP2001051338A (en) * 1999-08-12 2001-02-23 Canon Inc Camera
JP2001078136A (en) * 1999-09-01 2001-03-23 Olympus Optical Co Ltd Electronic camera
JP2006074368A (en) * 2004-09-01 2006-03-16 Nikon Corp Electronic camera
JP2006119408A (en) * 2004-10-22 2006-05-11 Sony Corp Video display method and device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231878A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method
JP2011160219A (en) * 2010-02-01 2011-08-18 Olympus Imaging Corp Imaging apparatus, and imaging method of the same
WO2014091667A1 (en) * 2012-12-10 2014-06-19 日本電気株式会社 Analysis control system
US10229327B2 (en) 2012-12-10 2019-03-12 Nec Corporation Analysis control system
WO2014097530A1 (en) * 2012-12-19 2014-06-26 日本電気株式会社 Analysis process control system
JP2014053965A (en) * 2013-12-03 2014-03-20 Olympus Imaging Corp Subject state determination method
JP2016100800A (en) * 2014-11-25 2016-05-30 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP2016181773A (en) * 2015-03-23 2016-10-13 カシオ計算機株式会社 Display control device, display control method, and program

Also Published As

Publication number Publication date
JP4891674B2 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
JP7346654B2 (en) Image processing device, imaging device, control method, program, and storage medium
JP4891674B2 (en) camera
JP4944055B2 (en) Imaging apparatus and imaging control method
KR101817657B1 (en) Digital photographing apparatus splay apparatus and control method thereof
JP4829186B2 (en) Imaging device
US8350918B2 (en) Image capturing apparatus and control method therefor
US20130113940A1 (en) Imaging device and subject detection method
JP5228354B2 (en) Digital camera
KR20100027700A (en) Photographing method and apparatus
JP2007236008A (en) Camera with image display
JP3971240B2 (en) Camera with advice function
JP2006145629A (en) Imaging apparatus
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
KR20130005883A (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method
JP4717867B2 (en) Imaging apparatus and imaging method
JP4000176B1 (en) camera
JP4905124B2 (en) Image display device, image display method, and program
JP2011239267A (en) Imaging apparatus and image processing apparatus
JP2012257112A (en) Imaging apparatus and program
JP4717840B2 (en) Imaging apparatus and control method thereof
JP4632417B2 (en) Imaging apparatus and control method thereof
JP4540657B2 (en) Camera and shooting program
JP2008136074A5 (en)
JP4336186B2 (en) Image correction apparatus and imaging apparatus
JP4701122B2 (en) camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111213

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111216

R151 Written notification of patent or utility model registration

Ref document number: 4891674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees