JP2001051338A - Camera - Google Patents
CameraInfo
- Publication number
- JP2001051338A JP2001051338A JP11228076A JP22807699A JP2001051338A JP 2001051338 A JP2001051338 A JP 2001051338A JP 11228076 A JP11228076 A JP 11228076A JP 22807699 A JP22807699 A JP 22807699A JP 2001051338 A JP2001051338 A JP 2001051338A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- recognizing
- facial expression
- image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008921 facial expression Effects 0.000 claims description 125
- 230000014509 gene expression Effects 0.000 claims description 36
- 230000008859 change Effects 0.000 claims description 3
- 230000010365 information processing Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 20
- 230000009471 action Effects 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 70
- 210000001508 eye Anatomy 0.000 description 49
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 22
- 230000000694 effects Effects 0.000 description 20
- 230000003287 optical effect Effects 0.000 description 13
- 210000001747 pupil Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 206010011469 Crying Diseases 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000004907 flux Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 238000005375 photometry Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000004804 winding Methods 0.000 description 2
- 101100214868 Autographa californica nuclear polyhedrosis virus AC54 gene Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- -1 silver halide Chemical class 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、被写体の状況を画
像認識できるカメラに関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera capable of recognizing a situation of a subject by image.
【0002】[0002]
【従来の技術】1)従来、特開平7−128711号に
示されているように、被写体となる人が撮影されている
ことを意識して不自然な表情にならないよう、該被写体
である人に悟られず良好な撮影をするために、カメラの
ファインダを覗かなくともカメラの撮影レンズを正しく
被写体に向けたときは、撮影者は音や光等で感知し撮影
できる。或はカメラが被写体の方に向いたとき自動的に
撮影を行うというものはあった。2. Description of the Related Art 1) Conventionally, as shown in Japanese Patent Application Laid-Open No. Hei 7-128711, a person who is a subject is conscious of the fact that the subject is being photographed so as to avoid an unnatural expression. If the photographing lens of the camera is correctly pointed at the subject without looking through the viewfinder of the camera in order to take a good photograph without realizing it, the photographer can sense by sound or light and take a picture. Alternatively, some cameras automatically take a picture when the camera faces the subject.
【0003】2)従来、特開平3−252775号,特
開平8−249447号,特開平8−249453号,
特開平10−255043等、顔の表情を認識する技術
はいくつかあったが、カメラの機能に結び付けたものは
なかった。2) Conventionally, JP-A-3-252775, JP-A-8-249647, JP-A-8-249453,
There have been some techniques for recognizing facial expressions, such as Japanese Patent Application Laid-Open No. H10-255043, but none have been linked to camera functions.
【0004】3)野生動物撮影等で、カメラのファイン
ダ視野内の特定位置に被写体が入ったときにカメラの撮
影動作を行わせるために、この特定位置を挟むように赤
外線投・受光装置を設置し、赤外線投・受光装置の間を
被写体が横切った際に撮影指令をリモコン信号として発
するというものはあった。[0004] 3) In order to perform a photographing operation of the camera when a subject enters a specific position in the viewfinder of the camera in photographing a wild animal or the like, an infrared ray projecting / receiving device is provided so as to sandwich the specific position. In some cases, a shooting command is issued as a remote control signal when a subject crosses between the infrared light projecting / receiving devices.
【0005】4)また、特開昭57−115524号に
示されるように、予め設定された距離位置へ、移動する
被写体が到達したとき、これを自動的に合焦検出してシ
ャッタレリーズ機構を作動させるというものはあった。4) Also, as shown in Japanese Patent Application Laid-Open No. 57-115524, when a moving subject arrives at a preset distance position, the focus is automatically detected and the shutter release mechanism is activated. There was something to activate.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、上記
1)の従来の技術では、被写体を撮影画面内に捉えるこ
とはできても、被写体となる人がしっかりカメラの方を
向いているかどうか、また目を閉じていないか、更には
目線がカメラの方を向いているかを、カメラの位置から
かなりの距離離れた撮影者の目で判断しなくてはなら
ず、直接カメラのファインダを覗いている場合に比べて
失敗の確率が高くなってしまうという不都合があった。However, according to the conventional technique 1), even if the subject can be captured in the photographing screen, whether the subject is facing the camera firmly, If you are looking directly into the camera's viewfinder, you must determine if the camera is closed or if the line of sight is facing the camera by the photographer's eyes a considerable distance from the camera's position. There is a disadvantage that the probability of failure is higher than that of
【0007】上記(2)の従来の顔の表情を認識する技
術は、カメラの機能に応用されていないため、依然とし
て撮影者が被写体となる人の表情を見て撮影するか否か
を判断しなければならず、なるべく手間をかけず自動で
撮影したいという人にとっては、煩わしいという不都合
があった。また、良い表情を無人撮影したいという要望
に答えられないという不都合もあった。更には、顔の表
情に合った雰囲気を盛上げる効果を狙った演出も考えら
れてはいなかった。The technique of (2) for recognizing the facial expression of the related art is not applied to the function of the camera, so that the photographer can still determine whether or not to photograph by looking at the facial expression of the subject. For those who want to take pictures automatically with as little effort as possible, there is an inconvenience of being troublesome. In addition, there was also a disadvantage that it was not possible to respond to a request for unattended shooting of a good expression. Furthermore, there was no idea of a production aiming at the effect of raising the atmosphere according to the facial expression.
【0008】上記(3)の従来の技術では、赤外線投・
受光装置を設置した場所でのみ、自動撮影が可能であ
り、撮影の自由度が無く、装置が大型化してしまうとい
う不都合があった。In the conventional technique (3), infrared rays
Automatic photographing is possible only at the place where the light receiving device is installed, and there is a disadvantage that the degree of freedom of photographing is small and the device becomes large.
【0009】上記(4)の従来の技術では、狙った被写
体の近く或は急に飛び込んで別の被写体が存在した場合
に、別の被写体が先に予め設定された距離位置へ到達し
てしまうと、狙った被写体にピントが合わず、別の被写
体にピントが合った状態で撮影されてしまうという不都
合があった。In the prior art (4), when another object is present near or suddenly in the vicinity of the target object, another object arrives at a previously set distance position. Thus, there is an inconvenience that the target object is not focused and another subject is focused.
【0010】(発明の目的)本発明の第1の目的は、被
写体の顔の向きを認識し、顔が所定の方向を向いた場合
に、被写体記録動作を行うことのできるカメラを提供し
ようとするものである。(Object of the Invention) A first object of the present invention is to provide a camera capable of recognizing the direction of a face of a subject and performing a subject recording operation when the face is oriented in a predetermined direction. Is what you do.
【0011】本発明の第2の目的は、被写体の目の状態
を認識し、目が所定の状態になった場合に、被写体記録
動作を行うことのできるカメラを提供しようとするもの
である。A second object of the present invention is to provide a camera capable of recognizing the state of the eyes of a subject and performing a subject recording operation when the eyes are in a predetermined state.
【0012】本発明の第3の目的は、被写体の顔の表情
を認識し、顔が所定の表情になった場合に、被写体記録
動作を行うことのできるカメラを提供しようとするもの
である。A third object of the present invention is to provide a camera capable of recognizing the facial expression of a subject and performing a subject recording operation when the face has a predetermined facial expression.
【0013】本発明の第4の目的は、被写体の姿勢を認
識し、被写体が所定の姿勢になった場合に、被写体記録
動作を行うことのできるカメラを提供しようとするもの
である。A fourth object of the present invention is to provide a camera capable of recognizing the posture of a subject and performing a subject recording operation when the subject has a predetermined posture.
【0014】本発明の第5の目的は、被写体の動作を認
識し、被写体が所定の動作を行った場合に、被写体記録
動作を行うことのできるカメラを提供しようとするもの
である。A fifth object of the present invention is to provide a camera capable of recognizing a motion of a subject and performing a subject recording operation when the subject performs a predetermined operation.
【0015】本発明の第6の目的は、被写体の顔の表情
を認識し、顔が所定の表情になった場合に、被写体記録
画面の明るさを変化させることのできるカメラを提供し
ようとするものである。A sixth object of the present invention is to provide a camera capable of recognizing a facial expression of a subject and changing the brightness of a subject recording screen when the face has a predetermined facial expression. Things.
【0016】本発明の第7の目的は、被写体の顔の表情
を認識し、顔が所定の表情になった場合に、表情に合っ
たテキストやキャラクタを写し込むことのできるカメラ
を提供しようとするものである。A seventh object of the present invention is to provide a camera capable of recognizing a facial expression of a subject and, when the face has a predetermined facial expression, photographing a text or a character matching the facial expression. Is what you do.
【0017】本発明の第8の目的は、被写体の顔の表情
を認識し、顔が所定の表情になった場合に、表情に合っ
た色に画面を変化させることのできるカメラを提供しよ
うとするものである。An eighth object of the present invention is to provide a camera capable of recognizing the facial expression of a subject and, when the face has a predetermined facial expression, changing the screen to a color suitable for the facial expression. Is what you do.
【0018】[0018]
【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1に記載の発明は、被写界の画像情報
を検出する被写界像検出手段と、該被写界像検出手段か
らの画像情報を基に被写体の顔を認識する顔認識手段
と、該顔認識手段からの情報により、顔が所定方向に向
いているかを判定する判定手段と、該判定手段の判定結
果に応じて被写体記録動作を行わせる制御手段とを有す
るカメラとするものである。According to a first aspect of the present invention, there is provided an object image detecting means for detecting image information of an object scene, and an object image detecting means for detecting image information of the object scene. Face recognition means for recognizing a face of a subject based on image information from the image detection means; determination means for determining whether the face is oriented in a predetermined direction based on information from the face recognition means; A camera having control means for performing a subject recording operation according to the result.
【0019】また、上記第2の目的を達成するために、
請求項2に記載の発明は、被写界の画像情報を検出する
被写界像検出手段と、該被写界像検出手段からの画像情
報を基に被写体の目を認識する目認識手段と、該目認識
手段からの情報により、目が所定の状態になっているか
を判定する判定手段と、該判定手段の判定結果に応じて
被写体記録動作を行わせる制御手段とを有するカメラと
するものである。In order to achieve the second object,
According to a second aspect of the present invention, there is provided an object scene image detecting means for detecting image information of an object scene, and an eye recognizing means for recognizing an eye of a subject based on image information from the object scene image detecting means. A camera having a determination unit for determining whether the eyes are in a predetermined state based on information from the eye recognition unit, and a control unit for performing a subject recording operation in accordance with a determination result of the determination unit It is.
【0020】また、上記第3の目的を達成するために、
請求項3に記載の発明は、被写界の画像情報を検出する
被写界像検出手段と、該被写界像検出手段からの画像情
報を基に被写体の顔の表情を認識する表情認識手段と、
該表情認識手段からの情報により、所定の表情になって
いるかを判定する判定手段と、該判定手段の判定結果に
応じて被写体記録動作を行わせる制御手段とを有するカ
メラとするものである。In order to achieve the third object,
According to a third aspect of the present invention, there is provided a scene image detecting means for detecting image information of a scene, and a facial expression recognition for recognizing a facial expression of a subject based on the image information from the scene image detecting means. Means,
The present invention is a camera having a determining means for determining whether a predetermined facial expression is obtained based on information from the facial expression recognizing means, and a control means for performing a subject recording operation according to the determination result of the determining means.
【0021】また、上記第4の目的を達成するために、
請求項4に記載の発明は、被写界の画像情報を検出する
被写界像検出手段と、該被写界像検出手段からの画像情
報を基に被写体の姿勢を認識する姿勢認識手段と、該姿
勢認識手段からの情報により、所定の姿勢になっている
かを判定する判定手段と、該判定手段の判定結果に応じ
て被写体記録動作を行わせる制御手段とを有するカメラ
とするものである。In order to achieve the fourth object,
According to a fourth aspect of the present invention, there is provided an object scene image detecting means for detecting image information of a scene, and a posture recognizing means for recognizing a posture of a subject based on image information from the scene image detecting means. A camera having: a determination unit that determines whether the vehicle is in a predetermined posture based on information from the posture recognition unit; and a control unit that performs a subject recording operation in accordance with a determination result of the determination unit. .
【0022】また、上記第5の目的を達成するために、
請求項5に記載の発明は、被写界の画像情報を検出する
被写界像検出手段と、該被写界像検出手段からの画像情
報を基に被写体の動作を認識する動作認識手段と、該動
作認識手段からの情報により、所定の動作になっている
かを判定する判定手段と、該判定手段の判定結果に応じ
て被写体記録動作を行わせる制御手段とを有するカメラ
とするものである。In order to achieve the fifth object,
According to a fifth aspect of the present invention, there is provided an object image detecting means for detecting image information of an object field, and an operation recognizing means for recognizing an operation of a subject based on image information from the object image detecting means. A camera having: a determination unit that determines whether or not a predetermined operation is performed based on information from the operation recognition unit; and a control unit that performs a subject recording operation in accordance with a determination result of the determination unit. .
【0023】また、上記第6の目的を達成するために、
請求項6に記載の発明は、被写界の画像情報を検出する
被写界像検出手段と、該被写界像検出手段からの画像情
報を基に被写体の顔の表情を認識する表情認識手段と、
該表情認識手段からの情報により、所定の表情になって
いるかを判定する判定手段と、該判定手段の判定結果に
応じて被写体記録画面の明るさを変化させる制御手段と
を有するカメラとするものである。In order to achieve the sixth object,
According to a sixth aspect of the present invention, there is provided an object scene image detecting means for detecting image information of an object scene, and facial expression recognition for recognizing a facial expression of a subject based on image information from the object scene image detecting means. Means,
A camera having a determining means for determining whether a predetermined facial expression is obtained based on information from the facial expression recognizing means, and a control means for changing brightness of a subject recording screen according to a determination result of the determining means. It is.
【0024】また、上記第7の目的を達成するために、
請求項7に記載の発明は、被写界の画像情報を検出する
被写界像検出手段と、該被写界像検出手段からの画像情
報を基に被写体の顔の表情を認識する表情認識手段と、
該表情認識手段からの情報により、所定の表情になって
いるかを判定する判定手段と、テキストやキャラクタを
発生させるテキスト・キャラクタ発生手段と、前記判定
手段の判定結果に応じてテキストやキャラクタを被写体
と共に記録する記録動作を行わせる制御手段とを有する
カメラとするものである。Also, in order to achieve the seventh object,
According to a seventh aspect of the present invention, there is provided a scene image detecting means for detecting image information of a scene, and a facial expression recognition for recognizing a facial expression of a subject based on the image information from the scene image detecting means. Means,
Determining means for determining whether a given facial expression is obtained based on the information from the facial expression recognizing means; text / character generating means for generating a text or a character; Together with control means for performing a recording operation for recording.
【0025】また、上記第8の目的を達成するために、
請求項8に記載の発明は、被写界の画像情報を検出する
被写界像検出手段と、該被写界像検出手段からの画像情
報を基に被写体の顔の表情を認識する表情認識手段と、
該表情認識手段からの情報により、所定の表情になって
いるかを判定する判定手段と、記録画面の色を変化させ
る画面色変化手段と、前記判定手段の判定結果に応じて
変化させた画面色を被写体と共に記録する記録動作を行
わせる制御手段とを有するカメラとするものである。In order to achieve the eighth object,
According to an eighth aspect of the present invention, there is provided a scene image detecting means for detecting image information of a scene, and a facial expression recognition for recognizing a facial expression of a subject based on the image information from the scene image detecting means. Means,
Determining means for determining whether a predetermined facial expression has been obtained based on information from the facial expression recognizing means; screen color changing means for changing a color of a recording screen; and a screen color changed according to the determination result of the determining means And a control means for performing a recording operation of recording the image together with the subject.
【0026】[0026]
【発明の実施の形態】以下、本発明を図示に実施の形態
に基づいて詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on embodiments with reference to the drawings.
【0027】図1は本発明の実施の各形態に共通なカメ
ラを示す中央縦断面図であり、図2は本発明の実施の第
1の形態に係る主要部分の構成を示すブロック図であ
る。FIG. 1 is a central longitudinal sectional view showing a camera common to each embodiment of the present invention, and FIG. 2 is a block diagram showing a configuration of a main part according to the first embodiment of the present invention. .
【0028】これらの図において、1はカメラボディ、
2は撮影レンズである。3は撮影光軸付近をハーフミラ
ーとした主ミラーであり、主ミラー受板4(撮影光軸付
近に開口を設けてある)に接着固定され、主ミラー受板
4に設けられた軸4aを中心に図1のミラーダウンした
観察状態から不図示のミラーアップした撮影光路外退避
状態へ回動可能となっている。ミラーダウンした観察状
態では、撮影レンズを通った被写体光は主ミラーで45
度上へ反射され、ピント板5に像を結び、ペンタダハプ
リズム6で正立正像になり接眼レンズ7を通して撮影者
に観察される。8はCCD(固体撮像素子)からなる被
写界像検出手段であり、測光センサとしての役目もす
る。9は被写界像検出レンズであり、ピント板5に結ば
れた像を被写界像検出手段8のセンサ面に結像させる。In these figures, 1 is a camera body,
Reference numeral 2 denotes a photographing lens. Reference numeral 3 denotes a main mirror having a half mirror near the photographing optical axis. The main mirror 3 is bonded and fixed to a main mirror receiving plate 4 (having an opening near the photographing optical axis), and has a shaft 4a provided on the main mirror receiving plate 4. The mirror can be pivoted from the observation state in which the mirror is lowered to the center in FIG. In the observation state where the mirror is down, the subject light passing through the taking lens is 45
The light is reflected upward, forms an image on the focus plate 5, becomes an erect image by the penta roof prism 6, and is observed by the photographer through the eyepiece 7. Reference numeral 8 denotes a scene image detection unit including a CCD (solid-state imaging device), which also functions as a photometric sensor. Reference numeral 9 denotes a field image detection lens which forms an image formed on the focus plate 5 on the sensor surface of the field image detection means 8.
【0029】10はサブミラーであり、サブミラー受板
11に接着支持され、サブミラー受板11の軸11aに
より回動自在に支持される。サブミラー10は図1のミ
ラーダウンした観察状態で主ミラー3の撮影光軸付近の
ハーフミラー部を通過した被写体光をカメラ下方に配置
した焦点検出部へ導き、サブミラー受板4は不図示のミ
ラーアップした撮影光路外退避状態で主ミラー受板4の
撮影光軸付近の開口を塞ぐように作用する。12は焦点
検出光学系のフィールドレンズ、13は反射ミラー、1
4は焦点検出光学系の二次結像レンズ、15は公知のパ
ッシブオートフォーカス用位相差検出方式の焦点検出セ
ンサ、16はフォーカルプレーンシャッタ、17はレン
ズの絞り、18はフィルムである。Reference numeral 10 denotes a sub-mirror, which is adhered and supported by the sub-mirror receiving plate 11, and is rotatably supported by a shaft 11a of the sub-mirror receiving plate 11. The sub-mirror 10 guides the subject light that has passed through the half mirror section near the photographic optical axis of the main mirror 3 in the mirror-down observation state of FIG. 1 to a focus detection section arranged below the camera, and the sub-mirror receiving plate 4 is a mirror (not shown). In the retracted state outside the imaging optical path, it acts so as to close the opening near the imaging optical axis of the main mirror receiving plate 4. 12 is a field lens of a focus detection optical system, 13 is a reflection mirror, 1
Reference numeral 4 denotes a secondary imaging lens of a focus detection optical system, 15 denotes a focus detection sensor of a known passive autofocus phase difference detection system, 16 denotes a focal plane shutter, 17 denotes a lens aperture, and 18 denotes a film.
【0030】図2に示す19は被写界像であり、19a
は被写体である人物が正面を向いている状態を、19b
は被写体である人物が横を向いている(正面を向いてい
ない)状態を、それぞれ示している。20はカメラ全体
を制御するCPUであり、その中に被写界像検出手段8
からの画像情報を基に被写体の顔を認識する顔認識手段
21や、該顔認識手段21からの情報により、顔が所定
方向に向いているかを判定する判定手段22、更には該
判定手段22の判定結果に応じて被写体記録動作を行う
被写体記録動作制御手段23を有する。24はカメラ露
光機能部であり、レンズの絞り17やフォーカルプレー
ンシャッタ16からなる。Numeral 19 shown in FIG.
Indicates a state in which the person as the subject is facing the front, 19b
Indicates a state in which the person as the subject is facing sideways (not facing the front). Reference numeral 20 denotes a CPU for controlling the entire camera.
A face recognizing means 21 for recognizing a face of a subject based on image information from the camera, a determining means 22 for determining whether a face is oriented in a predetermined direction based on information from the face recognizing means 21, Has a subject recording operation control means 23 for performing a subject recording operation in accordance with the determination result. Reference numeral 24 denotes a camera exposure function unit, which includes a lens aperture 17 and a focal plane shutter 16.
【0031】図1に示す25は、撮影光学系光軸近傍に
設けられ、撮影光軸と同方向に近赤外光を投射するiR
ED、26は前記iRED25の投射に同期して不図示
の進退機構によりCCDからなる被写界像検出手段8の
前面に進入する近赤外光透過可視光カットフィルタ、2
7は日付やキャプションをフィルム背面より写し込ませ
るための公知のデートモジュールである。28は効果フ
ィルタであり、不図示のアクチュエータと不図示の進退
機構により撮影レンズの光束内への進入及び光束外への
退避が可能に設けられ、少なくとも異なる2種類のフィ
ルタが選択可能になっている。An iR 25 shown in FIG. 1 is provided near the optical axis of the photographing optical system and projects near-infrared light in the same direction as the optical axis of the photographing optical system.
Reference numerals ED and 26 denote near-infrared light transmitting visible light cut filters which enter the front surface of the object scene image detecting means 8 composed of a CCD by an advance / retreat mechanism (not shown) in synchronization with the projection of the iRED 25.
Reference numeral 7 denotes a known date module for imprinting a date and a caption from the back of the film. Numeral 28 denotes an effect filter, which is provided so that the taking lens can enter the light beam and retreat outside the light beam by an actuator (not shown) and an advancing / retracting mechanism (not shown), so that at least two different filters can be selected. I have.
【0032】次に、上記構成におけるカメラの主要部分
の動作について、図3のフローチャートにしたがって説
明する。Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
【0033】ステップ1にて不図示のメインスイッチが
ONされると、カメラに電源が供給され、撮影準備初期
状態となる。そして、ステップ2において、CPU20
はカメラの不図示のレリーズボタンが第1ストロークま
で押されてスイッチSW−1がONしたかを判定し、O
Nであればステップ3へ進む。また、スイッチSW−1
がOFFであればステップ10まで飛ぶ。When a main switch (not shown) is turned on in step 1, power is supplied to the camera, and the camera enters a photographing preparation initial state. Then, in step 2, the CPU 20
Determines whether the release button (not shown) of the camera is pressed to the first stroke and the switch SW-1 is turned on.
If N, go to step 3. Also, the switch SW-1
If is OFF, jump to step 10.
【0034】ステップ3においては、CPU20はCC
Dからなる被写界像検出手段8よりの測光出力を取り込
み、測光演算を行い、露光制御値を決定する。そして、
次のステップ4において、公知の位相差検知方式のパッ
シブオートフォーカス装置の焦点検出センサ15の出力
から焦点検出演算を行い、焦点合わせのための撮影レン
ズ駆動量を決定する。続くステップ5においては、上記
ステップ4にて得られた撮影レンズ駆動量に基づいて撮
影レンズ2の焦点調節用レンズ2aを駆動し、焦点調節
する。そして、次のステップ6において、CPU20は
撮影者が狙ったであろう被写体に焦点が合った被写界像
を、CCDよりなる被写界像検出手段8に1フレームを
1/30秒のビデオレートで順次取込ませる。In step 3, the CPU 20 sets the CC
The photometric output from the object scene image detecting means 8 comprising D is taken in, photometric calculation is performed, and an exposure control value is determined. And
In the next step 4, focus detection calculation is performed from the output of the focus detection sensor 15 of the passive autofocusing device of the known phase difference detection type, and the photographing lens drive amount for focusing is determined. In the following step 5, the focus adjusting lens 2a of the photographing lens 2 is driven based on the photographing lens drive amount obtained in step 4 to adjust the focus. Then, in the next step 6, the CPU 20 converts the one-frame image into a 1/30 second video image to the object image detecting means 8 comprising a CCD by focusing the object image on the object which the photographer may have aimed at. Sequentially take in at the rate.
【0035】次のステップ7においては、顔認識手段2
1が、取込まれた被写界像から人の顔を認識し、判定手
段22により、認識された人の顔が正面を向いているか
を判定する。図2の19aのように被写界像の被写体人
物が正面を向いているのであればステップ8へ進み、1
9bのように正面を向いていなければステップ2へ戻
る。In the next step 7, the face recognizing means 2
1 recognizes a human face from the captured object scene image, and determines whether the recognized human face is facing front by the determining means 22. If the subject person of the scene image is facing the front as in 19a in FIG.
If it is not facing the front as in 9b, the process returns to step 2.
【0036】なお、被写界像の中から正面を向いている
人物像を抽出する方法(顔認識手段21と判定手段22
によって行われる)は、以下に示す(a)〜(c)の手
法が公知となっており、この実施の第1の形態ではその
うちの何れかの手法を用いるものとする。A method of extracting a person image facing the front from the scene image (the face recognition means 21 and the judgment means 22)
The following methods (a) to (c) are known, and in the first embodiment, any one of the methods is used.
【0037】(a)テレビジョン学会誌Vol.49,No.
6,pp.787−797(1995) の「顔領域抽出に有
効な修正HSV表色系の提案」に示されるように、カラ
ー画像をモザイク画像化し、肌色領域に着目して顔領域
を抽出する手法。(A) Journal of the Institute of Television Engineers of Japan, Vol. 49, No.
6, pp. 787-797 (1995), as shown in “Proposal of a modified HSV color system effective for face area extraction”, a color image is converted into a mosaic image, and a face area is extracted by focusing on a skin color area. Technique.
【0038】(b)電子情報通信学会誌Vol.J74−D
−II,No.11,pp.1625−1627(1991) の「静
止濃淡情景画像からの顔領域を抽出する手法」に示され
るように、髪や目や口など正面人物像の頭部を構成する
各部分に関する幾何学的な形状特徴を利用して正面人物
像の頭部領域を抽出する手法。(B) IEICE Journal Vol. J74-D
-II, No. 11, pp. 1625-1627 (1991), the head of a front human image such as hair, eyes, mouth, etc. A method for extracting the head region of a frontal human image using the geometric shape characteristics of each part to be performed.
【0039】(c)画像ラボ 1991−11( 199
1) の「テレビ電話用顔領域検出とその効果」に示され
るように、動画像の場合、フレーム間の人物の微妙な動
きによって発生する人物像の輪郭エッジを利用して正面
人物像を抽出する手法。(C) Image Lab 1991-11 (199)
As shown in 1) “Videophone face area detection and its effect”, in the case of a moving image, a frontal person image is extracted using a contour edge of a person image generated by a subtle movement of a person between frames. Technique to do.
【0040】ステップ8へ進むと、ここでは上記ステッ
プ3にて決定された露出制御値に基づいて被写体記録動
作制御手段23は、絞り17の開口径とフォーカルプレ
ーンシャッタ16のシャッタ秒時を制御し、フィルム1
8への露光を行う。そして、次のステップ9において、
フィルムを1駒巻上げ、次の撮影に備え、前記フィルム
の巻上げが終了するとステップ2へ戻る。In step 8, the subject recording operation control means 23 controls the aperture diameter of the aperture 17 and the shutter speed of the focal plane shutter 16 based on the exposure control value determined in step 3 above. , Film 1
Exposure to 8 is performed. Then, in the next step 9,
The film is wound up by one frame, and the film returns to step 2 when the winding of the film is completed in preparation for the next photographing.
【0041】上記ステップ2にてスイッチSW−1がO
FFであるとしてステップ10へ進むと、ここではCP
U20は所定時間を計時する測光タイマ(レリーズボタ
ンを押してスイッチSW−1のONを保持せずとも露出
設定変更できるよう、測光可能状態を所定時間保持する
タイマ)の状態を見に行き、作動中であればステップ2
へ戻る。また、所定時間が経過し不作動であればステッ
プ11へ進み、ここでは不図示のメインスイッチの状態
を見に行き、ONであればステップ2へ戻り、以下繰り
返す。一方、OFFであればステップ12へ進み、カメ
ラへの電源供給を遮断する。In step 2 above, the switch SW-1 is set to O
If the process proceeds to step 10 as FF, here, CP
U20 goes to see the state of the photometry timer (timer that keeps the photometry enabled state for a predetermined time so that the exposure setting can be changed without pressing the release button and holding the switch SW-1 ON), and is operating. Then step 2
Return to If the predetermined time has elapsed and the operation has not been performed, the operation proceeds to step 11, where the state of the main switch (not shown) is checked. If the operation is ON, the operation returns to step 2 and repeats. On the other hand, if it is OFF, the process proceeds to step 12, and the power supply to the camera is cut off.
【0042】上記の実施の第1の形態によれば、被写体
の顔の向きを認識し、顔が所定の方向、特に正面を向い
た場合に被写体記録動作を行うので、撮影者に負担をか
けず、被写体である人物がきちんとカメラの方を向いて
いないという失敗写真を防ぐ効果がある。According to the first embodiment described above, the direction of the face of the subject is recognized, and the subject recording operation is performed when the face faces a predetermined direction, especially when facing the front. This is effective in preventing a failed photograph in which the subject person is not facing the camera properly.
【0043】(実施の第2の形態)図4は本発明の実施
の第2の形態に係るカメラの主要部分の回路構成を示す
ブロック図、図5は本発明の実施の第2の形態における
主要部分の動作を示すフローチャートである。(Second Embodiment) FIG. 4 is a block diagram showing a circuit configuration of a main part of a camera according to a second embodiment of the present invention. FIG. 5 is a block diagram showing a second embodiment of the present invention. It is a flowchart which shows operation | movement of a main part.
【0044】なお、これらの図において、上記実施の第
1の形態と同じ部分はそのままの番号で示し、対応する
部分に関しては上記実施の第1の形態の数字に200を
加えた番号で示す。そして、ここでは上記実施の第1の
形態と異なる個所のみを説明する。In these figures, the same parts as those in the first embodiment are denoted by the same numbers, and corresponding parts are denoted by numbers obtained by adding 200 to the numbers in the first embodiment. Here, only different points from the first embodiment will be described.
【0045】図4において、219は被写界像であり、
219aは被写体である人物が目を開けてカメラの方に
目線を向けている状態を、219bは被写体である人物
が目を閉じている状態を、219cは被写体である人物
は目を開けてはいるがカメラの方に目線を向けていない
状態を、それぞれ示している。220はカメラ全体を制
御するCPUであり、その中に被写界像検出手段8から
の画像情報を基に被写体の目を認識する目認識手段22
1や、該目認識手段221からの情報により、目が特定
の状態になっているか(例えば、目が開いているか、目
線がカメラの方を向いているか)を判定する判定手段2
22、更には該判定手段222の判定結果に応じて被写
体記録動作を行う制御手段223を有する。In FIG. 4, reference numeral 219 denotes a scene image;
Reference numeral 219a denotes a state in which the subject person opens his / her eyes and looks at the camera, 219b denotes a state in which the subject person has his eyes closed, and 219c denotes a state in which the subject person has his eyes opened. Respectively, but not looking at the camera. Reference numeral 220 denotes a CPU for controlling the entire camera, in which an eye recognizing means 22 for recognizing the eyes of the subject based on image information from the scene image detecting means 8
A determination unit 2 that determines whether the eye is in a specific state (for example, whether the eye is open or the line of sight is facing the camera) based on the information from the eye recognition unit 221 and the information from the eye recognition unit 221.
22, and control means 223 for performing a subject recording operation in accordance with the result of the determination by the determination means 222.
【0046】次に、上記構成におけるカメラの主要部分
の動作について、図5のフローチャートにしたがって説
明する。Next, the operation of the main part of the camera having the above configuration will be described with reference to the flowchart of FIG.
【0047】ステップ201からステップ205まで
は、上記実施の第1の形態における図3のステップ1か
らステップ5までと同じであり、その説明は省略する。Steps 201 to 205 are the same as steps 1 to 5 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0048】ステップ206においては、CPU200
は撮影者が狙ったであろう被写体に焦点が合った被写界
像を、CCDからなる被写界像検出手段8に1フレーム
を1/30秒のビデオレートで順次取込ませる。また、
瞳孔は入射した光を略同方向に反射する性質を持ってお
り、顔の他の部分に比べて同軸照明状態の輝度が際立っ
て大きく、弱い近赤外光を用いても瞳孔だけは明るく撮
像される。従って、iRED25により近赤外光を被写
体に投射し、近赤外光透過可視光カットフィルタ26を
透過した被写界像を、被写界像検出手段8が1フレーム
を1/30秒のビデオレートで順次取込むようにさせる
と、より効果的に目の像が得られる。In step 206, CPU 200
Causes a scene image focused on a subject which may be aimed at by the photographer to be sequentially captured by a scene image detecting means 8 comprising a CCD at a video rate of 1/30 sec. Also,
The pupil has the property of reflecting incident light in substantially the same direction, and the brightness of the coaxial illumination state is remarkably large compared to other parts of the face, and only the pupil is imaged brightly even with weak near-infrared light Is done. Accordingly, the near infrared light is projected onto the subject by the iRED 25, and the object image transmitted through the near infrared light transmitting visible light cut filter 26 is converted into one frame by the object image detecting means 8 for 1/30 second video. If the images are sequentially taken in at a rate, an eye image can be obtained more effectively.
【0049】次のステップ207においては、目認識手
段221が、取込まれた被写界像から人の目を認識し、
判定手段222により、認識された人の目が開いている
か、更には目線がカメラの方を向いているかを判定す
る。図4の219a或は219cのように、被写界像の
被写体である人物の目が開いているのであればステップ
208へ進み、219bのように目が閉じていればステ
ップ202へ戻る。または、図4の219aのように被
写界像の被写体である人物の目が開いて、しかも目線が
カメラの方を向いているのであればステップ208へ進
み、219cのように目を開けてはいるが、カメラの方
に目線を向けていなかったり、219bのように目が閉
じていればステップ202へ戻るようにしてもよい。In the next step 207, the eye recognizing means 221 recognizes human eyes from the captured scene image,
The determination unit 222 determines whether the recognized person's eyes are open and whether the eyes are facing the camera. If the eyes of the person who is the subject of the scene image are open, as in 219a or 219c in FIG. 4, the process proceeds to step 208, and if the eyes are closed as in 219b, the process returns to step 202. Alternatively, if the eyes of the person who is the subject of the scene image are open as shown at 219a in FIG. 4 and the eyes are facing the camera, the process proceeds to step 208, and the eyes are opened as at 219c. However, if the user is not looking at the camera or his eyes are closed as in 219b, the process may return to step 202.
【0050】なお、被写界像の中から人物の目(及び目
線(視線)方向)を抽出する方法(目認識手段221と
判定手段222によって行われる)は、以下に示す
(d)〜(h)の手法が公知となっており、この実施の
第2の形態ではそのうちの何れかの手法を用いるものと
する。The method of extracting the eyes of the person (and the direction of the line of sight (the line of sight)) from the scene image (performed by the eye recognizing means 221 and the determining means 222) is as follows (d) to (d). The method of h) is known, and in the second embodiment, any one of the methods is used.
【0051】(d)特開平3−17696号に示される
ように、目の領域を瞳孔中心を通る垂直線と水平線で分
割し、分けられた領域の面積比を特徴量として視点位置
を算出する手法。(D) As shown in JP-A-3-17696, an eye region is divided by a vertical line and a horizontal line passing through the center of a pupil, and a viewpoint position is calculated using an area ratio of the divided regions as a feature amount. Technique.
【0052】(e)特開平4−255015号に示され
るように、視線の相対的な移動量を瞳の輪郭データを抽
出し、瞳の中心座標の変化から求める手法。(E) As shown in Japanese Patent Application Laid-Open No. 4-255015, a method of extracting the relative movement amount of the line of sight by extracting contour data of the pupil and changing the center coordinates of the pupil.
【0053】(f)特開平5−300601号に示され
るように、赤外光を顔に投射し、特に反射率の高い眼球
を抽出する手法。(F) As shown in JP-A-5-300601, a method of projecting infrared light onto a face and extracting an eyeball having a particularly high reflectance.
【0054】(g)特開平9−21611号に示される
ように、近赤外光を撮影レンズと略同軸に被写体である
人物に照射し、瞳孔の高輝度反射を検出し目を抽出する
手法。(G) As shown in Japanese Patent Application Laid-Open No. 9-21611, a method of irradiating near-infrared light substantially coaxially with a photographic lens to a subject, detecting high-brightness reflection of a pupil, and extracting eyes. .
【0055】(h)特開平9−251342号に示され
るように、取得画像に対し領域分割を行い、各領域の色
相、彩度の情報から顔領域を見つける。次に色相画像の
2値化により、肌色部分とは異なる色属性を持つ目部分
と口部分の候補を出し、目や口の濃淡パターンとの照合
を行い、目領域と口領域を決める。そして検出した目、
口に対してエッジ画像を生成し、エッジ画像を1次元の
軸方向に垂直に写像し、目頭と左右の口元を検出する。
更に目の切り出し画像を2値化し、黒画素の重心を瞳の
重心とし、目頭点とから瞳のベクトルを求める。最後に
顔の向きにおける目の位置より注視点を求める。という
手法。(H) As shown in JP-A-9-251342, the obtained image is divided into regions, and a face region is found from the hue and saturation information of each region. Next, by binarizing the hue image, candidates for an eye portion and a mouth portion having color attributes different from those of the skin color portion are obtained, and collation with the light and shade pattern of the eyes and the mouth is performed to determine an eye region and a mouth region. And the detected eyes,
An edge image is generated for the mouth, and the edge image is vertically mapped in a one-dimensional axial direction to detect the inner corner of the eye and the left and right mouths.
Further, the cutout image of the eye is binarized, the center of gravity of the black pixel is set as the center of gravity of the pupil, and the pupil vector is obtained from the inner corner of the eye. Finally, the point of gaze is determined from the position of the eyes in the face direction. That technique.
【0056】ステップ208からステップ212まで
は、上記実施の第1の形態における図3のステップ8か
らステップ12までと同じであり、その説明は省略す
る。Steps 208 to 212 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0057】上記実施の第2の形態によれば、被写体の
目の状態を認識し、目が所定の状態になった場合、特に
目をしっかり開けて、カメラに目線が向いている場合に
被写体記録動作を行うので、撮影者に負担をかけず、被
写体である人物が目を閉じていたり、きちんとカメラの
方を見ていないという失敗写真を防ぐ効果がある。According to the second embodiment, the state of the subject's eyes is recognized, and when the eyes are in a predetermined state, especially when the eyes are opened firmly and the eyes are facing the camera, the subject is recognized. Since the recording operation is performed, there is an effect that the photographer does not place a burden on the photographer and prevents a failed photograph in which the person who is the subject has closed his eyes or is not looking at the camera properly.
【0058】(実施の第3の形態)図6は本発明の実施
の第3の形態に係るカメラの主要部分の回路構成を示す
ブロック図、図7は本発明の実施の第3の形態における
主要部分の動作を示すフローチャートである。(Third Embodiment) FIG. 6 is a block diagram showing a circuit configuration of a main part of a camera according to a third embodiment of the present invention, and FIG. 7 is a block diagram showing a third embodiment of the present invention. It is a flowchart which shows operation | movement of a main part.
【0059】なお、これらの図において、上記実施の第
1の形態と同じ部分はそのままの番号で示し、対応する
部分に関しては上記実施の第1の形態の数字に300を
加えた番号で示す。そして、ここでは上記実施の第1の
形態と異なる個所のみを説明する。In these figures, the same parts as those in the first embodiment are indicated by the same numbers, and corresponding parts are indicated by numbers obtained by adding 300 to the numbers in the first embodiment. Here, only different points from the first embodiment will be described.
【0060】図6において、319は被写界像であり、
319aは被写体である人物が無表情の状態を、319
bは被写体である人物が笑っている喜びの状態を、31
9cは被写体である人物が泣いている悲しみの状態を、
319dは被写体である人物の怒りの状態を、319e
は被写体である人物の驚きの状態を、それぞれ示してい
る。320はカメラ全体を制御するCPUであり、その
中に被写界像検出手段8からの画像情報を基に被写体の
表情を認識する表情認識手段321や、該表情認識手段
321からの情報により、表情が特定の状態(例えば、
喜び、悲しみ、怒り、驚きの状態)になっているかを判
定する判定手段322、更には該判定手段322の判定
結果に応じて被写体記録動作を行う制御手段323を有
する。In FIG. 6, reference numeral 319 denotes a scene image.
Reference numeral 319a denotes a state in which the person who is the subject has no expression;
b indicates the state of joy that the subject person is smiling, 31
9c shows the state of sadness in which the subject person is crying,
319d shows the state of anger of the subject, 319e.
Indicates the state of surprise of the person who is the subject. Reference numeral 320 denotes a CPU that controls the entire camera, and includes a facial expression recognition unit 321 that recognizes a facial expression of a subject based on image information from the scene image detection unit 8, and information from the facial expression recognition unit 321. Facial expressions are in certain states (for example,
A determination unit 322 for determining whether the user is in a state of joy, sadness, anger, or surprise), and a control unit 323 for performing a subject recording operation according to the determination result of the determination unit 322.
【0061】次に、上記構成におけるカメラの主要部分
の動作について、図7のフローチャートにしたがって説
明する。Next, the operation of the main part of the camera having the above configuration will be described with reference to the flowchart of FIG.
【0062】ステップ301からステップ306まで
は、上記実施の第1の形態における図3のステップ1か
らステップ6までと同様であり、その説明は省略する。Steps 301 to 306 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0063】ステップ307においては、表情認識手段
321が、取込まれた被写界像から人の表情を認識し、
判定手段322により、認識された人の表情が特定の状
態(例えば、喜び、悲しみ、怒り、驚きの状態)になっ
ているかを判定する。図6の319b〜319eのよう
に、被写界像の被写体である人物の表情が喜び、悲し
み、怒り、驚きのいずれかの状態になっているのであれ
ばステップ308へ進み、そうでなければステップ30
2へ戻る。In step 307, the facial expression recognizing means 321 recognizes the facial expression of the person from the captured scene image,
The determination unit 322 determines whether the recognized expression of the person is in a specific state (for example, a state of joy, sadness, anger, or surprise). As shown in 319b to 319e in FIG. 6, if the expression of the person who is the subject of the scene image is in a state of joy, sadness, anger, or surprise, the process proceeds to step 308; Step 30
Return to 2.
【0064】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段321と判定手段322によっ
て行われる)は、以下に示す(i)〜(k)の手法が公
知となっており、この実施の第3の形態ではそのうちの
何れかの手法を用いるものとする。As a method of recognizing a facial expression of a person from the scene image (performed by the facial expression recognizing means 321 and the determining means 322), the following methods (i) to (k) are known. In the third embodiment, any one of the methods is used.
【0065】(i)特開平3−252775号に示され
るように、筋肉の動きを測定するモジュールを備えてお
り、このモジュールによって、顔の筋肉の動きの時間的
変化のパターンに基づいて、学習モードでは標準表情パ
ターンを学習記憶し、認識モードでは取込んだ画像によ
る表情パターンと学習した標準表情パターンと比較し表
情認識をするという手法。(I) As shown in Japanese Patent Application Laid-Open No. 3-252775, a module for measuring muscle movement is provided. With this module, learning based on the temporal change pattern of facial muscle movement is performed. In the mode, the standard expression pattern is learned and stored. In the recognition mode, the facial expression pattern based on the captured image is compared with the learned standard expression pattern to recognize the facial expression.
【0066】(j)特開平8−249447号に示され
るように、顔の映像信号をウェーブレット変換し、それ
により得られた空間周波数の平均電力を無表情のときの
平均電力と比較し表情認識をするという手法。(J) As shown in Japanese Patent Application Laid-Open No. Hei 8-249449, the face image signal is subjected to wavelet transform, and the average power of the spatial frequency obtained thereby is compared with the average power in the absence of expression to recognize facial expressions. The technique of doing.
【0067】(k)特開平8−249453号,特開平
10−255043号に示されるように、表情カテゴリ
として、怒り、嫌悪、恐れ、悲しみ、幸福、驚きの合計
6種類の基本表情を考え、無表情から各基本表情への時
系列画像の処理を行う。例えば、人が相手の表情を読取
るときに最も注目している領域である右目と口をそれぞ
れ含む2つの領域について、人の顔の動画像中の連続す
る2枚の画像からオプティカルフローアルゴリズムを用
いて速度ベクトルを得る。この速度ベクトルの各成分に
離散フーリエ変換を施し、フーリエ変換係数の低周波成
分を特徴ベクトルとして抽出する。次に、HMM(隠れ
マルコフモデル)を用いて特徴ベクトルの生成確率を算
出し、認識処理を行うという手法。(K) As shown in JP-A-8-249453 and JP-A-10-255043, six types of basic facial expressions including anger, disgust, fear, sadness, happiness, and surprise are considered as facial expression categories. The processing of the time-series image from the non-expression to each basic expression is performed. For example, for two regions each including the right eye and the mouth, which are the regions that the person is most interested in reading the expression of the other party, using an optical flow algorithm from two consecutive images in the moving image of the human face To get the velocity vector. A discrete Fourier transform is applied to each component of the velocity vector, and a low-frequency component of a Fourier transform coefficient is extracted as a feature vector. Next, a method of calculating a feature vector generation probability using an HMM (Hidden Markov Model) and performing recognition processing.
【0068】ステップ308からステップ312まで
は、上記実施の第1の形態における図3のステップ8か
らステップ12までと同じであり、その説明は省略す
る。Steps 308 to 312 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0069】上記実施の第3の形態によれば、被写体の
顔の表情を認識し、顔が所定の表情になった場合、特に
喜び、悲しみ、怒り、驚きといった写真として面白い特
徴的な表情になったときに被写体記録動作を行うので、
撮影者に負担をかけず、無表情に近い平凡な写真を撮る
ことがなくなり、傑作写真が撮れる確率が高くなる効果
がある。According to the third embodiment, the facial expression of a subject is recognized, and when the face has a predetermined facial expression, the facial expression is particularly interesting as a photograph such as joy, sadness, anger, or surprise. The subject recording operation is performed when
This eliminates the burden on the photographer and eliminates the need for taking ordinary photographs close to expressionlessness, which has the effect of increasing the probability of taking masterpieces.
【0070】(実施の第4の形態)図8は本発明の実施
の第4の形態に係るカメラの主要部分の回路構成を示す
ブロック図、図9は本発明の実施の第2の形態における
主要部分の動作を示すフローチャートである。(Fourth Embodiment) FIG. 8 is a block diagram showing a circuit configuration of a main part of a camera according to a fourth embodiment of the present invention, and FIG. 9 is a diagram showing a second embodiment of the present invention. It is a flowchart which shows operation | movement of a main part.
【0071】なお、これらの図において、上記実施の第
1の形態と同じ部分はそのままの番号で示し、対応する
部分に関しては上記実施の第1の形態の数字に400を
加えた番号で示す。そして、ここでは上記実施の第1の
形態と異なる個所のみを説明する。In these figures, the same parts as those in the first embodiment are indicated by the same numbers, and corresponding parts are indicated by numbers obtained by adding 400 to the numbers in the first embodiment. Here, only different points from the first embodiment will be described.
【0072】図8において、419は被写界像であり、
419aは被写体である人物が棒立ちの状態を、419
bは被写体である人物が頬杖を突いて座っている状態
を、419cは被写体である人物が片腕を上げる状態
を、それぞれ示している。420はカメラ全体を制御す
るCPUであり、その中に被写界像検出手段8からの画
像情報を基に被写体のポーズを認識するポーズ認識手段
421や、該ポーズ認識手段421からの情報により、
ポーズが特定の状態(例えば、頬杖を突いて座る、片腕
を上げる等の状態)になっているかを判定する判定手段
422、更には該判定手段422の判定結果に応じて被
写体記録動作を行う制御手段423を有する。In FIG. 8, reference numeral 419 denotes a scene image;
Reference numeral 419a denotes a state in which the subject is standing on a stick.
b shows a state in which the subject person is sitting with his cheek stick, and 419c shows a state in which the subject person raises one arm. Reference numeral 420 denotes a CPU for controlling the entire camera, in which a pose recognition unit 421 for recognizing a pose of a subject based on image information from the scene image detection unit 8 and information from the pose recognition unit 421 are used.
Judging means 422 for judging whether the pose is in a specific state (for example, sitting with a cheek stick, raising one arm, etc.), and further, control for performing a subject recording operation according to the judgment result of the judging means 422 It has means 423.
【0073】次に、上記構成におけるカメラの主要部分
の動作について、図9のフローチャートにしたがって説
明する。Next, the operation of the main part of the camera having the above configuration will be described with reference to the flowchart of FIG.
【0074】ステップ401からステップ406まで
は、上記実施の第1の形態における図3のステップ1か
らステップ6までと同じであり、その説明は省略する。Steps 401 to 406 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0075】ステップ407においては、ポーズ認識手
段421が、取込まれた被写界像から人のポーズを認識
し、判定手段422により、認識された人のポーズが特
定の状態(例えば、頬杖を突いて座る、片腕を上げる等
の状態)になっているかを判別する。図8の419b,
419cのように、被写界像の被写体である人物のポー
ズが頬杖を突いて座る、片腕を上げる等の状態になって
いるのであればステップ408へ進み、そうでなければ
ステップ402へ戻る。In step 407, the pose recognizing means 421 recognizes the pose of the person from the captured scene image, and the determining means 422 determines that the recognized pose of the person is in a specific state (for example, when the cheek stick is held). (E.g., sitting in a protruding position, raising one arm, etc.). 419b in FIG. 8,
If the pose of the person who is the subject in the image of the scene is in a state of sitting with a cheek stick or raising one arm as in 419c, the process proceeds to step 408; otherwise, the process returns to step 402.
【0076】なお、被写界像の中からポーズを認識する
方法(ポーズ認識手段421と判定手段422によって
行われる)は、以下の(m)の手法が公知となってお
り、この実施の第4の形態では該手法を用いるものとす
る。As a method of recognizing a pose from a scene image (performed by the pose recognizing unit 421 and the determining unit 422), the following method (m) is known, and In the mode 4, the method is used.
【0077】(m)特開平7−57103号に示される
ように、撮像された被写体の特定部位の輪郭を抽出し、
記憶されたパターンと比較しポーズ認識をするという手
法。(M) As shown in JP-A-7-57103, the contour of a specific part of the imaged subject is extracted,
A method of performing pose recognition by comparing it with a stored pattern.
【0078】ステップ408からステップ412まで
は、上記実施の第1の形態における図3のステップ8か
らステップ12までと同じであり、その説明は省略す
る。Steps 408 to 412 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0079】上記の実施の第4の形態によれば、被写体
の姿勢(ポーズ)を認識し、被写体が所定の姿勢(ポー
ズ)になった場合、特に写真として面白い特徴的なポー
ズになったときに被写体記録動作を行うので、撮影者に
負担をかけず、棒立ちのようなつまらないポーズの写真
を撮ることがなくなり、傑作写真が撮れる確率が高くな
る効果がある。According to the above-described fourth embodiment, the posture (pose) of the subject is recognized, and when the subject takes a predetermined posture (pose), particularly when the subject has an interesting characteristic pose as a photograph. Since the subject recording operation is performed in a short time, no burden is imposed on the photographer, and it is not necessary to take a photograph in a boring pose such as standing upright, which has the effect of increasing the probability of taking a masterpiece photograph.
【0080】(実施の第5の形態)図10は本発明の実
施の第5の形態に係るカメラの主要部分の回路構成を示
すブロック図、図11は本発明の実施の第5の形態にお
ける主要部分の動作を示すフローチャートである。(Fifth Embodiment) FIG. 10 is a block diagram showing a circuit configuration of a main part of a camera according to a fifth embodiment of the present invention, and FIG. 11 is a block diagram showing a fifth embodiment of the present invention. It is a flowchart which shows operation | movement of a main part.
【0081】なお、これらの図において、上記実施の第
1の形態と同じ部分はそのままの番号で示し、対応する
部分に関しては上記実施の第1の形態の数字に500を
加えた番号で示す。そして、ここでは上記実施の第1の
形態と異なる個所のみを説明する。In these figures, the same parts as those in the first embodiment are indicated by the same numbers, and the corresponding parts are indicated by numbers obtained by adding 500 to the numbers in the first embodiment. Here, only different points from the first embodiment will be described.
【0082】図10において、519は被写界像であ
り、519aは被写体である人物が棒立ちで静止してい
る状態を、519bは被写体である人物が走り出した状
態を、それぞれ示している。520はカメラ全体を制御
するCPUであり、その中に被写界像検出手段8からの
画像情報を基に被写体の動作を認識する動作認識手段5
21や、該動作認識手段521からの情報により、動作
が特定の状態(例えば、走り出した状態)になっている
かを判定する判定手段522、更には該判定手段522
の判定結果に応じて被写体記録動作を行う制御手段52
3を有する。In FIG. 10, reference numeral 519 denotes an object scene image, 519a shows a state in which a person as a subject stands and stands still, and 519b shows a state in which a person as a subject starts running. Reference numeral 520 denotes a CPU for controlling the entire camera, in which an operation recognizing unit 5 for recognizing a motion of a subject based on image information from the scene image detecting unit 8
21 and a determination unit 522 that determines whether the operation is in a specific state (for example, a running state) based on information from the operation recognition unit 521, and further, the determination unit 522.
Control means 52 for performing a subject recording operation according to the determination result of
3
【0083】次に、上記構成におけるカメラの主要部分
の動作について、図11のフローチャートにしたがって
説明する。Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
【0084】ステップ501からステップ506まで
は、上記実施の第1の形態における図3のステップ1か
らステップ6までと同じであり、その説明は省略する。Steps 501 to 506 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0085】ステップ507においては、動作認識手段
521が、取込まれた被写界像から人の動作を認識し、
判定手段522により、認識された人の動作が特定の状
態(例えば、走り出した状態)になっているかを判別す
る。519bのように被写界像の被写体である人物の動
作が走り出した状態になっているのであればステップ5
08へ進み、そうでなければステップ502へ戻る。In step 507, the motion recognizing means 521 recognizes a human motion from the captured scene image,
The determining unit 522 determines whether the recognized motion of the person is in a specific state (for example, a running state). If the motion of the person who is the subject of the scene image starts running as in 519b, step 5 is executed.
08, otherwise return to step 502.
【0086】なお、被写界像の中から動作を認識する方
法(動作認識手段521と判定手段522によって行わ
れる)は、以下に示す(n)の手法が公知となってお
り、この実施の第5の形態では該手法を用いるものとす
る。As a method of recognizing a motion from the scene image (performed by the motion recognizing means 521 and the determining means 522), the following method (n) is publicly known. In the fifth embodiment, the method is used.
【0087】(n)特開平7−57103号に示される
ように、撮像された被写体の特定部位の輪郭を抽出し、
記憶されたパターンと比較し動作認識をするという手
法。(N) As shown in JP-A-7-57103, the outline of a specific part of the imaged subject is extracted,
A method of performing motion recognition by comparing it with a stored pattern.
【0088】ステップ508からステップ512まで
は、上記実施の第1の形態における図3のステップ8か
らステップ12までと同じであり、その説明は省略す
る。Steps 508 to 512 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0089】上記実施の第5の形態によれば、被写体の
動作を認識し、被写体が所定の動作を行った場合、特に
写真として面白い特徴的な動作を行ったときに被写体記
録動作を行うので、撮影者に負担をかけず、棒立ちに近
いつまらない動作の写真を撮ることがなくなり、傑作写
真が撮れる確率が高くなる効果がある。According to the fifth embodiment, the operation of the object is recognized, and the object recording operation is performed when the object performs a predetermined operation, especially when the object performs an interesting characteristic operation as a photograph. This eliminates the burden on the photographer and eliminates the need for taking a photo of a boring action close to a stick, which has the effect of increasing the probability of taking a masterpiece.
【0090】(実施の第6の形態)図12は本発明の実
施の第6の形態に係るカメラの主要部分の回路構成を示
すブロック図、図13は本発明の実施の第6の形態にお
ける主要部分の動作を示すフローチャートである。(Sixth Embodiment) FIG. 12 is a block diagram showing a circuit configuration of a main part of a camera according to a sixth embodiment of the present invention, and FIG. 13 shows a camera according to the sixth embodiment of the present invention. It is a flowchart which shows operation | movement of a main part.
【0091】なお、これらの図において、上記実施の第
1の形態と同じ部分はそのままの番号で示し、対応する
部分に関しては上記実施の第1の形態の数字に600を
加えた番号で示す。そして、ここでは上記実施の第1の
形態と異なる個所のみを説明する。In these figures, the same parts as those in the first embodiment are indicated by the same numbers, and the corresponding parts are indicated by numbers obtained by adding 600 to the numbers in the first embodiment. Here, only different points from the first embodiment will be described.
【0092】図12において、619は被写界像であ
り、619aは被写体である人物が無表情の状態を、6
19bは被写体である人物が笑っている喜びの状態を、
619cは被写体である人物が泣いている悲しみの状態
を、619dは被写体である人物の怒りの状態を、61
9eは被写体である人物の驚きの状態を、それぞれ示し
ている。620はカメラ全体を制御するCPUであり、
その中に被写界像検出手段8からの画像情報を基に被写
体の表情を認識する表情認識手段621や、該表情認識
手段621からの情報により、表情が特定の状態(例え
ば、喜び、悲しみの状態)になっているかを判定する判
定手段622、更には該判定手段622の判定結果に応
じて被写体記録動作を行う制御手段623を有する。In FIG. 12, reference numeral 619 denotes an object scene image, and 619a denotes a state in which a person who is a subject has no expression.
19b shows the state of joy that the subject person is smiling,
619c shows the state of sadness in which the subject person is crying, 619d shows the state of anger of the subject person, 61
Numeral 9e indicates the state of surprise of the person who is the subject. A CPU 620 controls the entire camera.
The facial expression recognition means 621 for recognizing the facial expression of the subject based on the image information from the object scene image detecting means 8 and the information from the facial expression recognition means 621 cause the facial expression to be in a specific state (for example, joy, sadness, etc.). ), And control means 623 for performing a subject recording operation in accordance with the determination result of the determination means 622.
【0093】次に、上記構成におけるカメラの主要部分
の動作について、図13のフローチャートにしたがって
説明する。Next, the operation of the main part of the camera having the above configuration will be described with reference to the flowchart of FIG.
【0094】ステップ601からステップ606まで
は、上記実施の第1の形態における図3のステップ1か
らステップ6とまでと同じであり、その説明は省略す
る。Steps 601 to 606 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0095】ステップ607においては、表情認識手段
621が、取込まれた被写界像から人の表情を認識し、
判定手段622により、認識された人の表情が特定の状
態(例えば、喜びの状態)になっているかを判別する。
619bのように被写界像の被写体である人物の表情が
喜びの状態になっているのであればステップ608へ進
む。そうでなければステップ609へ進む。In step 607, the facial expression recognizing means 621 recognizes a human facial expression from the captured scene image,
The determining unit 622 determines whether the recognized expression of the person is in a specific state (for example, a state of joy).
If the expression of the person who is the subject of the scene image is in a joy state as in 619b, the process proceeds to step 608. Otherwise, go to step 609.
【0096】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段621と判定手段622によっ
て行われる)は、上記実施の第3の形態と同じ公知の手
法のように行われる。The method of recognizing the facial expression of a person from the scene image (performed by the facial expression recognizing means 621 and the determining means 622) is performed in the same manner as in the third embodiment described above. Will be
【0097】ステップ608においては、上記ステップ
603にて決定された露出制御値に対し、撮影画面が明
るくなるように(明るい雰囲気を出すように)プラスの
露出補正をする。そして、次のステップ609におい
て、表情認識手段621が、取込まれた被写界像から人
の表情を認識し、判定手段622により、認識された人
の表情が特定の状態(例えば、悲しみの状態)になって
いるかを判定する。図12の619cのように、被写界
像の被写体である人物の表情が悲しみの状態になってい
るのであればステップ610へ進み、そうでなければス
テップ602へ戻る。In step 608, a positive exposure correction is performed on the exposure control value determined in step 603 so that the photographing screen becomes brighter (so as to provide a bright atmosphere). Then, in the next step 609, the facial expression recognition means 621 recognizes the facial expression of the person from the captured scene image, and the determining means 622 determines that the recognized facial expression of the person is in a specific state (for example, sadness). State). If the expression of the person who is the subject of the scene image is in a sad state, as shown at 619c in FIG. 12, the process proceeds to step 610; otherwise, the process returns to step 602.
【0098】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段621と判定手段622によっ
て行われる)は、上記ステップ607での説明と同じ
く、前述した実施の第3の形態と同じ公知の手法により
行うものとする。The method of recognizing the facial expression of a person from the scene image (performed by the facial expression recognizing means 621 and the determining means 622) is the same as that described in the step 607, in the third embodiment. It shall be performed by the same known method as that of the embodiment.
【0099】ステップ610においては、上記ステップ
603にて決定された露出制御値に対し、撮影画面が暗
くなるように(暗い雰囲気を出すように)マイナスの露
出補正をする。In step 610, a negative exposure correction is performed on the exposure control value determined in step 603 so that the photographing screen becomes dark (so as to give a dark atmosphere).
【0100】ステップ611からステップ615まで
は、上記実施の第1の形態における図3のステップ8か
らステップ12とまでと同じであり、その説明は省略す
る。Steps 611 to 615 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0101】上記実施の第6の形態によれば、被写体の
顔の表情を認識し、顔が所定の表情になった場合、特に
喜び、悲しみといった写真の雰囲気として明るい・暗い
がはっきりした特徴的な表情になったときに雰囲気に合
わせて被写体記録画面の明るさを変化させるので、撮影
者に負担をかけず、表情により醸し出される雰囲気を盛
上げる効果がある。According to the sixth embodiment, the facial expression of the subject is recognized, and when the face has a predetermined facial expression, the ambience of the photograph such as joy and sadness is particularly distinctive between bright and dark. Since the brightness of the subject recording screen is changed in accordance with the atmosphere when the expression becomes unnatural, the effect of raising the atmosphere created by the expression without imposing a burden on the photographer.
【0102】(実施の第7の形態)図14は本発明の実
施の第7の形態に係るカメラの主要部分の回路構成を示
すブロック図、図15は本発明の実施の第7の形態にお
ける主要部分の動作を示すフローチャートである。(Seventh Embodiment) FIG. 14 is a block diagram showing a circuit configuration of a main part of a camera according to a seventh embodiment of the present invention. FIG. 15 is a block diagram showing a seventh embodiment of the present invention. It is a flowchart which shows operation | movement of a main part.
【0103】なお、これらの図において、上記実施の第
1の形態と同じ部分はそのままの番号で示し、対応する
部分に関しては上記実施の第1の形態の数字に700を
加えた番号で示す。そして、ここでは上記実施の第1の
形態と異なる個所のみを説明する。In these figures, the same parts as those in the first embodiment are indicated by the same numbers, and corresponding parts are indicated by numbers obtained by adding 700 to the numbers in the first embodiment. Here, only different points from the first embodiment will be described.
【0104】図14において、719は被写界像であ
り、719aは被写体である人物が無表情の状態を、7
19bは被写体である人物が笑っている喜びの状態を、
719cは被写体である人物が泣いている悲しみの状態
を、719dは被写体である人物の怒りの状態を、71
9e は被写体である人物の驚きの状態を、それぞれ示し
ている。720はカメラ全体を制御するCPUであり、
その中に被写界像検出手段8からの画像情報を基に被写
体の表情を認識する表情認識手段721や、表情認識手
段721からの情報により、表情が特定の状態(例え
ば、喜び、悲しみ、怒りの状態)になっているかを判定
する判定手段722、更には判定手段722の判定結果
に応じて被写体記録動作とテキスト・キャラクタの記録
動作を行う制御手段723を有する。27はテキスト・
キャラクタ発生手段で日付やキャプションをフィルム背
面より写し込ませるための公知のデートモジュールに相
当する。729は撮影された被写体記録画像である。In FIG. 14, reference numeral 719 denotes a scene image, and reference numeral 719a denotes a state in which a person who is a subject has no expression.
19b shows the state of joy that the subject person is smiling,
Reference numeral 719c denotes a state of sadness in which the subject person is crying, and reference numeral 719d denotes a state of anger of the subject person.
Numeral 9e indicates the state of surprise of the person who is the subject. 720 is a CPU for controlling the entire camera,
The facial expression recognition means 721 for recognizing the facial expression of the subject based on the image information from the scene image detection means 8 and the information from the facial expression recognition means 721 indicate that the facial expression is in a specific state (for example, joy, sadness, An angry state) is provided, and a control unit 723 that performs a subject recording operation and a text character recording operation according to the determination result of the determination unit 722 is provided. 27 is text
This corresponds to a known date module for imprinting a date and a caption from the back of the film by the character generating means. Reference numeral 729 denotes a captured subject recorded image.
【0105】次に、上記構成におけるカメラの主要部分
の動作について、図15のフローチャートにしたがって
説明する。Next, the operation of the main part of the camera having the above configuration will be described with reference to the flowchart of FIG.
【0106】ステップ701からステップ706まで
は、上記実施の第1の形態における図3のステップ1か
らステップ6とまでと同じであり、その説明は省略す
る。Steps 701 to 706 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0107】ステップ707においては、表情認識手段
721が、取込まれた被写界像から人の表情を認識し、
判定手段722により、認識された人の表情が特定の状
態(例えば、喜びの状態)になっているかを判定する。
図14の719bのように、被写界像の被写体である人
物の表情が喜びの状態になっているのであればステップ
708へ進み、そうでなければステップ709へ進む。In step 707, the facial expression recognizing means 721 recognizes the facial expression of a person from the captured scene image,
The determining unit 722 determines whether the recognized facial expression of the person is in a specific state (for example, a state of joy).
If the expression of the person who is the subject of the scene image is in a state of delight as shown at 719b in FIG. 14, the process proceeds to step 708; otherwise, the process proceeds to step 709.
【0108】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段721と判定手段722によっ
て行われる)は、上記実施の第3の形態と同じ公知の手
法により行うものとする。The method of recognizing the facial expression of a person from the scene image (performed by the facial expression recognition means 721 and the determination means 722) is the same as that performed by the same known method as in the third embodiment. I do.
【0109】ステップ708においては、テキスト・キ
ャラクタ発生手段である日付やキャプションをフィルム
背面より写し込ませるための公知のデートモジュール2
7を駆動し、図14の729bに示す「♪HAPPY
♪」のような明るいイメージのテキストやキャラクタを
フィルム18に写し込む。In step 708, a known date module 2 for imprinting a date and a caption, which are text / character generating means, from the back of the film.
7 is driven, and “♪ HAPPY” shown in 729b of FIG.
A text or character having a bright image such as “♪” is transferred to the film 18.
【0110】ステップ709においては、表情認識手段
721が、取込まれた被写界像から人の表情を認識し、
判定手段722により、認識された人の表情が特定の状
態(例えば、悲しみの状態)になっているかを判定す
る。図14の719cのように、被写界像の被写体であ
る人物の表情が悲しみの状態になっているのであればス
テップ710へ進み、そうでなければステップ711へ
進む。In step 709, the facial expression recognizing means 721 recognizes the human facial expression from the captured scene image,
The determination unit 722 determines whether the recognized facial expression of the person is in a specific state (for example, a sad state). If the expression of the person who is the subject of the scene image is in a sad state as in 719c in FIG. 14, the process proceeds to step 710; otherwise, the process proceeds to step 711.
【0111】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段721と判定手段722によっ
て行われる)は、上記ステップ707での説明と同じ
く、実施の第3の形態と同じ公知の手法のように行われ
る。The method of recognizing the facial expression of a person from the scene image (performed by the facial expression recognizing means 721 and the determining means 722) is the same as that of the third embodiment described in the step 707. It is performed in the same known manner.
【0112】ステップ710においては、テキスト・キ
ャラクタ発生手段である日付やキャプションをフィルム
背面より写し込ませるための公知のデートモジュール2
7を駆動し、図14の729cに示す「★泣かないで
★」のような慰めのテキストや、「…寂しいな…」「悲
しいよー」といった悲しげなイメージのテキストやキャ
ラクタをフィルム18に写し込む。In step 710, a known date module 2 for imprinting a date and a caption as text / character generating means from the back of the film.
7 is copied to the film 18 with text of comfort such as “★ Do not cry ★” shown in 729 c of FIG. 14 or text or characters of sad images such as “… lonely…” “sad yo”. Put in.
【0113】ステップ711においては、表情認識手段
721が、取込まれた被写界像から人の表情を認識し、
判定手段722により、認識された人の表情が特定の状
態(例えば、怒りの状態)になっているかを判定する。
図14の719dのように、被写界像の被写体である人
物の表情が怒りの状態になっているのであればステップ
712へ進み、そうでなければステップ702へ戻る。In step 711, the facial expression recognizing means 721 recognizes the facial expression of a person from the captured scene image,
The determining unit 722 determines whether the recognized facial expression of the person is in a specific state (for example, an angry state).
If the expression of the person who is the subject of the object scene image is in an angry state as in 719d in FIG. 14, the process proceeds to step 712; otherwise, the process returns to step 702.
【0114】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段721と判定手段722によっ
て行われる)は、上記ステップ707での説明と同じ
く、実施の第3の形態と同じ公知の手法により行うもの
とする。The method of recognizing a person's facial expression from the scene image (performed by the facial expression recognizing means 721 and the determining means 722) is the same as that of the third embodiment described in the step 707. It shall be performed by the same known technique.
【0115】ステップ712においては、テキスト・キ
ャラクタ発生手段である日付やキャプションをフィルム
背面より写し込ませるための公知のデートモジュール2
7を駆動し、「そんなに怒らないで」のような宥めるテ
キストや、図14の729dに示す「▲怒ったぞ!▲」
といった怒りをイメージするテキストやキャラクタをフ
ィルム18に写し込む。In step 712, a known date module 2 for imprinting a date and a caption as text / character generating means from the back of the film.
Driving 7 and relaxing text such as "Don't get angry" or "▲ Angry! ▲" shown in 729d in FIG.
Is printed on the film 18.
【0116】ステップ713からステップ717まで
は、上記実施の第1の形態における図3のステップ8か
らステップ12とまでと同じであり、その説明は省略す
る。Steps 713 to 717 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0117】上記実施の第7の形態によれば、被写体の
顔の表情を認識し、顔が所定の表情になった場合、特に
喜び、悲しみ、怒りといった写真の雰囲気がはっきりと
した特徴を持った表情になったときに雰囲気に合わせた
テキストやキャラクタを被写体と共に記録するので、撮
影者に負担をかけず、表情により醸し出される雰囲気を
盛上げる効果がある。According to the seventh embodiment, the facial expression of a subject is recognized, and when the face has a predetermined facial expression, the atmosphere of the photograph, such as joy, sadness, and anger, is particularly distinctive. Since the text and the character according to the mood are recorded together with the subject when the expression is obtained, the photographer has no effect on the photographer, and there is an effect of raising the mood created by the expression.
【0118】(実施の第8の形態)図16は本発明の実
施の第8の形態に係るカメラの主要部分の回路構成を示
すブロック図、図17は本発明の実施の第8の形態にお
ける主要部分の動作を示すフローチャートである。(Eighth Embodiment) FIG. 16 is a block diagram showing a circuit configuration of a main part of a camera according to an eighth embodiment of the present invention, and FIG. 17 is a block diagram showing an eighth embodiment of the present invention. It is a flowchart which shows operation | movement of a main part.
【0119】なお、これらの図において、上記実施の第
1の形態と同じ部分はそのままの番号で示し、対応する
部分に関しては上記実施の第1の形態の数字に800を
加えた番号で示す。そして、ここでは上記実施の第1の
形態と異なる個所のみを説明する。In these figures, the same parts as those in the first embodiment are indicated by the same numbers, and corresponding parts are indicated by numbers obtained by adding 800 to the numbers in the first embodiment. Here, only different points from the first embodiment will be described.
【0120】図16において、819は被写界像であ
り、819aは被写体である人物が無表情の状態を、8
19bは被写体である人物が笑っている喜びの状態を、
819cは被写体である人物が泣いている悲しみの状態
を、819dは被写体である人物の怒りの状態を、81
9e は被写体である人物の驚きの状態を、それぞれ示し
ている。820はカメラ全体を制御するCPUであり、
その中に被写界像検出手段8からの画像情報を基に被写
体の表情を認識する表情認識手段821や、該表情認識
手段821からの情報により、表情が特定の状態(例え
ば、喜び、悲しみ、怒りの状態)になっているかを判定
する判定手段822、更には該判定手段822の判定結
果に応じて被写体記録動作と画面色の記録動作を行う制
御手段823を有する。28は画面色変化手段であり、
効果フィルタが不図示のアクチュエータと不図示の進退
機構により撮影レンズの光束内への進入及び光束外への
退避が可能に設けられ、それぞれ黄・青・赤等の異なる
色をベースとし、被写体の雰囲気に合った効果を出せる
フィルタが選択可能になっている。829は撮影された
被写体記録画像である。In FIG. 16, reference numeral 819 denotes an object scene image, and 819a denotes a state in which a person who is a subject has no expression.
19b shows the state of joy that the subject person is smiling,
819c indicates the state of sadness in which the subject person is crying, and 819d indicates the state of anger of the subject person.
Numeral 9e indicates the state of surprise of the person who is the subject. A CPU 820 controls the entire camera.
The expression recognition means 821 for recognizing the expression of the subject based on the image information from the scene image detection means 8 and the information from the expression recognition means 821 indicate that the expression is in a specific state (for example, joy, sadness, etc.). Anger state), and control means 823 for performing a subject recording operation and a screen color recording operation according to the determination result of the determination unit 822. 28 is a screen color changing means,
An effect filter is provided by an actuator (not shown) and an advancing / retracting mechanism (not shown) so that the taking lens can enter into the light beam and retreat outside the light beam. A filter that can produce an effect that matches the atmosphere can be selected. Reference numeral 829 denotes a captured subject recorded image.
【0121】次に、上記構成におけるカメラの主要部分
の動作について、図17のフローチャートにしたがって
説明する。Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
【0122】ステップ801からステップ806まで
は、上記実施の第1の形態における図3のステップ1か
らステップ6とまでと同じであり、その説明は省略す
る。Steps 801 to 806 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
【0123】ステップ807においては、表情認識手段
821が、取込まれた被写界像から人の表情を認識し、
判定手段822により、認識された人の表情が特定の状
態(例えば、喜びの状態)になっているかを判定する。
図16の819bのように、被写界像の被写体である人
物の表情が喜びの状態になっているのであればステップ
808へ進み、そうでなければステップ809へ進む。In step 807, the facial expression recognizing means 821 recognizes a human facial expression from the captured scene image,
The determining unit 822 determines whether the recognized facial expression is in a specific state (for example, a state of joy).
As in 819b of FIG. 16, if the expression of the person who is the subject in the scene image is in a state of joy, the process proceeds to step 808; otherwise, the process proceeds to step 809.
【0124】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段821と判定手段822によっ
て行われる)は、上記実施の第3の形態と同じ公知の手
法により行うものとする。The method of recognizing the facial expression of a person from the scene image (performed by the facial expression recognition means 821 and the determination means 822) is the same as that performed by the same known method as in the third embodiment. I do.
【0125】ステップ808においては、画面色変化手
段28の黄色をベースとした効果フィルタを撮影レンズ
の光束内へ進入させ、図16の829bに示すような太
陽が燦燦と降り注ぐような明るいイメージの画面色をフ
ィルム18に写し込む。In step 808, the yellow-based effect filter of the screen color changing means 28 enters the luminous flux of the photographing lens, and a bright image screen such as the sun shines brightly as shown by 829b in FIG. The colors are transferred to the film 18.
【0126】ステップ809においては、表情認識手段
821が、取込まれた被写界像から人の表情を認識し、
判定手段822により、認識された人の表情が特定の状
態(例えば、悲しみの状態)になっているかを判定す
る。図16の819cのように、被写界像の被写体であ
る人物の表情が悲しみの状態になっているのであればス
テップ810へ進み、そうでなければステップ811へ
進む。In step 809, the facial expression recognizing means 821 recognizes the facial expression of the person from the captured scene image,
The determination unit 822 determines whether the recognized facial expression of the person is in a specific state (for example, a sad state). As in 819c in FIG. 16, if the expression of the person who is the subject of the scene image is in a sad state, the process proceeds to step 810; otherwise, the process proceeds to step 811.
【0127】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段821と判定手段822によっ
て行われる)は、上記ステップ807での説明と同じ
く、前述した実施の第3の形態と同じ公知の手法のよう
に行われる。The method of recognizing the facial expression of a person from the scene image (performed by the facial expression recognizing means 821 and the determining means 822) is the same as that described in the step 807, in the third embodiment. It is performed in the same manner as in the known method.
【0128】ステップ810においては、画面色変化手
段28の青色をベースとした効果フィルタを撮影レンズ
の光束内へ進入させ、図16の829cに示すような、
悲しげでブルーなイメージの画面色をフィルム18に写
し込む。In step 810, the blue-based effect filter of the screen color changing means 28 is made to enter the light beam of the taking lens, as shown in 829c of FIG.
The sad and blue screen color is transferred to the film 18.
【0129】ステップ811においては、表情認識手段
821が、取込まれた被写界像から人の表情を認識し、
判定手段822により、認識された人の表情が特定の状
態(例えば、怒りの状態)になっているかを判定する。
図16の819dのように、被写界像の被写体である人
物の表情が怒りの状態になっているのであればステップ
812へ進み、そうでなければステップ802へ戻る。In step 811, the facial expression recognizing means 821 recognizes the facial expression of a person from the captured scene image.
The determining unit 822 determines whether the recognized facial expression of the person is in a specific state (for example, an angry state).
If the expression of the person who is the subject of the object scene image is in an angry state as in 819d in FIG. 16, the process proceeds to step 812, and otherwise returns to step 802.
【0130】なお、被写界像の中から人物の表情を認識
する方法(表情認識手段821と判定手段822によっ
て行われる)は、上記ステップ807での説明と同じ
く、前述した実施の第3の形態と同じ公知の手法により
行うものとする。The method of recognizing the facial expression of the person from the scene image (performed by the facial expression recognizing means 821 and the determining means 822) is the same as that described in the step 807, in the third embodiment. It shall be performed by the same known method as that of the embodiment.
【0131】ステップ812においては、画面色変化手
段28の赤色をベースとした効果フィルタを撮影レンズ
の光束内へ進入させ、図16の829dに示すような、
激しく燃え盛る炎の如き怒りをイメージする画面色をフ
ィルム18に写し込む。In step 812, the effect filter based on the red color of the screen color changing means 28 is made to enter the luminous flux of the photographing lens, and as shown in 829d of FIG.
The color of the screen, which resembles an anger like a fiery burning flame, is transferred to the film 18.
【0132】ステップ813においては、上記ステップ
803にて決定された露出制御値に基づいて被写体記録
動作と画面色の記録動作を行う制御手段823は、絞り
17の開口径とフォーカルプレーンシャッタ16のシャ
ッタ秒時を制御し、フィルム18への露光を行う。そし
て、次のステップ814において、効果フィルタを撮影
レンズの光束外へ退避させた後、フィルムを1駒巻上
げ、次の撮影に備える。フィルムの巻上げ終了後はステ
ップ802へ戻る。In step 813, the control means 823 for performing the subject recording operation and the screen color recording operation based on the exposure control value determined in step 803 makes the aperture diameter of the aperture 17 and the shutter of the focal plane shutter 16. The time is controlled to expose the film 18. Then, in the next step 814, after retracting the effect filter out of the luminous flux of the photographing lens, the film is wound up by one frame to prepare for the next photographing. After the winding of the film is completed, the process returns to step 802.
【0133】ステップ815からステップ817まで
は、上記実施の第1の形態における図3のステップ10
からステップ12とまでと同じであり、その説明は省略
する。Steps 815 to 817 correspond to step 10 in FIG. 3 in the first embodiment.
To step 12 and the description is omitted.
【0134】なお、上記実施の第8の形態においては、
画面色を変化させたが、同様に表情に合った雰囲気を画
面に記録するため、画面を軟調効果にするソフトフォー
カスや、霧のかかったようにするフォギーに代表される
ような公知の光学フィルタで行われている特殊効果を出
すことや、画面に模様を付けたりしても良い。In the eighth embodiment,
A well-known optical filter, such as a soft focus for softening the screen or a foggy light for fog, in order to record the atmosphere that matches the expression on the screen, although the screen color has been changed. The special effects performed in the above may be provided, or a pattern may be added to the screen.
【0135】以上の実施の第8の形態によれば、被写体
の顔の表情を認識し、顔が所定の表情になった場合、特
に喜び、悲しみ、怒りといった写真の雰囲気がはっきり
とした特徴を持った表情になったときに雰囲気に合わせ
て変化させた画面色を被写体と共に記録するので、撮影
者に負担をかけず、表情により醸し出される雰囲気を盛
上げる効果がある。According to the eighth embodiment described above, the facial expression of the subject is recognized, and when the face has a predetermined facial expression, the feature that the atmosphere of the photograph such as joy, sadness, and anger is particularly clear is obtained. Since the screen color changed according to the atmosphere when the user has the facial expression is recorded together with the subject, there is an effect that the atmosphere created by the facial expression is raised without putting a burden on the photographer.
【0136】(変形例)上記実施の各形態において、フ
ィルム18の代わりにCCD(固体撮像素子)を設け、
撮像素子駆動回路やディジタル画像処理回路、更には画
像記憶手段等の公知の所謂ディジタルカメラの構成要素
を設けることにより、銀塩カメラだけでなく、電子スチ
ルカメラにも適応できる。例えば、上記実施の第6の形
態の、被写体記録画面の明るさを変化させる手段とし
て、絞りとシャッタにより露出を変化させる方法以外
に、フィルムに代わるCCD(固体撮像素子)のゲイン
を変化させる方法もある。(Modification) In each of the above embodiments, a CCD (solid-state image sensor) is provided instead of the film 18,
By providing known digital camera components such as an image sensor driving circuit, a digital image processing circuit, and an image storage unit, the present invention can be applied not only to a silver halide camera but also to an electronic still camera. For example, as the means for changing the brightness of the subject recording screen according to the sixth embodiment, a method of changing the gain of a CCD (solid-state image sensor) instead of a film, in addition to the method of changing the exposure with an aperture and a shutter. There is also.
【0137】また、上記実施の第7の形態の、テキスト
・キャラクタ発生手段として、テキスト・キャラクタの
ROMを有し、ディジタル画像処理の間に、公知の画像
合成によりROM から読み出したテキストやキャラクタを
被写体に重ね合わせて記録動作を行うことが考えられ
る。The text character generating means of the seventh embodiment has a text character ROM, and can read text and characters read from the ROM by known image synthesis during digital image processing. It is conceivable that the recording operation is performed while overlapping the subject.
【0138】同様に、上記実施の第8の形態の、画面色
変化手段として、ディジタル画像処理の間に、公知の色
調整により画面色を変化させて被写体と共に記録するこ
とが考えられる。更には、公知の画像合成により特殊効
果を出したり、模様を付けたりすることも可能である。Similarly, as the screen color changing means of the eighth embodiment, it is conceivable to change the screen color by a known color adjustment during digital image processing and record the image together with the subject. Furthermore, it is also possible to give a special effect or to add a pattern by a known image synthesis.
【0139】[0139]
【発明の効果】以上説明したように、請求項1に記載の
発明によれば、被写体の顔の向きを認識し、顔が所定の
方向を向いた場合に、被写体記録動作を行うことができ
るカメラを提供できるものである。As described above, according to the first aspect of the present invention, the orientation of the face of the subject can be recognized, and the subject recording operation can be performed when the face is oriented in a predetermined direction. A camera can be provided.
【0140】また、請求項2に記載の発明によれば、被
写体の目の状態を認識し、目が所定の状態になった場合
に、被写体記録動作を行うことができるカメラを提供で
きるものである。According to the second aspect of the present invention, it is possible to provide a camera capable of recognizing a state of an eye of a subject and performing a subject recording operation when the eye enters a predetermined state. is there.
【0141】また、請求項3に記載の発明によれば、被
写体の顔の表情を認識し、顔が所定の表情になった場合
に、被写体記録動作を行うことができるカメラを提供で
きるものである。According to the third aspect of the present invention, it is possible to provide a camera capable of recognizing a facial expression of a subject and performing a subject recording operation when the face has a predetermined facial expression. is there.
【0142】また、請求項4に記載の発明によれば、被
写体の姿勢を認識し、被写体が所定の姿勢になった場合
に、被写体記録動作を行うことができるカメラを提供で
きるものである。According to the fourth aspect of the present invention, it is possible to provide a camera capable of recognizing a posture of a subject and performing a subject recording operation when the subject takes a predetermined posture.
【0143】また、請求項5に記載の発明によれば、被
写体の動作を認識し、被写体が所定の動作を行った場合
に、被写体記録動作を行うことができるカメラを提供で
きるものである。According to the fifth aspect of the present invention, it is possible to provide a camera capable of recognizing a motion of a subject and performing a subject recording operation when the subject performs a predetermined operation.
【0144】また、請求項6に記載の発明によれば、被
写体の顔の表情を認識し、顔が所定の表情になった場合
に、被写体記録画面の明るさを変化させることができる
カメラを提供できるものである。According to the sixth aspect of the present invention, there is provided a camera capable of recognizing a facial expression of a subject and changing the brightness of a subject recording screen when the face has a predetermined facial expression. It can be provided.
【0145】また、請求項7に記載の発明によれば、被
写体の顔の表情を認識し、顔が所定の表情になった場合
に、表情に合ったテキストやキャラクタを写し込むこと
ができるカメラを提供できるものである。According to the seventh aspect of the present invention, a camera capable of recognizing a facial expression of a subject and, when the face has a predetermined facial expression, imprinting a text or a character matching the facial expression. Can be provided.
【0146】また、請求項8に記載の発明によれば、被
写体の顔の表情を認識し、顔が所定の表情になった場合
に、表情に合った色に画面を変化させることができるカ
メラを提供できるものである。According to the present invention, a camera capable of recognizing a facial expression of a subject and changing the screen to a color matching the facial expression when the facial expression has a predetermined facial expression. Can be provided.
【図1】本発明の実施の各形態に共通なカメラを示す中
央縦断面図である。FIG. 1 is a central vertical sectional view showing a camera common to each embodiment of the present invention.
【図2】本発明の実施の第1の形態におけるカメラの主
要部分の回路構成を示すブロック図である。FIG. 2 is a block diagram illustrating a circuit configuration of a main part of the camera according to the first embodiment of the present invention.
【図3】本発明の実施の第1の形態におけるカメラの主
要部分の動作を示すフローチャートである。FIG. 3 is a flowchart illustrating an operation of a main part of the camera according to the first embodiment of the present invention.
【図4】本発明の実施の第2の形態におけるカメラの主
要部分の回路構成を示すブロック図である。FIG. 4 is a block diagram illustrating a circuit configuration of a main part of a camera according to a second embodiment of the present invention.
【図5】本発明の実施の第2の形態におけるカメラの主
要部分の動作を示すフローチャートである。FIG. 5 is a flowchart illustrating an operation of a main part of a camera according to a second embodiment of the present invention.
【図6】本発明の実施の第3の形態におけるカメラの主
要部分の回路構成を示すブロック図である。FIG. 6 is a block diagram illustrating a circuit configuration of a main part of a camera according to a third embodiment of the present invention.
【図7】本発明の実施の第3の形態におけるカメラの主
要部分の動作を示すフローチャートである。FIG. 7 is a flowchart illustrating an operation of a main part of a camera according to a third embodiment of the present invention.
【図8】本発明の実施の第4の形態におけるカメラの主
要部分の回路構成を示すブロック図である。FIG. 8 is a block diagram showing a circuit configuration of a main part of a camera according to a fourth embodiment of the present invention.
【図9】本発明の実施の第4の形態におけるカメラの主
要部分の動作を示すフローチャートである。FIG. 9 is a flowchart illustrating an operation of a main part of a camera according to a fourth embodiment of the present invention.
【図10】本発明の実施の第5の形態におけるカメラの
主要部分の回路構成を示すブロック図である。FIG. 10 is a block diagram showing a circuit configuration of a main part of a camera according to a fifth embodiment of the present invention.
【図11】本発明の実施の第5の形態におけるカメラの
主要部分の動作を示すフローチャートである。FIG. 11 is a flowchart illustrating an operation of a main part of a camera according to a fifth embodiment of the present invention.
【図12】本発明の実施の第6の形態におけるカメラの
主要部分の回路構成を示すブロック図である。FIG. 12 is a block diagram showing a circuit configuration of a main part of a camera according to a sixth embodiment of the present invention.
【図13】本発明の実施の第6の形態におけるカメラの
主要部分の動作を示すフローチャートである。FIG. 13 is a flowchart illustrating an operation of a main part of a camera according to a sixth embodiment of the present invention.
【図14】本発明の実施の第7の形態におけるカメラの
主要部分の回路構成を示すブロック図である。FIG. 14 is a block diagram showing a circuit configuration of a main part of a camera according to a seventh embodiment of the present invention.
【図15】本発明の実施の第7の形態におけるカメラの
主要部分の動作を示すフローチャートである。FIG. 15 is a flowchart illustrating an operation of a main part of a camera according to a seventh embodiment of the present invention.
【図16】本発明の実施の第8の形態におけるカメラの
主要部分の回路構成を示すブロック図である。FIG. 16 is a block diagram showing a circuit configuration of a main part of a camera according to an eighth embodiment of the present invention.
【図17】本発明の実施の第8の形態におけるカメラの
主要部分の動作を示すフローチャートである。FIG. 17 is a flowchart showing an operation of a main part of a camera according to an eighth embodiment of the present invention.
8 CCDからなる被写
界像検出手段 20,220,320,420 CPU 21 顔認識手段 22,222,322,422 判定手段 23,223,323,423 被写体記録動作制御
手段 24 カメラ露光機能部 27 テキスト・キャラクタ発生手段
(デートモジュール) 28 画面色変化手段(効
果フィルタ) 221 目認識手段 321,621,721,821 表情認識手段 421 ポーズ認識手段 520,620,720,820 CPU 521 動作認識手段、 522,622,722,822 判定手段 523,623 被写体記録動作制御
手段 723 被写体&テキスト・キャラク
タ記録動作制御手段 823 被写体&画面色記録動作制御
手段8 CCD image field detection means 20, 220, 320, 420 CPU 21 Face recognition means 22, 222, 322, 422 Judgment means 23, 223, 323, 423 Subject recording operation control means 24 Camera exposure function unit 27 Text Character generating means (date module) 28 screen color changing means (effect filter) 221 eye recognizing means 321, 621, 721, 821 facial expression recognizing means 421 pose recognizing means 520, 620, 720, 820 CPU 521 action recognizing means, 522 622, 722, 822 determination means 523, 623 subject recording operation control means 723 subject & text / character recording operation control means 823 subject & screen color recording operation control means
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2H020 MA07 MC62 MC77 MC79 MD00 5C022 AA11 AB03 AB28 AC02 AC42 AC52 AC54 AC55 AC69 AC73 CA00 5L096 BA18 CA02 FA06 FA59 FA62 FA67 FA81 HA02 HA04 HA08 KA04 9A001 HH21 KK42 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2H020 MA07 MC62 MC77 MC79 MD00 5C022 AA11 AB03 AB28 AC02 AC42 AC52 AC54 AC55 AC69 AC73 CA00 5L096 BA18 CA02 FA06 FA59 FA62 FA67 FA81 HA02 HA04 HA08 KA04 9A001 HH21 KK42
Claims (8)
出手段と、該被写界像検出手段からの画像情報を基に被
写体の顔を認識する顔認識手段と、該顔認識手段からの
情報により、顔が所定方向に向いているかを判定する判
定手段と、該判定手段の判定結果に応じて被写体記録動
作を行わせる制御手段とを有することを特徴とするカメ
ラ。1. An object image detecting means for detecting image information of an object scene, a face recognizing means for recognizing a face of a subject based on image information from the object image detecting means, A camera comprising: a determination unit that determines whether a face is facing in a predetermined direction based on information from the unit; and a control unit that performs a subject recording operation according to a determination result of the determination unit.
出手段と、該被写界像検出手段からの画像情報を基に被
写体の目を認識する目認識手段と、該目認識手段からの
情報により、目が所定の状態になっているかを判定する
判定手段と、該判定手段の判定結果に応じて被写体記録
動作を行わせる制御手段とを有することを特徴とするカ
メラ。2. An object image detecting means for detecting image information of an object scene, an eye recognizing means for recognizing an eye of a subject based on image information from the object image detecting means, and an eye recognizing means. A camera comprising: determining means for determining whether an eye is in a predetermined state based on information from the means; and control means for performing a subject recording operation in accordance with a determination result of the determining means.
出手段と、該被写界像検出手段からの画像情報を基に被
写体の顔の表情を認識する表情認識手段と、該表情認識
手段からの情報により、所定の表情になっているかを判
定する判定手段と、該判定手段の判定結果に応じて被写
体記録動作を行わせる制御手段とを有することを特徴と
するカメラ。3. An object scene image detecting means for detecting image information of an object scene; an expression recognizing means for recognizing a facial expression of a subject based on image information from the object scene image detecting means; A camera comprising: a determination unit that determines whether a predetermined facial expression is obtained based on information from a facial expression recognition unit; and a control unit that performs a subject recording operation in accordance with a determination result of the determination unit.
出手段と、該被写界像検出手段からの画像情報を基に被
写体の姿勢を認識する姿勢認識手段と、該姿勢認識手段
からの情報により、所定の姿勢になっているかを判定す
る判定手段と、該判定手段の判定結果に応じて被写体記
録動作を行わせる制御手段とを有することを特徴とする
カメラ。4. An object scene image detecting means for detecting image information of an object scene, a posture recognizing means for recognizing a posture of a subject based on image information from the object scene image detecting means, and the posture recognizing means. A camera comprising: a determination unit that determines whether or not the camera is in a predetermined posture based on information from the unit; and a control unit that performs a subject recording operation according to a determination result of the determination unit.
出手段と、該被写界像検出手段からの画像情報を基に被
写体の動作を認識する動作認識手段と、該動作認識手段
からの情報により、所定の動作になっているかを判定す
る判定手段と、該判定手段の判定結果に応じて被写体記
録動作を行わせる制御手段とを有することを特徴とする
カメラ。5. An object scene image detecting means for detecting image information of an object scene, an operation recognizing means for recognizing an operation of a subject based on image information from the object scene image detecting means, and the operation recognizing means. A camera comprising: a determination unit that determines whether a predetermined operation is performed based on information from the unit; and a control unit that performs a subject recording operation in accordance with a determination result of the determination unit.
出手段と、該被写界像検出手段からの画像情報を基に被
写体の顔の表情を認識する表情認識手段と、該表情認識
手段からの情報により、所定の表情になっているかを判
定する判定手段と、該判定手段の判定結果に応じて被写
体記録画面の明るさを変化させる制御手段とを有するこ
とを特徴とするカメラ。6. An object scene image detecting means for detecting image information of an object scene, an expression recognizing means for recognizing a facial expression of a subject based on image information from the object scene image detecting means, The information processing apparatus includes: a determination unit configured to determine whether a predetermined facial expression is obtained based on information from the facial expression recognition unit; and a control unit configured to change brightness of a subject recording screen according to a determination result of the determination unit. camera.
出手段と、該被写界像検出手段からの画像情報を基に被
写体の顔の表情を認識する表情認識手段と、該表情認識
手段からの情報により、所定の表情になっているかを判
定する判定手段と、テキストやキャラクタを発生させる
テキスト・キャラクタ発生手段と、前記判定手段の判定
結果に応じてテキストやキャラクタを被写体と共に記録
する記録動作を行わせる制御手段とを有することを特徴
とするカメラ。7. An object scene image detecting means for detecting image information of an object scene, an expression recognizing means for recognizing a facial expression of a subject based on image information from the object scene image detecting means, Determining means for determining whether a given facial expression is obtained based on information from a facial expression recognizing means; text / character generating means for generating a text or a character; and text and a character together with a subject according to the determination result of the determining means. And a control unit for performing a recording operation for recording.
出手段と、該被写界像検出手段からの画像情報を基に被
写体の顔の表情を認識する表情認識手段と、該表情認識
手段からの情報により、所定の表情になっているかを判
定する判定手段と、記録画面の色を変化させる画面色変
化手段と、前記判定手段の判定結果に応じて変化させた
画面色を被写体と共に記録する記録動作を行わせる制御
手段とを有することを特徴とするカメラ。8. An object scene image detecting means for detecting image information of an object scene, an expression recognizing means for recognizing a facial expression of a subject based on image information from the object scene image detecting means, Based on information from the facial expression recognizing means, a determining means for determining whether or not a predetermined facial expression is obtained, a screen color changing means for changing a color of a recording screen, and a screen color changed according to the determination result of the determining means A camera for performing a recording operation for recording together with the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22807699A JP4227257B2 (en) | 1999-08-12 | 1999-08-12 | camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP22807699A JP4227257B2 (en) | 1999-08-12 | 1999-08-12 | camera |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2001051338A true JP2001051338A (en) | 2001-02-23 |
JP2001051338A5 JP2001051338A5 (en) | 2006-09-21 |
JP4227257B2 JP4227257B2 (en) | 2009-02-18 |
Family
ID=16870827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP22807699A Expired - Fee Related JP4227257B2 (en) | 1999-08-12 | 1999-08-12 | camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4227257B2 (en) |
Cited By (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002122934A (en) * | 2000-10-12 | 2002-04-26 | Olympus Optical Co Ltd | Camera |
JP2002288670A (en) * | 2001-03-22 | 2002-10-04 | Honda Motor Co Ltd | Personal authentication device using face image |
JP2003057530A (en) * | 2001-08-08 | 2003-02-26 | Olympus Optical Co Ltd | Focus detection unit and single lens reflex electronic camera |
JP2005056387A (en) * | 2003-07-18 | 2005-03-03 | Canon Inc | Image processor, imaging apparatus and image processing method |
JP2005108196A (en) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | Object identification device and method, and program |
JP2006094059A (en) * | 2004-09-22 | 2006-04-06 | Nikon Corp | Imaging apparatus and program |
US7090932B2 (en) * | 2003-07-29 | 2006-08-15 | Toshiba Ceramics Co., Ltd. | Plasma resistant member |
JP2006227236A (en) * | 2005-02-17 | 2006-08-31 | Seiko Epson Corp | Image recording apparatus, image recording method, and control program |
JP2006254358A (en) * | 2005-03-14 | 2006-09-21 | Omron Corp | Imaging apparatus and method of timer photographing |
JP2007006325A (en) * | 2005-06-27 | 2007-01-11 | Nikon Corp | Imaging apparatus |
JP2007067560A (en) * | 2005-08-29 | 2007-03-15 | Canon Inc | Imaging apparatus and its control method, computer program and recording medium |
JP2007074503A (en) * | 2005-09-08 | 2007-03-22 | Omron Corp | Dynamic image editing device |
JP2007174548A (en) * | 2005-12-26 | 2007-07-05 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2007184787A (en) * | 2006-01-06 | 2007-07-19 | Fujifilm Corp | Digital camera |
JP2007266793A (en) * | 2006-03-28 | 2007-10-11 | Casio Comput Co Ltd | Image processing device |
US7298412B2 (en) | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
JP2008011457A (en) * | 2006-06-30 | 2008-01-17 | Olympus Imaging Corp | Camera |
EP1921498A2 (en) | 2006-10-31 | 2008-05-14 | Sony Corporation | Image storage device, imaging device, image storage method and program |
JP2008160280A (en) * | 2006-12-21 | 2008-07-10 | Sanyo Electric Co Ltd | Imaging apparatus and automatic imaging method |
JP2008205838A (en) * | 2007-02-20 | 2008-09-04 | Canon Inc | Imaging apparatus and control method thereof |
JP2008263422A (en) * | 2007-04-12 | 2008-10-30 | Yasumasa Muto | Imaging apparatus and imaging method |
JP2008311920A (en) * | 2007-06-14 | 2008-12-25 | Fujifilm Corp | Imaging device |
EP2015568A2 (en) | 2007-06-14 | 2009-01-14 | FUJIFILM Corporation | Photographing apparatus |
JP2009071471A (en) * | 2007-09-12 | 2009-04-02 | Sony Corp | Imaging device and method |
JP2009081785A (en) * | 2007-09-27 | 2009-04-16 | Casio Comput Co Ltd | Imaging apparatus, image generation method, and program |
JP2009153219A (en) * | 2009-04-06 | 2009-07-09 | Nikon Corp | Electronic camera |
JP2009223527A (en) * | 2008-03-14 | 2009-10-01 | Seiko Epson Corp | Image processor, image processing method, and computer program for image processing |
US7676150B2 (en) | 2005-07-11 | 2010-03-09 | Fujifilm Corporation | Image pickup apparatus, image pickup method and image pickup program |
JP2010063085A (en) * | 2008-08-07 | 2010-03-18 | Canon Inc | Imaging device, photographing method, and program |
JP2010117489A (en) * | 2008-11-12 | 2010-05-27 | Canon Inc | Imaging apparatus |
JP2010176224A (en) * | 2009-01-27 | 2010-08-12 | Nikon Corp | Image processor and digital camera |
KR100985693B1 (en) | 2007-09-10 | 2010-10-05 | 가시오게산키 가부시키가이샤 | Imaging apparatus for performing automatic photographing processing, imaging method and computer readable recording medium recording the program thereof |
JP2011018362A (en) * | 2003-07-18 | 2011-01-27 | Canon Inc | Image processing apparatus, imaging apparatus and image processing method |
JP2011504316A (en) * | 2007-11-13 | 2011-02-03 | オラワークス・インコーポレイテッド | Method and system for supporting so that composition of face can be determined during self-photographing |
US7920725B2 (en) | 2003-09-09 | 2011-04-05 | Fujifilm Corporation | Apparatus, method, and program for discriminating subjects |
WO2011052120A1 (en) * | 2009-11-02 | 2011-05-05 | パナソニック株式会社 | Imaging control device and imaging control method |
KR101044462B1 (en) | 2008-01-31 | 2011-06-27 | 가시오게산키 가부시키가이샤 | Imaging Device and Program Storage Medium |
CN101547307B (en) * | 2008-03-25 | 2011-07-06 | 奥林巴斯映像株式会社 | Image processing device and program |
US7986346B2 (en) | 2006-11-17 | 2011-07-26 | Canon Kabushiki Kaisha | Image capturing apparatus, control method therefor, program, and storage medium |
US7995106B2 (en) | 2007-03-05 | 2011-08-09 | Fujifilm Corporation | Imaging apparatus with human extraction and voice analysis and control method thereof |
CN101561872B (en) * | 2008-04-16 | 2012-06-27 | 奥林巴斯映像株式会社 | Image processing apparatus |
JP2012165407A (en) * | 2007-12-28 | 2012-08-30 | Casio Comput Co Ltd | Imaging apparatus and program |
US8379984B2 (en) | 2007-10-12 | 2013-02-19 | Samsung Electronics Co., Ltd. | Method of controlling digital image processing apparatus for face detection, and digital image processing apparatus employing the method |
US8421901B2 (en) | 2009-01-23 | 2013-04-16 | Nikon Corporation | Display apparatus and imaging apparatus |
US8488847B2 (en) | 2005-11-25 | 2013-07-16 | Nikon Corporation | Electronic camera and image processing device |
US8515136B2 (en) | 2003-07-18 | 2013-08-20 | Canon Kabushiki Kaisha | Image processing device, image device, image processing method |
JP2013197753A (en) * | 2012-03-16 | 2013-09-30 | Casio Comput Co Ltd | Imaging apparatus and program |
US8723976B2 (en) | 2007-12-28 | 2014-05-13 | Casio Computer Co., Ltd. | Imaging device and storage medium |
US8787629B2 (en) | 2011-04-21 | 2014-07-22 | Canon Kabushiki Kaisha | Image processing based on line-of-sight of a person |
CN109218618A (en) * | 2018-10-12 | 2019-01-15 | 上海思依暄机器人科技股份有限公司 | Video image grasp shoot method and video image capture robot |
US20210297587A1 (en) * | 2020-03-18 | 2021-09-23 | Canon Kabushiki Kaisha | Image pickup apparatus and its control method |
US11490007B2 (en) | 2019-09-30 | 2022-11-01 | Canon Kabushiki Kaisha | Image capturing apparatus, control method therefor, and storage medium |
US11812132B2 (en) | 2020-10-27 | 2023-11-07 | Canon Kabushiki Kaisha | Imaging device, control method therefor, and recording medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7697234B2 (en) | 2021-03-17 | 2025-06-24 | 株式会社リコー | IMAGE PROCESSING METHOD, IMAGE PICKUP CONTROL METHOD, PROGRAM, IMAGE PROCESSING DEVICE, AND IMAGE PICKUP DEVICE |
-
1999
- 1999-08-12 JP JP22807699A patent/JP4227257B2/en not_active Expired - Fee Related
Cited By (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002122934A (en) * | 2000-10-12 | 2002-04-26 | Olympus Optical Co Ltd | Camera |
JP2002288670A (en) * | 2001-03-22 | 2002-10-04 | Honda Motor Co Ltd | Personal authentication device using face image |
JP2003057530A (en) * | 2001-08-08 | 2003-02-26 | Olympus Optical Co Ltd | Focus detection unit and single lens reflex electronic camera |
US8421899B2 (en) | 2001-09-18 | 2013-04-16 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
US7978261B2 (en) | 2001-09-18 | 2011-07-12 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
US7787025B2 (en) | 2001-09-18 | 2010-08-31 | Ricoh Company, Limited | Image pickup device that cuts out a face image from subject image data |
US7903163B2 (en) | 2001-09-18 | 2011-03-08 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
US7298412B2 (en) | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
US7920187B2 (en) | 2001-09-18 | 2011-04-05 | Ricoh Company, Limited | Image pickup device that identifies portions of a face |
US7973853B2 (en) | 2001-09-18 | 2011-07-05 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method calculating an exposure based on a detected face |
JP2011018362A (en) * | 2003-07-18 | 2011-01-27 | Canon Inc | Image processing apparatus, imaging apparatus and image processing method |
US8942436B2 (en) | 2003-07-18 | 2015-01-27 | Canon Kabushiki Kaisha | Image processing device, imaging device, image processing method |
US8515136B2 (en) | 2003-07-18 | 2013-08-20 | Canon Kabushiki Kaisha | Image processing device, image device, image processing method |
JP2005056387A (en) * | 2003-07-18 | 2005-03-03 | Canon Inc | Image processor, imaging apparatus and image processing method |
US7090932B2 (en) * | 2003-07-29 | 2006-08-15 | Toshiba Ceramics Co., Ltd. | Plasma resistant member |
US7920725B2 (en) | 2003-09-09 | 2011-04-05 | Fujifilm Corporation | Apparatus, method, and program for discriminating subjects |
JP2005108196A (en) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | Object identification device and method, and program |
US8184870B2 (en) | 2003-09-09 | 2012-05-22 | Fujifilm Corporation | Apparatus, method, and program for discriminating subjects |
JP2006094059A (en) * | 2004-09-22 | 2006-04-06 | Nikon Corp | Imaging apparatus and program |
JP2006227236A (en) * | 2005-02-17 | 2006-08-31 | Seiko Epson Corp | Image recording apparatus, image recording method, and control program |
JP2006254358A (en) * | 2005-03-14 | 2006-09-21 | Omron Corp | Imaging apparatus and method of timer photographing |
JP2007006325A (en) * | 2005-06-27 | 2007-01-11 | Nikon Corp | Imaging apparatus |
US7676150B2 (en) | 2005-07-11 | 2010-03-09 | Fujifilm Corporation | Image pickup apparatus, image pickup method and image pickup program |
JP2007067560A (en) * | 2005-08-29 | 2007-03-15 | Canon Inc | Imaging apparatus and its control method, computer program and recording medium |
JP2007074503A (en) * | 2005-09-08 | 2007-03-22 | Omron Corp | Dynamic image editing device |
US8488847B2 (en) | 2005-11-25 | 2013-07-16 | Nikon Corporation | Electronic camera and image processing device |
JP2007174548A (en) * | 2005-12-26 | 2007-07-05 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2007184787A (en) * | 2006-01-06 | 2007-07-19 | Fujifilm Corp | Digital camera |
JP2007266793A (en) * | 2006-03-28 | 2007-10-11 | Casio Comput Co Ltd | Image processing device |
JP2008011457A (en) * | 2006-06-30 | 2008-01-17 | Olympus Imaging Corp | Camera |
KR101354311B1 (en) | 2006-10-31 | 2014-01-24 | 소니 주식회사 | Image storage device, imaging device, image storage method, and recording medium |
US8254639B2 (en) | 2006-10-31 | 2012-08-28 | Sony Corporation | Image storage device, imaging device, image storage method, and program |
EP1921498A3 (en) * | 2006-10-31 | 2008-12-17 | Sony Corporation | Image storage device, imaging device, image storage method and program |
EP1921498A2 (en) | 2006-10-31 | 2008-05-14 | Sony Corporation | Image storage device, imaging device, image storage method and program |
US7986346B2 (en) | 2006-11-17 | 2011-07-26 | Canon Kabushiki Kaisha | Image capturing apparatus, control method therefor, program, and storage medium |
JP2008160280A (en) * | 2006-12-21 | 2008-07-10 | Sanyo Electric Co Ltd | Imaging apparatus and automatic imaging method |
JP2008205838A (en) * | 2007-02-20 | 2008-09-04 | Canon Inc | Imaging apparatus and control method thereof |
US7995106B2 (en) | 2007-03-05 | 2011-08-09 | Fujifilm Corporation | Imaging apparatus with human extraction and voice analysis and control method thereof |
JP2008263422A (en) * | 2007-04-12 | 2008-10-30 | Yasumasa Muto | Imaging apparatus and imaging method |
US9131138B2 (en) | 2007-06-14 | 2015-09-08 | Fujifilm Corporation | Photographing apparatus |
EP3462727A1 (en) | 2007-06-14 | 2019-04-03 | FUJIFILM Corporation | Photographing apparatus |
US9065998B2 (en) | 2007-06-14 | 2015-06-23 | Fujifilm Corporation | Photographing apparatus provided with an object detection function |
EP2015568A2 (en) | 2007-06-14 | 2009-01-14 | FUJIFILM Corporation | Photographing apparatus |
JP2008311920A (en) * | 2007-06-14 | 2008-12-25 | Fujifilm Corp | Imaging device |
KR100985693B1 (en) | 2007-09-10 | 2010-10-05 | 가시오게산키 가부시키가이샤 | Imaging apparatus for performing automatic photographing processing, imaging method and computer readable recording medium recording the program thereof |
JP2009071471A (en) * | 2007-09-12 | 2009-04-02 | Sony Corp | Imaging device and method |
JP2009081785A (en) * | 2007-09-27 | 2009-04-16 | Casio Comput Co Ltd | Imaging apparatus, image generation method, and program |
US8379984B2 (en) | 2007-10-12 | 2013-02-19 | Samsung Electronics Co., Ltd. | Method of controlling digital image processing apparatus for face detection, and digital image processing apparatus employing the method |
JP2011504316A (en) * | 2007-11-13 | 2011-02-03 | オラワークス・インコーポレイテッド | Method and system for supporting so that composition of face can be determined during self-photographing |
JP2012165407A (en) * | 2007-12-28 | 2012-08-30 | Casio Comput Co Ltd | Imaging apparatus and program |
US8723976B2 (en) | 2007-12-28 | 2014-05-13 | Casio Computer Co., Ltd. | Imaging device and storage medium |
KR101044462B1 (en) | 2008-01-31 | 2011-06-27 | 가시오게산키 가부시키가이샤 | Imaging Device and Program Storage Medium |
JP2009223527A (en) * | 2008-03-14 | 2009-10-01 | Seiko Epson Corp | Image processor, image processing method, and computer program for image processing |
CN101547307B (en) * | 2008-03-25 | 2011-07-06 | 奥林巴斯映像株式会社 | Image processing device and program |
CN101561872B (en) * | 2008-04-16 | 2012-06-27 | 奥林巴斯映像株式会社 | Image processing apparatus |
JP2010063085A (en) * | 2008-08-07 | 2010-03-18 | Canon Inc | Imaging device, photographing method, and program |
JP2010117489A (en) * | 2008-11-12 | 2010-05-27 | Canon Inc | Imaging apparatus |
US8421901B2 (en) | 2009-01-23 | 2013-04-16 | Nikon Corporation | Display apparatus and imaging apparatus |
JP2010176224A (en) * | 2009-01-27 | 2010-08-12 | Nikon Corp | Image processor and digital camera |
JP2009153219A (en) * | 2009-04-06 | 2009-07-09 | Nikon Corp | Electronic camera |
WO2011052120A1 (en) * | 2009-11-02 | 2011-05-05 | パナソニック株式会社 | Imaging control device and imaging control method |
US8787629B2 (en) | 2011-04-21 | 2014-07-22 | Canon Kabushiki Kaisha | Image processing based on line-of-sight of a person |
JP2013197753A (en) * | 2012-03-16 | 2013-09-30 | Casio Comput Co Ltd | Imaging apparatus and program |
CN109218618A (en) * | 2018-10-12 | 2019-01-15 | 上海思依暄机器人科技股份有限公司 | Video image grasp shoot method and video image capture robot |
US11490007B2 (en) | 2019-09-30 | 2022-11-01 | Canon Kabushiki Kaisha | Image capturing apparatus, control method therefor, and storage medium |
US20210297587A1 (en) * | 2020-03-18 | 2021-09-23 | Canon Kabushiki Kaisha | Image pickup apparatus and its control method |
US11662809B2 (en) * | 2020-03-18 | 2023-05-30 | Canon Kabushiki Kaisha | Image pickup apparatus configured to use line of sight for imaging control and control method thereof |
US11812132B2 (en) | 2020-10-27 | 2023-11-07 | Canon Kabushiki Kaisha | Imaging device, control method therefor, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP4227257B2 (en) | 2009-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4227257B2 (en) | camera | |
US9147106B2 (en) | Digital camera system | |
US8199208B2 (en) | Operation input apparatus, operation input method, and computer readable medium for determining a priority between detected images | |
US6134339A (en) | Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame | |
US8180106B2 (en) | Image capturing apparatus and image capturing method | |
KR100924685B1 (en) | Imaging apparatus and control method thereof | |
JP2001330882A (en) | Camera with subject recognizing function | |
JP2003344891A (en) | Automatic photographing mode setting camera | |
KR20100048600A (en) | Image photography apparatus and method for proposing composition based person | |
WO2012147560A1 (en) | Image capturing apparatus and image capturing method | |
CN103747183B (en) | Mobile phone shooting focusing method | |
JP2002010135A (en) | System and method of setting image acquisition controls for cameras | |
US8654209B2 (en) | Photography control method and apparatus for prohibiting use of flash | |
KR0137861B1 (en) | Circuit for confirming shooting dimension by laser beam | |
CN111698409A (en) | Indoor photographing light dimming method | |
CN100449398C (en) | Device incorporating eye-start capability | |
JP2008219449A (en) | Imaging apparatus and control method thereof | |
JP2003224761A (en) | Imaging apparatus | |
JP2004320285A (en) | Digital camera | |
JP2009117975A (en) | Image pickup apparatus and method | |
CN108093170B (en) | User photographing method, device and device | |
JP2010273280A (en) | Imaging apparatus | |
TW202318342A (en) | Image capturing system and method for adjusting focus | |
JP5109864B2 (en) | Electronic still camera | |
JP5298887B2 (en) | Digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060803 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081128 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131205 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |