[go: up one dir, main page]

JP3563895B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP3563895B2
JP3563895B2 JP28939796A JP28939796A JP3563895B2 JP 3563895 B2 JP3563895 B2 JP 3563895B2 JP 28939796 A JP28939796 A JP 28939796A JP 28939796 A JP28939796 A JP 28939796A JP 3563895 B2 JP3563895 B2 JP 3563895B2
Authority
JP
Japan
Prior art keywords
imaging
subject
sub
main
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28939796A
Other languages
Japanese (ja)
Other versions
JPH10136250A (en
Inventor
宏爾 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP28939796A priority Critical patent/JP3563895B2/en
Publication of JPH10136250A publication Critical patent/JPH10136250A/en
Application granted granted Critical
Publication of JP3563895B2 publication Critical patent/JP3563895B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Automatic Focus Adjustment (AREA)
  • Cameras In General (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置、更に詳細には、被写体を撮像する撮像手段の出力情報を分析して撮像を行なう撮像装置に関する。
【0002】
【従来の技術】
従来、スチルカメラやビデオカメラのような撮像装置は、撮像領域を設定する場合、一般には撮像装置に設けられた小さなファインダー窓を備えたモニターを介して被写体の撮像領域を設定していた。
【0003】
【発明が解決しようとする課題】
しかしこの種の撮像装置では、撮影者の視線がモニター等へ向き、被写体の方を向いていないので、被写体と視線を合わせる事ができない、という欠点がある。
【0004】
また、撮影時にカメラ部を顔の近くに持ち上げる必要があり、カメラ撮影という動作を、撮影者と被撮影者の双方に意識させるものであり、自然な表情や動作を捉えるのには、若干のコツが必要であった。
【0005】
一方、記録技術の進展により、画像情報の記録装置の小型化が著しいが、ファインダー部分の改良が伴なわず、相対的にファインダー部分だけが不釣り合いに大きくなり、操作性及びデザイン的に好ましくないという問題があった。
【0006】
従って、本発明は、このような問題点を解決するもので、撮影操作の負担を軽減し、簡単な構成で被写体の撮影を可能にする撮像装置を提供することを課題とする。
【0007】
【課題を解決するための手段】
本発明の撮像装置は、被写体に対し指標光線を投光可能な投光手段と、指標光線を投光された被写体を記録媒体に記録する主撮像系と、指標光線を投光された被写体を撮像する撮像手段を備えた副撮像系と、前記撮像手段の出力情報を分析する画像認識手段と、前記画像認識手段により判別された被写体情報に基づき副撮像系を制御する撮像制御手段とを備え、前記副撮像系に連動して制御される主撮像系を介して被写体を記録媒体に記録することを特徴とする。この場合、被写体が記録領域で占める割合が所定値になるように主及び副撮像系が制御される。
【0008】
更に、本発明では、被写体の撮像比率を設定する撮像モード設定手段が設けられ、画像認識手段により判別された被写体情報と設定された撮像モードに基づき副撮像系が制御され、その副撮像系に連動して制御される主撮像系を介して被写体が記録媒体に記録される。この場合、画像認識手段により判別された被写体の記録領域に占める割合が撮像モード設定手段で設定された撮像比率となるように主及び副撮像系が制御される。
【0009】
上記発明の具体例においては、主及び副撮像系の光軸の延長線とほぼ平行な視標光線を投光可能な投光手段が設けられ、この指標光線(ポインター)が、所望の被写体に投光され、この指標光線が被写体のほぼ中央に位置するように撮像装置の向きが調節される。この状態において副撮像系に設けられた撮像手段からは、所望の被写体をほぼ中央にした画像信号が得られる。この画像信号が画像認識手段により分析されて、被写体の境界線が検出され、被写体領域が認識される。この認識された被写体領域と撮像領域の比率が撮影者が撮像モード設定手段にて設定した比率に一致するように副撮像系の撮像画角が制御される。撮像画角は、主に光学的なズーム手段で調節されるが、必要に応じて電子的なズーム手段も用いられる。主撮像系と副撮像系は連動するようになっており、撮像画角が所望の状態に設定されると、副撮像系に連動して制御される主撮像系を介して被写体が記録媒体に記録される。
【0010】
本発明の撮像装置は、種々の実施形態に適用され、例えば視線検知手段との兼用が可能である。即ち、視標光線を投光された被写体を副撮像系に導く部分に着脱可能な挿入部材が設けられ、この挿入部材を外した場合には、挿入部材の箇所に置かれる撮影者の視線が副撮像系により検知可能である。
【0011】
また、ストロボ補助発光手段との兼用も可能であり、ストロボ発光手段をプリ発光することにより画像認識手段による画像認識処理が行なわれ、記録媒体への記録時には、ストロボ発光手段が本発光される。
【0012】
更に測距用の赤外線発光手段との兼用も可能である。例えば、赤外線発光手段から発生された赤外線が前記投光手段を介して視標光線とともに被写体に投光され、被写体からの赤外線を受光することにより被写体までの測距が行なわれる。
【0013】
【発明の実施の形態】
以下、図面に示す実施の形態に基づいて本発明を詳細に説明する。
【0014】
[全体構成]
図1には、本発明の1実施形態による撮像装置の基本構成がブロック図として図示されている。撮像装置は、主撮像手段11、副撮像手段12、ポインティング手段13、画像解析手段14、システム制御手段15及び撮像領域設定手段16を有している。
【0015】
手動操作により電源オン又は撮像スタンバイの指示をシステム制御手段15に与えると、ポインティング手段13は、システム制御手段15からその指示を受け、主撮像手段11及び副撮像手段12の光学系の光軸にほぼ平行な可視光線を投光する。副撮像手段12は、この被写体像を光電変換し撮像信号として出力する。画像解析手段14は、副撮像手段12からの出力に対して画像認識処理を行ない被写体像の領域検知を行なう。撮像領域設定手段16は、画像解析により得られた被写体領域情報及びシステム制御手段15からの被写体撮像比率情報と合わせて、撮像領域(及び記録領域)を決定し、主及び副撮像手段11、12の撮像画角を制御する。このような処理により画角調節された後、システム制御手段15からの撮像指示に応じて、主撮像手段11の撮像記録動作が実行される。
【0016】
図2〜図4を参照して各部の詳細な構成を説明する。
【0017】
[投光用光学系]
ポインティング手段13は、投光用光学系20と指標発生器21から構成され、撮影者がスイッチSW1をオンすると、これを操作キースイッチ検出手段30が検出し、指標発生器22に発光指示を出力する。
【0018】
指標発生器21には、図3に図示されているように、レーザードライバー21bにより駆動される半導体レーザー等の発光部材21aが設けられており、システム制御回路31から撮像スタンバイの指示を受けて制御信号が発生されると、これに応じて指標発生器21内のレーザードライバー21bにより半導体レーザー21aが駆動され、指標となる可視光線が発生される。この可視光線は、投光用光学系20により主撮像手段11の主撮像光学系40、及び副撮像手段12の副撮像光学系50に対し、無限遠被写体時にほぼ光軸が平行に投光される。この指標光が所望被写体10の中央に照射されるように撮像装置の向きを調節する。
【0019】
指標光が投射された被写体像は、副撮像手段12の副撮像用光学系50を介して撮像素子51上へ結像される。撮像素子51からの信号出力はビデオカメラ系信号処理回路52において処理され、映像信号として出力され、電子ズーム処理回路53に入力される。なお、記録指示が入力されると、可視光線の指標が画像中に写し込まれないように前記指標光の投射を停止する。
【0020】
[撮像系]
撮像系は、主撮像手段11からなる主撮像系と副撮像手段12からなる副撮像系に分けられる。主撮像手段11は、主撮像光学系40と銀塩フィルム記録媒体41を有し、また副撮像手段12は、副撮像光学系50、撮像素子51、ビデオカメラ系信号処理回路52及び電子ズーム処理回路53を有している。
【0021】
副撮像光学系50は、図3に示したように、撮像焦点を調節するための焦点調節光学系50a、アイリス等の入射光量調節部材50b及び指標光が投射された被写体像の副撮像倍率を制御する変倍光学系50cから構成される。
【0022】
上述したように、撮像スタンバイの指示を受けてシステム制御回路31により制御信号が発生されると、これに応じて指標発生器21内のレーザードライバー21bにより半導体レーザー21aが駆動され、指標となる可視光線が発生される。指標光が投射された被写体像は、副撮像用光学系50により、例えばCCDやMOSデバイス等の撮像素子51上へ結像され、撮像素子51からの出力信号はビデオカメラ系信号処理回路52にて映像信号として処理され次段の電子ズーム処理回路53に入力される。電子ズーム処理回路53は、システム制御回路31からの情報に基づき、副撮像光学系50の変倍光学系50cで調整しきれない倍率、あるいは調整しきれない高速制御が必要な場合に、電子的に変倍処理を行い、必要な画角設定を行う回路である。
【0023】
なお、電子的に処理を行った方が消費電力の面で優位であるので、変倍光学系50cの調整範囲内であっても、電子ズーム処理回路53を用いて画角設定を行なうと好ましい結果が得られる。
【0024】
電子ズーム処理回路53の出力信号は、パターン認識処理手段60に入力され、後述するように画像分析され、この分析結果が、システム制御回路31へ出力され、各種制御に利用される。
【0025】
一方、主撮像手段11は、主撮像光学系40と銀塩フィルム記録媒体41を有し、主撮像光学系40は、撮像焦点を調節するための焦点調節光学系40a、アイリス等の入射光量調節部材40b及び指標光が投射された被写体像の主撮像倍率を制御する変倍光学系40cから構成される。指標光が投射された被写体像の撮像光線は、主撮像光学系40において、ハーフミラー40dにより2分割され、主たる撮像光線は、シャッター手段40eにより必要に応じたタイミングで、銀塩フイルム記録媒体41上に達し、銀塩フイルム記録媒体41を露光する。2分割された他方の撮像光線は、AFセンサ40fへ導かれる。AFセンサ40fからの信号は、相関検出方式や位相差検出方式等の周知の焦点状態検出手法を用いる自動焦点制御回路32aに入力され、AFセンサ40fの信号に基づいて自動的に焦点が調節される。
【0026】
また、主撮像光学系40は、焦点調節光学系40a、入射光量調節部材40b及び変倍光学系40cの状態を検出するエンコーダー(e3,e2,e1)を備え、各エンコーダー検出信号はシステム制御回路31に出力され、光学系制御手段32において利用される。
【0027】
主撮像手段の各種光学特性調節に関する制御は、副撮像手段の制御とほぼ同様に、光学系制御手段32により行われる。
【0028】
[光学系制御手段]
主及び副撮像系の各種光学特性調節に関する制御は、上述したように、光学系制御手段32により行われる。光学系制御手段32は、図3に示したように、自動焦点制御回路32a、自動露光制御回路32b、光学ズーム制御回路32c及びシャッター制御回路32dから構成される。
【0029】
主撮像光学系40を通過する撮像光はハーフミラー40dにより分割され、AFセンサ40fにより検知される。AFセンサ40fからの検知信号は、所定の2点間の相関情報を含み、いわゆる位相差方式による自動焦点制御回路32aにより焦点調節信号が生成される。特に、静止画像の撮像の為のより速い応答を必要とするシステムには、位相差方式による、ズレ方向とズレ量を検出して制御する方式を用いるのが好ましい。自動焦点調節回路32aで生成された焦点調節信号は、駆動信号C3、C7として主及び副撮像光学系40、50の各焦点調節光学系40a、50aに作用し、連動して主及び副撮像光学系の焦点調節を行なう。
【0030】
自動露光制御回路32bは、ビデオカメラ系信号処理回路52の情報を用い撮像素子51上に撮像素子51のダイナミックレンジの範囲内に収まる適切な光蓄積量を供給すべく、駆動信号C6を発生し、この駆動信号を介して入射光量調節部材50bの透過光量特性を制御する。このように、まず、副撮像系にて検出した値を用いて、主撮像系の制御値を決定し、駆動信号C2として主撮像系の入射光量調節部材40bの透過光量特性を制御する。あるいは、外部センサー(不図示)を用いて主撮像系の絞り値を決定しても良い。
【0031】
光学ズーム制御回路32cは、システム制御回路31からの指示を受け、撮像光学系を制御する為のズーム倍率調節信号を生成し、これを駆動信号C1、C5として主及び副撮像光学系の変倍光学系40c、50cに供給し、連動して各撮像光学系の画角調節/焦点距離調節を行なう。
【0032】
一方、シャッター制御回路32dは、システム制御回路31からの撮像/記録指示を受け、駆動信号C4をシャッター手段40eに供給し、銀塩フィルム媒体41への露光制御を行なう。
【0033】
ちなみに、副撮像系の焦点調節は撮像映像信号の鮮明度を最大に調節する前記TV−AF方式を用いるか、あるいは光学系の条件によっては、調節不要のパンフォーカス方式にて構成してもよい。
【0034】
[撮像モード選択]
次に、図2及び図4を用いて被写体の撮像比率を設定する撮像モードの選択について説明する。
【0035】
撮影者は、撮像モードの選択情報をモード設定手段70ヘ入力する。その入力されたモード情報に対応した表示情報をアイコンパターン発生回路71により生成する。一例として、最近パーソナルコンピューターのGUIにて多用されているグラフィカルなアイコンパターンを発生し、液晶ディスプレー等のアイコン表示手段72を用いて表示する。
【0036】
このアイコンパターンの表示例として図4のアイコン表示手段72の枠内にmode−A、mode−B、mode−Cの大中小の3モードの撮影倍率の絵柄を示す。
【0037】
撮影者はこの絵表示にて撮影倍率を選択する。この倍率に対応した数値は、撮像領域を白P(0)、被写体像の領域を黒P(1)で区分した時のP(1)/{P(0)+(1)}の比率を数値化して各撮像モードに対応する形で格納してあり、ここで設定された撮影倍率に対応する数値がパターン認識処理手段60へ出力される。このパターン認識処理手段60には、前述のビデオカメラ系信号処理回路52からの信号が入力され、被写体領域が検出され、被写体領域の記録領域に占める面積比率が算出され、設定された撮影倍率の数値との比較結果に基づいて、所望の倍率に成るように光学系制御手段32へ制御信号が出力される。
【0038】
[パターン認識処理]
図4には、パターン認識処理手段60の詳細な構成が図示されている。パターン認識処理手段60は、エッジ検出処理手段60a、色領域検出処理手段60b、周波数判別(検出)処理手段60c、動き検出処理手段60d、パターン認識手段60e、比較手段60fから構成され、ビデオカメラ系信号処理回路52からのカメラ映像信号を受けて被写体領域の判別を行なう。
【0039】
エッジ検出処理手段60aは、水平及び垂直方向の微分係数等に依り画像領域の変化点を検出し、この変化点の連続性を判断することで被写体領域を判別する機能を有する。
【0040】
色領域検出処理手段60bは、色彩情報を所定の範囲毎にグルーピングして各色の所属範囲の連続性を判断することで被写体領域を判別する機能を有する。
【0041】
周波数判別処理手段60cは、空間周波数の連続性を判断することで被写体領域を判別する機能をもつ。具体例としては、カメラ撮影特有の性質として、被写界深度が浅い場合には自動合焦手段にて所望の被写体のみ高周波成分が増大している可能性が高いので、この特性を利用することで主被写体と背景との区別が可能となる。
【0042】
動き検出処理手段60dは、所望の被写体が他の人物や背景と動きのパターンが異なる可能性が高いことを利用することで、被写体領域を判別する機能をもつ。実際の装置の構成にあたっては、近年ビデオカメラの手ぶれ補正装置等で用いられている画像の動き検出手段の領域分解能力が所定以上ある場合に兼用可能である。
【0043】
これらの前処理された情報を総合的に利用して次段のパターン認識手段60eにより被写体の領域を判別し、現在の撮像領域中の該被写体領域の占める割合を前記算出方法と同様にP(1)/{P(0)+P(1)}の比率で数値化して比較手段60fヘ供給する。比較手段60fは現在の被写体面積比率を前記撮影倍率の数値と比較し、所望の倍率に成るように光学系制御手段32を制御する。
【0044】
[動作シーケンス]
次にシステム全体の動作シーケンスを、図6に示すフローチャートを用いて説明する。
【0045】
まず、メインルーチンとしてステップS1に示したように、トリミング手段を初期化し、主及び副撮像系の変倍光学系並びに電子ズーム手段をワイド端に初期設定する。
【0046】
続いて、ステップS2においてスイッチSW1が押された否かが判断される。撮影者のスイッチSW1のオン動作により、操作キースイッチ検出手段30はスイッチSW1の押下を検出し、ステップS3においてポインターをオンにする。この動作により撮像スタンバイの指示を受けて制御信号が発生し、これに応じて指標発生器21内の半導体レーザー21aがレーザードライバー21bより駆動され指標となる可視光線が発生される。この可視光線が投光用光学系20を介して主及び副撮像光学系40、50に対し、無限遠被写体時にほぼ光軸が平行に投光される。
【0047】
このように指標光線(ポインター)が投射された被写体像は、副撮像用光学系50を介して撮像素子51上へ結像され、撮像素子51からの信号出力はビデオカメラ系信号処理回路52にて処理され映像信号として出力される。このときサブルーチンをコールし、サブルーチンで画角調節を行いながら所望の被写体(ターゲット)にポインターを照射し続ける。
【0048】
サブルーチンでは、ステップS9において撮影者が設定した撮像モードできまる被写体の画面比率の設定値を読み込む。即ち、撮影者はモード設定手段70、72の枠内に示した、mode−A、mode−B、mode−C、の大中小の3モードの中から所望の撮影倍率を入力する。ここでは、例えば、図4に示したように最も撮影倍率の高いmode−Aが選択されている。
【0049】
このように入力された撮像モード情報に対応した表示情報をパターン発生回路71により生成しアイコン表示手段72により表示すると同時に、設定された撮影倍率に対応する数値をパターン認識処理手段60の比較手段60fヘ出力する。この倍率に対応した数値は、撮像領域を白P(0)、被写体像の領域を黒P(1)で区分した時のP(1)/{P(0)+P(1)}の比率を数値化して前記各モードに対応する形で格納されているので、この中の対応する数値がパターン認識処理手段60の比較手段60fに出力される。
【0050】
続いて、ステップS10でパターン認識処理手段60を用いて以下のような処理で画像認識処理を行う。主撮像光学系の変倍光学系40cと連動していることによりトリミング処理されたビデオカメラ系信号処理回路52からの映像信号が、エッジ検出処理手段60a、色領域検出処理手段60b、周波数判別処理手段60c、動き検出処理手段60dの各種処理手段に供給され、上述したこれらの各機能により得られる情報を総合的に利用して次段のパターン認識手段60eにおいて、被写体の領域が判別され、被写体領域内の画素数(P(1)に対応)並びに撮像領域内の画素数(P(0)に対応)が計数され、現在の撮像領域中の該被写体領域の占める割合をP(1)/{P(0)+P(1)}の比率で数値化して比較手段60fへ供給する。
【0051】
比較手段60fは、このように数値化された値をステップS9で読み込まれた設定値と比較し、補正制御信号を生成して両者が一致するように撮像画角を制御する。すなわち、比較結果に基づいて所望の倍率となるように光学系制御手段32を介して主及び副撮像系の変倍を制御する(ステップS11)。
【0052】
この制御特性を図示すると図5となる。この例では、光学ズームで8倍の倍率のトリミングを可能としている。ここで、前記倍率の演算結果に従い設定した倍率の目標値に対し、現在の倍率を表した値であるパターン認識手段60eにて算出した被写体領域内画素数の値が低ければ、拡大方向に修正し、逆に現在の倍率が高ければ縮小方向に修正するように制御する。
【0053】
続いて、ステップS12において、光学系のテレ(望遠/拡大方向)又はワイド(広角/縮小方向)端の検出を行う。各端に達すると、ステップS13において発音または表示により警告がなされる。この場合、ステップS9の設定値を調整可能範囲に近い値に変更するようにしてもよい。
【0054】
ステップS14では、各端に達するまでは、前記補正処理を続行し、所望の画角に追い込む。所望の画角に一致した場合にはメインルーチンに戻る。
【0055】
メインルーチンのステップS4において所望の被写体の中央にポインターが照射され、光学系制御手段32の元で行なわれる光学的なトリミング処理により撮影者の設定した撮影倍率に主及び副撮像系が調節され撮像画角が所望の状態に設定されたと判断されると、ステップS5でスイッチSW2が押下されたかが判断される。操作キースイッチ検出手段30によりスイッチSW2が押されていることが検出された場合には、ステップS6において、最終補正後、撮像記録の直前にポインターをオフにする。続いてシステム制御回路31は、光学系制御手段32を通じて駆動信号C4を出力し、主撮像光学系40のシャッター手段40eを制御し、銀塩フィルム記録媒体41上ヘ被写体光を露光し、撮像及び記録処理を行う(ステップS7)。ステップS8では、次の撮像が無ければ処理を終了し、あればステップS2へ戻り再度繰り返す。
【0056】
ステップS9で設定される撮像モードの種々の例が図7に示されている。図4で設定されたmode−Aは、アップのためのモードで、アイコンは人の頭部を示し画素比率は70%として登録してある。この結果、左上図のように撮像領域を示す実線四角枠とその中央にポインター光スポットが位置しているシーンを撮影者が確認し、スイッチを押し込んでSW2をオンさせると画像認識処理により前記記録領域の調節処理により撮像画素比率は70%が実現される。この倍率にて静止画像がフィルムに記録される。
【0057】
mode−Bは、バストショットのためのモードで、アイコンは人の上半身を示し画素比率は40%として登録してある。この結果左中図のようなシーンを撮影者が確認してスイッチを押し込んでSW2をオンさせると、画像認識処理により前記画素比率は40%の撮像倍率が実現される。この倍率にて静止画像がフィルムに記録される。
【0058】
mode−Cは、風景撮影のためのモードで、アイコンは山の遠景を示し画素比率は20%として登録してある。この結果左下図のようなシーンを撮影者が確認してスイッチを押し込んでSW−2をオンさせると、画像認識処理により前記画素比率は20%の撮像倍率が実現される。この倍率にて静止画像がフィルムに記録される。このモードに限り、ポインター光が中央被写体を示さなくても良い。すなわち、遠景の撮像条件であるので、投光が充分に行えない可能性が高いので、被写体認識による撮像倍率調節をパスして、最広角端に光学系(条件により電子ズーム等も含む)をセットし、撮像処理を行っても、ある程度近い結果が得られる。
【0059】
[適用例]
図8、図9には、上述した撮像装置をコンパクトカメラに適用した例が正面図及び背面図として図示されている。コンパクトカメラの正面には、指標光を投光する投光部材81(ポインティング手段13)、主撮像系光学レンズ82(主撮像手段11)、副撮像系光学レンズ83(副撮像手段12)が配置されている。投光部材81から投光されたスポット状の視標光84が主及び副撮像系の光軸にほぼ平行に標的とする被写体10に投光される。指標光を含む被写体からの光線85は副撮像系の光学レンズ83で受光されるとともに、主撮像系光学レンズ82を経て撮像装置に収納されたフィルム上ヘ収光され、記録される。
【0060】
コンパクトカメラの上面には、シャッターレリーズ用のスイッチ86(スイッチSW1、SW2)が設けられており、このスイッチを操作することにより上述したようなポインターの投光、画角調節並びに記録が行なわれる。また上面には表示部87(アイコン表示手段72)が形成されており、撮像モード等の各種情報を目視できる。コンパクトカメラの背面には、通常のファインダー88が設けられる。これにより、本発明のノーファインダー機能を用いない場合は、通常のファインダーとしてファインダ光線89を視認できる。
【0061】
[他の実施形態]
図10及び図11には、視線検知光学系との兼用を可能にする構成が図示されている。図10(A)は、ファインダー状態での使用時、(B)はポインター状態での使用時の構成を示す。
【0062】
赤外投光手段91は、システム制御回路31の指示により赤外光を撮影者の瞳の方向に投光し、視線方向の検出機構に必要な照明或は角膜反射光を得るためのもので、ファインダーを覗いた時に瞳に照射される方向に設置されている。瞳からの反射光は、副撮像光学系50を介して撮像素子51上に結像され2次元イメージとして検出される。この検出信号は周知の視線方向算出アルゴリズムにて処理し、焦点調節やシステム制御等に利用される。
【0063】
本発明のノーファインダー機能使用時には図10(B)のような構成になる。すなわち、遮光部材92と反射部材93を一対にして、ファインダ部の瞳側に挿入する。また赤外投光手段91はオフにされる。被写体からの入射光線85は、反射部材92の反射面で反射されて副撮像光学系50を介して撮像素子51上に結像され、2次元イメージとして検出される。この検出信号は、上述した画像認識に用いられる。
【0064】
図11には視線検出手段との兼用を可能にする構成のブロック図が図示されている。図2と同様な部分には同一の参照符号を付し、その説明は省略する。
【0065】
モード選択により、まずノーファインダー機能の使用のポインターモードか通常ファインダーモードかを設定し、この選択情報がシステム制御回路31に入力される。この設定に応じて、視線検出処理手段90の出力情報を利用するか否かが決定される。
【0066】
視線検出モードが選択された場合(図10(A))、赤外投光手段91の投射光は瞳に照射され、その反射光が副撮像光学系50を介して撮像素子51上に結像され、光電変換される。撮像素子51は赤外カットフイルターを備えておらず、視線検出時の赤外反射光を検知可能になっている。撮像素子51からの光電変換出力信号はカメラ系信号処理回路52により映像信号として出力され、視線検出処理手段90にて周知の視線検出演算を行い、その結果がシステム制御回路31に伝達され、光学系制御手段32が駆動され、視線方向の領域に合焦が行なわれたり、撮像領域の露光が最適化される。
【0067】
一方、ポインターモードが選択された場合には(図10(B))、指標光を含む被写体光85は、副撮像光学系50を介して撮像素子51上に結像され、光電変換される。撮像素子51は可視光線領域にも検出感度を充分に有しており、パターン認識用の信号検知が可能になっている。撮像素子からの光電変換出力信号はカメラ系信号処理回路52により映像信号として出力され、電子ズーム回路53で必要に応じたトリミング処理が施され、最初の実施形態と同様にパターン認識処理に利用される。
【0068】
図12には、ストロボ補助発光手段との兼用を可能にする更に他の実施形態の構成が図示されている。図2の構成と異るところは、システム制御回路31からの制御信号を受けて動作するストロボ発光手段100が設けられていること、並びにビデオカメラ系信号処理回路52で処理された情報を格納する画像メモリ101が設けられていることである。
【0069】
このような構成において、図13の動作フローチャートに示したように、ステップT1において光学ズーム及び電子ズーム等のトリミング手段を初期化する(図6のステップS1に対応)。続いて、ステップT2で撮像比率の設定値を読み込む(図6のステップS9に対応)。その後、ステップT3で、スイッチSW1が押されたかが判断され、押されたら、ステップT4でサブルーチンをコールする。
【0070】
サブルーチンのステップT8では、ストロボ発光手段100を駆動してストロボのプリ発光とオートフォーカス(AF)の補助発光を行う。このAFの補助発光は可視光なので前述の指標光と兼用が可能である。又、スイッチの半押し状態の間(スイッチSW2が押されない間)、サブルーチンを含むループが回っていることになるので、常に前記発光処理は、連続実行されており、ポインター光を用いた被写体設定は、この期間に行うことが出来る。
【0071】
続くステップT9で、ストロボのプリ発光時の被写体像を撮像し、画像メモリ101に格納しておき、ステップT10で、前記被写体像の情報を用いた画像のパターン認識処理を実行する(図6のステップS10に対応)。ステップT11で、画角設定が所望の値となっているか、最初の実施形態と同様な演算手法にて確認し、画角が満足であれば、メインルーチン処理ヘ戻り、満足していなければ、ステップT12で主撮像系及び副撮像系の光学ズーム制御を行ない(図6のステップS11に対応)、再調整の為にステップT8へ戻り、前記処理を継続する。
【0072】
画角が設定値になった場合には、メインルーチンに戻り、ステップT5でスイッチSW2が押されたかが確認される。押されるまでステップT3へ戻り、待機する。ステップT5で、スイッチSW2が押されたと判断されると、ステップT6でストロボ発光手段100によりストロボの本発光を行なう。これと同期して撮像、記録動作が実行される(ステップT7)。
【0073】
図14には、赤外AFの投光手段との兼用を可能にする更に他の実施態様の構成が図示されている。図2の構成と同様な部分には同一の参照符号を付しその説明は省略する。
【0074】
図14では、システム制御回路31からの制御信号を受けて動作する赤外光発光器110並びに可視光発光器111が設けられ、また被写体からの光を受けるAFセンサ112が設けられている。赤外光発光器110は、三角測量方式による距離測定のための赤外光を発生し、また可視光発光器111はポインターのための可視光線を発生する。
【0075】
赤外光発生器110からの赤外光と、可視光発生器111からのポインター光を共通の投光用光学系20を用いて目的とする被写体へ投光される。図8に示すカメラの正面図中の光線84が、図14の投光用光学系20から投光された光線である。測距用の赤外光と指標ポインター用の可視光の両スペクトル帯域をカバーする広帯域発光素子を用いれば、赤外光発光器110と可視光発光器111を一つの部材で構成することができる。
【0076】
測距用の光線は被写体に投射されると、AFセンサー112は赤外光の反射光強度を検出し、AF信号として、光学系制御手段32に伝え、時間を計測し、被写体距離を算出する。距離算出法自体は、周知のアルゴリズムを用いることができる。
【0077】
【発明の効果】
このように、本発明では、指標光線(ポインター)の投光により被写体を視準できるので、被写体をファインダーを覗きながら探す必要がなく、被写体の方を向きつつ、被写体と視線を合わせての撮像が可能になり、操作性が大きく改善される。また、被写体の撮影比率を設定あるいはあらかじめ選定しておくようにすれば、ファインダーを覗きながらの画角調節が不必要になり、撮像時の操作性が顕著に向上する。
【0078】
更に、本発明では、ファインダー部分が改良され、近年小型化が著しい画像情報記録装置の小型化に対応して、ファインダー部分を省電力化してデザイン的に釣り合った形状にでき、総合的に装置全体の小型化に貢献できる。
【0079】
更に、本発明の撮像装置は、視線検出手段、ストロボ補助光発光手段、アクティブ測距用の赤外投光用光学系等との兼用が可能であり、付加部材を最小に抑えることが可能となる。
【図面の簡単な説明】
【図1】本発明の1実施形態の主要部の構成を示すブロック図である。
【図2】図1の各部の詳細な構成を示すブロック図である。
【図3】主及び副撮像手段の詳細な構成を示すブロック図である。
【図4】パターン認識処理手段の詳細な構成を示すブロック図である。
【図5】光学系制御手段により行なわれる画角制御の特性を示す特性図である。
【図6】本発明の撮像装置の動作シーケンスを示すフローチャート図である。
【図7】選択可能な撮像モードを例示する説明図である。
【図8】本発明の撮像装置をカメラに適用したときの正面図である。
【図9】本発明の撮像装置をカメラに適用したときの背面図である。
【図10】視線検知光学系との兼用を可能にする実施形態を説明する説明図である。
【図11】視線検知光学系との兼用を可能にする実施形態の構成を示すブロック図である。
【図12】ストロボ補助発光手段との兼用を可能にする実施形態の構成を示すブロック図である。
【図13】図12の構成の動作シーケンスを示すフローチャート図である。
【図14】赤外AFの投光手段との兼用を可能にする実施形態の構成を示すブロック図である。
【符号の説明】
10 被写体
20 投光用光学系
21 指標発生器
30 操作キースイッチ検出手段
31 システム制御回路
32 光学系制御手段
40 主撮像光学系
41 銀塩フィルム記録媒体
50 副撮像光学系
51 撮像素子
52 ビデオカメラ系信号処理回路
53 電子ズーム処理回路
60 パターン認識処理手段
70 モード設定手段
71 アイコンパターン発生回路
72 アイコン表示手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device, and more particularly, to an imaging device that analyzes output information of an imaging unit that images a subject and performs imaging.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, when an imaging device such as a still camera or a video camera sets an imaging region, the imaging region of a subject is generally set via a monitor having a small finder window provided in the imaging device.
[0003]
[Problems to be solved by the invention]
However, this type of imaging apparatus has a drawback that the line of sight of the photographer cannot be matched because the line of sight of the photographer is directed to a monitor or the like and not to the subject.
[0004]
In addition, it is necessary to lift the camera unit near the face when shooting, and the operation of camera shooting is made aware by both the photographer and the subject, and it is necessary to capture natural expressions and movements slightly. I needed some tips.
[0005]
On the other hand, with the progress of recording technology, the miniaturization of the image information recording device is remarkable, but the finder portion is not improved, and only the finder portion is relatively disproportionately large, which is not preferable in terms of operability and design. There was a problem.
[0006]
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to solve such a problem and to provide an imaging apparatus capable of reducing a load of a shooting operation and shooting a subject with a simple configuration.
[0007]
[Means for Solving the Problems]
An imaging apparatus according to the present invention includes: a projection unit capable of projecting an index beam onto a subject; a main imaging system for recording the subject on which the index beam is projected on a recording medium; A sub-imaging system having an imaging unit for imaging, an image recognition unit for analyzing output information of the imaging unit, and an imaging control unit for controlling the sub-imaging system based on subject information determined by the image recognition unit The subject is recorded on a recording medium via a main imaging system controlled in conjunction with the sub imaging system. In this case, the main and sub imaging systems are controlled such that the ratio of the occupation of the recording area by the subject becomes a predetermined value.
[0008]
Further, in the present invention, an imaging mode setting means for setting an imaging ratio of the subject is provided, and the sub-imaging system is controlled based on the subject information determined by the image recognizing means and the set imaging mode. A subject is recorded on a recording medium via a main imaging system controlled in conjunction with the subject. In this case, the main and sub-imaging systems are controlled such that the proportion of the subject in the recording area determined by the image recognizing means becomes the imaging ratio set by the imaging mode setting means.
[0009]
In the embodiment of the present invention, there is provided a light projecting means capable of projecting a target beam substantially parallel to an extension of the optical axis of the main and sub imaging systems, and this index beam (pointer) is directed to a desired subject. The direction of the imaging device is adjusted such that the index light beam is located substantially at the center of the subject. In this state, from the imaging means provided in the sub-imaging system, an image signal with a desired subject substantially at the center can be obtained. This image signal is analyzed by the image recognition means, the boundary of the subject is detected, and the subject area is recognized. The imaging angle of view of the sub-imaging system is controlled such that the ratio of the recognized subject area to the imaging area matches the ratio set by the photographer with the imaging mode setting means. The imaging angle of view is adjusted mainly by an optical zoom means, but an electronic zoom means is also used as necessary. The main imaging system and the sub-imaging system are interlocked, and when the imaging angle of view is set to a desired state, the subject is recorded on the recording medium via the main imaging system controlled in conjunction with the sub-imaging system. Be recorded.
[0010]
The imaging device of the present invention is applied to various embodiments, and for example, can also be used as a gaze detecting unit. That is, a detachable insertion member is provided at a portion that guides the subject that has emitted the target light beam to the sub-imaging system, and when the insertion member is removed, the line of sight of the photographer placed at the position of the insertion member is reduced. It can be detected by the sub-imaging system.
[0011]
Further, it can be used also as a strobe auxiliary light emitting means, and the image recognizing process is performed by the image recognizing means by pre-emission of the strobe light emitting means. At the time of recording on a recording medium, the strobe light emitting means emits the main light.
[0012]
Further, it can be used also as an infrared light emitting means for distance measurement. For example, infrared rays generated from the infrared light emitting means are projected on the subject together with the target beam via the light projecting means, and the distance to the subject is measured by receiving the infrared rays from the subject.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described in detail based on embodiments shown in the drawings.
[0014]
[overall structure]
FIG. 1 is a block diagram illustrating a basic configuration of an imaging apparatus according to an embodiment of the present invention. The imaging apparatus includes a main imaging unit 11, a sub imaging unit 12, a pointing unit 13, an image analysis unit 14, a system control unit 15, and an imaging area setting unit 16.
[0015]
When a power-on or imaging standby instruction is given to the system control unit 15 by manual operation, the pointing unit 13 receives the instruction from the system control unit 15 and moves the optical axis of the optical system of the main imaging unit 11 and the sub-imaging unit 12 to the optical axis. Emits almost parallel visible light. The sub-imaging means 12 photoelectrically converts the subject image and outputs it as an imaging signal. The image analysis means 14 performs image recognition processing on the output from the sub-imaging means 12 to detect the area of the subject image. The imaging area setting means 16 determines an imaging area (and a recording area) in accordance with the object area information obtained by the image analysis and the object imaging ratio information from the system control means 15, and determines the main and sub-imaging means 11 and 12. Is controlled. After the angle of view is adjusted by such processing, the imaging and recording operation of the main imaging unit 11 is executed in response to an imaging instruction from the system control unit 15.
[0016]
The detailed configuration of each unit will be described with reference to FIGS.
[0017]
[Emission optical system]
The pointing means 13 comprises a light projecting optical system 20 and an index generator 21. When the photographer turns on the switch SW1, the operation key switch detecting means 30 detects this and outputs a light emission instruction to the index generator 22. I do.
[0018]
As shown in FIG. 3, the index generator 21 is provided with a light emitting member 21a such as a semiconductor laser driven by a laser driver 21b, and is controlled by receiving an imaging standby instruction from the system control circuit 31. When the signal is generated, the semiconductor laser 21a is driven by the laser driver 21b in the index generator 21 in response to the signal, and a visible ray serving as an index is generated. The visible light is projected by the light projecting optical system 20 to the main image pickup optical system 40 of the main image pickup means 11 and the sub image pickup optical system 50 of the sub image pickup means 12 so that their optical axes are almost parallel at the time of the subject at infinity. You. The direction of the image pickup device is adjusted so that the center of the desired subject 10 is irradiated with the index light.
[0019]
The subject image on which the index light is projected is formed on the image sensor 51 via the sub-imaging optical system 50 of the sub-imaging means 12. A signal output from the image sensor 51 is processed in a video camera signal processing circuit 52, output as a video signal, and input to an electronic zoom processing circuit 53. When a recording instruction is input, the projection of the index light is stopped so that the index of visible light is not projected on the image.
[0020]
[Imaging system]
The imaging system is divided into a main imaging system including the main imaging unit 11 and a sub imaging system including the sub imaging unit 12. The main imaging means 11 has a main imaging optical system 40 and a silver halide film recording medium 41, and the sub-imaging means 12 has a sub-imaging optical system 50, an image sensor 51, a video camera system signal processing circuit 52, and an electronic zoom process. The circuit 53 is provided.
[0021]
As shown in FIG. 3, the sub-imaging optical system 50 includes a focus adjusting optical system 50a for adjusting the imaging focus, an incident light amount adjusting member 50b such as an iris, and a sub-imaging magnification of the subject image on which the index light is projected. It comprises a variable power optical system 50c to be controlled.
[0022]
As described above, when a control signal is generated by the system control circuit 31 in response to the imaging standby instruction, the semiconductor laser 21a is driven by the laser driver 21b in the index generator 21 in response thereto, and the visible Light rays are generated. The subject image on which the index light is projected is formed on an image sensor 51 such as a CCD or a MOS device by a sub-image pickup optical system 50, and an output signal from the image sensor 51 is sent to a video camera system signal processing circuit 52. Then, it is processed as a video signal and input to the electronic zoom processing circuit 53 of the next stage. Based on information from the system control circuit 31, the electronic zoom processing circuit 53 provides an electronic zoom when a magnification that cannot be adjusted by the variable power optical system 50 c of the sub-imaging optical system 50 or a high-speed control that cannot be completely adjusted is required. This is a circuit for performing a scaling process and setting necessary angle of view.
[0023]
Since the electronic processing is superior in terms of power consumption, it is preferable to set the angle of view using the electronic zoom processing circuit 53 even within the adjustment range of the variable power optical system 50c. The result is obtained.
[0024]
The output signal of the electronic zoom processing circuit 53 is input to the pattern recognition processing means 60, and is subjected to image analysis as described later. The analysis result is output to the system control circuit 31 and used for various controls.
[0025]
On the other hand, the main image pickup means 11 has a main image pickup optical system 40 and a silver halide film recording medium 41. The main image pickup optical system 40 includes a focus adjustment optical system 40a for adjusting an image pickup focus, and an incident light amount adjustment such as an iris. It comprises a member 40b and a variable power optical system 40c for controlling the main imaging magnification of the subject image on which the index light is projected. The imaging light beam of the subject image onto which the index light is projected is split into two by the half mirror 40d in the main imaging optical system 40, and the main imaging light beam is separated by the shutter means 40e at a timing as required by the silver halide film recording medium 41. Then, the silver halide film recording medium 41 is exposed. The other of the two divided imaging light beams is guided to the AF sensor 40f. The signal from the AF sensor 40f is input to an automatic focus control circuit 32a using a well-known focus state detection method such as a correlation detection method or a phase difference detection method, and the focus is automatically adjusted based on the signal from the AF sensor 40f. You.
[0026]
Further, the main imaging optical system 40 includes encoders (e3, e2, e1) for detecting states of the focus adjusting optical system 40a, the incident light amount adjusting member 40b, and the variable power optical system 40c, and each encoder detection signal is transmitted to the system control circuit. The signal is output to an optical system controller 31 and is used in an optical system controller 32.
[0027]
Control regarding adjustment of various optical characteristics of the main image pickup means is performed by the optical system control means 32 in substantially the same manner as control of the sub image pickup means.
[0028]
[Optical system control means]
The control relating to the adjustment of various optical characteristics of the main and sub imaging systems is performed by the optical system control unit 32 as described above. As shown in FIG. 3, the optical system control means 32 includes an automatic focus control circuit 32a, an automatic exposure control circuit 32b, an optical zoom control circuit 32c, and a shutter control circuit 32d.
[0029]
Imaging light passing through the main imaging optical system 40 is split by the half mirror 40d and detected by the AF sensor 40f. The detection signal from the AF sensor 40f includes correlation information between two predetermined points, and a focus adjustment signal is generated by an automatic focus control circuit 32a using a so-called phase difference method. In particular, in a system that requires a faster response for capturing a still image, it is preferable to use a method of detecting and controlling a shift direction and a shift amount by a phase difference method. The focus adjustment signals generated by the automatic focus adjustment circuit 32a act as drive signals C3 and C7 on the respective focus adjustment optical systems 40a and 50a of the main and sub imaging optical systems 40 and 50, and work in conjunction with the main and sub imaging optical systems. Adjust the focus of the system.
[0030]
The automatic exposure control circuit 32b uses the information of the video camera system signal processing circuit 52 to generate a drive signal C6 to supply an appropriate amount of light accumulated within the dynamic range of the image sensor 51 onto the image sensor 51. The transmitted light amount characteristic of the incident light amount adjusting member 50b is controlled through the drive signal. As described above, first, the control value of the main imaging system is determined using the value detected by the sub-imaging system, and the transmitted light amount characteristic of the incident light amount adjusting member 40b of the main imaging system is controlled as the drive signal C2. Alternatively, the aperture value of the main imaging system may be determined using an external sensor (not shown).
[0031]
The optical zoom control circuit 32c receives an instruction from the system control circuit 31, generates a zoom magnification adjustment signal for controlling the imaging optical system, and uses the signals as drive signals C1 and C5 to change the magnification of the main and sub imaging optical systems. The signals are supplied to the optical systems 40c and 50c, and the angle of view and the focal length of each imaging optical system are adjusted in conjunction with each other.
[0032]
On the other hand, the shutter control circuit 32d receives an imaging / recording instruction from the system control circuit 31, supplies a drive signal C4 to the shutter means 40e, and controls exposure of the silver halide film medium 41.
[0033]
Incidentally, the focus adjustment of the sub-imaging system may be performed by using the TV-AF system for maximizing the sharpness of an imaged video signal, or by a pan-focus system that does not require adjustment depending on the condition of the optical system. .
[0034]
[Imaging mode selection]
Next, selection of an imaging mode for setting an imaging ratio of a subject will be described with reference to FIGS.
[0035]
The photographer inputs selection information of the imaging mode to the mode setting means 70. The display information corresponding to the input mode information is generated by the icon pattern generation circuit 71. As an example, a graphical icon pattern that is frequently used recently in a GUI of a personal computer is generated and displayed using an icon display means 72 such as a liquid crystal display.
[0036]
As a display example of this icon pattern, a pattern of the photographing magnification in three modes of large, medium and small modes of mode-A, mode-B and mode-C is shown in the frame of the icon display means 72 in FIG.
[0037]
The photographer selects a photographing magnification in the picture display. The numerical value corresponding to this magnification is the ratio of P (1) / {P (0) + (1)} when the imaging area is divided into white P (0) and the subject image area is divided into black P (1). Numerical values are stored in a form corresponding to each imaging mode, and a numerical value corresponding to the imaging magnification set here is output to the pattern recognition processing means 60. A signal from the video camera system signal processing circuit 52 is input to the pattern recognition processing unit 60, a subject area is detected, an area ratio of the subject area to the recording area is calculated, and the set photographing magnification is calculated. Based on the result of the comparison with the numerical value, a control signal is output to the optical system control means 32 so as to obtain a desired magnification.
[0038]
[Pattern recognition processing]
FIG. 4 shows a detailed configuration of the pattern recognition processing means 60. The pattern recognition processing means 60 includes an edge detection processing means 60a, a color area detection processing means 60b, a frequency discrimination (detection) processing means 60c, a motion detection processing means 60d, a pattern recognition means 60e, and a comparison means 60f. Upon receiving the camera video signal from the signal processing circuit 52, the subject area is determined.
[0039]
The edge detection processing means 60a has a function of detecting a change point in the image area based on horizontal and vertical differential coefficients and the like, and judging the continuity of the change point to determine a subject area.
[0040]
The color area detection processing means 60b has a function of grouping color information for each predetermined range and judging the continuity of the belonging range of each color to determine a subject area.
[0041]
The frequency discrimination processing means 60c has a function of discriminating the subject region by judging the continuity of the spatial frequency. As a specific example, as a characteristic peculiar to camera shooting, when the depth of field is shallow, there is a high possibility that the high-frequency component of only the desired subject is increased by the automatic focusing means. Thus, the main subject can be distinguished from the background.
[0042]
The motion detection processing unit 60d has a function of discriminating a subject area by utilizing that a desired subject is likely to have a different motion pattern from another person or background. In the actual device configuration, it can be shared when the area resolving ability of the image motion detecting means used in a video camera shake correction device or the like in recent years is equal to or more than a predetermined value.
[0043]
The pre-processed information is comprehensively used to determine the area of the subject by the next-stage pattern recognition means 60e, and the proportion of the subject area in the current imaging area is calculated as P ( 1) / {P (0) + P (1)} and supplied to the comparing means 60f. The comparison means 60f compares the current subject area ratio with the numerical value of the photographing magnification, and controls the optical system control means 32 so as to attain a desired magnification.
[0044]
[Operation sequence]
Next, an operation sequence of the entire system will be described with reference to a flowchart shown in FIG.
[0045]
First, as shown in step S1, as a main routine, the trimming means is initialized, and the variable power optical systems of the main and sub image pickup systems and the electronic zoom means are initialized to the wide end.
[0046]
Subsequently, in step S2, it is determined whether the switch SW1 has been pressed. When the photographer turns on the switch SW1, the operation key switch detecting means 30 detects the depression of the switch SW1, and turns on the pointer in step S3. In response to this operation, a control signal is generated in response to an imaging standby instruction, and the semiconductor laser 21a in the index generator 21 is driven by the laser driver 21b in response to the control signal to generate visible light serving as an index. This visible light is projected through the light projecting optical system 20 to the main and sub-imaging optical systems 40 and 50 so that the optical axis is almost parallel when the subject is at infinity.
[0047]
The subject image onto which the index light beam (pointer) is projected is formed on the image pickup device 51 via the sub-imaging optical system 50, and the signal output from the image pickup device 51 is sent to the video camera system signal processing circuit 52. And is output as a video signal. At this time, the subroutine is called, and the pointer is continuously irradiated on a desired subject (target) while adjusting the angle of view in the subroutine.
[0048]
In the subroutine, the set value of the screen ratio of the subject that can be set in the imaging mode set by the photographer in step S9 is read. That is, the photographer inputs a desired photographing magnification from three modes of large, medium and small modes, mode-A, mode-B, and mode-C, which are shown in the frame of the mode setting means 70, 72. Here, for example, as shown in FIG. 4, mode-A having the highest photographing magnification is selected.
[0049]
The display information corresponding to the input imaging mode information is generated by the pattern generation circuit 71 and displayed by the icon display means 72, and at the same time, the numerical value corresponding to the set photographing magnification is compared with the comparison means 60f of the pattern recognition processing means 60. Output. The numerical value corresponding to this magnification is the ratio of P (1) / {P (0) + P (1)} when the imaging area is divided into white P (0) and the subject image area is divided into black P (1). Since the values are digitized and stored in a form corresponding to each of the modes, the corresponding numerical value among them is output to the comparing means 60f of the pattern recognition processing means 60.
[0050]
Subsequently, in step S10, image recognition processing is performed by the following processing using the pattern recognition processing means 60. The video signal from the video camera system signal processing circuit 52, which has been trimmed by being linked with the variable power optical system 40c of the main imaging optical system, is supplied to the edge detection processing means 60a, the color area detection processing means 60b, and the frequency discrimination processing. The area of the subject is discriminated by the next-stage pattern recognition means 60e using the information obtained by the above-mentioned functions comprehensively and supplied to the various processing means of the means 60c and the motion detection processing means 60d. The number of pixels in the area (corresponding to P (1)) and the number of pixels in the imaging area (corresponding to P (0)) are counted, and the ratio of the subject area in the current imaging area to P (1) / It is digitized by the ratio of {P (0) + P (1)} and supplied to the comparison means 60f.
[0051]
The comparing means 60f compares the value thus quantified with the set value read in step S9, generates a correction control signal, and controls the imaging angle of view so that the two coincide with each other. That is, the magnification of the main and sub imaging systems is controlled via the optical system control means 32 so as to obtain a desired magnification based on the comparison result (step S11).
[0052]
FIG. 5 shows this control characteristic. In this example, the optical zoom enables trimming at a magnification of 8 times. Here, if the value of the number of pixels in the subject area calculated by the pattern recognition unit 60e, which is a value representing the current magnification, is lower than the target value of the magnification set according to the calculation result of the magnification, the magnification is corrected. Conversely, if the current magnification is high, control is performed so as to correct in the reduction direction.
[0053]
Subsequently, in step S12, a tele (telephoto / enlargement direction) or wide (wide-angle / reduction direction) end of the optical system is detected. Upon reaching each end, a warning is issued by sound or display in step S13. In this case, the set value in step S9 may be changed to a value close to the adjustable range.
[0054]
In step S14, the correction process is continued until each end is reached, and a desired angle of view is driven. When the angle of view matches the desired angle of view, the process returns to the main routine.
[0055]
In step S4 of the main routine, the center of the desired subject is irradiated with a pointer, and the main and sub image pickup systems are adjusted to the photographing magnification set by the photographer by the optical trimming process performed under the optical system control means 32. If it is determined that the angle of view has been set to a desired state, it is determined in step S5 whether the switch SW2 has been pressed. When the operation key switch detecting means 30 detects that the switch SW2 is pressed, in step S6, the pointer is turned off immediately after the final correction and immediately before the imaging and recording. Subsequently, the system control circuit 31 outputs the drive signal C4 through the optical system control means 32, controls the shutter means 40e of the main image pickup optical system 40, exposes the subject light onto the silver halide film recording medium 41, and performs imaging and A recording process is performed (Step S7). In step S8, if there is no next image pickup, the process ends, and if there is, the process returns to step S2 and repeats again.
[0056]
Various examples of the imaging mode set in step S9 are shown in FIG. Mode-A set in FIG. 4 is a mode for up, in which the icon indicates a human head and the pixel ratio is registered as 70%. As a result, as shown in the upper left figure, the photographer confirms a scene in which the pointer light spot is located at the center of the solid-line square frame indicating the imaging area, and presses the switch to turn on SW2 to perform the recording by the image recognition processing. The area adjustment process achieves an imaging pixel ratio of 70%. At this magnification, a still image is recorded on the film.
[0057]
mode-B is a mode for bust shot, in which the icon indicates the upper body of a person and the pixel ratio is registered as 40%. As a result, when the photographer confirms the scene as shown in the middle left diagram and presses the switch to turn on SW2, the image ratio realizes the imaging ratio of 40% by the image recognition processing. At this magnification, a still image is recorded on the film.
[0058]
mode-C is a mode for landscape photography, in which the icon indicates a distant view of the mountain and the pixel ratio is registered as 20%. As a result, when the photographer confirms the scene as shown in the lower left figure and presses the switch to turn on the SW-2, the pixel ratio achieves the imaging magnification of 20% by the image recognition processing. At this magnification, a still image is recorded on the film. Only in this mode, the pointer light does not have to indicate the central subject. That is, since it is a distant view imaging condition, there is a high possibility that the light cannot be sufficiently emitted. Even if it is set and an imaging process is performed, a result close to a certain extent can be obtained.
[0059]
[Application example]
FIGS. 8 and 9 show an example in which the above-described imaging apparatus is applied to a compact camera as a front view and a rear view. On the front of the compact camera, a light projecting member 81 (pointing means 13) for projecting the index light, a main imaging system optical lens 82 (main imaging means 11), and a sub imaging system optical lens 83 (sub imaging means 12) are arranged. Have been. The spot-like target light 84 projected from the light projecting member 81 is projected onto the target subject 10 substantially parallel to the optical axes of the main and sub imaging systems. The light beam 85 from the subject including the index light is received by the optical lens 83 of the sub-imaging system, is collected through an optical lens 82 of the main imaging system onto a film housed in an imaging device, and is recorded.
[0060]
A switch 86 (switches SW1 and SW2) for shutter release is provided on the upper surface of the compact camera. By operating this switch, light emission of the pointer, adjustment of the angle of view, and recording as described above are performed. Further, a display section 87 (icon display means 72) is formed on the upper surface, and various information such as an imaging mode can be visually checked. A normal finder 88 is provided on the back of the compact camera. Thus, when the no finder function of the present invention is not used, the finder light beam 89 can be visually recognized as a normal finder.
[0061]
[Other embodiments]
FIG. 10 and FIG. 11 show a configuration that can also be used as the visual axis detection optical system. FIG. 10A shows a configuration at the time of use in the finder state, and FIG. 10B shows a configuration at the time of use in the pointer state.
[0062]
The infrared light projecting means 91 emits infrared light in the direction of the photographer's pupil in accordance with an instruction from the system control circuit 31 to obtain illumination or corneal reflected light necessary for a gaze direction detecting mechanism. It is installed in the direction to illuminate the pupil when looking through the viewfinder. The reflected light from the pupil is imaged on the imaging device 51 via the sub-imaging optical system 50 and detected as a two-dimensional image. This detection signal is processed by a well-known gaze direction calculation algorithm, and is used for focus adjustment, system control, and the like.
[0063]
When the no finder function of the present invention is used, the configuration is as shown in FIG. That is, a pair of the light shielding member 92 and the reflection member 93 is inserted into the pupil side of the finder section. Further, the infrared light emitting means 91 is turned off. The incident light beam 85 from the subject is reflected by the reflecting surface of the reflecting member 92, forms an image on the image sensor 51 via the sub-imaging optical system 50, and is detected as a two-dimensional image. This detection signal is used for the above-described image recognition.
[0064]
FIG. 11 is a block diagram of a configuration that can also be used as the line-of-sight detection means. 2 are denoted by the same reference numerals, and description thereof will be omitted.
[0065]
By the mode selection, first, a pointer mode for using the no finder function or a normal finder mode is set, and this selection information is input to the system control circuit 31. According to this setting, it is determined whether or not to use the output information of the visual line detection processing means 90.
[0066]
When the line-of-sight detection mode is selected (FIG. 10A), the projection light of the infrared light projecting means 91 irradiates the pupil, and the reflected light forms an image on the image sensor 51 via the sub-imaging optical system 50. And are photoelectrically converted. The imaging element 51 does not include an infrared cut filter, and can detect infrared reflected light at the time of gaze detection. The photoelectric conversion output signal from the image sensor 51 is output as a video signal by the camera-system signal processing circuit 52, performs a well-known gaze detection calculation by the gaze detection processing unit 90, and the result is transmitted to the system control circuit 31. The system control unit 32 is driven to focus on a region in the line of sight and optimize exposure of the imaging region.
[0067]
On the other hand, when the pointer mode is selected (FIG. 10B), the subject light 85 including the index light is imaged on the imaging element 51 via the sub-imaging optical system 50 and photoelectrically converted. The imaging element 51 has sufficient detection sensitivity even in the visible light region, and can detect a signal for pattern recognition. The photoelectric conversion output signal from the image pickup device is output as a video signal by the camera system signal processing circuit 52, subjected to trimming processing as needed by the electronic zoom circuit 53, and used for pattern recognition processing as in the first embodiment. You.
[0068]
FIG. 12 shows a configuration of still another embodiment which can be used also as a strobe auxiliary light emitting means. 2 differs from the configuration of FIG. 2 in that a strobe light emitting unit 100 that operates in response to a control signal from a system control circuit 31 is provided, and that information processed by a video camera system signal processing circuit 52 is stored. That is, an image memory 101 is provided.
[0069]
In such a configuration, as shown in the operation flowchart of FIG. 13, trimming means such as an optical zoom and an electronic zoom are initialized in step T1 (corresponding to step S1 in FIG. 6). Subsequently, the set value of the imaging ratio is read in step T2 (corresponding to step S9 in FIG. 6). Thereafter, it is determined in step T3 whether the switch SW1 has been pressed, and if so, the subroutine is called in step T4.
[0070]
In step T8 of the subroutine, the flash emission unit 100 is driven to perform pre-flash emission of the flash and auxiliary emission of autofocus (AF). Since the auxiliary light emission of this AF is visible light, it can be shared with the above-mentioned index light. Also, while the switch is half-pressed (while the switch SW2 is not pressed), the loop including the subroutine is running, so that the light emission processing is always executed continuously, and the object setting using the pointer light is performed. Can be performed during this period.
[0071]
In the following step T9, a subject image at the time of the pre-flash emission of the strobe is taken and stored in the image memory 101, and in step T10, a pattern recognition process of the image using the information of the subject image is executed (FIG. 6). (Corresponding to step S10). In step T11, it is checked whether the angle of view setting is a desired value by the same calculation method as in the first embodiment. If the angle of view is satisfactory, the process returns to the main routine process. In step T12, the optical zoom control of the main imaging system and the sub imaging system is performed (corresponding to step S11 in FIG. 6), and the process returns to step T8 for readjustment, and the above processing is continued.
[0072]
If the angle of view has reached the set value, the process returns to the main routine, and in step T5, it is checked whether the switch SW2 has been pressed. The process returns to step T3 until it is pressed, and waits. If it is determined in step T5 that the switch SW2 has been pressed, the main flash of the strobe is performed by the strobe light emitting means 100 in step T6. In synchronization with this, the imaging and recording operations are performed (step T7).
[0073]
FIG. 14 shows the configuration of still another embodiment that can be used also as the light projecting means of the infrared AF. The same parts as those in the configuration of FIG. 2 are denoted by the same reference numerals, and description thereof is omitted.
[0074]
In FIG. 14, an infrared light emitter 110 and a visible light emitter 111 that operate in response to a control signal from the system control circuit 31 are provided, and an AF sensor 112 that receives light from a subject is provided. The infrared light emitter 110 generates infrared light for distance measurement by triangulation, and the visible light emitter 111 generates visible light for a pointer.
[0075]
The infrared light from the infrared light generator 110 and the pointer light from the visible light generator 111 are projected onto a target subject by using the common projection optical system 20. A light beam 84 in the front view of the camera shown in FIG. 8 is a light beam emitted from the light projecting optical system 20 in FIG. If a broadband light-emitting element that covers both spectral bands of infrared light for distance measurement and visible light for an index pointer is used, the infrared light emitter 110 and the visible light emitter 111 can be configured by one member. .
[0076]
When the light beam for distance measurement is projected on the subject, the AF sensor 112 detects the reflected light intensity of the infrared light, transmits it to the optical system control unit 32 as an AF signal, measures time, and calculates the subject distance. . A well-known algorithm can be used for the distance calculation method itself.
[0077]
【The invention's effect】
As described above, according to the present invention, since the subject can be collimated by projecting the index light beam (pointer), there is no need to look for the subject while looking through the viewfinder. And operability is greatly improved. Further, if the shooting ratio of the subject is set or selected in advance, it is not necessary to adjust the angle of view while looking through the viewfinder, and the operability at the time of imaging is remarkably improved.
[0078]
Further, according to the present invention, the finder portion is improved, and in response to the downsizing of the image information recording device, which has been remarkably downsized in recent years, the finder portion can be reduced in power consumption to have a design-balanced shape. Can contribute to downsizing.
[0079]
Further, the imaging apparatus of the present invention can be used also as a line-of-sight detection unit, a strobe auxiliary light emitting unit, an optical system for infrared projection for active distance measurement, and the like, and it is possible to minimize the number of additional members. Become.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a main part of an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a detailed configuration of each unit in FIG. 1;
FIG. 3 is a block diagram showing a detailed configuration of main and sub-imaging means.
FIG. 4 is a block diagram illustrating a detailed configuration of a pattern recognition processing unit.
FIG. 5 is a characteristic diagram illustrating characteristics of angle-of-view control performed by an optical system control unit.
FIG. 6 is a flowchart illustrating an operation sequence of the imaging apparatus of the present invention.
FIG. 7 is an explanatory diagram illustrating selectable imaging modes.
FIG. 8 is a front view when the imaging apparatus of the present invention is applied to a camera.
FIG. 9 is a rear view when the imaging apparatus of the present invention is applied to a camera.
FIG. 10 is an explanatory diagram illustrating an embodiment that can also be used as a visual axis detection optical system.
FIG. 11 is a block diagram showing a configuration of an embodiment that can be used also as a visual axis detection optical system.
FIG. 12 is a block diagram showing a configuration of an embodiment that can be used also as a strobe auxiliary light emitting means.
FIG. 13 is a flowchart showing an operation sequence of the configuration of FIG. 12;
FIG. 14 is a block diagram showing a configuration of an embodiment that can also be used as a light projecting unit of an infrared AF.
[Explanation of symbols]
10 subject
20 Projection optical system
21 Index generator
30 Operation key switch detection means
31 System control circuit
32 Optical system control means
40 Main imaging optical system
41 Silver halide film recording medium
50 Sub-imaging optical system
51 Image sensor
52 Video camera system signal processing circuit
53 Electronic zoom processing circuit
60 Pattern recognition processing means
70 Mode setting means
71 Icon Pattern Generation Circuit
72 Icon display means

Claims (7)

被写体に対し指標光線を投光可能な投光手段と、
指標光線を投光された被写体を記録媒体に記録する主撮像系と、
指標光線を投光された被写体を撮像する撮像手段を備えた副撮像系と、
前記撮像手段の出力情報を分析する画像認識手段と、
前記画像認識手段により判別された被写体情報に基づき副撮像系を制御する撮像制御手段とを備え、
前記副撮像系に連動して制御される主撮像系を介して被写体を記録媒体に記録することを特徴とする撮像装置。
Projection means capable of projecting an index light beam to a subject,
A main image pickup system for recording the subject projected with the index light beam on a recording medium,
A sub-imaging system including imaging means for imaging the subject projected with the index light beam,
Image recognition means for analyzing output information of the imaging means,
Imaging control means for controlling a sub-imaging system based on subject information determined by the image recognition means,
An imaging apparatus for recording a subject on a recording medium via a main imaging system controlled in conjunction with the sub imaging system.
前記被写体が記録領域で占める割合が所定値になるように主及び副撮像系が制御されることを特徴とする請求項1に記載の撮像装置。The imaging apparatus according to claim 1, wherein the main and sub imaging systems are controlled such that a ratio of the subject in a recording area is a predetermined value. 被写体に対し指標光線を投光可能な投光手段と、
指標光線を投光された被写体を記録媒体に記録する主撮像系と、
指標光線を投光された被写体を撮像する撮像手段を備えた副撮像系と、
前記撮像手段の出力情報を分析する画像認識手段と、
被写体の撮像比率を設定する撮像モード設定手段と、
前記画像認識手段により判別された被写体情報と設定された撮像モードに基づき副撮像系を制御する撮像制御手段とを備え、
前記副撮像系に連動して制御される主撮像系を介して被写体を記録媒体に記録することを特徴とする撮像装置。
Projection means capable of projecting an index light beam to a subject,
A main image pickup system for recording the subject projected with the index light beam on a recording medium,
A sub-imaging system including imaging means for imaging the subject projected with the index light beam,
Image recognition means for analyzing output information of the imaging means,
Imaging mode setting means for setting an imaging ratio of a subject;
Imaging control means for controlling a sub-imaging system based on subject information determined by the image recognition means and an imaging mode set,
An imaging apparatus for recording a subject on a recording medium via a main imaging system controlled in conjunction with the sub imaging system.
前記画像認識手段により判別された被写体の記録領域に占める割合が前記撮像モード設定手段で設定された撮像比率となるように主及び副撮像系が制御されることを特徴とする請求項3に記載の撮像装置。4. The main and sub imaging systems are controlled such that the ratio of the object occupying the recording area determined by the image recognition unit becomes the imaging ratio set by the imaging mode setting unit. Imaging device. 前記視標光線を投光された被写体を副撮像系に導く部分に着脱可能な挿入部材が設けられ、この挿入部材を外した場合には、挿入部材の箇所に置かれる撮影者の視線が副撮像系により検知可能であることを特徴とする請求項1から4までのいずれか1項に記載の撮像装置。A detachable insertion member is provided at a portion that guides the subject to which the optotype light is projected to the sub-imaging system, and when the insertion member is removed, the line of sight of the photographer placed at the position of the insertion member is subordinate. The imaging apparatus according to any one of claims 1 to 4, wherein the imaging apparatus can be detected by an imaging system. ストロボ発光手段が設けられ、このストロボ発光手段をプリ発光することにより画像認識手段による画像認識処理が行なわれ、記録媒体への記録時には、前記ストロボ発光手段が本発光されることを特徴とする請求項1から5までのいずれか1項に記載の撮像装置。An electronic flash device is provided, and an image recognition process is performed by an image recognizing device by pre-emission of the electronic flash device, and the electronic flash device emits main light when recording on a recording medium. Item 6. The imaging device according to any one of Items 1 to 5. 赤外線発光手段が設けられ、前記赤外線発光手段から発生された赤外線が前記投光手段を介して視標光線とともに被写体に投光され、被写体からの赤外線を受光することにより被写体までの測距が行なわれることを特徴とする請求項1から6までのいずれか1項に記載の撮像装置。Infrared light emitting means is provided, and infrared light generated from the infrared light emitting means is projected on the subject together with a target beam through the light projecting means, and the distance to the subject is measured by receiving infrared light from the subject. The imaging device according to any one of claims 1 to 6, wherein the imaging device is used.
JP28939796A 1996-10-31 1996-10-31 Imaging device Expired - Fee Related JP3563895B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28939796A JP3563895B2 (en) 1996-10-31 1996-10-31 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28939796A JP3563895B2 (en) 1996-10-31 1996-10-31 Imaging device

Publications (2)

Publication Number Publication Date
JPH10136250A JPH10136250A (en) 1998-05-22
JP3563895B2 true JP3563895B2 (en) 2004-09-08

Family

ID=17742705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28939796A Expired - Fee Related JP3563895B2 (en) 1996-10-31 1996-10-31 Imaging device

Country Status (1)

Country Link
JP (1) JP3563895B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5767665B2 (en) * 2013-03-27 2015-08-19 ビッグローブ株式会社 Imaging apparatus, imaging method, and program

Also Published As

Publication number Publication date
JPH10136250A (en) 1998-05-22

Similar Documents

Publication Publication Date Title
US7706675B2 (en) Camera
US8055097B2 (en) Image pick-up apparatus, image pick-up program, and image processing program
JP4998308B2 (en) Focus adjustment device and imaging device
US5838370A (en) Image pickup apparatus
US8009976B2 (en) Camera having face detection and with automatic focus control using a defocus amount
JP5171468B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US11509816B2 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
US7702230B2 (en) Digital camera and exposure condition determining method
US20080018774A1 (en) Image capture device
JPH07151950A (en) camera
JP2003289468A (en) Imaging apparatus
JP3192483B2 (en) Optical equipment
JP3563895B2 (en) Imaging device
JP3163668B2 (en) Subject recognition device and camera
JP2004215062A (en) Imaging device
JPH08307765A (en) Imaging device
JP3180458B2 (en) Camera having line-of-sight detection means
US6473127B1 (en) Image pickup apparatus
JP7615262B1 (en) Information processing device
JP2000206398A (en) Automatic focal point adjuster
EP4529150A1 (en) Photographing apparatus and focusing control program
US20210258477A1 (en) Electronic device
JP3563894B2 (en) Imaging device
JP2024173037A (en) Electronic device, control method thereof, and program
JPH0846852A (en) Imaging device and imaging method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080611

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090611

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100611

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110611

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees