JPH03167535A - Exposure arithmetic unit for camera - Google Patents
Exposure arithmetic unit for cameraInfo
- Publication number
- JPH03167535A JPH03167535A JP1307324A JP30732489A JPH03167535A JP H03167535 A JPH03167535 A JP H03167535A JP 1307324 A JP1307324 A JP 1307324A JP 30732489 A JP30732489 A JP 30732489A JP H03167535 A JPH03167535 A JP H03167535A
- Authority
- JP
- Japan
- Prior art keywords
- exposure
- neural network
- input
- synaptic connection
- neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000002569 neuron Anatomy 0.000 claims abstract description 55
- 239000013598 vector Substances 0.000 claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 claims description 47
- 238000004364 calculation method Methods 0.000 claims description 31
- 230000000946 synaptic effect Effects 0.000 claims description 31
- 238000012937 correction Methods 0.000 claims description 22
- 239000002356 single layer Substances 0.000 claims description 4
- 230000007935 neutral effect Effects 0.000 abstract 3
- 210000000225 synapse Anatomy 0.000 abstract 1
- 230000015654 memory Effects 0.000 description 18
- 238000000034 method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010606 normalization Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000010304 firing Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 235000009413 Ratibida columnifera Nutrition 0.000 description 1
- 241000510442 Ratibida peduncularis Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Landscapes
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
- Exposure Control For Cameras (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
この発明はカメラの露出演算装一置に関する〔従来の技
術〕
従来、カメラの露出制御においては、特開昭57−42
026号公報に記載のように、実写データをもとに複数
の輝度パターンを設定し、画面を複数領域に分割して測
定した各輝度値と輝度パターンとを照合演算し、中央重
点、平均、高輝度重視、低輝度重視等の露出決定因子の
巾から最適なものを選び、露出制御を行なうものがある
。また、特開昭61−173226号公報に記載のよう
に、画面中央部のスポット輝度値と画面全体の平均輝度
値とから逆光状態を検知し、露出補正を行なうものがあ
る。[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an exposure calculation device for a camera [Prior Art] Conventionally, exposure control for a camera has been disclosed in Japanese Patent Laid-Open No. 57-42.
As described in Publication No. 026, multiple brightness patterns are set based on actual photographic data, each brightness value measured by dividing the screen into multiple areas is compared with the brightness pattern, and center-weighted, average, There are methods that control exposure by selecting the optimal one from a range of exposure determining factors, such as emphasizing high brightness and emphasizing low brightness. Furthermore, as described in Japanese Patent Application Laid-Open No. 173226/1982, there is a device that detects a backlight condition from the spot brightness value at the center of the screen and the average brightness value of the entire screen and performs exposure correction.
しかしながら、従来の露出制御は、事前にプログラム化
されたある限られた情景には対応可能であるが、それ以
外の情景には上手く対応できない場合があった。また、
画面中央部を重視した露出制御では、画面中央部に撮影
したい被写体がある場合には適切な露出が得られるが、
それ以外の場合には適切な露出が得られない。なお、こ
のような場合でも、撮影したい被写体を画面中央部に位
置させてからAEロックすれば、被写体の位置にかかわ
らず、常に適正な露出が得られるが、AEロックは操作
が面倒であるので、迅速な撮影には向かない。However, although conventional exposure control can handle a limited number of pre-programmed scenes, it may not be able to handle other scenes well. Also,
Exposure control that focuses on the center of the screen will give you an appropriate exposure if the subject you want to photograph is in the center of the screen, but
In other cases, proper exposure cannot be obtained. Even in such cases, if you position the subject you want to photograph in the center of the screen and then use AE lock, you can always obtain the correct exposure regardless of the subject's position, but AE lock is cumbersome to operate. , not suitable for quick shooting.
この発明は上述した事情に対処すべきなされたもので、
その目的は、どのような状況の下でも短時間で最適な露
出を得ることができる簡単な構成のカメラの露出演算装
置を提供することである。This invention was made to address the above-mentioned circumstances,
The purpose is to provide a camera exposure calculation device with a simple configuration that can obtain optimal exposure in a short time under any circumstances.
〔課題を解決するための手段および作用〕この発明によ
るカメラの焦点検出装置は、所定のシナプス結合強度を
介して輝度データベクトルが入力される複数のニューロ
ン・ユニットからなる単一層のニューラル・ネットワー
クを具備する。[Means and effects for solving the problem] The camera focus detection device according to the present invention uses a single-layer neural network consisting of a plurality of neuron units into which luminance data vectors are input via predetermined synaptic connection strengths. Be equipped.
このニューラル・ネットワークを、任意の画面の複数の
点毎の輝度データの集合である輝度データベクトルが入
力された時にその画面に対する露出補正値情報を出力す
るように学習させておき、その出力に基づいて露出を決
定する。ここで、露出補正値の範囲は±5EV程度とす
る。なお、学習の際には、輝度データベクトルが類似し
ている画面どうしでは露出補正値も同様な値であると仮
定し、多数のモデルパターンを使ってニューラル・ネッ
トワークに各輝度データベクトルを学習させる。This neural network is trained to output exposure compensation value information for a given screen when a brightness data vector, which is a collection of brightness data for each point of a given screen, is input, and based on that output. to determine the exposure. Here, the range of the exposure correction value is approximately ±5EV. During learning, it is assumed that screens with similar brightness data vectors have similar exposure compensation values, and the neural network is made to learn each brightness data vector using a large number of model patterns. .
第1図にこの発明によるニューラル・ネットワークを使
った露出補正値の決定手段の概略を示す。FIG. 1 schematically shows a means for determining an exposure compensation value using a neural network according to the present invention.
左側に示す入力画面はファインダに写る撮影画面であり
、2次元マトリクス状に配列された領域Pi(i−1
〜n(nは正整数、第1図ではり))に分割され、各領
域Pi毎に輝度データDiが得られる。右側に示すニュ
ーラル・ネットワークは入力画面の各領域毎の輝度デー
タベクトルDiを入力し、その画面に対する露出補正値
Exを決定するものである。この発明で用いられる二二
一ラル・ネットワークは所定のシナプス結合強度を介し
て輝度データベクトルが入力される複数個(ここでは2
5個)のニューロン●ユニットからなる単一層のネット
ワークであり、升目として示される各ニューロン●ユニ
ットに全輝度データベクトルが入力される。The input screen shown on the left side is the photographic screen shown in the finder, and the input screen shown on the left is the shooting screen shown in the viewfinder.
~n (n is a positive integer, shown in FIG. 1)), and brightness data Di is obtained for each area Pi. The neural network shown on the right inputs the brightness data vector Di for each area of the input screen and determines the exposure correction value Ex for that screen. The 221 ral network used in this invention has a plurality of luminance data vectors (in this case, 2
It is a single-layer network consisting of 5) neuron ● units, and a total brightness data vector is input to each neuron ● unit shown as a square.
ニューラル●ネットワークの学習は次の2つのステップ
からなる。先ず、多数のモデルパターンにおける輝度デ
ータベクトルをニューラル・ネットワークに入力し、教
師なし学習により所定のシナプス結合強度を獲得してお
く。教師なし学習とは、教帥データがなくても与えられ
た特定の入力ベクトルに選択的に反応するように各ニュ
ーロン・ユニットのシナプス結合強度を修正することで
あり、これにより、輝度データベクトルがネットワーク
上で自動的に分類される。そして、次に、モデルパター
ンの輝度データベクトルをニューラル・ネットワークに
再度入力したときのニューラル・ネットワークの出力ニ
ューロン・ユニットと、そのモデルパターンにおける露
出補正値とを対応づけておく。すなわち、第1図゛の各
ニューロン・ユニットに記されている値が露出補正値で
ある。Neural network training consists of the following two steps. First, brightness data vectors for a large number of model patterns are input into a neural network, and a predetermined synaptic connection strength is obtained by unsupervised learning. Unsupervised learning is the process of modifying the synaptic connection strength of each neuron unit to selectively respond to a given input vector without any training data. Automatically classified on the network. Then, the output neuron unit of the neural network when the luminance data vector of the model pattern is input again to the neural network is associated with the exposure correction value in that model pattern. That is, the values written in each neuron unit in FIG. 1 are exposure correction values.
撮影の際には、第1図に示すように撮影したい画面中の
各領域Pi毎の輝度データベクトルDiをこのように学
習されたニューラル・ネットワークに入力すると、いず
れか1つのニューロン・ユニットが最も強く発火し(第
1図では発火したニューロン・ユニットに斜線を付す)
、そのニューロン・ユニットに対応する露出補正値Ex
(第1図ではE7)が適正露出補正値であると判断でき
、そこに応じて露出を補正すると、常に適正露出で写真
が撮影できる。When photographing, as shown in Figure 1, when the luminance data vector Di for each area Pi in the screen to be photographed is input to the neural network trained in this way, any one neuron unit Firing strongly (in Figure 1, firing neuron units are shaded)
, the exposure compensation value Ex corresponding to that neuron unit
(E7 in FIG. 1) can be determined to be the appropriate exposure correction value, and if the exposure is corrected accordingly, photographs can always be taken with the appropriate exposure.
第2図〜第4図を参照してこの発明で用いられるニュー
ラル●ネットワークを説明する。このニューラル・ネッ
トワークのモデルはヘルシンキ工科大(フィンランド)
のコホーネン(κohonen )が提唱したものであ
り、自己組織化ネットワークと呼ばれる。その学習手法
は自己組織化特徴マッピングとして知られている。The neural network used in this invention will be explained with reference to FIGS. 2 to 4. This neural network model is based at Helsinki University of Technology (Finland)
It was proposed by κohonen and is called a self-organizing network. The learning method is known as self-organizing feature mapping.
第2図に各二二一ロン◆ユニットのモデルを示す。ニュ
ーロン・ユニットは入力ベクトルの各入力値とシナプス
結合を介して接続され、その入力値と各シナプス結合強
度を比較して両者のマッチング度に応じた出力を発生す
る。Figure 2 shows the model of each 221 Ron◆ unit. The neuron unit is connected to each input value of the input vector via a synaptic connection, compares the input value with each synaptic connection strength, and generates an output according to the degree of matching between the two.
第i番目のニューロン・ユニットの出力y1は次式で示
される。The output y1 of the i-th neuron unit is expressed by the following equation.
yl=f(ΣwljXxkD −= (1)
j=t
ここで、f Oはニューロン●ユニットの出力関数(通
常、シグモイド形の単調増加関数)、Wljは第i番目
のニューロン・ユニットの第j番目の入力xkjに対す
るシナプス結合強度、xkjは第k番目の入力ベクトル
の第j番目の入力値、
nは入力ベクトルの次元数である。yl=f(ΣwljXxkD −= (1)
j=t Here, f O is the output function of the neuron unit (usually a sigmoid monotonically increasing function), Wlj is the synaptic connection strength of the i-th neuron unit to the j-th input xkj, and xkj is the The jth input value of the kth input vector, where n is the number of dimensions of the input vector.
ニューラル・ネットワークは各ニューロン・ユニットを
2次元的に配置して構成されるが、ここでは、説明のo
ttt化のため1次元的にモデル化したものを第3図
に示す。Neural networks are constructed by arranging each neuron unit two-dimensionally, but here we will focus on
Figure 3 shows a one-dimensional model for TTT conversion.
第3図に示すように、このニューラル・ネットワークは
ニューロン◆ユニットの出力から入力ヘの信号のフィー
ドバック結合の効果を導入した自己組織化特徴マッピン
グが行なわれる。ここで、wjkは第k番目のニューロ
ン・ユニットから第i番目のニューロン・ユニットに向
かうフィードバック結合強度である。As shown in FIG. 3, this neural network performs self-organizing feature mapping that introduces the effect of feedback coupling of signals from the output of the neuron ◆ unit to the input. Here, wjk is the feedback coupling strength from the kth neuron unit to the ith neuron unit.
第4図はこのようなフィードバック結合のシナプス結合
強度への影響の度合を示す。すなわち、フィードバック
結合の効果によりシナプス結合強度はメキシカンハット
タイプの形状の特性変化を示し、ある特定のニューロン
・ユニットの出力値が上昇すると、それに距離的に近い
位置関係にあるニューロン・ユニットもそれにひきづら
れて出力値が上昇するが、さらにその外側にあるニュー
ロン・ユニットは逆に出力値が下がる。FIG. 4 shows the degree of influence of such feedback connections on the synaptic connection strength. In other words, due to the effect of feedback connections, the synaptic connection strength exhibits a characteristic change in the shape of a Mexican hat, and when the output value of a particular neuron unit increases, neuron units located in a positional relationship close to it will also be affected by it. The output value of neuron units further outside the neuron unit increases, but the output value of neuron units further outside the neuron unit decreases.
このフィードバック結合の効果を考慮したシナプス結合
強度の学習が最適のマッチングをしたニューロン●ユニ
ットの近傍でのみ行なわれるように簡略化すると、この
ニューラル・ネットワークの学習処理(自己組織化特徴
マッピング)は以下の手順で行なうことができる。If we simplify this so that the learning of the synaptic connection strength considering the effect of this feedback connection is performed only in the vicinity of the optimally matched neuron unit, the learning process (self-organizing feature mapping) of this neural network is as follows. It can be done by following these steps.
# 1 : Wl(0)を乱数で初期化し、学習回数t
−0とする。ここで、Wi(L)= (wll(L).
wl2(L).・・・win(t) )である。#1: Initialize Wl(0) with a random number and set the number of learning times t
-0. Here, Wi(L)=(wll(L).
wl2(L). ...win(t)).
以下、各入力ベクトルXkに対してステップ#2.#3
の処理を繰り返す。Hereinafter, step #2 for each input vector Xk. #3
Repeat the process.
# 2 : t−t+1とし、次式を満足する最適合ニ
ューロン●ユニットCを求める。#2: Set t-t+1, and find the optimal neuron unit C that satisfies the following equation.
II Xk −we(t)If =wln ( If
Xk −W1(t)If l・・・(2)
ここで、Xk − (xkf, xk2. =−xk
n)、we(t)は最適合ニューロン・ユニットCのシ
ナプス結合強度である。II Xk −we(t) If = wln ( If
Xk −W1(t)If l...(2) Here, Xk − (xkf, xk2. =-xk
n), we(t) is the synaptic connection strength of the optimally fitting neuron unit C.
#3:iεN c(t)の場合はW i(t+1) −
W l(t) +α(t) x (Xk−wl(t
))とし、iεN c(t)以外の場合はWl(t+1
)−Wl(t)とする。#3: In the case of iεN c(t), W i(t+1) −
W l(t) +α(t) x (Xk−wl(t
)), and in cases other than iεN c(t), Wl(t+1
)−Wl(t).
ここで、α(1)は学習係数、N e(t)は最適合ニ
ューロン・ユニットCの近傍にある二二−ロン●ユニッ
トの集合であり、通常、α(t) +11 N c(t
)ともに、単調減少関数である。Here, α(1) is the learning coefficient, N e(t) is the set of 22-Ron● units in the vicinity of the optimal fitting neuron unit C, and usually α(t) +11 N c(t
) are both monotonically decreasing functions.
このような自己組織化特徴マッピングを行なうことによ
り、近傍にあるニューロン・ユニットのシナプス結合強
度は類似したものとなる。また、モデルパターン間の類
似度、相関性等の統計的性質を反映したシナプス結合強
度が獲得されるので、各モデルパターンのベクトル量子
化がなされ、モデルパターンの分類が可能となる。また
、任意の撮影画面の主被写体の位置の決定処理は最適合
ニューロン・ユニットCの決定処理と考えることができ
るが、これはステップ#2から推察されるように、演算
量が少なく高速な決定処理が可能である。By performing such self-organizing feature mapping, the synaptic connection strengths of neighboring neuron units become similar. Furthermore, since synaptic connection strengths reflecting statistical properties such as similarity and correlation between model patterns are obtained, vector quantization of each model pattern is performed and classification of model patterns becomes possible. Furthermore, the process of determining the position of the main subject in any photographic screen can be considered as the process of determining the optimal fit neuron unit C, but as can be inferred from step #2, this is a fast decision process with a small amount of calculation. Processing is possible.
以下、第5図〜第7図を参照してこの発明によるカメラ
の露出演算装置の実施例を説明する。第5図は実施例と
しての自動露出制御カメラのブロック図である。レンズ
1を介して入射された1画面の被写体の複数の領域毎の
輝度を検出する複数の受光素子2i(L−1〜n)が設
けられ、これらにより得られた各領域毎の輝度データD
iが正規化演算回路3に供給される。正規化演算回路3
は輝度データDiをニューラル・ネットワーク5に入力
できるようにOから1までの実数値に正規化し、上述し
た入力データパターンxkjを得る。Hereinafter, an embodiment of an exposure calculation device for a camera according to the present invention will be described with reference to FIGS. 5 to 7. FIG. 5 is a block diagram of an automatic exposure control camera as an example. A plurality of light-receiving elements 2i (L-1 to L-n) are provided to detect the luminance of each of a plurality of regions of a subject on one screen that is incident through the lens 1, and the luminance data D of each region obtained by these elements is provided.
i is supplied to the normalization calculation circuit 3. Normalization calculation circuit 3
normalizes the luminance data Di to a real value from 0 to 1 so that it can be input to the neural network 5, and obtains the above-mentioned input data pattern xkj.
正規化演算回路3の出力は既に学習により獲得されたシ
ナプス結合強度を持ち複数のニューロン・ユニットから
なる単一層のニューラル●ネットワーク5に入力される
。The output of the normalization calculation circuit 3 has the synaptic connection strength already acquired through learning, and is input to a single-layer neural network 5 consisting of a plurality of neuron units.
ニューラル・ネットワーク5は、輝度データxkjが入
力され、各ニューロン・ユニットのシナプス結合強度w
ilt)とのベクトル間距離Nl−Σ(xkj−wij
(t) ) 2を計算し、そのべj:\
クトル間距離の最小値Dc−sin (Nl )の検
索を行ない、その最小値を与えるニューロン・ユニット
に対応する露出補正値Exを出力する。なお、一般に、
ニューラル・ネットワーク5は測光領域総数の5〜20
倍程度のニューロン◆ユニットからなる。この露出補正
値情報は露出?fIr算回路4に入力される。撮影情報
入力部8からレンズの開放F値、絞り値、シャッタ速度
、フィルム感度、モード情報(シャッタ優先、絞り優先
等)も露出演算回路4に供給される。露出演算回路4は
モード情報に応じたアベックス演算(輝度値一開放F値
+フィルム感度一シャッタ速度十絞りlii!)と露出
補正演算とを行い、その結果をシャッタ制御回路6、絞
り制御回路7に供給する。The neural network 5 receives the luminance data xkj and calculates the synaptic connection strength w of each neuron unit.
ilt) and the vector distance Nl-Σ(xkj-wij
(t) ) 2 is calculated, the minimum value Dc-sin (Nl) of the vector j:\ vector distance is searched, and the exposure correction value Ex corresponding to the neuron unit that provides the minimum value is output. Furthermore, in general,
Neural network 5 is 5 to 20 of the total number of photometric areas
Consists of about twice as many neuron◆ units. Is this exposure compensation value information exposure? The signal is input to the fIr calculation circuit 4. The lens's open F-number, aperture value, shutter speed, film sensitivity, and mode information (shutter priority, aperture priority, etc.) are also supplied from the photographing information input section 8 to the exposure calculation circuit 4. The exposure calculation circuit 4 performs abex calculation (brightness value - open F value + film sensitivity - shutter speed 10 aperture lii!) according to the mode information and exposure correction calculation, and sends the results to the shutter control circuit 6 and the aperture control circuit 7. supply to.
第6図にニューラル・ネットワーク5の具体的な回路構
成を示す。ニューラル・ネットワーク5は種々のデータ
格納用のメモリ9,10.11.12と、各種の演算回
路13.14からなる。メモリとしては、正規化演算回
路3から出力された正規化輝度データxkjを格納する
メモリ9、学習により獲得されたシナプス結合強度wi
lt)を格納するメモリ10、正規化輝度データxkj
とシナプス結合強度wlj(t)とのベクトル間距MN
iを格納するメモリ11、学習済みのニューラル・ネッ
トワーク上のニューロン・ユニットと入力パターンの露
出補正値との対応関係を示す露出補正値情報を格納する
メモリ12が設けられる。演算回路としては、正規化輝
度データxkjとシナプス結合強度wlj(t)とから
ベクトル間距離Nlを演算する回路13と、そのベクト
ル間距11ftN1の最小値を検出する回路14が設け
られる。FIG. 6 shows a specific circuit configuration of the neural network 5. The neural network 5 consists of memories 9, 10, 11, 12 for storing various data, and various arithmetic circuits 13, 14. The memories include a memory 9 that stores the normalized luminance data xkj output from the normalization calculation circuit 3, and a memory 9 that stores the synaptic connection strength wi acquired through learning.
lt), a memory 10 for storing normalized luminance data xkj
and the synaptic connection strength wlj(t) vector distance MN
A memory 11 for storing i, and a memory 12 for storing exposure correction value information indicating the correspondence between neuron units on the learned neural network and exposure correction values of input patterns are provided. As the calculation circuits, a circuit 13 that calculates the inter-vector distance Nl from the normalized luminance data xkj and the synaptic connection strength wlj(t), and a circuit 14 that detects the minimum value of the inter-vector distance 11ftN1 are provided.
正規化演算回路3から出力された正規化輝度データxk
jはニューラル◆ネットワーク5内のメモリ9に格納さ
れる。学習により獲得されたシナプス結合強度w1j(
t)は予めメモリ10に格納されている。メモリ9、1
0のデータはベクトル間距離演算回路13に供給され、
そこでベクトル間距離N1−Σ(xkj−wlHt))
’の演算が行なれ、,lt1
演算結果がメモリ11に格納される。このベクトル間距
離の演算はニューロン・ユニット毎に独立しているので
、並列演算が可能である。そのため、ベクトル間距離演
算回路13はそれぞれがニューロン●ユニット毎の処理
を行なう複数のプロセッサで構威され、高速処理が可能
である。また、ニューラル・ネットワーク専用演算素子
、つまりニューロチップではこの演算処理を各ニューロ
ン・ユニットが受け持つ。Normalized luminance data xk output from the normalization calculation circuit 3
j is stored in the memory 9 in the neural ◆ network 5. The synaptic connection strength w1j (
t) is stored in the memory 10 in advance. Memory 9, 1
The data of 0 is supplied to the vector distance calculation circuit 13,
Therefore, the distance between vectors N1-Σ(xkj-wlHt))
' is performed, and the result of the calculation is stored in the memory 11. Since this inter-vector distance calculation is independent for each neuron unit, parallel calculation is possible. Therefore, the inter-vector distance calculation circuit 13 is composed of a plurality of processors, each of which performs processing for each neuron unit, and is capable of high-speed processing. In addition, in a neural network dedicated arithmetic element, that is, a neurochip, each neuron unit is responsible for this arithmetic processing.
最小値検出回路14は得られたベクトル間距離Nlから
その最小値をもつ最適合ニューロン争ユニットCを検出
する。露出演算回路4は予め決められメモリ12に格納
されている対応関係からこの最適合ニューロン・ユニッ
トに対応する露出補正値情報Exを読出し、得られた最
適合ニューロン・ユニットに対応する露出補正値情報E
xと撮影情報入力部8から供給された開放F値、絞り値
、シャッタ速度、フィルム感度、モード情報とからアベ
ックス演算と露出袖正演算とを行い、その結果をシャッ
タ制御回路6、絞り制御装置7に供給する。The minimum value detection circuit 14 detects the optimal combination competition unit C having the minimum value from the obtained inter-vector distance Nl. The exposure calculation circuit 4 reads out the exposure correction value information Ex corresponding to the optimum neuron unit from the correspondence relationship determined in advance and stored in the memory 12, and reads out the exposure correction value information Ex corresponding to the obtained optimum neuron unit. E
x and the aperture value, aperture value, shutter speed, film sensitivity, and mode information supplied from the shooting information input unit 8, perform avex calculation and exposure correction calculation, and send the results to the shutter control circuit 6 and the aperture control device. Supply to 7.
以上により、入力画面内の被写体の情景に適切な自動露
出制御が可能になる。As described above, it becomes possible to perform automatic exposure control appropriate to the scene of the subject within the input screen.
なお、露出補正値情報としては、ニューロン・ユニット
の出力を定義した(1)式:yi−f(Σw 1jX
x kj)により得られた値の最大値からp+
順に選んだ複数のニューロン●ユニットに対応スる複数
の露出補正値をニューラル・ネットワークの出力値に比
例して荷重平均した露出補正値を用いることも可能であ
る。また、学習した結果のみを応用する場合のニューラ
ル・ネットワークは上述した構成だけで可能であるが、
初期学習、及びカメラ操作者にニューラル●ネットワー
クを適応させる場合の追加学習等を行なうには、次に説
明する学習回路構成が必要である。In addition, as exposure correction value information, equation (1) defining the output of the neuron unit: yi-f(Σw 1jX
Using an exposure compensation value that is a weighted average of multiple exposure compensation values corresponding to multiple neurons selected in order of p+ from the maximum value obtained by x kj) in proportion to the output value of the neural network. is also possible. In addition, a neural network that applies only the learned results is possible with only the above configuration, but
In order to perform initial learning and additional learning when adapting the neural network to a camera operator, the following learning circuit configuration is required.
第7図にニューラル・ネットワークの学習のための回路
構戊を説明する。この構戊は第6図に示した回路にシナ
プス結合強度演算回路16と露出補正値情報設定回路1
8とを付加するだけで実現される。FIG. 7 explains the circuit configuration for neural network learning. This structure includes a synaptic connection strength calculation circuit 16 and an exposure correction value information setting circuit 1 in the circuit shown in FIG.
This can be achieved by simply adding 8.
その動作において、先ず、ニューラル・ネットワークの
各ニューロン・ユニットのシナプス結合強度wljを小
さい乱数で初期化しておく。多数の学習用のモデルパタ
ーンについての各領域毎の輝度データをメモリ15に、
露出補正値に関するデータExをメモリ17に格納して
おく。メモリ15の輝度データを使用して第6図の場合
と同様にベクトル間距離の最小値の検出により最適合ニ
ューロン・ユニットを決定した後、シナプス結合強度演
算回路16はその最適合ニューロン●ユニットを中心と
した近傍ニューロン・ユニット群のシナプス結合強度W
1を次式により修正学習する。In this operation, first, the synaptic connection strength wlj of each neuron unit of the neural network is initialized with a small random number. Luminance data for each region regarding a large number of learning model patterns is stored in the memory 15.
Data Ex regarding exposure correction values is stored in the memory 17. After determining the optimal neuron unit by detecting the minimum value of the distance between vectors using the luminance data in the memory 15 as in the case of FIG. 6, the synaptic connection strength calculation circuit 16 determines the optimal neuron unit. Synaptic connection strength W of a group of neuron units near the center
1 is modified and learned using the following equation.
ただし、iεNc(t)である。However, iεNc(t).
Wl(t+1)
−Wt(t)+α(t) X (Xk −Wi(t))
・・・(3)ここで、α(1)は学習係数でO〜1
の実数値をとり、Nc(t)は最適合ニューロン・ユニ
ットCの近傍にあるニューロン・ユニットの集合で、そ
の初期値はニューラル・ネットワークの大きさに比べて
それほど小さくないものとし、α(1),Nc(L)と
もに単調減少関数である。tは学習回数で、最大学習回
数t waxまで繰り返し学習する。Wl(t+1) −Wt(t)+α(t) X (Xk −Wi(t))
...(3) Here, α(1) is the learning coefficient O~1
Nc(t) is the set of neuron units near the optimal neuron unit C, its initial value is not very small compared to the size of the neural network, and α(1 ) and Nc(L) are both monotonically decreasing functions. t is the number of learning times, and learning is repeated until the maximum number of learning times t wax.
全てのモデルパターンについての学習を終了した後、露
出補正値情報設定回路18はメモリ17に格納されてい
る各モデルパターンの露出補正値がニューラル●ネット
ワークのどのニューロン・ユニットと対応付けられるか
を次の関係により調べ、その結果をメモリ12内に露出
補正値情報として設定する。After completing the learning for all model patterns, the exposure compensation value information setting circuit 18 determines with which neuron unit of the neural network the exposure compensation value of each model pattern stored in the memory 17 is associated. The result is set in the memory 12 as exposure correction value information.
yi (=f (Σwijx x kj) )≧θk
(第k番一へ
目の入力パターンにおける閾値)の場合、ニューロン・
ユニットiに第k番目の入力パターンの露出補正値を対
応させる。yi (=f (Σwijx x kj) )≧θk
(threshold value in the k-th input pattern), if the neuron
The exposure correction value of the k-th input pattern is associated with the unit i.
学習済みニューラル・ネットワークにおいて、カメラ操
作者に適応させるためさらに追加学習を行なう場合では
、ある任意の入力パターンが与えられたとき、ベクトル
間距離の最小値検出により最適合ニューロン・ユニット
を決定した後、そのニューロン・ユニットの近傍にあり
、かつ対応する露出補正値が共通であるニューロン・ユ
ニット群Nc’のシナプス結合強度Wlを次式によりシ
ナプス結合強度演算同路16で修正学習する。When performing additional learning to adapt a trained neural network to a camera operator, when an arbitrary input pattern is given, the optimal neuron unit is determined by detecting the minimum value of the distance between vectors. , the synaptic connection strength Wl of the neuron unit group Nc' which is in the vicinity of the neuron unit and has a common corresponding exposure correction value is corrected and learned by the synaptic connection strength calculation circuit 16 using the following equation.
Wl =WI +(20 X (Xk −Wi )
− (4)ただし、LεNc’で、αOは学習係数であ
る。Wl = WI + (20
- (4) However, in LεNc', αO is a learning coefficient.
この発明は上述した実施例に限定されずに、種々変形可
能である。説明した学習方法は教師なし学習であるが、
入力パターンを与えた時にニューラル・ネットワークの
出力と教師データ(入力パターンの露出補正値)とを比
較し、このニューラル・ネットワークが正しく発火して
いればシナプス結合強度を入力パターンに近づけ、また
誤って発火していればシナプス結合強度を入力パターン
から遠ざけるような教師付き学習も可能である。This invention is not limited to the embodiments described above, and can be modified in various ways. The learning method explained is unsupervised learning,
When an input pattern is given, the output of the neural network is compared with the teaching data (exposure correction value of the input pattern), and if the neural network fires correctly, the synaptic connection strength approaches the input pattern, and if it fires incorrectly, it If the signal is firing, supervised learning that moves the synaptic connection strength away from the input pattern is also possible.
また、入力値として教師データをも含めて学習すること
もできる。なお、追加学習前の初期学習状態にいつでも
復帰可能にしておくためには、初期学習状態におけるシ
ナプス結合強度をメモリに格納しておく必要がある。It is also possible to learn by including teaching data as input values. Note that in order to be able to return to the initial learning state before additional learning at any time, it is necessary to store the synaptic connection strength in the initial learning state in memory.
さらに、ニューラル・ネットワークに自己組織化させる
入力データとしては、上述した画面全体の輝度データだ
けでなく、自動焦点機構と連係させて合焦位置及びその
近傍の輝度データや、主彼写体及びその近傍の輝度デー
タを用いてもよい。Furthermore, the input data that the neural network self-organizes is not only the brightness data of the entire screen mentioned above, but also the brightness data of the focus position and its vicinity in conjunction with the automatic focusing mechanism, as well as the main subject and its surroundings. Nearby luminance data may also be used.
また、ニューラル・ネットワークの自己組織化を使用し
ないで、主被写体の輝度データをスポット輝度値として
露出制御を行なう主被写体スポット輝度制御、主被写体
の輝度データを重視してその近傍の輝度データも加味し
た主被写体重点輝度制御を行なうことも可能である。In addition, there is a main subject spot brightness control that performs exposure control using the brightness data of the main subject as a spot brightness value without using the self-organization of a neural network. It is also possible to perform main subject weight point brightness control.
また、実施例は自動露出制御カメラを説明したが、この
発明は決定された露出情報をファインダ内等に表示する
だけのマニュアル露出制御カメラに適応してもよい。Furthermore, although the embodiments have been described with respect to an automatic exposure control camera, the present invention may be applied to a manual exposure control camera that only displays determined exposure information in a viewfinder or the like.
以上説明したようにこの発明によれば、被写体の情景に
応じた露出補正値の決定のような従来は定式化、プログ
ラム化の困難であった処理において、ニューラル・ネッ
トワークに多数のモデルパターンにおける各輝度データ
ベクトルを学習させておくだけで、多様な画面に対する
露出補正値を自動的に、かつ、高速に得ることができる
カメラの露出演算装置を提供することができる。そして
、ニューラル◆ネットワークの並列処理を利用すれば、
さらに高速化が可能である。また、カメラ操作者の好み
の構図や、構図の癖をニューラル・ネットワークに学習
させ、ニューラル・ネットワークをカメラ操作者に適応
させることにより、撮影者の意図に沿った露出が自動的
に決定できる。As explained above, according to the present invention, in processes that were conventionally difficult to formulate and program, such as determining exposure compensation values according to the scene of the subject, the neural network It is possible to provide an exposure calculation device for a camera that can automatically and quickly obtain exposure correction values for various screens simply by learning luminance data vectors. Then, if we use the parallel processing of neural networks,
Even higher speeds are possible. In addition, by having a neural network learn the camera operator's preferred compositions and compositional habits, and adapting the neural network to the camera operator, exposure can be automatically determined in accordance with the photographer's intentions.
第1図はこの発明によるカメラの露出演算装置の概略を
示す図、第2図はニューロン・ユニットのモデルを示す
図、第3図はニューラル・ネットワークのモデルを示す
図、第4図はフィードバック結合によるシナプス結合強
度の変化を示す図、第5図はこの発明の実施例としての
自動露出制御カメラの実施例のブロック図、第6図はニ
ューラル・ネットワークの回路構成を示す図、第7図は
ニューラル・ネットワークを学習させるための回路構成
を示す図である。
1・・・レンズ、2・・・受光素子、3・・・正規化演
算回路、4・・・露出演算回路、5・・・ニューラル・
ネットワーク、6・・・シャッタ!IJOl1回路、7
・・・絞り制御同路、8・・・撮影情報入力部。Fig. 1 is a diagram showing an outline of the camera exposure calculation device according to the present invention, Fig. 2 is a diagram showing a model of a neuron unit, Fig. 3 is a diagram showing a model of a neural network, and Fig. 4 is a diagram showing a feedback connection. FIG. 5 is a block diagram of an embodiment of an automatic exposure control camera as an embodiment of the present invention. FIG. 6 is a diagram showing the circuit configuration of a neural network. FIG. 2 is a diagram showing a circuit configuration for learning a neural network. DESCRIPTION OF SYMBOLS 1... Lens, 2... Light receiving element, 3... Normalization calculation circuit, 4... Exposure calculation circuit, 5... Neural...
Network, 6...Shutter! IJOl1 circuit, 7
. . . Aperture control circuit, 8 . . . Photographing information input unit.
Claims (1)
ニューロン・ユニットからなり、各ニューロン・ユニッ
トには前記測定手段から出力される各点毎の輝度データ
の集合、すなわち輝度データベクトルが所定のシナプス
結合強度を介して入力される単一層のニューラル・ネッ
トワークと、モデルパターンの輝度データベクトルに選
択的反応をするようにシナプス結合強度を修正すること
により前記所定のシナプス結合強度を獲得し、前記モデ
ルパターンの輝度データベクトルを前記ニューラル・ネ
ットワークに再度入力したときの前記ニューラル・ネッ
トワークの出力と前記モデルパターンの露出補正値とを
対応づける学習手段と、 任意の撮影画面の輝度データベクトルを前記ニューラル
・ネットワークに入力したときの前記ニューラル・ネッ
トワークの出力に応じて露出を決定する手段とを具備す
るカメラの露出演算装置。[Claims] Consisting of means for measuring the brightness of a plurality of points within a photographic screen and a plurality of neuron units, each neuron unit having a set of brightness data for each point output from the measuring means. , i.e., a single layer neural network in which the luminance data vector is input via a predetermined synaptic connection strength, and a neural network that receives said predetermined synaptic connection strength by modifying the synaptic connection strength to selectively respond to the luminance data vector of the model pattern. learning means for acquiring synaptic connection strengths and associating an output of the neural network with an exposure correction value of the model pattern when the luminance data vector of the model pattern is inputted again to the neural network; 1. An exposure calculation device for a camera, comprising: means for determining exposure according to an output of the neural network when a brightness data vector of a screen is input to the neural network.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1307324A JP2909111B2 (en) | 1989-11-27 | 1989-11-27 | Camera exposure calculation device |
US07/916,792 US5227830A (en) | 1989-11-27 | 1992-07-17 | Automatic camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1307324A JP2909111B2 (en) | 1989-11-27 | 1989-11-27 | Camera exposure calculation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH03167535A true JPH03167535A (en) | 1991-07-19 |
JP2909111B2 JP2909111B2 (en) | 1999-06-23 |
Family
ID=17967771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1307324A Expired - Lifetime JP2909111B2 (en) | 1989-11-27 | 1989-11-27 | Camera exposure calculation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2909111B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2019106730A1 (en) * | 2017-11-28 | 2020-11-19 | 株式会社ニコン | Microscope system |
JP2024028568A (en) * | 2017-06-01 | 2024-03-04 | 株式会社東芝 | Image processing systems and medical information processing systems |
-
1989
- 1989-11-27 JP JP1307324A patent/JP2909111B2/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024028568A (en) * | 2017-06-01 | 2024-03-04 | 株式会社東芝 | Image processing systems and medical information processing systems |
JPWO2019106730A1 (en) * | 2017-11-28 | 2020-11-19 | 株式会社ニコン | Microscope system |
US11714274B2 (en) | 2017-11-28 | 2023-08-01 | Nikon Corporation | Microscope system |
Also Published As
Publication number | Publication date |
---|---|
JP2909111B2 (en) | 1999-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2761391B2 (en) | Focus detection device | |
Bianco et al. | Adaptive color constancy using faces | |
US12299931B2 (en) | Method and apparatus for camera calibration | |
JP6812387B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
CN110895802B (en) | Image processing method and device | |
WO2001046753A1 (en) | Scene recognition method and system using brightness and ranging mapping | |
CN108076268A (en) | The equipment, system and method for auto-focusing ability are provided based on object distance information | |
US5227830A (en) | Automatic camera | |
JPH10142490A (en) | Environment recognition device and camera | |
JPH1125263A (en) | Object feature point detector, focus adjusting device, exposure controller and camera | |
JP2535988B2 (en) | Three-dimensional multi-pattern photometer | |
JPH0373936A (en) | Camera and shooting lens | |
JPH03167535A (en) | Exposure arithmetic unit for camera | |
JPH0317636A (en) | Camera | |
US5319416A (en) | Exposure calculation device for camera | |
JP2001356384A (en) | Photometric device | |
JP3630965B2 (en) | Focus detection apparatus, camera, and focus detection method | |
Fadzil et al. | Human face recognition using neural networks | |
JP3217052B2 (en) | Camera focus detection device | |
US5266984A (en) | Exposure calculating apparatus for camera | |
JP2793816B2 (en) | Camera with learning function | |
JPH03164727A (en) | Focus detecting photometric device | |
JPH0553169A (en) | Exposure arithmetic device | |
JP2022125743A (en) | ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM FOR ELECTRONIC DEVICE | |
JP3240705B2 (en) | Camera photometer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090402 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090402 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100402 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100402 Year of fee payment: 11 |