[go: up one dir, main page]

JPH0296723A - Exposure controller - Google Patents

Exposure controller

Info

Publication number
JPH0296723A
JPH0296723A JP63250464A JP25046488A JPH0296723A JP H0296723 A JPH0296723 A JP H0296723A JP 63250464 A JP63250464 A JP 63250464A JP 25046488 A JP25046488 A JP 25046488A JP H0296723 A JPH0296723 A JP H0296723A
Authority
JP
Japan
Prior art keywords
output
layer
exposure
learning
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63250464A
Other languages
Japanese (ja)
Other versions
JP2793815B2 (en
Inventor
Masabumi Yamazaki
正文 山崎
Toshiyuki Toyofuku
敏之 豊福
Junichi Ito
順一 伊藤
Shinichi Kodama
児玉 晋一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP63250464A priority Critical patent/JP2793815B2/en
Priority to US07/415,179 priority patent/US4978990A/en
Publication of JPH0296723A publication Critical patent/JPH0296723A/en
Application granted granted Critical
Publication of JP2793815B2 publication Critical patent/JP2793815B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)

Abstract

PURPOSE:To take pictures of any object patterns at intended exposure by provid ing a network composed of an input layer, an intermediate layer and an output layer. CONSTITUTION:Through the use of a neuro-computer 25, exposure control and focal point detection are performed. The neuro-computer 25 is composed of many units, which are classified to be the input layer, the intermediate layer, and the output layer. Each unit is connected in this order; input layer intermediate layer output layer, and the network is formed. The strength of the connection is determined by learning. Namely, the layers are coupled in order with the strength of the connection that they learn so that an exposure correcting amount of average photometry is outputted according to an object pattern when it is inputted. In such a manner an output from a photoelectric conversion element is inputted to the network, and exposure is controlled according to an output from the network and those from the photoelectric conversion elements. Thus, any object patterns can be photographed at intended exposure.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、どのような被写体に対してもある程度の条
件を満たす撮影を行なうことができる露出制御装置に関
する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an exposure control device that can photograph any subject that satisfies certain conditions.

[従来の技術〕 このような露出制御装置の従来例として、特開昭57−
42026号公報に記載した装置がある。
[Prior Art] As a conventional example of such an exposure control device, Japanese Patent Application Laid-Open No. 1986-
There is an apparatus described in Japanese Patent No. 42026.

これは、被写界を複数の領域に分けて測光し、各領域に
対応した複数の測光出力を発生するマルチIll光装置
において、最大輝度に応じて、最大輝度、最大輝度と平
均輝度の中間の輝度、平均輝度、平均輝度と最小輝度の
中間輝度、最小輝度の中から1つを選択して、それによ
り露出を制御する。また、特開昭61−173226号
公報には、画面中央部のスポット測光値と画面全体の平
均測光値とから逆光状態を検知し、警告表示を行なった
り露出値を補正したりするものにおいて、逆光検知に被
写体距離情報を用いて検知ミスをなくす技術が開示され
ている。
In a multi-Ill light device that divides the subject into multiple areas and generates multiple photometric outputs corresponding to each area, depending on the maximum brightness, the maximum brightness, the intermediate brightness between the maximum brightness and the average brightness, etc. The exposure is controlled by selecting one of the brightness, the average brightness, the intermediate brightness between the average brightness and the minimum brightness, and the minimum brightness. Furthermore, Japanese Patent Application Laid-Open No. 173226/1983 discloses a device that detects a backlight condition from a spot photometry value at the center of the screen and an average photometry value for the entire screen, and displays a warning or corrects the exposure value. A technology has been disclosed that uses subject distance information for backlight detection to eliminate detection errors.

[発明が解決しようとする課題] これらの従来例は、マイクロコンピュータによる被写体
パターンの認識であるため、ある限られた被写体パター
ンにしか適応できなかったり、誤まった検出を行ない意
図しない写真ができる等の欠点があった。また、多くの
被写体パターンに対して意図通りの露出制御を行なおう
とすると、被写体パターン、あるいは明るさが定式化で
きないため、プログラムが膨大になったり、演算時間が
長くなるなどの欠点がある。さらに、メーカが意図した
通りの写真ができたとしても、写真の評価は個人の感性
によるところが大きいため、必ずしも全てのユーザに対
してよい結果が得られるとは限らない。
[Problems to be Solved by the Invention] These conventional examples recognize subject patterns using a microcomputer, so they may be applicable only to a limited number of subject patterns, or may make incorrect detections, resulting in unintended photographs. There were drawbacks such as. Furthermore, when attempting to perform intended exposure control for many subject patterns, the subject patterns or brightness cannot be formulated, resulting in drawbacks such as an enormous program and a long computation time. Furthermore, even if a photograph is produced as intended by the manufacturer, the evaluation of the photograph largely depends on the individual's sensibilities, so good results may not necessarily be obtained for all users.

この発明の目的は、これらの欠点を解決するため、各種
の人力に対して所望の出力を発生するネットワークによ
り被写体のパターンを検出し、その結果に基づいて露出
制御を行なうことにより、あらゆる被写体パターンに対
して意図する露出で写真をとることができる露出制御装
置を提供することである。
The purpose of this invention is to solve these drawbacks by detecting the pattern of the subject using a network that generates the desired output for various types of human power, and controlling the exposure based on the result. To provide an exposure control device capable of taking a photograph with an intended exposure.

[課題を解決するための手段及び作用]この発明による
露出制御装置には、被写体パターンを入力した時に被写
体パターンに応じて平均M1光に対する露出補正量を出
力するように学習された結合の強さで順次結合される入
力層、中間層、出力層からなるネットワークが設けられ
る。複数の充電変換素子の出力がネットワークに入力さ
れ、ネットワークの出力と複数の光78変換素子の出力
に基づいて露出が制御される。
[Means and effects for solving the problem] The exposure control device according to the present invention has a coupling strength that has been learned to output an exposure correction amount for average M1 light according to the subject pattern when the subject pattern is input. A network is provided that consists of an input layer, a middle layer, and an output layer that are sequentially connected. The outputs of the plurality of charging conversion elements are input to the network, and exposure is controlled based on the output of the network and the output of the plurality of light 78 conversion elements.

[実施例] 以下、図面を参照して、この発明による露出制御装置の
実施例を説明する。第1図にそのブロック図を示す。第
1図かられかるように、この実施例は、ニューロコンピ
ュータを使用して、露出制御、焦点検出を行なっている
。そこで、先ず、第2図〜第12図を参照して、ニュー
ロコンピュータについて説明する。
[Embodiments] Hereinafter, embodiments of the exposure control device according to the present invention will be described with reference to the drawings. FIG. 1 shows its block diagram. As can be seen from FIG. 1, this embodiment uses a neurocomputer to perform exposure control and focus detection. First, the neurocomputer will be explained with reference to FIGS. 2 to 12.

第2図にニューロコンピュータのモデルを示す。Figure 2 shows a model of a neurocomputer.

このモデルはルメルハルト(Rumelhart )等
によって提案されたもので、バックプロパゲーション(
Back Propagat ton)モデル(以下、
BPモデルと略す)と呼ばれる。ニューロコンピュータ
は多数のユニットにューロン)からなり、ユニットは人
力層、中間層、出力層に分類されている。各ユニットは
入力層→中間層→出力層の方向に接続され、ネットワー
クにューラルネット)を形成する。各ユニットの結合の
強さは学習により決定される。ただし、各層内でのユニ
ット相互の接続はない。各ユニットのモデルを第2図に
示す。
This model was proposed by Rumelhart et al. and uses backpropagation (
Back propagation ton) model (hereinafter referred to as
It is called the BP model (abbreviated as BP model). A neurocomputer consists of many units (neurons), and the units are classified into a human layer, an intermediate layer, and an output layer. Each unit is connected in the direction of input layer → middle layer → output layer, forming a network (neural net). The strength of the connections between each unit is determined by learning. However, there is no mutual connection between units within each layer. Figure 2 shows the model of each unit.

次に、このBPモデルの学習アルゴリズムの原理を説明
する。あるパターンPを入力層に与えた時、出力層に現
われる実際の出方値を0pj0とし、その時の望ましい
出力値(以下、教師信号という)をtpjとすると、両
者の差Epjは次のように表わされる。
Next, the principle of this BP model learning algorithm will be explained. When a certain pattern P is given to the input layer, the actual output value that appears in the output layer is 0pj0, and the desired output value at that time (hereinafter referred to as the teacher signal) is tpj, then the difference between the two Epj is as follows. expressed.

Epj−1/2 (tpj  0pj0) 2   ・
・・(1)学習させるには、この誤差Epjを減少させ
るように、全てのユニットの結合の強さを変えればよい
Epj-1/2 (tpj 0pj0) 2 ・
(1) To perform learning, it is sufficient to change the strength of connections of all units so as to reduce this error Epj.

パターンPを与えたときの(K−1)層のi番目のユニ
ットからに層のj番目のユニットに対する結合の強さW
jlの変化量を次のように定義する。
When pattern P is given, the strength of coupling W from the i-th unit of the (K-1) layer to the j-th unit of the layer
The amount of change in jl is defined as follows.

ここで、Kは出力層を0として、入力層になるにつれて
増える。
Here, K is set to 0 at the output layer and increases toward the input layer.

Δp WjlKo: −a E p / 9 WjlK
−(2)aEp/aWjlK = (f3Ep/f3netpjK) (a n e t pjK/ a WjlK)    
 −(3)ここで、n e t p3 −ΣWjkK−
Opk”であ、に ム る。
Δp WjlKo: -a E p / 9 WjlK
-(2) aEp/aWjlK = (f3Ep/f3netpjK) (ane t pjK/ a WjlK)
−(3) Here, net p3 −ΣWjkK−
Opk"

また、fをシグモイド(SigIlold)関数として
、0pkK= f (n e tpkK)と表わすと、
(3)式は次のように変形される。シグモイド関数を第
3図に示す。
Also, if f is expressed as a sigmoid (SigIold) function, then 0pkK=f (ne tpkK),
Equation (3) is transformed as follows. The sigmoid function is shown in FIG.

a E pj/ a WJIK −一δpjK・opiK”l         ・・・
(4)ここで、δpj11第に層における誤差の後向き
伝temであり、δpjK−−F) Epj/a n 
e tpjKである。従って、(2)式は次のように変
形される。ここで、ηは定数である。
a E pj/ a WJIK -1 δpjK・opiK"l...
(4) Here, δpj is the backward propagation of the error in the 11th layer, and δpjK--F) Epj/a n
e tpjK. Therefore, equation (2) is transformed as follows. Here, η is a constant.

ΔpWjiK −η・δpjK−OpIK+1        ・・・
(5)出カニニットの場合は、Epj−1/ 2 (t
 pj −OpJ )  、0pjO−f (netp
jO)なので1.0   2 出力層の後向き伝播量δpj0は、次のようになる。
ΔpWjiK −η・δpjK−OpIK+1 ・・・
(5) In the case of crab knit, Epj-1/2 (t
pj −OpJ ), 0pjO−f (netp
jO), so 1.0 2 The backward propagation amount δpj0 of the output layer is as follows.

δpjO −(t pj−0pjO)・f’ (ΣW j k O
・Opk’)  ・・・(6)議 中間ユニットの場合は、各層内でのユニットの結合はな
いので、誤差の後向き伝播mは次のようになる。
δpjO −(t pj−0pjO)・f′ (ΣW j k O
・Opk') (6) In the case of intermediate units, there is no coupling of units within each layer, so the backward propagation of error m is as follows.

δpjK −−a Ep / a n e tpjK(aOpiK
/a n e epjK) )−Σδpk” WkjK
−’−f′(n e t pjに)& 一ΣδpkK−1wkjK−1 夷 ・f’  (ΣWjk  −Opk”’ )     
・・・(7)橿。
δpjK −−a Ep / ane tpjK (aOpiK
/a ne epjK) )−Σδpk” WkjK
-'-f' (net pj) & ΣδpkK-1wkjK-1 夷・f' (ΣWjk -Opk"')
...(7) Kashi.

(7)式はδの再帰関数である。Equation (7) is a recursive function of δ.

Δp WjlKを一般的に定式化すると、次のようにな
る。
A general formulation of Δp WjlK is as follows.

ΔpWjlK(n+1) 一ηδI)J  ・Opl   +aΔpWHに (n
 )  −(8)、K      K+ま ただし、ΔpWjlK (0)−0であり、nは学習の
回数を表わす。(8)式の右辺の第2項は誤差の振動を
減らし収束を速めるために加えている。
ΔpWjlK(n+1) - ηδI)J ・Opl +aΔpWH (n
) - (8), K K+, where ΔpWjlK (0) - 0, where n represents the number of times of learning. The second term on the right side of equation (8) is added to reduce error vibration and speed up convergence.

(8)式から、結合の強さは次のように更新される。From equation (8), the bond strength is updated as follows.

WjIK(n+1) −Wj)  (n)+ΔpWjIK(n)(K  −0
,1,2,・・・)      ・・・(9)ここで、
シグモイド関数flを fl−1/(1+e−0e”)   −(10)で定義
するとfl ’ −fi  (1−fl )であるので
後向き伝播量は次式のように簡単化される。
WjIK(n+1) −Wj) (n)+ΔpWjIK(n)(K −0
,1,2,...) ...(9) Here,
When the sigmoid function fl is defined as fl-1/(1+e-0e")-(10), fl'-fi (1-fl), so the amount of backward propagation can be simplified as shown in the following equation.

出カニニットの場合: δpj’ =OpJ(1−Opjo)(tpj−Opjo)  ・
・・(11)、0 中間ユニットの場合; δpjK −OpjK(1−OpjK) 以上かられかるように、ΔWの計算は出力層のユニット
から始めて、中間層のユニットへ移る。
In the case of output crab knit: δpj' = OpJ (1-Opjo) (tpj-Opjo) ・
...(11), 0 In case of intermediate unit; δpjK - OpjK (1 - OpjK) As can be seen from the above, the calculation of ΔW starts from the output layer unit and moves to the intermediate layer unit.

このように学習は入力データの処理とは逆方向に進む。In this way, learning proceeds in the opposite direction to the processing of input data.

従って、BPモデルによる学習は次のように行われる。Therefore, learning using the BP model is performed as follows.

先ず、学習用のデータを人力し、結果を出力する。次に
、結果の誤差(実際の出力と教師信号との差)を減らす
ように結合の強さを変える。
First, the training data is manually processed and the results are output. Next, the strength of the coupling is changed to reduce the resulting error (the difference between the actual output and the teacher signal).

そして、再び、学習用データを入力する。この動作を、
ΔWが収束するまで繰り返す。
Then, input the learning data again. This action
Repeat until ΔW converges.

第5図にBPモデルの基本回路構成を示す。FIG. 5 shows the basic circuit configuration of the BP model.

ランダムアクセスメモリ(以下RAMと記す)1は結合
の強さWjlを格納し、層毎に1(−1〜NのNページ
から成る。RAM2はパターンPを与えたときの結合の
強さWjlの資化量ΔWjlを格納し、k−1〜NのN
ページから成る。RAM3は誤差の後向き伝f!lδp
jを格納し、k−0〜Nの(N+1)ページから成る。
Random access memory (hereinafter referred to as RAM) 1 stores the strength of connection Wjl, and consists of N pages of 1 (-1 to N) for each layer.RAM2 stores the strength of connection Wjl when pattern P is given. Store the amount of assimilation ΔWjl, and set N of k-1 to N
Consists of pages. RAM3 is the backward transmission of error f! lδp
j, and consists of (N+1) pages from k-0 to N.

RAM4は各ユニットの出力値Opjを格納し、k−0
〜Nの(N+1)ページから成る。5はOpjの演算回
路、6はδpjの演算回路、7はΔp Wjlの演算回
路である。9は全体のシーケンスを制御するシーケンス
コントローラである。
RAM4 stores the output value Opj of each unit, k-0
~N (N+1) pages. 5 is an operational circuit for Opj, 6 is an operational circuit for δpj, and 7 is an operational circuit for Δp Wjl. 9 is a sequence controller that controls the entire sequence.

第5図のBPモデルによる学習のプロセスを説明する。The learning process using the BP model shown in FIG. 5 will be explained.

ここでは、ノイマン型のコンピュータによりBPモデル
をシミュレーションした場合の動作を、第6図〜第9図
のフローチャートを参照して説明する。第6図はOpj
演算のフローチャート、第7図はδpj演算のフローチ
ャート、第8図はWpj演算のフローチャート、第9図
は学習のレベル判定のフローチャートである。
Here, the operation when the BP model is simulated by a Neumann type computer will be explained with reference to the flowcharts of FIGS. 6 to 9. Figure 6 shows Opj
7 is a flowchart of the δpj calculation, FIG. 8 is a flowchart of the Wpj calculation, and FIG. 9 is a flowchart of the learning level determination.

ステップ1(Sl)でRAMI内の結合の強さWjlを
ランダムな値に初期化する。ステップ2で入力値0pj
N+1をRAM4に設定し、ステップ3〜ステツプ9で
演算回路5により入力層から出力層に向かって順にユニ
ット出力値0pjKを演算していく。
In step 1 (Sl), the coupling strength Wjl in RAMI is initialized to a random value. Input value 0pj in step 2
N+1 is set in the RAM 4, and in steps 3 to 9, the unit output value 0pjK is calculated by the arithmetic circuit 5 in order from the input layer to the output layer.

次に、第7図のステップ11〜ステツプ20でmW回路
6により出力値0pj0と望ましい出力を示す教師信号
t pjとから(11)式に従って出力層の誤差の後向
き伝播量δpj0を求める。
Next, in steps 11 to 20 of FIG. 7, the backward propagation amount δpj0 of the error in the output layer is determined by the mW circuit 6 from the output value 0pj0 and the teacher signal tpj indicating a desired output according to equation (11).

次に、第8図のステップ21〜ステツプ24で演算回路
7により(8)式に従って結合の強さの変化量δpWj
10 (1)を求める。なお、Δp WjlOの初期値
ΔpWjlK (0)はすべて0である。ステップ25
で演算回路8により(9)式に従って結合の強さWjl
O(1)を求める。以上により、出力層のop、+、 
 δpj’ 、  ΔpWj10.0 (1)、WjJO(])が求まる。この後、これらは?
JJ期データを更新する形でRAMI〜RAM4に格納
される。
Next, in steps 21 to 24 in FIG.
10 Find (1). Note that the initial values ΔpWjlK (0) of ΔpWjlO are all 0. Step 25
Then, the arithmetic circuit 8 calculates the bond strength Wjl according to equation (9).
Find O(1). As a result of the above, the output layer op, +,
δpj', ΔpWj10.0 (1), and WjJO(]) are found. What about these after this?
The JJ period data is stored in RAMI to RAM4 in an updated form.

次に、中間層の学習を行なう。第7図のフローチャート
に戻り、演算回路6により以上で求めた6pj0.Wj
lo (1)、 およびRAM1;:t’6納されてい
る0pjOを用いて、誤差の後向き伝播量δpjKを求
める。次に、第8図の、フローチャートにおいて、演算
回路7により結合の強さの変化量ΔpWNK (1)を
(8)式に従って求め、演算回路8により結合の強さW
jlK (1)を(9)式に従って求める。出力層と同
様に、以上で求めたデータはRAMI〜RAM4に更新
する形で格納されていく。以上のフローを人力層(K−
N+1)に向かって順次繰り返し行ない第1回目の学習
が終了する。
Next, learn the middle layer. Returning to the flowchart in FIG. 7, the 6pj0. Wj
Using lo (1) and 0pjO stored in RAM1;:t'6, the backward propagation amount δpjK of the error is determined. Next, in the flow chart shown in FIG.
jlK (1) is determined according to equation (9). Similar to the output layer, the data obtained above is stored in RAMI to RAM4 in an updated form. The above flow is the human labor layer (K-
N+1), and the first learning is completed.

以上の学習を複数(n)回実行することにより、各ユニ
ット間の結合の強さWjlが決定され、ある入カバター
ンPを示す入力値Opjを与えたときに所望の出力値P
pjを得るためのネットワークが自動的に形成されるこ
とになる。
By performing the above learning a plurality of times (n), the strength of coupling Wjl between each unit is determined, and when an input value Opj indicating a certain input pattern P is given, a desired output value P is determined.
A network for obtaining pj will be automatically formed.

第9図は、実際の出力値Opjと教師信号tpjとの平
均二乗誤差Epを求めるフローチャートである。この値
が小さくなる程、実際の出力値は望ましい出力値に近く
なる。いまEpがあるしきい値εより小さければ学習を
終了し、εより大きければ学習を繰り返す。
FIG. 9 is a flowchart for determining the mean square error Ep between the actual output value Opj and the teacher signal tpj. The smaller this value is, the closer the actual output value will be to the desired output value. If the current Ep is smaller than a certain threshold value ε, the learning is finished, and if it is larger than ε, the learning is repeated.

以上では、1つの入カバターンPに対する学習について
述べたが、入カバターンを複数にし、それぞれのパター
ンに対応した複数の出カバターンを香るような学習も可
能である。また、複数の人カバターンに対しである特定
の1つの出カバターンを出力するように学習させること
も可能である。
Although learning for one input cover turn P has been described above, it is also possible to perform learning with a plurality of input cover turns and a plurality of output cover turns corresponding to each pattern. It is also possible to learn to output a specific cover turn for a plurality of cover turns.

以上述べたBPモデルは、現在広く民生機器等で使用さ
れているノイマン型のマイクロコンピュータで実現可能
であるが、このままではニューロコンピュータの1つの
大きな長所である並列処理による高速化の機能は生かさ
れない。そのため、第6図〜第9図の処理を複数のコン
ピュータで並列に処理させることが好ましい。
The BP model described above can be realized with the Neumann-type microcomputers that are currently widely used in consumer devices, but as it is, one of the major strengths of neurocomputers, which is the ability to speed up through parallel processing, will not be utilized. . Therefore, it is preferable that the processes shown in FIGS. 6 to 9 be performed in parallel by a plurality of computers.

第10図はこのための並列処理システムの構成を示す。FIG. 10 shows the configuration of a parallel processing system for this purpose.

複数のマイクロプロセッサPt−Pnがホストプロセッ
サ11に接続される。第2図に示すニューラルネットを
n個の部分ネットワークに分割し、それぞれをマイクロ
プロセッサP1〜Pnに割り当てる。ホストプロセッサ
11は、マイクロプロセッサPL−Pn相互のタイミン
グの$制御を行なったり、マイクロプロセッサPI〜P
nに分散されているデータを統合してパターン認識など
の処理を行なう。各々のマイクロプロセッサP1〜Pn
は上述した演算手順に従い、第5図に示す出力ff1O
pjの連続する複数列の演算を実行する。そのため、マ
イクロプロセッサPl〜Pnは担当する出力値をmWす
るのに必要なδpj。
A plurality of microprocessors Pt-Pn are connected to host processor 11. The neural network shown in FIG. 2 is divided into n partial networks, and each is assigned to a microprocessor P1 to Pn. The host processor 11 controls mutual timing between the microprocessors PL and Pn, and controls the timing between the microprocessors PI to Pn.
The data distributed in n are integrated to perform processing such as pattern recognition. Each microprocessor P1 to Pn
is the output ff1O shown in FIG. 5 according to the calculation procedure described above.
Perform operations on multiple consecutive columns of pj. Therefore, the microprocessors Pl to Pn have δpj necessary to increase the output value for which they are responsible.

ΔWjJ、 WjJをそれぞれ格納するためのRAMと
演算回路を備えている。担当する全てのユニットの出力
値の演算が終了すると、各プロセッサP1〜P n E
で同期をとりながら、データの更新のための通信が行な
われる。ホストプロセッサ11においては、学習の達成
レベルの判定や、マイクロプロセッサP1〜PnH]互
のタイミングの制御を行なう。
It is equipped with a RAM and an arithmetic circuit for storing ΔWjJ and WjJ, respectively. When the calculation of the output values of all the units in charge is completed, each processor P1 to P n E
Communication for updating data is performed while synchronizing with the The host processor 11 determines the learning achievement level and controls the timing of the microprocessors P1 to PnH.

学習した結果に基づいて、パターン認識等の処理を行な
う場合は、第2図に示す入力層から出力の演算を行なっ
ていくことにより、最終的に必要な出力値Ppj0が求
められる。この場合も、第11図に示すような複数のマ
イクロプロセッサによる分散処理を実行することにより
ニューラルネットの並列性による高速化がはかれる。
When performing processing such as pattern recognition based on the learned results, the necessary output value Ppj0 is finally determined by performing output calculations from the input layer shown in FIG. In this case as well, by executing distributed processing using a plurality of microprocessors as shown in FIG. 11, speeding up can be achieved due to the parallelism of the neural network.

なお、学習の過程においては基本的に第5図に示す回路
が必要になるが、学習結果を応用するだけの場合、構成
は非常に簡単化される。
Although the circuit shown in FIG. 5 is basically required in the learning process, the configuration can be greatly simplified if only the learning results are applied.

第11図はこの場合の基本回路構成である。FIG. 11 shows the basic circuit configuration in this case.

人力データは入力部12(例えば、A/D変換器等を指
す)を介してopj  −f (J、WjkK・K ・Opk” )の演算を順次行なうことにより、出力デ
ータ0pj0を1りる。結合の強さWjlKの格納され
る係数メモリ14はROM、または書き替え可能なRO
Mでもよい。
The human input data is set to 1 by sequentially calculating opj -f (J, WjkK.K.Opk") through the input section 12 (for example, an A/D converter or the like). The coefficient memory 14 in which the coupling strength WjlK is stored is a ROM or a rewritable RO.
It may be M.

第12図は学習結果を応用する製品に対する製造時の学
習システムの概略ブロック図である。
FIG. 12 is a schematic block diagram of a learning system during manufacturing for products to which learning results are applied.

製品16は、結合の強さWjlKを 格 納 す るR
OM17を内蔵する。18は学習装置であり、ROM1
.7と学習装置18を合せたものは基本的には第5図の
装置と同一であるが、ROM17へのWjlKの書き込
みが終了すると、製品16(ROM17)と学習装置1
8は分離される。なお、同一種類の各製品に対して、毎
回学習させる必要はないので、ROM17をコピーして
使用することも可能である。
Product 16 is R that stores the bond strength WjlK.
Built-in OM17. 18 is a learning device, ROM1
.. 7 and the learning device 18 are basically the same as the device shown in FIG.
8 is separated. Note that it is not necessary to perform learning each time for each product of the same type, so it is also possible to copy and use the ROM 17.

なお、以上の説明において、BPモデルの学習とその結
果の応用については、現在使われているノイマン型コン
ピュータによるシミュレーションにより実現してきた。
In the above explanation, the learning of the BP model and the application of the results have been realized through simulations using currently used Neumann type computers.

これは主に学習においては、複雑なアルゴリズムが必要
で、ハードウェアで自動的に各ニューロン間の接続の重
みを自己組織化するのが非常に難かしいためである。し
かしながら、結合の強さWIjがわかれば、学習結果を
応用する機械に限定して考えると、図−1に示すBPモ
デルをハードウェアで構成することができる。
This is mainly because learning requires complex algorithms, and it is extremely difficult for hardware to automatically self-organize the weights of connections between neurons. However, if the strength of the connection WIj is known, the BP model shown in Figure 1 can be configured in hardware if the learning results are applied to a machine.

並列処理による高速化をはかったり、廉価な民生品に応
用する場合は、この方法を採用しないと、意味はない。
If you want to increase speed through parallel processing or apply it to inexpensive consumer products, there is no point unless you use this method.

これは、第2図の各ユニットをインバータで構成し、結
合の強さWljを抵抗ネットワークR1jに置き換える
ことで実現でき、これは、最近のLSI化の技術を使え
ば簡単に実現できる。
This can be achieved by configuring each unit in FIG. 2 with an inverter and replacing the coupling strength Wlj with a resistor network R1j, which can be easily achieved using recent LSI technology.

次に、第1図を参照して、以上説明したニューロコンピ
ュータを応用した露出制御装置を説明する。
Next, an exposure control device to which the neurocomputer described above is applied will be explained with reference to FIG.

撮影カメラ20の前面には絞り19があり、絞り1つを
介した被写体像が、第14図に示すように光電変換素子
PIInをマトリクス状に配置してなる受光部21に入
射される。そのため、受光部21からは、光電変換素子
毎に、絞り込まれた状態における被写体の輝度情報が出
力され、増幅器22、A/D変換器23を介してディジ
タル値化されてBV’値として演算回路(ALU)24
に供給される。演算回路24は、絞り19を通過した光
から被写体の輝度BV (−BV’ −AVo)を演算
するための回路であり、このため、絞り19の開放絞り
(ilAVoが入力されている。
There is a diaphragm 19 on the front side of the photographing camera 20, and a subject image through the diaphragm is incident on a light receiving section 21 formed by arranging photoelectric conversion elements PIIn in a matrix as shown in FIG. Therefore, the light receiving unit 21 outputs the brightness information of the subject in the narrowed down state for each photoelectric conversion element, and converts it into a digital value via the amplifier 22 and A/D converter 23 and sends it to the arithmetic circuit as a BV' value. (ALU)24
supplied to The arithmetic circuit 24 is a circuit for calculating the brightness BV (-BV'-AVo) of the subject from the light that has passed through the aperture 19, and for this purpose, the open aperture (ilAVo) of the aperture 19 is input.

演算回路24から出力された各光電変換素子毎のBV値
は演算回路27に供給されるとともに、ニューロコンピ
ュータ25にも供給される。ニューロコンピュータ25
は演算回路24から出力される被写体の輝度分布パター
ンを人力Opj’とし行ない最終的に補正1=号CVを
求める。この結合の強さWjlは係数メモリ26に格納
されている。
The BV value for each photoelectric conversion element output from the arithmetic circuit 24 is supplied to the arithmetic circuit 27 and also to the neurocomputer 25. Neurocomputer 25
The brightness distribution pattern of the subject outputted from the arithmetic circuit 24 is used as human power Opj', and finally the correction 1=CV is obtained. The strength of this connection Wjl is stored in the coefficient memory 26.

演算回路27は輝度BVの平均値、フィルム感度SV、
絞り値AV、シャッタースピードTV。
The arithmetic circuit 27 calculates the average value of brightness BV, film sensitivity SV,
Aperture value AV, shutter speed TV.

シャッタ優先か絞り優先かなどのモード信号(MOD)
  ニューロコンピュータ25から供給されだ補正信号
CVによりアペックス演算(BV+5V−TV+AV+
CV)を行ない、シャッタースピード、あるいは絞り値
を決定する。
Mode signal (MOD) such as shutter priority or aperture priority
Apex calculation (BV+5V-TV+AV+
CV) and determine the shutter speed or aperture value.

演算回路27の出力はシャッター制御装置28、絞り制
御装置i!1j29に供給され、これらにより露出が制
御される。このように、この実施例は、平均測光値に対
してニューロコンピュータ25により求められた補正値
を考慮して露出が制御される。
The output of the arithmetic circuit 27 is sent to the shutter control device 28 and the aperture control device i! 1j29, and exposure is controlled by these. In this way, in this embodiment, exposure is controlled in consideration of the correction value calculated by the neurocomputer 25 for the average photometric value.

30はシーケンスコントローラである。30 is a sequence controller.

ニューロコンピュータ25の基本ブロック構成は第5図
に示す通りでもよいが、ここでは、高速化をはかるため
、第10図に示すような並列コンピュータにより学習を
行なう。ここでは、被写体パターンをネットワークに入
力すると露出補正信号を出力するように、各ユニットの
結合の強さWjlを予め学習させておく。学習の結果得
られた結合の強さWjlは係数メモリ26に格納されて
いる。
The basic block configuration of the neurocomputer 25 may be as shown in FIG. 5, but here, in order to increase the speed, learning is performed using a parallel computer as shown in FIG. 10. Here, the connection strength Wjl of each unit is learned in advance so that an exposure correction signal is output when a subject pattern is input to the network. The strength of connection Wjl obtained as a result of learning is stored in the coefficient memory 26.

この学習システムを第13図に示す。モデルパターン3
2は各種の被写体パターン0pjN+1をニューロコン
ピュータ33に入力する入力部であり、A/D変換器等
を含む。教師信号35は各種の被写体パターンopjN
”lに灼応する露出補正信号を目1fitpjとしてニ
ューロコンピュータ33に入カスる。ニューロコンピュ
ータ33は実際の出力0pj0が教師信号t pjと一
致するような結合の強さWjlを学習により求める。求
められた結合の強さWjlは係数メモリ34に格納され
ている。この係数メモリ34が係数メモリ26としてカ
メラに組込まれる。
This learning system is shown in FIG. model pattern 3
An input unit 2 inputs various object patterns 0pjN+1 to the neurocomputer 33, and includes an A/D converter and the like. The teacher signal 35 includes various object patterns opjN.
The exposure compensation signal corresponding to ``l'' is input to the neurocomputer 33 as eye 1fitpj.The neurocomputer 33 uses learning to find the strength of coupling Wjl that makes the actual output 0pj0 match the teacher signal tpj. The resulting coupling strength Wjl is stored in a coefficient memory 34. This coefficient memory 34 is incorporated into the camera as a coefficient memory 26.

学習を効率的に進めるためニューラルネットワークは第
15図に示すように、各行毎に独立したニューラルネッ
トSll、・・・で学習を行ない出力層SOで統合する
ようになっている。ニューラルネットワークは人力層3
7、中間層38、出力層39の3層で構成され、学習の
原理は前述した通りである。
In order to proceed with learning efficiently, the neural network is configured such that, as shown in FIG. 15, learning is performed in independent neural networks Sll, . . . for each row, and integrated at the output layer SO. Neural network is human power layer 3
7, an intermediate layer 38, and an output layer 39, and the learning principle is as described above.

第16図にモデルパターンの具体例を示す。FIG. 16 shows a specific example of the model pattern.

(a)は逆光撮影の例であり、この場合は補正量CVを
+IEVにし、人物を明るく撮る。(b)は海の例であ
り、この場合は、空が明る過ぎて海が暗く写るので、補
正量を+〇、5EVとする。
(a) is an example of backlight photography; in this case, the correction amount CV is set to +IEV, and a person is photographed brightly. (b) is an example of the sea, and in this case, the sky is too bright and the sea appears dark, so the correction amount is set to +〇, 5EV.

(c)は夜のネオン街の例であり、従来の方法で撮ると
、昼間のように明るく写ってしまいムードが出ないので
、補正量を一5EVとする。なお、この補正値は平均測
光値に対する補正値とする。
(c) is an example of a neon street at night. If taken using the conventional method, the image would appear as bright as daytime, and the mood would not be expressed, so the correction amount is set to 15 EV. Note that this correction value is a correction value for the average photometric value.

以上は3つの例にすぎないが、実際は数百のパターンを
学習させる。
The above are just three examples, but in reality, hundreds of patterns can be learned.

なお、ニューロコンピュータはある程度の学習を行なえ
ば、学習時に入力されなかったパターンに対しても正し
い出力を出すという優れた性質があり、被写体主要部の
特定等の人間の感性によるところが大きく定式化の難し
い問題解決にたいへん有効である。また、ニューロコン
ピュータの学習により、これまでノイマン型のコンピュ
ータではプログラム化できなかった膨大な種類の被写体
パターンと被写体主要部との関係が自己組織化されるの
で、意図通りの露出制御を行なうことができる。さらに
、ニューロコンピュータの並列制御により高速演算が可
能なので、迅速性が要求される銀塩カメラ向きである。
It should be noted that neurocomputers have the excellent property of producing correct output even for patterns that were not input during the learning process after a certain amount of learning. Very effective in solving difficult problems. In addition, the neurocomputer's learning allows it to self-organize the relationship between a huge variety of subject patterns and the main parts of the subject, which until now could not be programmed using a Neumann-type computer, making it possible to control exposure as intended. can. Furthermore, parallel control of the neurocomputer enables high-speed calculations, making it suitable for use in silver-halide cameras that require speed.

この発明は上述した実施例に限定されずに、種々変形可
能である。以上の説明は、被写体主要部をニューロコン
ピュータで学習させ、露出制御を行なう場合について述
べたが、ニューロコンピュータの教師信号として被写体
主要部の位置を与え、スポット測光等の学習を行なうこ
とも可能である。
This invention is not limited to the embodiments described above, and can be modified in various ways. The above explanation deals with the case where the neurocomputer learns the main part of the subject and performs exposure control, but it is also possible to give the position of the main part of the subject as a teacher signal to the neurocomputer and perform learning such as spot metering. be.

また、ニューロコンピュータの人力パラメータとして被
写体の明るさだけでなく、温度や湿度などを入力するこ
とにより、定式化の難しい微妙な季節感を出すような学
習も可能である。
Furthermore, by inputting not only the brightness of the subject but also temperature, humidity, etc. as manual parameters of the neurocomputer, it is possible to learn to create subtle seasonal sensations that are difficult to formalize.

〔発明の効果〕〔Effect of the invention〕

以上説明したようにこの発明によれば、各種の被写体パ
ターン人力に対して所望の露出補正量を出カスるように
ニューロコンピュータを予め学習させておいて、その出
力に基づいて露出制御を行なうことにより、あらゆる被
写体パターンに対して意図する露出で写真を撮ることが
できる露出制御装置を提供することができる。
As explained above, according to the present invention, a neurocomputer is trained in advance to output a desired amount of exposure compensation for various subject patterns manually, and exposure control is performed based on the output. Accordingly, it is possible to provide an exposure control device that can take a photograph with an intended exposure for any subject pattern.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はこの発明による露出制御装置の一実施例のブロ
ック図、第2図は実施例に使われるニューロコンピュー
タのモデルを示す図、第3図はネットワークを構成する
各ユニットのモデルを示す図、第4図はシグモイド関数
を示す図、第5図はニューロコンピュータのブロック図
、第6図〜第9図は第5図のニューロコンピュータをノ
イマン型コンピュータでシミュレーションした時のフロ
ーチャートであり、第6図は各ユニットの出力Opjを
求めるフローチャート、TS7図は誤差の後向き伝播量
δpjを求めるフローチャート、第8図は結合の強さ係
数Wj+を求めるフローチャート、第9図は学習のレベ
ル判定のためのフローチャート、第10図は並列処理シ
ステムのブロック図、第11図は学習結果を応用する装
置のブロック図、第12図は学習結果を応用する装置を
学習させるシステムのブロック図、第13図は実施例の
ニューロコンピュータを学習させる装置のブロック図、
第14図は実施例の光電変換素子の配置例を示す図、第
15図は実施例のネットワークを示す図、TSl 6図
(a)〜(C)は学習させる被写体の一例を示す図であ
る。 21・・受光部、24.27・・・演算回路、25・・
・ニューロコンピュータ、26・・・係数メモリ、28
・・・シャッタ制御装置、29・・・絞り制御装置。
Fig. 1 is a block diagram of an embodiment of an exposure control device according to the present invention, Fig. 2 is a diagram showing a model of a neurocomputer used in the embodiment, and Fig. 3 is a diagram showing a model of each unit constituting the network. , FIG. 4 is a diagram showing a sigmoid function, FIG. 5 is a block diagram of a neurocomputer, FIGS. 6 to 9 are flowcharts when the neurocomputer in FIG. The figure is a flowchart for determining the output Opj of each unit, Figure TS7 is a flowchart for determining the backward propagation amount of error δpj, Figure 8 is a flowchart for determining the coupling strength coefficient Wj+, and Figure 9 is a flowchart for determining the level of learning. , Fig. 10 is a block diagram of a parallel processing system, Fig. 11 is a block diagram of a device that applies learning results, Fig. 12 is a block diagram of a system that trains a device that applies learning results, and Fig. 13 is an example. A block diagram of a device for learning a neurocomputer,
FIG. 14 is a diagram showing an example of the arrangement of photoelectric conversion elements in the example, FIG. 15 is a diagram showing a network in the example, and TSL 6 (a) to (C) are diagrams showing examples of subjects to be trained. . 21... Light receiving section, 24.27... Arithmetic circuit, 25...
・Neurocomputer, 26...Coefficient memory, 28
...Shutter control device, 29...Aperture control device.

Claims (1)

【特許請求の範囲】[Claims] 複数の光電変換素子からなる受光部と、前記受光部上に
被写体像を結像させる光学系と、前記受光部の出力に接
続され露出補正信号を出力するネットワークと、前記受
光部の出力と前記ネットワークの出力に基づいてカメラ
の露出を制御する手段を具備し、前記ネットワークは前
記受光部の出力に接続される複数のユニットからなる入
力層と、前記入力層の個々のユニットと所定の結合の強
さで結合された複数のユニットからなる単層、または複
数層の中間層と、前記中間層の個々のユニットと所定の
結合の強さで結合された複数のユニットからなる出力層
を具備する露出制御装置。
a light receiving section including a plurality of photoelectric conversion elements; an optical system that forms a subject image on the light receiving section; a network connected to the output of the light receiving section and outputting an exposure correction signal; means for controlling the exposure of the camera based on the output of the network; It comprises a single layer or a plurality of intermediate layers consisting of a plurality of units connected with each other with a strength, and an output layer consisting of a plurality of units connected with each unit of the intermediate layer with a predetermined connection strength. Exposure control device.
JP63250464A 1988-10-04 1988-10-04 Exposure control device Expired - Fee Related JP2793815B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP63250464A JP2793815B2 (en) 1988-10-04 1988-10-04 Exposure control device
US07/415,179 US4978990A (en) 1988-10-04 1989-09-29 Exposure control apparatus for camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63250464A JP2793815B2 (en) 1988-10-04 1988-10-04 Exposure control device

Publications (2)

Publication Number Publication Date
JPH0296723A true JPH0296723A (en) 1990-04-09
JP2793815B2 JP2793815B2 (en) 1998-09-03

Family

ID=17208261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63250464A Expired - Fee Related JP2793815B2 (en) 1988-10-04 1988-10-04 Exposure control device

Country Status (1)

Country Link
JP (1) JP2793815B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0430336A (en) * 1990-05-25 1992-02-03 Canon Inc Information recording and reproducing device
US5266984A (en) * 1991-03-22 1993-11-30 Nikon Corporation Exposure calculating apparatus for camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0430336A (en) * 1990-05-25 1992-02-03 Canon Inc Information recording and reproducing device
US5266984A (en) * 1991-03-22 1993-11-30 Nikon Corporation Exposure calculating apparatus for camera

Also Published As

Publication number Publication date
JP2793815B2 (en) 1998-09-03

Similar Documents

Publication Publication Date Title
JP2761391B2 (en) Focus detection device
US4978990A (en) Exposure control apparatus for camera
CN112614077B (en) Unsupervised low-illumination image enhancement method based on generation countermeasure network
US5227835A (en) Teachable camera
CN103973991B (en) A kind of automatic explosion method judging light scene based on B P neutral net
CN111241925A (en) Face quality evaluation method, system, electronic equipment and readable storage medium
CN111368672A (en) Construction method and device for genetic disease facial recognition model
CN109389135A (en) A kind of method for screening images and device
US20240019777A1 (en) Training method and apparatus for lithographic mask generation model, device and storage medium
CN113824884B (en) Shooting method and device, shooting equipment and computer readable storage medium
CN114021704A (en) AI neural network model training method and related device
JP2793816B2 (en) Camera with learning function
US5227830A (en) Automatic camera
JPH0296723A (en) Exposure controller
JP2793817B2 (en) Exposure control device
CN110796594B (en) Image generation method, device and equipment
US5266984A (en) Exposure calculating apparatus for camera
CN115273143A (en) A head pose estimation method and system
JPH02183238A (en) Exposure controller
JP2909111B2 (en) Camera exposure calculation device
JP3217052B2 (en) Camera focus detection device
JP3203670B2 (en) Camera photometer
JPH02173732A (en) Controller for flashing device
US20240233080A9 (en) Method and device for correcting lighting of image
JPH0527300A (en) Camera having learning function

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees