[go: up one dir, main page]

JPH0527300A - Camera having learning function - Google Patents

Camera having learning function

Info

Publication number
JPH0527300A
JPH0527300A JP3202576A JP20257691A JPH0527300A JP H0527300 A JPH0527300 A JP H0527300A JP 3202576 A JP3202576 A JP 3202576A JP 20257691 A JP20257691 A JP 20257691A JP H0527300 A JPH0527300 A JP H0527300A
Authority
JP
Japan
Prior art keywords
output
learning
network
value
photometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3202576A
Other languages
Japanese (ja)
Inventor
Hitoshi Takeuchi
仁 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP3202576A priority Critical patent/JPH0527300A/en
Publication of JPH0527300A publication Critical patent/JPH0527300A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)

Abstract

PURPOSE:To provide a camera having a learning function for increasing operation speed and a correct answer ratio in a camera using a neural network. CONSTITUTION:In this camera having plural photometric sensors (a), an exposure control means (b) controlling the exposure of the camera based on the output signal of the photometric sensor (a), a network (c) capable of executing learning by a self-organization so that an exposure control signal is calculated from the output signal of the photometric sensor (a), and sent out to the exposure control means (b), and a learning function provided with a learning means (d) self-organizing the network (c) so that the output value of the network (c) is made incident with a desired output value, a converting means (e) is interposed between the photometric sensor (a) and the network (c), and plural output signals from the photometric sensor (a) are converted into parameters which are less than the output signals and inputted to the network.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮影者の好みの露出制
御方法を学習し、この学習結果に基づいて露出制御を行
うことの可能な学習機能を有するカメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera having a learning function capable of learning a photographer's favorite exposure control method and performing exposure control based on the learning result.

【0002】[0002]

【従来の技術】従来のカメラは、予め定められたプログ
ラムあるいは撮影者の指示に基づいて複数のモードのい
ずれかを選択し、このモードにより定められる露出制御
方法によって露出制御を行っていた。しかし、各モード
は限られた被写体パターンにしか最適な露出結果を与え
ず、しかも、モードを誤って選択すれば意図しない結果
が得られる、という問題があった。一方、モードを定め
ずに全ての被写体パターンについて所望の露出補正を与
えようとした場合、パラメータの定式化が困難でプログ
ラムが膨大になったり、演算時間が長くなる、という問
題があった。さらに、画一的なモードあるいはプログラ
ムによっては全ての撮影者の好みを満足させることは困
難である、という問題もあった。
2. Description of the Related Art In a conventional camera, one of a plurality of modes is selected on the basis of a predetermined program or a photographer's instruction, and exposure control is performed by an exposure control method determined by this mode. However, there is a problem in that each mode gives an optimum exposure result only to a limited subject pattern, and an unintended result can be obtained if the mode is selected incorrectly. On the other hand, when trying to give desired exposure correction to all subject patterns without setting the mode, there are problems that formulation of parameters is difficult and the program becomes huge and the calculation time becomes long. Further, there is a problem that it is difficult to satisfy the tastes of all photographers depending on the uniform mode or program.

【0003】そこで、マトリクス状の光センサからの出
力値をニューラルネットワークに入力し、撮影者が所望
する出力値が得られるようにニューラルネットワークの
学習を行い、学習による自己組織化が終了したニューラ
ルネットワークに光センサからの出力値を入力してこの
ネットワークからの出力値を露出制御に用いるような学
習機能付きのカメラが提案されている(特開平2−96
724号公報参照)。
Therefore, the output values from the photosensors in matrix form are input to the neural network, the neural network is learned so that the output value desired by the photographer can be obtained, and the neural network in which self-organization by learning is completed. A camera with a learning function has been proposed in which the output value from the optical sensor is input to the camera and the output value from the network is used for exposure control (Japanese Patent Laid-Open No. 2-96).
724).

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
た学習機能付きのカメラにおいては、マトリクス状の光
センサから得られる複数の出力をそのままニューラルネ
ットワークに入力していたので、入力される変数の数が
多く、ネットワークが学習を行う時間が非常に長くな
る、という問題があった。
However, in the camera with the learning function described above, since the plurality of outputs obtained from the matrix-shaped photosensors are directly input to the neural network, the number of variables to be input does not increase. In many cases, there was a problem that the network takes a long time to learn.

【0005】また、入力される変数の中には、ネットワ
ークの出力に直接寄与していない不必要な変数も存在
し、これがために学習時間が非常に長くなるのはもちろ
ん、ニューラルネットワークの性質上、学習の際に不必
要な変数や矛盾した解答を要求する変数が入力されると
学習結果が収束しなかったり、正しい値が出力されない
おそれがある、という問題もあった。
There are also unnecessary variables that do not directly contribute to the output of the network among the variables that are input, and this makes learning time extremely long and, of course, due to the nature of the neural network. However, if an unnecessary variable or a variable that requires an inconsistent answer is input during learning, the learning result may not converge or a correct value may not be output.

【0006】さらに、入力変数が多いとネットワークの
規模も大きくならざるを得ず、実際の撮影時において露
出決定までの演算時間が長くなるおそれがある、という
問題もあった。
Further, if there are many input variables, the scale of the network is inevitably large, and there is a problem that the calculation time until the exposure is determined may become long in the actual photographing.

【0007】本発明の目的は、ニューラルネットワーク
を用いたカメラにおいて、演算の高速化および正答率の
向上を図りうる学習機能を有するカメラを提供すること
にある。
An object of the present invention is to provide, in a camera using a neural network, a camera having a learning function capable of speeding up calculation and improving a correct answer rate.

【0008】[0008]

【課題を解決するための手段】クレーム対応図である図
1を参照して説明すれば、本発明は、測光情報を出力す
る複数の測光センサaと、前記測光センサaの出力信号
に基づいてカメラの露出制御を行う露出制御手段bと、
前記測光センサaの出力信号を入力パラメータとして露
出制御用信号を前記露出制御手段bに送出する自己組織
による学習が可能なネットワークcと、前記ネットワー
クcの出力値を所望の出力値に合致させるようにこのネ
ットワークcを自己組織化させる学習手段dとを備えた
学習機能を有するカメラに適用される。そして、上述の
目的は、前記測光センサaと前記ネットワークcとの間
に介在し、この測光センサaからの複数の出力信号をこ
れより数の少ないネットワーク入力用パラメータに変換
する変換手段eを設けることにより達成される。
With reference to FIG. 1, which is a diagram corresponding to claims, the present invention is based on a plurality of photometric sensors a for outputting photometric information and an output signal of the photometric sensors a. Exposure control means b for controlling the exposure of the camera,
In order to match the output value of the network c with the network c capable of learning by self-organization, which outputs the exposure control signal to the exposure control means b using the output signal of the photometric sensor a as an input parameter, to a desired output value. Further, it is applied to a camera having a learning function provided with a learning means d for self-organizing the network c. Further, the above-mentioned object is provided between the photometric sensor a and the network c, and provided with a conversion means e for converting a plurality of output signals from the photometric sensor a into a smaller number of network input parameters. It is achieved by

【0009】[0009]

【作用】測光センサaからの出力信号は、変換手段eに
より出力信号より数の少ないネットワーク入力用パラメ
ータに変換され、ネットワークcに入力される。学習手
段dにより自己組織化されたネットワークcは、この入
力パラメータに基づいて露出制御用信号を出力し、露出
制御手段bは、このネットワークcからの信号に基づい
てカメラの露出制御を行う。
The output signal from the photometric sensor a is converted by the conversion means e into a smaller number of network input parameters than the output signal, and is input to the network c. The network c self-organized by the learning means d outputs an exposure control signal based on this input parameter, and the exposure control means b controls the exposure of the camera based on the signal from this network c.

【0010】[0010]

【実施例】【Example】

−第1実施例− 図2は、本発明による学習機能を有するカメラの第1実
施例を示す図である。図2において、図2において、1
は測光装置、2はこの測光装置1からの測光出力のA/
D変換を行うA/Dコンバータ、3はニューラルネット
ワーク、メモリ等を含むニューロコンピュータ、4は露
出値演算を行う演算装置、5は露出制御装置であり、図
示されないシャッタおよび絞りを制御するためのシャッ
タ機構部6および絞り機構部7をそれぞれ備えている。
First Embodiment FIG. 2 is a diagram showing a first embodiment of a camera having a learning function according to the present invention. In FIG. 2, in FIG.
Is a photometric device, 2 is A / of the photometric output from the photometric device 1.
An A / D converter for performing D conversion, 3 is a neuro computer including a neural network, memory, etc., 4 is a computing device for computing an exposure value, 5 is an exposure control device, and a shutter (not shown) for controlling a shutter and a shutter. The mechanism unit 6 and the diaphragm mechanism unit 7 are provided respectively.

【0011】本実施例では、被写体画面が中央部、左上
部、右上部、左下部、左上部の5つの領域に分割され、
測光装置1は、図3に示すように、これら各々の領域に
対応してSPD(シリコン・フォト・ダイオード)等か
らなる5つの受光素子S1〜S5を有している。測光装置
1からは、被写体画面の各領域の輝度値に対応する測光
出力O1〜O5が出力される。
In the present embodiment, the subject screen is divided into five areas, that is, a central portion, an upper left portion, an upper right portion, a lower left portion, and an upper left portion,
As shown in FIG. 3, the photometric device 1 has five light receiving elements S 1 to S 5 made of SPD (silicon photo diode) or the like corresponding to each of these regions. The photometric device 1 outputs photometric outputs O 1 to O 5 corresponding to the brightness values of the respective areas of the subject screen.

【0012】また、図2および図3において、8は演算
処理装置であり、この演算処理装置8にはデジタル値に
変換された測光装置1からの測光出力O1〜O5が入力さ
れる。演算処理装置8は、これら測光出力O1〜O5に基
づいて、測光出力の最大値Omaxおよび測光出力の最大
値と最小値との差ΔOを算出し、これをニューロコンピ
ュータ3に出力する。演算処理の手法は任意であり、た
とえば入力デジタル値をソフトウェアにより演算処理す
る手法や、ハードウェア的に出力値を得るような手法が
挙げられる。
In FIG. 2 and FIG. 3, 8 is an arithmetic processing unit, to which the photometric outputs O 1 to O 5 from the photometric device 1 converted into digital values are input. The arithmetic processing unit 8 calculates the maximum value O max of the photometric output and the difference ΔO between the maximum value and the minimum value of the photometric output based on these photometric outputs O 1 to O 5 , and outputs this to the neurocomputer 3. .. The method of arithmetic processing is arbitrary, and examples thereof include a method of arithmetically processing an input digital value by software and a method of obtaining an output value by hardware.

【0013】ニューロコンピュータ3は、演算処理装置
8で得られた測光出力の最大値Oma xおよび測光出力の
最大値と最小値との差ΔOに基づき、後述する演算装置
4における演算に必要な輝度値BV´を出力する。ニュ
ーロコンピュータ3の詳細については後述する。
[0013] neuro-computer 3 on the basis of the difference ΔO between the maximum value O ma x and the maximum value and the minimum value of the photometric output obtained photometric output by the arithmetic processor 8, required for the operation in the arithmetic unit 4 described below The brightness value BV 'is output. Details of the neuro computer 3 will be described later.

【0014】演算装置4には、レンズの絞り(図示略)
の開放絞り値AV0が入力され、ニューロコンピュータ
3からの出力値である輝度値BV´との間でBV=BV
´−AV0なる演算が行われ、レンズの絞り値を補正し
た輝度値BVが求められる。また、演算装置4には、絞
り値AV、フィルム感度SV、シャッタスピードTVが
入力され、APEX(アペックス)演算 BV+SV=TV+AV が行われて絞り値およびシャッタスピードが決定され
る。露出制御装置5のシャッタ機構部6および絞り機構
部7は、演算装置4により決定された絞り値およびシャ
ッタスピードに基づいて、絞りおよびシャッタの制御を
行う。
The arithmetic unit 4 includes a lens diaphragm (not shown).
Of the open aperture value AV 0 of BV = BV, which is the output value from the neurocomputer 3 and the brightness value BV ′.
A calculation of'-AV 0 is performed to obtain the brightness value BV in which the aperture value of the lens is corrected. Further, the aperture value AV, the film sensitivity SV, and the shutter speed TV are input to the arithmetic unit 4, and APEX (apex) calculation BV + SV = TV + AV is performed to determine the aperture value and the shutter speed. The shutter mechanism unit 6 and the aperture mechanism unit 7 of the exposure control device 5 control the aperture and the shutter based on the aperture value and the shutter speed determined by the arithmetic unit 4.

【0015】9はカメラ全体の制御を司るマイクロコン
ピュータやその他の周辺回路を内蔵した制御装置であ
り、メモリ、判断回路、演算回路、タイマ等を備えてい
る。上述の演算装置4もこの制御装置9内に含まれてい
る。
Reference numeral 9 denotes a control device which incorporates a microcomputer for controlling the entire camera and other peripheral circuits, and is provided with a memory, a judgment circuit, an arithmetic circuit, a timer and the like. The arithmetic unit 4 described above is also included in the control unit 9.

【0016】次に、図4〜図7を参照して、ニューロコ
ンピュータ3の詳細について説明する。まず、図4は、
本実施例のニューロコンピュータ3のモデルを示す図で
ある。このモデルは、ラメルハート(Rumelhart)等に
より提案されたもので、バックプロパゲーション(back
-propagation:逆伝搬法)モデル(以下、BPモデルと
称する)と呼ばれるものである。ニューロコンピュータ
3は多数のユニット(ニューロン)からなり、各ユニッ
トは入力層、中間層、出力層の3層に分類されている。
各ユニットは、入力層→中間層→出力層の方向に網目状
に接続され、(ニューラル)ネットワークを形成してい
る。各ユニットの結合強度は、後述する学習により決定
される。ただし、各層内でのユニット相互の結合はない
ものとする。
Next, the details of the neuro computer 3 will be described with reference to FIGS. First, in Figure 4,
It is a figure which shows the model of the neuro computer 3 of a present Example. This model was proposed by Rumelhart et al.
-propagation: Back propagation method) model (hereinafter referred to as BP model). The neuro computer 3 is composed of a large number of units (neurons), and each unit is classified into three layers of an input layer, an intermediate layer and an output layer.
The units are connected in a mesh shape in the direction of input layer → intermediate layer → output layer to form a (neural) network. The bond strength of each unit is determined by learning described later. However, it is assumed that there is no mutual connection between units within each layer.

【0017】図5は、K層(K=0,1,…、0は出力
層)に位置するユニット(ニューロン)のモデルを示す
図である。K層より1つ手前の入力側に位置するK+1
層からの入力をOp1 K+1〜Opi K+1、各入力に対する重み
付け(これは、ニューロンの結合強度に相当する)をW
j1 K〜Wji Kとすれば、ユニットからの出力Opj Kは次式
で定義される。
FIG. 5 is a diagram showing a model of a unit (neuron) located in the K layer (K = 0, 1, ..., 0 is an output layer). K + 1 located on the input side, one layer before the K layer
The inputs from the layers are O p1 K + 1 to O pi K + 1 , and the weighting for each input (which corresponds to the coupling strength of the neuron) is W.
If j1 K to W ji K , the output O pj K from the unit is defined by the following equation.

【数1】 なお、f(u)はシグモイド関数であり、図6に示すように
[0,1]間で連続値をとる関数である。
[Equation 1] Note that f (u) is a sigmoid function, and is a function that takes a continuous value between [0, 1] as shown in FIG.

【0018】次に、図4に示すBPモデルの学習アルゴ
リズムの原理について説明する。あるパターンP(ここ
にいうパターンとは画像に限らず、n次元の要素を有す
るベクトル値であると考える)を入力層に与えたとき、
出力層に現れる実際の出力値をOpj 0とし、そのときの
望ましい出力値(以下、これを教師信号と称する)tp j
として、両者間の誤差関数Epjを次式で定義する。
Next, the principle of the learning algorithm of the BP model shown in FIG. 4 will be described. When a certain pattern P (the pattern here is not limited to an image but is considered to be a vector value having n-dimensional elements) is given to the input layer,
Let the actual output value appearing in the output layer be O pj 0, and the desired output value at that time (hereinafter referred to as the teacher signal) t p j
The error function E pj between the two is defined as

【数2】 [Equation 2]

【0019】従って、このニューラルネットワークを学
習させるには、この誤差関数Epjが最小値をとるべく、
周知の最小二乗平均誤差法を用いて全てのユニットの結
合強さを変化させればよいことになる。
Therefore, in order to train this neural network, the error function E pj should have a minimum value.
It is sufficient to change the coupling strength of all units by using the well-known least mean square error method.

【0020】さて、パターンPを与えたときのK−1層
のi番目のユニットからK層のj番目のユニットに対す
る結合強度の変化量Δpji Kを次式により定義する。
Now, the change amount Δp W ji K of the coupling strength from the i-th unit of the K-1 layer to the j-th unit of the K layer when the pattern P is given is defined by the following equation.

【数3】 (0)式を用いて(3)式を書き直すと、[Equation 3] Rewriting equation (3) using equation (0),

【数4】 ここに、δpj Kは第K層における誤差の後向き伝播量と
呼ばれ、
[Equation 4] Where δ pj K is called the backward propagation amount of error in the Kth layer,

【数5】 である。(4)式を用いて(2)式を書き直せば、[Equation 5] Is. If we rewrite equation (2) using equation (4),

【数6】 出力ユニットの場合は[Equation 6] In case of output unit

【数7】 であるので、出力層の誤差の後向き伝播量δpj 0は次式
で表される。
[Equation 7] Therefore, the backward propagation amount δ pj 0 of the error in the output layer is expressed by the following equation.

【数8】 中間ユニットの場合は、各層内でのユニット間の相互結
合はないものとされているので、誤差の後向き伝播量δ
pj Kは次式で表される。
[Equation 8] In the case of the intermediate unit, since there is no mutual coupling between units in each layer, the backward propagation amount of the error δ
pj K is expressed by the following equation.

【数9】 (7)式はδの再帰関数である。[Equation 9] Expression (7) is a recursive function of δ.

【0021】結合強度の変化量Δpji Kを一般的に定式
化すると、次式のように表される
When the amount of change Δp W ji K in the bond strength is generally formulated, it is expressed by the following equation.

【数10】 但し、Δpji K(0)=0であり、nは学習の回数を表
す。(8)式の右辺の第2項は、誤差の振動を減少し、収
束を速めるために加えた項である。(8)式から、結合強
度Wji Kは次のように更新される。
[Equation 10] However, Δ p W ji K (0) = 0, and n represents the number of times of learning. The second term on the right side of the equation (8) is a term added to reduce the error vibration and accelerate the convergence. From equation (8), the bond strength W ji K is updated as follows.

【数11】 ここで、シグモイド関数fiを[Equation 11] Where the sigmoid function fi is

【数12】 で定義すると、fi´=fi(1−fi)であるので、誤
差の後向き伝播量は次式のように簡略化される。すなわ
ち、出力ユニットの場合は
[Equation 12] In this case, since fi ′ = fi (1−fi), the backward propagation amount of error is simplified as the following equation. That is, in the case of the output unit

【数13】 中間ユニットの場合は[Equation 13] For the intermediate unit

【数14】 以上の式から明らかなように、ΔpWの計算は出力層の
ユニットから始まり、中間層のユニットへと順次移行す
る。このように、ニューラルネットワークの学習は、入
力データの処理とは逆方向に進行する。
[Equation 14] As is clear from the above equation, the calculation of Δ p W starts from the unit of the output layer and proceeds sequentially to the unit of the intermediate layer. In this way, the learning of the neural network proceeds in the opposite direction to the processing of the input data.

【0022】従って、BPモデルにおける学習は次のよ
うに行われる。まず、学習用データを入力層に入力し、
結果を出力層から出力する。次に、結果の誤差(つまり
実際の出力と教師信号との差)を減らすように結合強度
を変え、再度学習用データを入力する。この動作を、Δ
pWが収束するまで繰り返せば、学習が完了する。この
学習のアルゴリズムの詳細については後述する。
Therefore, learning in the BP model is performed as follows. First, input the learning data into the input layer,
Output the result from the output layer. Next, the coupling strength is changed so as to reduce the resulting error (that is, the difference between the actual output and the teacher signal), and the learning data is input again. This operation is
Learning is completed by repeating until p W converges. Details of this learning algorithm will be described later.

【0023】図7は、本実施例のニューロコンピュータ
3の基本回路構成を示す図である。図7において、11
はRAM(ランダムアクセスメモリ)であり、このRA
M11には結合強度Wji K(j=1,2、i=1〜3,
K=1〜3)がマトリクス状に格納され、かつ、各層毎
に3ページ設けられている。12もRAMであり、この
RAM12にはパターンPを与えたときの結合強度Wji
Kの変化量ΔWji K(j=1,2、i=1〜3,K=1〜
3)がマトリクス状に格納され、かつ、各層毎に3ペー
ジ設けられている。13もRAMであり、このRAM1
3には誤差の後向き伝播量δpj K(j=1,2、i=1
〜3,K=0〜3)がマトリクス状に格納され、かつ、
各層毎に4ページ設けられている。14もRAMであ
り、このRAM14には各ユニットからの出力値Opj K
(j=1,2、i=1〜3,K=0〜3)がマトリクス
状に格納され、かつ、各層毎に4ページ設けられてい
る。
FIG. 7 is a diagram showing the basic circuit configuration of the neurocomputer 3 of this embodiment. In FIG. 7, 11
Is RAM (random access memory), and this RA
M11 has a bond strength W ji K (j = 1, 2, i = 1, 3,
(K = 1 to 3) are stored in a matrix, and three pages are provided for each layer. 12 is also a RAM, and the coupling strength W ji when the pattern P is given to the RAM 12
K of variation ΔW ji K (j = 1,2, i = 1~3, K = 1~
3) are stored in a matrix, and three pages are provided for each layer. 13 is also RAM, and this RAM1
3 is the backward propagation amount of error δ pj K (j = 1, 2, i = 1
˜3, K = 0 to 3) are stored in a matrix, and
Four pages are provided for each layer. 14 is also a RAM, and the output value O pj K from each unit is stored in this RAM 14.
(J = 1, 2, i = 1 to 3, K = 0 to 3) are stored in a matrix, and four pages are provided for each layer.

【0024】15はOpj Kの演算回路であり、RAM1
4からOpj Kを読み出すとともにRAM11との間でデ
ータの授受を行い、RAM14に演算結果たるOpj K
返す。16はδpj Kの演算回路であり、RAM13から
δpj Kを読み出すとともにRAM14との間でデータの
授受を行い、RAM13に演算結果たるδpj Kを返す。
17はΔpji Kの演算回路であり、RAM12からΔW
ji Kを読み出すとともにRAM13、14との間でデー
タの授受を行い、RAM12に演算結果たるΔWji K
返す。18はWji Kの演算回路であり、RAM11から
ji Kを読み出すとともにRAM12、演算回路15と
の間でデータの授受を行い、RAM11に演算結果たる
ji Kを返す。19はRAM、演算回路全体の制御を行
う制御回路である。
Reference numeral 15 is an operational circuit of O pj K , which is a RAM 1
4, O pj K is read, data is exchanged with the RAM 11, and the operation result, O pj K, is returned to the RAM 14. 16 is an arithmetic circuit of [delta] pj K, transmits and receives data to and from the RAM14 reads a [delta] pj K from RAM 13, returns the operation result serving [delta] pj K in RAM 13.
Reference numeral 17 is a calculation circuit for Δ p W ji K , which is calculated from the RAM 12 by Δ W
ji K is read and data is exchanged with the RAMs 13 and 14, and the operation result ΔW ji K is returned to the RAM 12. 18 is an arithmetic circuit of W ji K, RAM 12 reads the W ji K from RAM 11, transmits and receives data to and from the arithmetic circuit 15, and returns the operation result serving W ji K in RAM 11. A control circuit 19 controls the RAM and the arithmetic circuit as a whole.

【0025】なお、実施例と請求の範囲との対応におい
て、測光素子S1〜S5は測光センサを、露出制御装置5
は露出制御手段を、RAM11、14および演算回路1
5はネットワークを、RAM12〜13および演算回路
16〜18は学習手段を、演算処理装置8は変換手段を
それぞれ構成している。
In the correspondence between the embodiment and the claims, the photometric elements S 1 to S 5 are photometric sensors and the exposure control device 5 is used.
Is the exposure control means, and the RAMs 11 and 14 and the arithmetic circuit 1
5, the RAMs 12 to 13 and the arithmetic circuits 16 to 18 constitute learning means, and the arithmetic processing unit 8 constitutes conversion means.

【0026】次に、図8〜図11のフローチャートを参
照して、本実施例のBPモデルの学習過程について説明
する。図8はOpj K演算のフローチャート、図9はδpj K
演算のフローチャート、図10はWpj K演算のフローチ
ャート、図11は学習レベル判定用フローチャートであ
る。
Next, the learning process of the BP model of this embodiment will be described with reference to the flow charts of FIGS. FIG. 8 is a flowchart of O pj K calculation, and FIG. 9 is δ pj K.
Calculation flowchart, FIG. 10 is a flowchart of W pj K calculation, and FIG. 11 is a flowchart for learning level determination.

【0027】まず、プログラムは図8のフローチャート
から始まり、ステップS101においてRAM11内の
結合強度Wji Kがランダム値に初期化される。次いで、
ステップS102において入力パターンPの入力値Opj
4がRAM14内に格納される。ステップS103で
は、変数Kに値Kが代入され、ステップS104では変
数Kの値が0かどうかの判定が行われ、判定が肯定され
ればプログラムは図9に示すフローチャートに移行し、
判定が否定されればステップS105に移行する。
First, the program starts from the flowchart of FIG. 8, and in step S101, the bond strength W ji K in the RAM 11 is initialized to a random value. Then
In step S102, the input value O pj of the input pattern P
4 is stored in the RAM 14. In step S103, the value K is assigned to the variable K, and in step S104 it is determined whether the value of the variable K is 0. If the determination is affirmative, the program shifts to the flowchart shown in FIG.
If the determination is negative, the process proceeds to step S105.

【0028】ステップS105では変数Kの値が1つイ
ンクリメントされ、ステップS106では変数jに0が
代入される。ステップS107では変数jの値が6かど
うかの判定が行われ、判定が肯定されればプログラムは
ステップS104に戻り、判定が否定されればステップ
S108に移行する。ステップS108では変数jの値
が1つインクリメントされ、ステップS109では、1
つ手前の入力側の出力値Ojk K+1および結合強度Wjk K
基づいて、演算回路15により出力値Opj Kが算出され
る。その後、プログラムはステップS107に戻る。以
上の手順により、演算回路15によりユニットの出力値
pj Kが算出される。
In step S105, the value of the variable K is incremented by one, and in step S106, 0 is assigned to the variable j. In step S107, it is determined whether the value of the variable j is 6, and if the determination is affirmative, the program returns to step S104, and if the determination is negative, the program proceeds to step S108. The value of the variable j is incremented by 1 in step S108, and is incremented by 1 in step S109.
The output value O pj K is calculated by the arithmetic circuit 15 based on the output value O jk K + 1 on the input side immediately before and the coupling strength W jk K. After that, the program returns to step S107. Through the above procedure, the arithmetic circuit 15 calculates the output value O pj K of the unit.

【0029】次いで、プログラムは第9図のフローチャ
ートに移行し、ステップS201において変数Kに−1
が代入される。ステップS202では変数Kの値が3か
どうかの判定が行われ、判定が肯定されればプログラム
は図11に示すフローチャートに移行し、判定が否定さ
れればステップS203に移行する。ステップS204
では変数jに0が代入され、ステップS205では変数
jの値が6かどうかの判定が行われ、判定が肯定されれ
ばプログラムはステップS206、すなわち図10に示
すサブルーチンに移行し、判定が否定されればステップ
S207に移行する。
Next, the program shifts to the flow chart of FIG. 9 and sets the variable K to -1 in step S201.
Is substituted. In step S202, it is determined whether the value of the variable K is 3, and if the determination is affirmative, the program proceeds to the flowchart shown in FIG. 11, and if the determination is negative, the program proceeds to step S203. Step S204
Then, 0 is assigned to the variable j, and it is determined in step S205 whether the value of the variable j is 6, and if the determination is affirmative, the program proceeds to step S206, that is, the subroutine shown in FIG. 10, and the determination is negative. If so, the process proceeds to step S207.

【0030】ステップS207では変数jの値が1つイ
ンクリメントされ、ステップS208では変数Kの値が
0かどうかの判定が行われ、判定が肯定されればプログ
ラムはステップS209に移行し、判定が否定されれば
ステップS210に移行する。ステップS209では、
教師信号tpjおよび出力層のユニットの出力値Opj 0
基づいて、出力層における誤差の後向きの伝播量δpj 0
が演算回路16により算出される。ステップS210で
は、ユニットの出力値Opj K、1つ先の出力側の層にお
ける誤差の後向きの伝播量δpj K-1およびこの層におけ
るユニットの結合強度Wkj K-1(n+1)に基づいて、入
力層、中間層における誤差の後向きの伝播量δpj Kが演
算回路16により算出される。その後、プログラムはい
ずれもステップS205に戻る。以上の手順により、演
算回路16により誤差の後向きの伝播量δpj Kが算出さ
れる。
In step S207, the value of the variable j is incremented by 1, and in step S208 it is determined whether the value of the variable K is 0. If the determination is affirmative, the program proceeds to step S209 and the determination is negative. If so, the process proceeds to step S210. In step S209,
Based on the teacher signal t pj and the output value O pj 0 of the unit in the output layer, the backward propagation amount δ pj 0 of the error in the output layer.
Is calculated by the arithmetic circuit 16. In step S210, based on the output value O pj K of the unit, the backward propagation amount δ pj K-1 of the error in the layer on the output side ahead and the coupling strength W kj K-1 (n + 1) of the unit in this layer. Then, the backward propagation amount δ pj K of the error in the input layer and the intermediate layer is calculated by the arithmetic circuit 16. After that, all the programs return to step S205. Through the above procedure, the backward propagation amount δ pj K of the error is calculated by the arithmetic circuit 16.

【0031】図10のサブルーチンにおいては、上述の
ごとく結合強度Wji Kが算出される。まず、ステップS
301では変数iに0が代入され、ステップS302で
は変数iの値が6かどうかが判定され、判定が肯定され
ればメインのルーチン、すなわち図9のフローチャート
のステップS202にリターンし、判定が否定されれば
ステップS303に移行する。ステップS303ではi
の値が1つインクリメントされ、ステップS304で
は、誤差の後向きの伝播量δpj K、1つ前の入力側の層
における出力値Opj K+1および1つ前の学習による結合
強度Wji K(n)に基づいて、学習による結合強度の変化
量Δpji K(n+1)が演算回路17により算出される。
ステップS305では、ステップS304により算出さ
れた結合強度の変化量Δpji K(n+1)および1つ前の
学習による結合強度Wji K(n)に基づいて、学習後の結
合強度Wji K(n+1)が演算回路18により算出され
る。その後、プログラムはステップS302に戻る。以
上の手順により、演算回路17、18により結合強度W
ji K(n+1)が算出される。
In the subroutine of FIG. 10, the bond strength W ji K is calculated as described above. First, step S
In step 301, 0 is assigned to the variable i, and in step S302, it is determined whether or not the value of the variable i is 6, and if the determination is affirmative, the process returns to the main routine, that is, step S202 in the flowchart of FIG. 9, and the determination is negative. If so, the process proceeds to step S303. In step S303, i
Is incremented by 1, and in step S304, the backward propagation amount δ pj K of the error, the output value O pj K + 1 of the previous input layer, and the coupling strength W ji K by the previous learning. Based on (n), the variation amount Δp W ji K (n + 1) of the coupling strength due to learning is calculated by the arithmetic circuit 17.
In step S305, the post-learning joint strength W ji K is calculated based on the change amount Δp W ji K (n + 1) of the joint strength calculated in step S304 and the joint strength W ji K (n) obtained by the previous learning. (n + 1) is calculated by the arithmetic circuit 18. After that, the program returns to step S302. Through the above procedure, the coupling strength W is calculated by the arithmetic circuits 17 and 18.
ji K (n + 1) is calculated.

【0032】そして、プログラムは図11のフローチャ
ートに移行し、ステップS401で変数jに0が代入さ
れ、ステップS402では変数jの値が6かどうかが判
定され、判定が肯定されればプログラムはステップS4
05に移行し、判定が否定されればステップS403に
移行する。
Then, the program shifts to the flow chart of FIG. 11, 0 is substituted for the variable j in step S401, it is determined in step S402 whether the value of the variable j is 6, and if the determination is affirmative, the program is stepped. S4
If the determination is negative, the process proceeds to step S403.

【0033】ステップS403では変数jの値が1つイ
ンクリメントされ、ステップS404では、教師信号t
pjおよび出力層の出力値Opj 0に基づいて、上述の誤差
関数Epjが算出される。この後、プログラムはステップ
S402に戻る。
In step S403, the value of the variable j is incremented by 1, and in step S404, the teacher signal t
The above-mentioned error function E pj is calculated based on pj and the output value O pj 0 of the output layer. After this, the program returns to step S402.

【0034】一方、ステップS405では平均二乗誤差
pが算出され、ステップS406ではこの平均二乗誤
差Epが所定の閾値εより小さいかどうかの判定が行わ
れ、判定が肯定されればプログラムが終了し、判定が否
定されれば図8のフローチャートのステップS103に
戻る。以上の手順により、学習レベルの判定が行われ
る。
On the other hand, in step S405, the mean square error E p is calculated, and in step S406 it is judged whether or not the mean square error E p is smaller than a predetermined threshold value ε. If the judgment is affirmative, the program ends. If the determination is negative, the process returns to step S103 in the flowchart of FIG. The learning level is determined by the above procedure.

【0035】以上の流れを、学習の手順に沿って再度説
明する。まず、RAM11内の結合強度Wji Kをランダ
ム値に初期化し(ステップS101)、パターンPの入
力値Opj 4をRAM14内に設定する(ステップS10
2)。次いで、入力層から出力層に向って順次ユニット
の出力値Opj Kを算出する(ステップS103〜S10
9)。
The above flow will be described again in accordance with the learning procedure. First, the coupling strength W ji K in the RAM 11 is initialized to a random value (step S101), and the input value O pj 4 of the pattern P is set in the RAM 14 (step S10).
2). Next, the output value O pj K of the unit is sequentially calculated from the input layer to the output layer (steps S103 to S10).
9).

【0036】出力層から最初の出力値Opj 0が得られた
段階で、この出力値と教師信号tpjとから誤差の後向き
伝播量δpj 0を算出する(ステップS201〜S21
0)。次に、この誤差の後向き伝播量δpj 0に基づいて
結合強度の変化量Δpji 0(1)を算出する(ステップS
301〜S304)。なお、Δpji 0(0)=0に予め設
定してある。そして、この結合強度の変化量Δp
ji 0(1)に基づいて、出力層の結合強度Wji 0(1)を算出
する(ステップS305)。以上の手順により、出力層
のOpj 0、δpj 0、Δpji 0(1)およびWji 0(1)が求ま
る。これら値は、初期データを更新するかたちでRAM
11〜14に格納される。
When the first output value O pj 0 is obtained from the output layer, the backward propagation amount δ pj 0 of the error is calculated from this output value and the teacher signal t pj (steps S201 to S21).
0). Next, the change amount Δp W ji 0 (1) of the coupling strength is calculated based on the backward propagation amount δ pj 0 of this error (step S).
301-S304). In addition, it is preset to Δ p W ji 0 (0) = 0. Then, the change amount Δp W of the bond strength
ji Based on 0 (1) to calculate the binding strength of the output layer W ji 0 (1) (step S305). By the above procedure, O pj 0 , δ pj 0 , Δ p W ji 0 (1) and W ji 0 (1) of the output layer are obtained. These values are stored in RAM by updating the initial data.
11 to 14 are stored.

【0037】次に、中間層および入力層の学習を、中間
層から入力層に向って順次実行する。まず、出力層のδ
pj 0、Wji 0(1)およびRAM14内のOpj 1に基づい
て、中間層の誤差の後向き伝播量δpj 1を算出する(ス
テップS201〜S210)。次に、この誤差の後向き
伝播量δpj 1に基づいて結合強度の変化量Δpji 1(1)
を算出し、(ステップS301〜S304)、この結合
強度の変化量Δpji 1(1)に基づいて、出力層の結合強
度Wji 1(1)を算出する(ステップS305)。以上の
手順により、中間層のδpj 1、Δpji 1(1)およびWji 1
(1)が求まる。これら値は、初期データを更新するかた
ちでRAM11〜14に格納される。そして、以上の手
順を入力層に向って順次繰り返し行って第1回目の学習
が終了する。
Next, learning of the intermediate layer and the input layer is sequentially executed from the intermediate layer toward the input layer. First, δ of the output layer
Based on pj 0, W ji 0 (1 ) and O pj 1 in RAM 14, it calculates the backward propagation amount [delta] pj 1 error in the intermediate layer (step S201~S210). Next, based on the backward propagation amount δ pj 1 of this error, the change amount Δ p W ji 1 (1) of the coupling strength
Is calculated, (step S301 to S304), based on the amount of change delta p W ji 1 of this bond strength (1) to calculate the binding strength of the output layer W ji 1 (1) (step S305). By the above procedure, δ pj 1 , Δ p W ji 1 (1) and W ji 1 of the intermediate layer
(1) is obtained. These values are stored in the RAMs 11 to 14 by updating the initial data. Then, the above procedure is sequentially repeated toward the input layer, and the first learning ends.

【0038】以上示した手順により学習を複数(n)回
実行して各ユニット間の結合強度Wji Kが決定される。
そして、学習が終了する度に、誤差関数Epjおよび平均
二乗誤差Epが算出され(ステップS401〜S40
5)、この平均二乗誤差Epが閾値εより小さくなった
段階で学習が終了する。
Learning is executed a plurality of times (n) times according to the procedure described above, and the coupling strength W ji K between each unit is determined.
Then, every time learning is completed, the error function E pj and the mean square error E p are calculated (steps S401 to S40).
5) When the mean square error E p becomes smaller than the threshold value ε, the learning ends.

【0039】なお、本実施例においてニューロコンピュ
ータ3に与えられるパターンPは、例えば典型的な風景
や人物等についての被写体画面であり、教師信号はこの
被写体画面に対して撮影者が所望する輝度値BV´その
ものである。教師信号たる輝度値BV´は、図示されな
いダイヤルスイッチ等によりニューロコンピュータ3に
与えられる。この際、パターンPは複数与えられてもよ
く、さらに各パターンPに対して異なる出力値(輝度値
BV´)を得るような学習も可能である。
In the present embodiment, the pattern P given to the neurocomputer 3 is a subject screen such as a typical landscape or person, and the teacher signal is a luminance value desired by the photographer for this subject screen. It is BV 'itself. The brightness value BV ′, which is a teacher signal, is given to the neurocomputer 3 by a dial switch or the like (not shown). At this time, a plurality of patterns P may be given, and it is possible to perform learning so as to obtain different output values (brightness value BV ′) for each pattern P.

【0040】学習の終了したニューロコンピュータ3
は、その入力層にパターンP(演算処理装置8からの出
力)が入力されると、学習により決定されたユニット間
の結合強度Wji Kに基づき、演算回路15により入力層
から出力層に向って順次出力値Opj Kを算出し、出力層
における出力値Opj 0(輝度値BV´)をニューロコン
ピュータ3の出力値として外部に出力する。ニューロコ
ンピュータ3から出力された輝度値BV´は、この後演
算装置4に入力され、APEX演算が行われて絞り値お
よびシャッタスピードが決定され、シャッタ機構部6お
よび絞り機構部7は、演算装置4により決定された絞り
値およびシャッタスピードに基づいて、絞りおよびシャ
ッタの制御を行う。
Neurocomputer 3 for which learning has been completed
When a pattern P (output from the arithmetic processing unit 8) is input to the input layer, the arithmetic circuit 15 shifts from the input layer to the output layer based on the coupling strength W ji K between the units determined by learning. Then, the output value O pj K is sequentially calculated, and the output value O pj 0 (luminance value BV ′) in the output layer is output to the outside as the output value of the neurocomputer 3. The brightness value BV ′ output from the neurocomputer 3 is then input to the arithmetic unit 4 to perform APEX calculation to determine the aperture value and shutter speed, and the shutter mechanism unit 6 and the aperture mechanism unit 7 are operated by the arithmetic unit. The aperture and the shutter are controlled based on the aperture value and the shutter speed determined in 4.

【0041】従って、本実施例によれば、ニューロコン
ピュータ3の学習により撮影者の所望する任意の露出制
御を行い、任意の露出結果を得ることができる。しか
も、本実施例ではニューロコンピュータ3に入力すべき
測光出力を演算処理装置8により2種類の変数にまとめ
ているので、ニューロコンピュータ3内のネットワーク
の規模が小さくて済み、従来に比べて学習時間および演
算時間の短縮化を図ることができる。また、変数の減少
に伴って記憶媒体(RAM11〜14)の記憶容量も小
さくて済み、この記憶媒体をカメラ内の限られたスペー
ス内に収納することが容易になる。さらに、演算処理装
置8によりネットワークの出力に直接寄与しない変数を
除去することにより、学習時間・演算時間の短縮化を図
りうるとともに、学習が収束しない、あるいは正しい値
が出力されない、といった事態を防ぐことができる。
Therefore, according to the present embodiment, it is possible to obtain the desired exposure result by performing the desired exposure control desired by the photographer by learning the neurocomputer 3. Moreover, in the present embodiment, the photometric outputs to be input to the neurocomputer 3 are collected into two types of variables by the arithmetic processing unit 8. Therefore, the scale of the network in the neurocomputer 3 can be small, and the learning time can be shortened compared with the conventional one. And the calculation time can be shortened. In addition, the storage capacity of the storage medium (RAM 11 to 14) can be reduced as the number of variables decreases, and it becomes easy to store this storage medium in the limited space in the camera. Further, by removing the variables that do not directly contribute to the output of the network by the arithmetic processing unit 8, the learning time and the arithmetic time can be shortened, and the situation that the learning does not converge or the correct value is not output is prevented. be able to.

【0042】以上の議論を、図12を参照してさらに説
明する。図12は、図7に示すRAM11の規模を示し
た図である。図12(a)に示すように、入力変数が5個
の場合(すなわち、受光素子S1〜S5からの測光出力を
直接入力した場合)には、Wji Kのマトリクスは1層に
ついて5×25=125要素を必要とするが、同図(b)に示
すように、本実施例のごとく入力変数が2個の場合には
ji Kのマトリクスは1層について2×6=12要素で十
分である。このように、入力変数が若干減少するだけで
RAM11に要求される規模は等比級数的に減少する。
以上の議論は、他のRAM12〜14についても同様で
あり、ネットワークは飛躍的に簡略化される。
The above discussion will be further described with reference to FIG. FIG. 12 is a diagram showing the scale of the RAM 11 shown in FIG. As shown in FIG. 12A, when the number of input variables is 5, that is, when the photometric outputs from the light receiving elements S 1 to S 5 are directly input, the matrix of W ji K is 5 for each layer. Although x25 = 125 elements are required, as shown in FIG. 9B, when there are two input variables as in this embodiment, the matrix of W ji K is 2 × 6 = 12 elements for one layer. Is enough. In this way, the scale required for the RAM 11 is reduced in geometric progression only by slightly reducing the input variables.
The above discussion is the same for the other RAMs 12 to 14, and the network is dramatically simplified.

【0043】−第2実施例− 図13は、本発明による学習機能を有するカメラの第2
実施例を示す図である。本実施例では、演算処理装置8
の構成を除いて他の構成要素は上述の第1実施例と同様
であり、従って、他の構成要素については図示および説
明を省略する。
Second Embodiment FIG. 13 shows a second camera having a learning function according to the present invention.
It is a figure which shows an Example. In this embodiment, the arithmetic processing unit 8
The other components are the same as those in the above-described first embodiment except for the configuration described above, and therefore, illustration and description of the other components are omitted.

【0044】本実施例の演算処理装置8は、入力された
測光出力O1〜O5に対して、測光中央部O1、周辺部天
2+O3、周辺部地O4+O5を算出し、これをニューロ
コンピュータ3に出力する。従って、本実施例によって
も、上述の第1実施例と同様の作用効果を得ることがで
きる。
The arithmetic processing unit 8 of the present embodiment calculates the photometric center O 1 , the peripheral sky O 2 + O 3 , and the peripheral area O 4 + O 5 with respect to the input photometric outputs O 1 to O 5 . Then, this is output to the neuro computer 3. Therefore, according to this embodiment as well, it is possible to obtain the same effects as those of the first embodiment described above.

【0045】−第3実施例− 図14は、本発明による学習機能を有するカメラの第3
実施例を示す図である。本実施例では、測光装置1を構
成する受光素子S1〜Snがマトリクス状に多数配列され
ており、これら各受光素子の測光出力O1〜Onは全て演
算処理装置8に入力されている。演算処理装置8は、こ
れら測光出力O1〜Onの最大値Omaxおよび測光出力の
最大値と最小値との差ΔOを算出してニューロコンピュ
ータ3に出力する。あるいは、被写体画面を中央部、左
上部、右上部、左下部および右下部の5つの領域に分割
し、多数の受光素子をこれら領域に対応させて測光中央
部O1、周辺部天O2+O3、周辺部地O4+O5を算出
し、これをニューロコンピュータ3に出力する。
[Third Embodiment] FIG. 14 shows a third camera having a learning function according to the present invention.
It is a figure which shows an Example. In this embodiment, the light receiving element S 1 to S n constituting the photometric apparatus 1 are arrayed in a matrix, are input to the photometry output O 1 ~ O n all processor 8 of the light-receiving elements There is. Processor 8 calculates the difference ΔO between the maximum value O max and the maximum value and the minimum value of the photometry output of those photometric output O 1 ~ O n outputs the neuro-computer 3. Alternatively, the subject screen is divided into five regions, that is, the central part, the upper left part, the upper right part, the lower left part and the lower right part, and a large number of light receiving elements are associated with these regions, and the photometric central part O 1 and the peripheral part O 2 + O 3 , the peripheral area O 4 + O 5 is calculated and output to the neurocomputer 3.

【0046】従って、本実施例によっても、上述の第1
実施例と同様の作用効果を得ることができる。すなわ
ち、本実施例によれば、受光素子が増加しても演算処理
装置8によってニューロコンピュータ3に入力される変
数の数を一定にでき、センサ数の増加に伴って記憶容
量、計算量が増加することを抑制することができる。
Therefore, also in this embodiment, the above-mentioned first
It is possible to obtain the same effect as that of the embodiment. That is, according to this embodiment, even if the number of light receiving elements increases, the number of variables input to the neurocomputer 3 by the arithmetic processing unit 8 can be made constant, and the storage capacity and the calculation amount increase as the number of sensors increases. Can be suppressed.

【0047】なお、本発明の学習機能を有するカメラ
は、その細部が上述の実施例に限定されず、種々の変形
例が可能である。
The details of the camera having the learning function of the present invention are not limited to the above-mentioned embodiments, and various modifications are possible.

【0048】[0048]

【発明の効果】以上詳細に説明したように、本発明によ
れば、ネットワークに入力すべきパラメータを変換手段
により測光センサからの出力信号より数の少ないパラメ
ータにまとめているので、ネットワークの規模が小さく
て済み、従来に比べて学習時間および演算時間の短縮化
を図ることができる。また、変数の減少に伴って記憶媒
体の記憶容量も小さくて済み、この記憶媒体をカメラ内
の限られたスペース内に収納することが容易になる。さ
らに、変換手段によりネットワークの出力に直接寄与し
ない変数を除去することにより、学習時間・演算時間の
短縮化を図りうるとともに、学習が収束しない、あるい
は正しい値が出力されない、といった事態を防ぐことが
できる。
As described in detail above, according to the present invention, the parameters to be input to the network are summarized by the converting means into the parameters whose number is smaller than the output signal from the photometric sensor. The size is small, and the learning time and the calculation time can be shortened as compared with the related art. Further, as the number of variables decreases, the storage capacity of the storage medium also becomes small, and it becomes easy to store this storage medium in the limited space in the camera. Furthermore, by removing the variables that do not directly contribute to the output of the network by the conversion means, it is possible to shorten the learning time / calculation time and prevent the situation where the learning does not converge or the correct value is not output. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のクレーム対応図である。FIG. 1 is a diagram corresponding to a claim of the present invention.

【図2】本発明の第1実施例である学習機能を有するカ
メラの回路構成を示すブロック図である。
FIG. 2 is a block diagram showing a circuit configuration of a camera having a learning function according to the first embodiment of the present invention.

【図3】演算処理装置および受光素子の詳細を示す図で
ある。
FIG. 3 is a diagram showing details of an arithmetic processing unit and a light receiving element.

【図4】ニューロコンピュータのモデルを示す図であ
る。
FIG. 4 is a diagram showing a model of a neuro computer.

【図5】ユニットのモデルを示す図である。FIG. 5 is a diagram showing a model of a unit.

【図6】シグモイド関数の一例を示す図である。FIG. 6 is a diagram showing an example of a sigmoid function.

【図7】ニューロコンピュータの基本回路構成を示すブ
ロック図である。
FIG. 7 is a block diagram showing a basic circuit configuration of a neurocomputer.

【図8】ニューロコンピュータの学習過程を説明するた
めのフローチャートである。
FIG. 8 is a flowchart for explaining a learning process of a neuro computer.

【図9】図8と同様の図である。FIG. 9 is a view similar to FIG.

【図10】図8と同様の図である。FIG. 10 is a view similar to FIG.

【図11】図8と同様の図である。FIG. 11 is a view similar to FIG.

【図12】本発明の効果を説明するための図である。FIG. 12 is a diagram for explaining the effect of the present invention.

【図13】本発明の第2実施例である学習機能を有する
カメラを示す図であって、演算処理装置および受光素子
の詳細を示す図である。
FIG. 13 is a diagram showing a camera having a learning function according to a second embodiment of the present invention, which is a diagram showing details of an arithmetic processing unit and a light receiving element.

【図14】本発明の第3実施例である学習機能を有する
カメラを示す図であって、演算処理装置および受光素子
の詳細を示す図である。
FIG. 14 is a diagram showing a camera having a learning function according to a third embodiment of the present invention, which is a diagram showing details of an arithmetic processing unit and a light receiving element.

【符号の説明】[Explanation of symbols]

a 測光センサ b 露出制御手段 c ネットワーク d 学習手段 e 変換手段 1 測光装置 3 ニューロコンピュータ 4 演算装置 5 露出制御装置 6 シャッタ機構部 7 絞り機構部 11〜14 RAM 15〜18 演算回路 S1〜Sn 受光素子 O1〜On 測光出力a photometric sensor b exposure control means c network d learning means e conversion means 1 photometric device 3 neurocomputer 4 arithmetic device 5 exposure control device 6 shutter mechanism unit 7 diaphragm mechanism unit 11-14 RAM 15-18 arithmetic circuit S 1 -S n the light-receiving element O 1 ~O n photometric output

Claims (1)

【特許請求の範囲】 【請求項1】 測光情報を出力する複数の測光センサ
と、 前記測光センサの出力信号に基づいてカメラの露出制御
を行う露出制御手段と、 前記測光センサの出力信号を入力パラメータとして露出
制御用信号を前記露出制御手段に送出する自己組織によ
る学習が可能なネットワークと、 前記ネットワークの出力値を所望の出力値に合致させる
ようにこのネットワークを自己組織化させる学習手段と
を備えた学習機能を有するカメラにおいて、 前記測光センサと前記ネットワークとの間に介在し、こ
の測光センサからの複数の出力信号をこれより数の少な
いネットワーク入力用パラメータに変換する変換手段を
備えたことを特徴とする学習機能を有するカメラ。
Claim: What is claimed is: 1. A plurality of photometric sensors that output photometric information, an exposure control unit that controls the exposure of a camera based on output signals of the photometric sensors, and an output signal of the photometric sensors. A network capable of learning by self-organization, which sends an exposure control signal to the exposure control means as a parameter, and a learning means for self-organizing the network so that the output value of the network matches a desired output value. In a camera having a learning function, provided is a conversion unit interposed between the photometric sensor and the network for converting a plurality of output signals from the photometric sensor into a smaller number of network input parameters. A camera with a learning function.
JP3202576A 1991-07-17 1991-07-17 Camera having learning function Pending JPH0527300A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3202576A JPH0527300A (en) 1991-07-17 1991-07-17 Camera having learning function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3202576A JPH0527300A (en) 1991-07-17 1991-07-17 Camera having learning function

Publications (1)

Publication Number Publication Date
JPH0527300A true JPH0527300A (en) 1993-02-05

Family

ID=16459781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3202576A Pending JPH0527300A (en) 1991-07-17 1991-07-17 Camera having learning function

Country Status (1)

Country Link
JP (1) JPH0527300A (en)

Similar Documents

Publication Publication Date Title
JP2761391B2 (en) Focus detection device
US5227835A (en) Teachable camera
US4978990A (en) Exposure control apparatus for camera
JP2907057B2 (en) Brightness automatic adjustment device
JPH07222202A (en) Stereoscopic vision camera
US5331422A (en) Video camera having an adaptive automatic iris control circuit
JP2774819B2 (en) camera
JPH0527300A (en) Camera having learning function
JP2793816B2 (en) Camera with learning function
US5732288A (en) Auto-focusing device for camera
US5266984A (en) Exposure calculating apparatus for camera
JP2793817B2 (en) Exposure control device
JPH0272491A (en) Picture conversion processor
JP2793815B2 (en) Exposure control device
JPH0991264A (en) Method and device for optimizing neural network structure
JP3240705B2 (en) Camera photometer
JP2870864B2 (en) Imaging device
JPH02183238A (en) Exposure controller
JP2979562B2 (en) Learning processing device
JP3172163B2 (en) Group-based learning adjustment method of connection in neural network
JP3411847B2 (en) Color reproduction method and apparatus for input device, and recording medium recording program of this method
JP2612956B2 (en) Method for determining exposure amount of copying machine
JP2909111B2 (en) Camera exposure calculation device
JPH05249534A (en) Automatic bracketing device for camera
JPH05181828A (en) Knowledge information processor