[go: up one dir, main page]

JP6851634B2 - Feature conversion module, pattern identification device, pattern identification method, and program - Google Patents

Feature conversion module, pattern identification device, pattern identification method, and program Download PDF

Info

Publication number
JP6851634B2
JP6851634B2 JP2018500181A JP2018500181A JP6851634B2 JP 6851634 B2 JP6851634 B2 JP 6851634B2 JP 2018500181 A JP2018500181 A JP 2018500181A JP 2018500181 A JP2018500181 A JP 2018500181A JP 6851634 B2 JP6851634 B2 JP 6851634B2
Authority
JP
Japan
Prior art keywords
data
optical
unit
learning
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018500181A
Other languages
Japanese (ja)
Other versions
JPWO2017141997A1 (en
Inventor
恵理子 渡邉
恵理子 渡邉
藤吉 弘亘
弘亘 藤吉
泰史 谷口
泰史 谷口
佳奈美 池田
佳奈美 池田
英 脇田
英 脇田
鈴木 秀典
秀典 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Original Assignee
THE UNIVERSITY OF ELECTRO-COMUNICATINS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THE UNIVERSITY OF ELECTRO-COMUNICATINS filed Critical THE UNIVERSITY OF ELECTRO-COMUNICATINS
Publication of JPWO2017141997A1 publication Critical patent/JPWO2017141997A1/en
Application granted granted Critical
Publication of JP6851634B2 publication Critical patent/JP6851634B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Holo Graphy (AREA)

Description

本発明は、任意の多次元ベクトルの特徴量変換モジュール、前述の多次元ベクトルに関するパターン識別学習装置、パターン識別装置、光演算用データ生成装置、光記憶装置、パターン識別学習処理方法とパターン識別処理方法、光演算用データ生成方法およびパターン識別学習プログラム、並びにそれらを記録した記憶装置に関するものである。本願は、2016年2月15日に、日本に出願された特願2016−025892号に基づき優先権を主張し、その内容をここに援用する。 The present invention relates to an arbitrary multidimensional vector feature conversion module, the above-mentioned pattern identification learning device for a multidimensional vector, a pattern identification device, an optical calculation data generation device, an optical storage device, a pattern identification learning processing method and a pattern identification processing. It relates to a method, a data generation method for optical calculation, a pattern recognition learning program, and a storage device that records them. The present application claims priority based on Japanese Patent Application No. 2016-025892 filed in Japan on February 15, 2016, the contents of which are incorporated herein by reference.

近年、大規模データ群から新たな知見・知識を得ることを目的とした研究開発が注目されている。コンビュータービジョンにおける機械学習では、学習器の構築によって二次元画像からの物体認識・照合・検出を実現する。物体認識・照合・検出における精度を高めるためには、学習用の良質かつ膨大なデータ群および学習のための高速演算処理技術が必要とされ、汎用プロセッサの動作周波数の向上が求められる。しかしながら、半導体製造プロセスの微細化に伴う回路の発熱などの問題があるため、汎用プロセッサの動作周波数のさらなる向上は困難になっている。そこで、プロセッサコアや演算器を並列化して学習器の性能向上を図る技術や、得意な部分を専用プロセッサで担わせるなど、既存の技術と新たなコンピューティング技術とを効率的に組み合わせた融合システムに関する研究開発が行われている。 In recent years, research and development aimed at obtaining new knowledge and knowledge from large-scale data groups has attracted attention. In machine learning in computer vision, object recognition, matching, and detection from two-dimensional images are realized by constructing a learning device. In order to improve the accuracy in object recognition / matching / detection, high-quality and enormous data groups for learning and high-speed arithmetic processing technology for learning are required, and improvement of the operating frequency of general-purpose processors is required. However, it is difficult to further improve the operating frequency of a general-purpose processor due to problems such as heat generation of a circuit due to miniaturization of a semiconductor manufacturing process. Therefore, a fusion system that efficiently combines existing technology and new computing technology, such as technology to improve the performance of learners by parallelizing processor cores and arithmetic units, and having a dedicated processor take charge of the strong points. Research and development is being carried out.

例えば、多次元ベクトルの内積演算を高速に実現する処理として、光演算処理が挙げられる(非特許文献1参照)。光演算処理は汎用性に乏しいが、特定のアルゴリズムにおいては、アナログ特性による並列高速演算と、情報の大容量記憶に秀でている。例えば特許文献1や非特許文献1には、前述のように並列高速演算と情報の大容量記憶との両立を実現可能なホログラフィック光ディスクを用いた光相関システムが開示されている。 For example, as a process for realizing the inner product operation of a multidimensional vector at high speed, an optical operation process can be mentioned (see Non-Patent Document 1). Optical arithmetic processing is not very versatile, but in a specific algorithm, it excels in parallel high-speed arithmetic based on analog characteristics and large-capacity storage of information. For example, Patent Document 1 and Non-Patent Document 1 disclose an optical correlation system using a holographic optical disk capable of achieving both parallel high-speed calculation and large-capacity storage of information as described above.

日本国特開2008−282374号公報Japanese Patent Application Laid-Open No. 2008-282374

K. Ikeda and E. Watanabe, “High-speed optical correlator with coaxial holographic system" Jpn. J. Appl. Phys. 54,09ME02 (2015).K. Ikeda and E. Watanabe, “High-speed optical correlator with coaxial holographic system” Jpn. J. Appl. Phys. 54, 09ME02 (2015).

上述したように、大量の映像や画像などの多次元ベクトルのパターン識別を高速かつ高精度かつ省エネルギーで実現するためには、多次元ベクトル同士の内積演算の高速化、および多次元ベクトル同士の内積演算結果を保存しておく記憶装置の効率化が求められる。特許文献1や非特許文献1に開示されている光演算処理に基づくパターン識別では、多次元ベクトル同士の内積演算が高速に行われるが、これらの光演算処理に基づくパターン識別の適用範囲は特定の画像照合に限られており、汎用的な物体認識・照合・検出への適用が難しいという問題があった。また、汎用的な物体認識・照合・検出への適用を可能にすると共に、任意の学習データから光演算処理に適した学習モデルを円滑に作成可能なモジュールが望まれていた。 As described above, in order to realize pattern identification of multidimensional vectors such as a large amount of images and images at high speed, with high accuracy and energy saving, the inner product calculation between multidimensional vectors should be speeded up and the inner product between multidimensional vectors should be realized. It is required to improve the efficiency of the storage device that stores the calculation result. In the pattern identification based on the optical arithmetic processing disclosed in Patent Document 1 and Non-Patent Document 1, the internal product operation between the multidimensional vectors is performed at high speed, but the applicable range of the pattern identification based on these optical arithmetic processing is specified. There is a problem that it is difficult to apply to general-purpose object recognition / matching / detection because it is limited to image matching. In addition, a module that can be applied to general-purpose object recognition, collation, and detection, and can smoothly create a learning model suitable for optical arithmetic processing from arbitrary learning data has been desired.

上記事情に鑑み、本発明では、任意の学習データから光演算処理に適した学習モデルを円滑に作成し、光演算処理を用いて、超大規模データからの特定の画像照合に限定されず、任意の多次元パターンに関する識別を超高速に実現することを目的とする。 In view of the above circumstances, the present invention smoothly creates a learning model suitable for optical arithmetic processing from arbitrary learning data, and uses optical arithmetic processing without being limited to specific image matching from ultra-large-scale data. The purpose is to realize the identification of the multidimensional pattern of the above at ultra-high speed.

本発明は、上記課題を解決するため、以下の手段を採用する。 The present invention employs the following means in order to solve the above problems.

本発明に係る特徴量変換モジュールは、ニューラルネットワークにおける学習によって学習データの特徴量を変換する特徴量変換モジュールであって、任意の第一の次元数および任意の特徴量を有する学習データが入力される学習データ入力部と、所定の光演算制約条件を満たす第二の次元数を有する重みとバイアスとを因子にもつ式からなる関数より構成された学習モデルに、前記学習データ入力部に入力された前記学習データを入力し、前記第二の次元数を有する中間層を設定する中間層設定部と、前記中間層設定部で設定された前記中間層から前記第一の次元数を有する出力層を計算し、前記ニューラルネットワークの出力を算出する出力算出部と、前記出力算出部によって算出された前記ニューラルネットワークの出力と前記学習データとの誤差を算出する誤差算出部と、前記誤差算出部によって算出された前記誤差が所定の条件を満たすか否かを判定する判定部と、前記誤差に基づいて前記重みと前記バイアスとをそれぞれ変更し、変更後の前記重みと前記バイアスとを得る重みバイアス変更部と、前記変更後の前記重みと前記バイアスとを因子にもつ式からなる関数によって構成された学習モデルを出力する学習モデル出力部と、前記判定部において前記誤差が所定の条件を満たすと判定された場合には、前記出力部から前記変更後の前記重みと前記バイアスとを因子にもつ式からなる関数によって構成された学習モデルを出力させ、前記判定部において前記誤差が所定の条件を満たさないと判定された場合には、前記出力算出部において前記学習モデルの前記式に含まれる前記重みと前記バイアスを前記重みバイアス変更部で得られた前記変更後の前記重みと前記バイアスにそれぞれ変更し、前記ニューラルネットワークの出力を算出させる制御部と、を備え、前記光演算制約条件は、前記ニューラルネットワークの出力を用いて行う光演算における所定の量子化数、前記光演算に用いられる光相関器の光学パラメータ、および所定のエネルギー数によって決まることを特徴とする。
本明細書では、出力算出部により得られたニューラルネットワークの出力に対して学習データとの誤差を算出し、誤差が所定の条件を満たすようになるまで重み・バイアス変更部によって学習モデルを更新する行程を学習と呼ぶ。
The feature amount conversion module according to the present invention is a feature amount conversion module that converts the feature amount of training data by learning in a neural network, and learning data having an arbitrary first dimension number and an arbitrary feature amount is input. The training data input unit is input to the training data input unit, which is composed of a function consisting of a training data input unit and a function having a weight and a bias having a second dimension number satisfying a predetermined optical calculation constraint condition as factors. An intermediate layer setting unit that inputs the learning data and sets an intermediate layer having the second dimension number, and an output layer having the first dimension number from the intermediate layer set by the intermediate layer setting unit. The output calculation unit that calculates the output of the neural network, the error calculation unit that calculates the error between the output of the neural network calculated by the output calculation unit and the training data, and the error calculation unit. A determination unit that determines whether or not the calculated error satisfies a predetermined condition, and a weight bias that changes the weight and the bias based on the error to obtain the changed weight and the bias. When the change unit, the learning model output unit that outputs a learning model composed of a function consisting of the changed weight and the bias as factors, and the determination unit satisfy a predetermined error. When it is determined, the output unit outputs a learning model composed of a function composed of an equation having the changed weight and the bias as factors, and the error determines a predetermined condition in the determination unit. When it is determined that the conditions are not satisfied, the output calculation unit applies the weight and the bias included in the equation of the learning model to the changed weight and the bias obtained by the weight bias changing unit, respectively. A control unit that changes and calculates the output of the neural network is provided, and the optical calculation constraint condition is a predetermined number of quantizations in an optical calculation performed using the output of the neural network, and light used in the optical calculation. It is characterized by being determined by the optical parameters of the correlator and a predetermined number of energies.
In the present specification, an error with the training data is calculated for the output of the neural network obtained by the output calculation unit, and the learning model is updated by the weight / bias changing unit until the error satisfies a predetermined condition. The process is called learning.

本発明に係るパターン識別装置は、上述の特徴量変換モジュールと、クラスラベルの付加された学習用データを入カとし、光演算用制約条件を備えた前記学習用データの識別精度を最大化するような特徴抽出器を学習する学習手段と、前記特徴抽出器より抽出された特徴量を特徴抽出器に変換する光演算用データ変換部と、光演算用データを記憶する光記憶部と、複数の光演算用データ聞における類似度を算出することによって光相関機能を提供する類似度計算部による光演算手段と、識別対象データの辞書となる登録用データを入力とし、前記学習手段により得られた特徴抽出器を用いて抽出した特徴量を、前記光演算用データ変換部において光演算用に光演算用特徴量として変換し、前記光演算手段における光記憶部に登録する登録手段と、識別対象データを入力とし、前記学習手段で生成された特徴抽出器より抽出した特徴量と前記登録手段において光記憶部に登録した特徴量聞の類似度を前記光演算手段における類似度計算部において算出し、出力部より識別結果を出力する識別手段と、を備えることを特徴とする。 The pattern identification device according to the present invention uses the above-mentioned feature amount conversion module and the learning data to which the class label is added as input, and maximizes the identification accuracy of the learning data provided with the constraint condition for optical calculation. A plurality of learning means for learning such a feature extractor, an optical calculation data conversion unit that converts the feature amount extracted from the feature extractor into a feature extractor, and an optical storage unit that stores optical calculation data. The optical calculation means by the similarity calculation unit that provides the optical correlation function by calculating the similarity in the optical calculation data listening of the above, and the registration data that becomes the dictionary of the identification target data are input and obtained by the learning means. The feature amount extracted by the feature extractor is converted into an optical calculation feature amount for optical calculation by the optical calculation data conversion unit, and is identified with a registration means registered in the optical storage unit of the optical calculation means. Using the target data as input, the similarity calculation unit of the optical calculation means calculates the similarity between the feature amount extracted from the feature extractor generated by the learning means and the feature amount registered in the optical storage unit of the registration means. However, it is characterized in that it includes an identification means for outputting the identification result from the output unit.

本発明に係るパターン識別装置は、クラスラベルの付加された学習用データを入カとし、光演算用制約条件を備えた前記学習用データの識別精度を最大化するような特徴抽出器を学習する学習手段と、前記特徴抽出器より抽出された特徴量を特徴抽出器に変換する光演算用データ変換部と、光演算用データを記憶する光記憶部と、複数の光演算用データ聞における類似度を算出することによって光相闘機能を提供する類似度計算部による光演算手段と、識別対象データの辞書となる登録用データを入力とし、前記学習手段により得られた特徴抽出器を用いて抽出した特徴量を、前記光演算用データ変換部において光演算用に光演算用特徴量として変換し、前記光演算手段における光記憶部に登録する登録手段と、識別対象データを入力とし、前記学習手段で生成された特徴抽出器より抽出した特徴量と前記登録手段において光記憶部に登録した特徴量聞の類似度を前記光演算手段における類似度計算部において算出し、出力部より識別結果を出力する識別手段と、を備えることを特徴とする。 The pattern identification device according to the present invention uses the learning data to which the class label is attached as input, and learns a feature extractor that maximizes the identification accuracy of the learning data provided with the constraint condition for optical calculation. Similarity between the learning means, the optical calculation data conversion unit that converts the feature amount extracted from the feature extractor into the feature extractor, the optical storage unit that stores the optical calculation data, and a plurality of optical calculation data listening. Using the optical calculation means by the similarity calculation unit that provides the optical fighting function by calculating the degree, and the registration data that becomes the dictionary of the identification target data as input, and the feature extractor obtained by the learning means. The extracted feature amount is converted as an optical calculation feature amount for optical calculation by the optical calculation data conversion unit, and the registration means registered in the optical storage unit of the optical calculation means and the identification target data are input as described above. The similarity between the feature amount extracted from the feature extractor generated by the learning means and the feature amount registered in the optical storage unit in the registration means is calculated by the similarity calculation unit in the optical calculation means, and the identification result is obtained from the output unit. It is characterized by including an identification means for outputting.

本発明によれば、超大規模データを学習データとして該学習データから光演算処理に適した学習モデルを円滑に作成し、超大規模データからの任意の多次元パターンに関する識別を超高速に実現することができる。また、識別の高速性および省エネルギー化により、光演算の効率を高めることができる。 According to the present invention, a learning model suitable for optical arithmetic processing can be smoothly created from the learning data using ultra-large-scale data as training data, and identification of an arbitrary multidimensional pattern from the ultra-large-scale data can be realized at ultra-high speed. Can be done. In addition, the efficiency of optical calculation can be improved by high-speed identification and energy saving.

本発明に係るパターン識別装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the pattern identification apparatus which concerns on this invention. 本発明に係るパターン識別方法の学習処理、登録処理、識別処理のそれぞれの処理のフローチャートである。It is a flowchart of each process of learning process, registration process, and identification process of the pattern identification method which concerns on this invention. 本発明の実施例1に係る学習手段100の実装例である。This is an implementation example of the learning means 100 according to the first embodiment of the present invention. 図3に示す学習済み学習手段のフィードフォワード処理により得られた特徴量の値分布である。It is a value distribution of the feature amount obtained by the feedforward processing of the learned learning means shown in FIG. 図3に示す学習済み学習手段のフィードフォワード処理により得られた特徴量を用いた識別精度を示す図である。It is a figure which shows the identification accuracy using the feature quantity obtained by the feedforward processing of the learned learning means shown in FIG. 図1の光演算処理によるk近傍識別器をスケッチベース3次元照合に適用した場合の、本発明の実施例1における光演算による類似度計算結果を示す図である。It is a figure which shows the similarity calculation result by the optical calculation in Example 1 of this invention when the k-nearest neighbor classifier by the optical calculation process of FIG. 1 is applied to the sketch-based three-dimensional collation. 図1の光演算処理によるk近傍識別器をスケッチベース3次元照合に適用した場合の、本発明の実施例1における光演算による多クラス識別結果を示す図である。It is a figure which shows the multi-class identification result by the optical calculation in Example 1 of this invention when the k-nearest neighbor classifier by the optical calculation process of FIG. 1 is applied to the sketch-based three-dimensional collation. 図1の光演算処理によるk近傍識別器をスケッチベース3次元照合に適用した場合の、本発明の実施例1における光相関演算によるk近傍法による識別結果を示す図である。It is a figure which shows the discrimination result by the k-nearest neighbor method by the optical correlation calculation in Example 1 of this invention when the k-nearest neighbor classifier by the optical calculation process of FIG. 1 is applied to sketch-based three-dimensional collation. 図1に示す光演算手段300におけるフローチャートである。It is a flowchart of the optical calculation means 300 shown in FIG. 図1に示す光演算用データ変換部310における変換の一例を示す模式図である。It is a schematic diagram which shows an example of conversion in the data conversion unit 310 for optical calculation shown in FIG. 図1に示す光演算用特徴ベクトル光記録部320と類似度計算330に用いる光学手段の一例を示す概略図である。It is a schematic diagram which shows an example of the optical means used for the feature vector light recording unit 320 for optical calculation and the similarity calculation 330 shown in FIG. 本発明の実施例2に係る光演算処理による線形識別器のフローチャートである。It is a flowchart of the linear classifier by the optical arithmetic processing which concerns on Example 2 of this invention. 本発明の実施例2に係る特徴抽出学習部121の実装例を示す図である。It is a figure which shows the implementation example of the feature extraction learning part 121 which concerns on Example 2 of this invention. 本発明の実施例2に係る光演算用データ変換部122の実装例を示す図である。It is a figure which shows the implementation example of the data conversion unit 122 for optical calculation which concerns on Example 2 of this invention. 本発明の実施例2に係る光演算用データ変換部310の実装例を示す図である。It is a figure which shows the implementation example of the data conversion unit 310 for optical calculation which concerns on Example 2 of this invention. 本発明の実施例2に係る線形識別器においてB−HOG特徴量を使ったときの識別関数の出力結果である。It is an output result of the discrimination function when the B-HOG feature quantity is used in the linear classifier which concerns on Example 2 of this invention. 本発明に係る特徴量変換モジュールおよび該特徴量変換モジュールを備えたパターン識別装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the feature amount conversion module which concerns on this invention, and the pattern identification apparatus provided with the feature amount conversion module. 本発明に係るパターン識別方法の学習処理、特徴量変換処理、登録処理、識別処理のそれぞれの処理のフローチャートである。It is a flowchart of each process of the learning process, the feature amount conversion process, the registration process, and the identification process of the pattern identification method which concerns on this invention. 本発明の実施例3におけるネットワーク構造の一例を示す図である。It is a figure which shows an example of the network structure in Example 3 of this invention. 本発明の実施例3における光演算用特徴変換部から出力される光演算用データの値分布を示す図である。It is a figure which shows the value distribution of the optical calculation data output from the optical calculation feature conversion part in Example 3 of this invention. 本発明の実施例3における識別精度を示す図である。It is a figure which shows the identification accuracy in Example 3 of this invention. 本発明の実施例3に係る内積演算結果例を示すグラフである。It is a graph which shows the example of the inner product calculation result which concerns on Example 3 of this invention. 本発明の実施例3に係る光相関器の構成の一例を示すグラフである。It is a graph which shows an example of the structure of the optical correlator which concerns on Example 3 of this invention.

以下本発明の実施形態および実施例を、図面を参照して説明するが、本発明は下記の例に限定されるものではない。 Hereinafter, embodiments and examples of the present invention will be described with reference to the drawings, but the present invention is not limited to the following examples.

図1は、本発明のパターン識別装置を示すブロック図である。
図2は、パターン認識の流れを概略的に示すフローチャートである。
FIG. 1 is a block diagram showing a pattern identification device of the present invention.
FIG. 2 is a flowchart schematically showing the flow of pattern recognition.

本発明に係るパターン識別装置1は、学習処理を行う学習手段100、光記憶部に特徴抽出部、光演算用データ生成部を介してデータ登録処理を行う登録手段200、光演算用データ変換部310、光演算用特徴ベクトル光記憶部320を保持し、類似度計算330を行う光演算手段300、および識別対象データから特徴量を抽出する特徴抽出部220、光演算用データ変換部310を介して類似度計算330を行う識別処理を行う識別手段400から構成されている。 The pattern recognition device 1 according to the present invention includes a learning means 100 that performs learning processing, a feature extraction unit in an optical storage unit, a registration means 200 that performs data registration processing via an optical calculation data generation unit, and an optical calculation data conversion unit. Via the 310, the optical calculation means 300 that holds the feature vector optical storage unit 320 for optical calculation and performs the similarity calculation 330, the feature extraction unit 220 that extracts the feature amount from the identification target data, and the data conversion unit 310 for optical calculation. It is composed of identification means 400 that performs identification processing that performs similarity calculation 330.

学習手段100では、予め用意されたクラスラベルの付加された学習データが学習データ入力部110から入力され、特徴抽出器生成部120に伝送され、特徴抽出部121と光演算用制約付加部122を介し、学習用データの識別精度を最大化するように学習される。特徴抽出器生成部120により生成された特徴抽出部121は、登録手段200、識別手段400、光演算手段300に組み込まれる。 In the learning means 100, the learning data to which the class label is added prepared in advance is input from the learning data input unit 110, transmitted to the feature extractor generation unit 120, and the feature extraction unit 121 and the optical calculation constraint addition unit 122 are combined. Through this, learning is performed so as to maximize the identification accuracy of the training data. The feature extraction unit 121 generated by the feature extractor generation unit 120 is incorporated into the registration means 200, the identification means 400, and the optical calculation means 300.

登録手段200では、識別対象データの辞書となる登録用データが入力部210から入力される。また、登録手段200では、学習手段100により得られた特徴抽出器を用いて抽出した特徴量は光演算用に光演算用特徴量として変換され、光演算手段300において光演算用特徴ベクトル光記憶部320に登録される。 In the registration means 200, registration data that serves as a dictionary of identification target data is input from the input unit 210. Further, in the registration means 200, the feature amount extracted by the feature extractor obtained by the learning means 100 is converted as a feature amount for optical calculation for optical calculation, and the feature vector optical storage for optical calculation is performed in the optical calculation means 300. It is registered in the unit 320.

光演算手段300は、光演算用データ変換部310と光演算用データを記憶する光記憶部320と、複数の光演算対応データ間における類似度を算出する類似度計算部330により構成され、光相関演算による類似度計算結果を出力する機能を有する。 The optical calculation means 300 is composed of a data conversion unit 310 for optical calculation, an optical storage unit 320 for storing data for optical calculation, and a similarity calculation unit 330 for calculating the similarity between a plurality of data corresponding to optical calculation. It has a function to output the similarity calculation result by correlation calculation.

光演算用データ変換部310では、電子データを光データに変換する処理が行われる。光演算用データに変換する際、データは空間光変調デバイスに表示され、レーザ光などを照射することによりデータの電子・光変換を行われる。そのため空間光変調器のデバイス仕様に依存するデータ変換が行われる。空間光変調器としては、液晶空間光変調器やデジタルマイクロミラーデバイスなどが用いられる。高速応答に対応する空間光変調器は2値であることが多いため、バイナリ変換が行われる。 The optical calculation data conversion unit 310 performs a process of converting electronic data into optical data. When converting to optical calculation data, the data is displayed on a spatial optical modulation device, and the data is electronically and optically converted by irradiating with laser light or the like. Therefore, data conversion that depends on the device specifications of the spatial light modulator is performed. As the spatial light modulator, a liquid crystal spatial light modulator, a digital micromirror device, or the like is used. Since the spatial light modulator corresponding to the high-speed response is often binary, binary conversion is performed.

識別手段400では、識別対象データ入力部410において、識別対象データが入力され、学習手段100で生成した特徴抽出部220により特徴量が抽出され、抽出された特徴量が光演算用データ変換部310に伝送される。登録手段200において、光記憶部320に登録した特徴量間の類似度は光演算手段300における類似度計算部330において算出される。その後、出力部420により識別結果が出力される。 In the identification means 400, the identification target data is input by the identification target data input unit 410, the feature amount is extracted by the feature extraction unit 220 generated by the learning means 100, and the extracted feature amount is the optical calculation data conversion unit 310. Is transmitted to. In the registration means 200, the similarity between the feature quantities registered in the optical storage unit 320 is calculated by the similarity calculation unit 330 in the optical calculation means 300. After that, the identification result is output by the output unit 420.

光演算処理によるk近傍識別法の一実施例に図1のブロック図をもとに説明する。 An embodiment of the k-nearest neighbor identification method by optical arithmetic processing will be described with reference to the block diagram of FIG.

実施例における光演算処理によるk近傍識別法は、学習手段100、登録手段200、光演算手段300、識別手段400により構成されている。 The k-nearest neighbor identification method by optical arithmetic processing in the embodiment is composed of learning means 100, registration means 200, optical arithmetic means 300, and identification means 400.

学習手段100は、登録手段200及び識別手段400において用いる特徴抽出部を生成するための手段である。 The learning means 100 is a means for generating a feature extraction unit used in the registration means 200 and the identification means 400.

具体的には、学習手段100は、学習データ入力部110、学習データ入力部110より取得したデータから特徴量を抽出する特徴抽出器生成部120、特徴抽出器生成部120より得られた特徴量をもとに識別判定を行う識別部130、識別部130による識別結果を評価する学習系評価部140、特徴抽出器生成部120において光相関用に適用可能な特徴量にデータを変換する光演算制約付加部122と学習の進行状態を評価するための検証用データを入力するための検証データ入力部(図示略)から構成されている。 Specifically, the learning means 100 includes a learning data input unit 110, a feature amount obtained from a feature extractor generation unit 120 that extracts a feature amount from data acquired from the learning data input unit 110, and a feature amount obtained from the feature extractor generation unit 120. Optical calculation that converts data into feature quantities applicable for optical correlation in the identification unit 130 that performs identification determination based on the above, the learning system evaluation unit 140 that evaluates the identification result by the identification unit 130, and the feature extractor generation unit 120. It is composed of a constraint addition unit 122 and a verification data input unit (not shown) for inputting verification data for evaluating the progress of learning.

学習手段100における学習用データ入力部110では、学習用データと識別において教師となる情報がセットとして入力される。 In the learning data input unit 110 in the learning means 100, the learning data and the information serving as a teacher in identification are input as a set.

学習手段100における特徴量抽出部120は、複数の特徴量抽出層からなる。各々の特徴量抽出層では、それぞれ学習用データに対する畳み込み、次元削減、全結合の処理が行われる。 The feature amount extraction unit 120 in the learning means 100 is composed of a plurality of feature amount extraction layers. In each feature extraction layer, convolution, dimension reduction, and total coupling processing are performed on the training data.

学習手段100における識別部130では、得られる特徴量次元が識別対象クラス分の次元となる全結合層となることが好ましい。 In the identification unit 130 in the learning means 100, it is preferable that the obtained feature dimension is a fully connected layer that is the dimension of the identification target class.

学習手段100における学習系評価部140では、識別部130において得られた識別結果の出力と教師となる情報との正誤の判定が行われる。もし、識別結果が誤っていた場合は、正解との誤差を求める。 The learning system evaluation unit 140 in the learning means 100 determines whether the output of the identification result obtained by the identification unit 130 and the information serving as a teacher are correct or incorrect. If the identification result is incorrect, the error from the correct answer is calculated.

学習手段100における特徴抽出部121では、学習系評価部140において求めた誤差を最小化するように特徴抽出部における重みの更新を行う。 The feature extraction unit 121 in the learning means 100 updates the weights in the feature extraction unit so as to minimize the error obtained by the learning system evaluation unit 140.

ここで、光演算手段300における光演算で扱うデータは、バイナリデータとする。多値データから抽出した特徴量は多値であり、この特徴量をバイナリ化する変換においては、一般に、情報量が損なわれることが知られている。この情報量の欠損は、光演算による識別性能に影響を及ぼす可能性が高い。したがって、学習手段100における特徴抽出部121および光演算用制約付加部122では、あらかじめ最終的に特徴抽出部121から出力できる特徴量がバイナリデータ変換処理を施されても、限りなく情報量を維持できるような学習を行うように設計する。 Here, the data handled by the optical calculation in the optical calculation means 300 is binary data. The feature amount extracted from the multi-valued data is multi-valued, and it is generally known that the amount of information is impaired in the conversion for binarizing the feature amount. This lack of information amount is likely to affect the discrimination performance by optical calculation. Therefore, the feature extraction unit 121 and the optical calculation constraint addition unit 122 in the learning means 100 maintain an infinite amount of information even if the feature amount that can be finally output from the feature extraction unit 121 is subjected to binary data conversion processing in advance. Design to learn as much as possible.

具体的には、特徴抽出部121で得られる各特徴量抽出層の少なくとも最終層の1つ入力側に近い層、もしくはそれより入力側に近い複数の層における活性化関数をシグモイド関数で近似したステップ関数とすることで、最終的に特徴量抽出器生成部120から出力される特徴量の各次元の値は限りなく0もしくは1に近い値、つまりバイナリ近似特徴量となるように学習をすすめることができる。 Specifically, the activation function in at least one of the final layers of each feature extraction layer obtained by the feature extraction unit 121, which is closer to the input side, or a plurality of layers closer to the input side is approximated by a sigmoid function. By using a step function, learning is promoted so that the value of each dimension of the feature amount finally output from the feature amount extractor generator 120 becomes a value as close to 0 or 1, that is, a binary approximate feature amount. be able to.

ここで、バイナリ近似特徴量となるように学習をすすめる手法について詳細に説明する。 Here, a method for advancing learning so as to obtain a binary approximate feature will be described in detail.

図3は、図1の光演算処理における学習手段100の実装例である。 FIG. 3 is an implementation example of the learning means 100 in the optical arithmetic processing of FIG.

学習手段100における特徴抽出部121及び光演算用制約付加部122の実装は、畳込み層を、maxプーリングをはさんで3層重ねた後、全結合層を4層重ねて最終出力層をクラス数と同じ10ユニットとした。 In the implementation of the feature extraction unit 121 and the constraint addition unit 122 for optical calculation in the learning means 100, the convolution layer is laminated with three layers sandwiching the max pooling, and then four fully connected layers are laminated to classify the final output layer. It was set to 10 units, which is the same as the number.

実装の特徴的な点は、最終出力層fc(n) の1つ手前の層fc(n−l)で活性化関数にstep関数を用いて、さらにそのユニット数を20,000とし、fc(n−2)層よりも圧倒的に多くしている点である。 The characteristic point of the implementation is that the step function is used as the activation function in the layer fc (n-l) immediately before the final output layer fc (n), and the number of units is set to 20,000, and fc ( The point is that the number is overwhelmingly larger than that of the n-2) layer.

前記学習器実装における特徴は、光相関用のバイナリデータに落としこむことを目的として、活性化関数をステップ関数とした。活性化関数としてデータを限りなくバイナリ化するステップ関数では、多値データを'恒等的に反映するRelu (Rectified linear unit)関数に比べて表現力が落ちることを懸念し、前記懸念事項を補う目的でfc(n−1)層におけるユニット数をfc(n−2)よりも増やした。 The feature of the learner implementation is that the activation function is a step function for the purpose of incorporating it into binary data for optical correlation. The step function, which digitizes data as an activation function as much as possible, is concerned that its expressiveness will be lower than that of the Relu (Rectified linear unit) function, which reflects multi-valued data uniformly, and compensates for the above concern. For the purpose, the number of units in the fc (n-1) layer was increased compared to fc (n-2).

前述の実装における活性化関数にステップ関数を適用した点の詳細について説明する。前記ステップ関数は、シグモイド関数におけるネイピア数の指数kを実数倍することで近似的にステップ関数に近づけることで代替した。本実験では、学習の収束具合の観測よりk=100とした(次に示す式(2)参照)。 The details of applying the step function to the activation function in the above implementation will be described. The step function was replaced by multiplying the exponent k of the number of Napiers in the sigmoid function by a real number to approximate the step function. In this experiment, k = 100 was set from the observation of the degree of convergence of learning (see equation (2) shown below).

Figure 0006851634
Figure 0006851634

一方で、以上のフィードフォワードにおける活性化関数で用いた近似ステップ関数の微分は式(3)で表せる。 On the other hand, the derivative of the approximate step function used in the activation function in the above feedforward can be expressed by Eq. (3).

Figure 0006851634
Figure 0006851634

つまり、誤差逆伝播における重みの更新式は、式(4)となり、実数倍部分が更新重みに直接関与するため、学習による重みベクトルの移動が極端に大きくなってしまい、学習が進まないことを確認した。 In other words, the weight update formula in error back propagation is equation (4), and since the real number multiple part is directly involved in the update weight, the movement of the weight vector due to learning becomes extremely large, and learning does not proceed. confirmed.

Figure 0006851634
Figure 0006851634

したがって、実際の誤差逆伝播では、この実数倍部分を取り除いて重み更新を行った。また、上述したように前述の実装における最終出力層fc(n)の1つ手前の層fc(n−1)において、そのユニット数を20,000とした。 Therefore, in the actual error back propagation, the weight update was performed by removing this real number multiple part. Further, as described above, the number of units is set to 20,000 in the layer fc (n-1) immediately before the final output layer fc (n) in the above-mentioned mounting.

ユニット数の実装は、活性化関数としてシグモイド関数で近似したステップ関数を適用するだけでは、情報量として十分なバイナリ近似特徴量を抽出することはできないためである。 This is because the implementation of the number of units cannot extract a sufficient binary approximate feature amount as the amount of information only by applying the step function approximated by the sigmoid function as the activation function.

具体的には、多値データでは、特徴量の各次元における表現数は無限であるのに対して、バイナリ特徴量の各次元における表現数は0と1のみであることによる。 Specifically, in the multi-valued data, the number of expressions of the feature quantity in each dimension is infinite, whereas the number of representations of the binary feature quantity in each dimension is only 0 and 1.

そこで、各特徴量抽出層の少なくとも最終層もしくは、シグモイド関数で近似したステップ関数を適用しているその他の複数層におけるユニット数を激的に増やすこととした。 Therefore, it was decided to drastically increase the number of units in at least the final layer of each feature extraction layer or in other multiple layers to which the step function approximated by the sigmoid function is applied.

前記ユニット数の増加の実装は、バイナリ特徴量の次元を増やすことになり、結果として次元数の増加は、バイナリ特徴量のもつ表現量を増加させることになる。 The implementation of the increase in the number of units will increase the dimension of the binary feature amount, and as a result, the increase in the number of dimensions will increase the expression amount of the binary feature amount.

一般にデジタル処理においては、特徴量の次元数を増やすことは計算量の増加につながるため避けられるが、光演算においては、各次元データを直接光として取り出し並列的に処理できるため特徴量の次元数の増加は問題にならない。 Generally, in digital processing, increasing the number of dimensions of a feature is avoided because it leads to an increase in the amount of calculation, but in optical calculation, each dimension data can be taken out as direct light and processed in parallel, so the number of dimensions of the feature. The increase in is not a problem.

登録手段200は、登録用データを光演算用データへと変換し、光演算用特徴ベクトル光記憶部320に記憶するための手段である。登録手段200及び識別手段400における特徴抽出部220では、学習手段100で学習した特徴量を取り出し特徴量抽出器として転移利用する。前述の特徴量抽出器を備えた特徴抽出部220に登録用入力データ部210に入力されたデータを入力し、フィードフォワード処理により学習手段の最終出力層の1層手間の層から得られた出力を特徴量として抽出する。 The registration means 200 is a means for converting registration data into optical calculation data and storing it in the optical calculation feature vector optical storage unit 320. The feature extraction unit 220 in the registration means 200 and the identification means 400 takes out the feature amount learned by the learning means 100 and transfers and uses it as a feature amount extractor. The data input to the registration input data unit 210 is input to the feature extraction unit 220 provided with the feature amount extractor described above, and the output obtained from one layer of the final output layer of the learning means by feed-forward processing. Is extracted as a feature amount.

図3の学習済み学習手段を特徴抽出器として利用し、特定のスケッチ入力に対するフィードフォワード処理により得られた特徴量の値分布について図4に示す。 FIG. 4 shows the value distribution of the feature amount obtained by the feedforward process for a specific sketch input using the learned learning means of FIG. 3 as a feature extractor.

図4は、横軸で特徴量の各次元、縦軸で各次元の特徴量の大きさを示している。図4から分かる通り、特徴量の大きさは0から1の範囲に分布し、全次元の90%近くは、限りなく0もしくは1に近似していることを確認した。本実装では、図4に示す特徴量を中間点0.5で闘値処理を施し、バイナリ化した。 In FIG. 4, the horizontal axis shows the size of each dimension of the feature amount, and the vertical axis shows the size of the feature amount in each dimension. As can be seen from FIG. 4, it was confirmed that the magnitudes of the features were distributed in the range of 0 to 1, and that nearly 90% of all dimensions were infinitely close to 0 or 1. In this implementation, the feature quantity shown in FIG. 4 was subjected to competitive value processing at an intermediate point of 0.5 and converted into a binary.

次に、光演算手段300における光演算用データ変換部310では、特徴抽出部220で得られたバイナリ特徴量に対し、0は黒、1は白として色変換を行なった上でデータの画像化を行った。 Next, in the optical calculation data conversion unit 310 of the optical calculation means 300, the binary feature amount obtained by the feature extraction unit 220 is color-converted with 0 being black and 1 being white, and then the data is imaged. Was done.

図10(a)は要素数が12のときの色変換を行った後の座標変換例であり、図10(b)は登録用データを図10(c)は識別対象データをそれぞれ実際に変換した例である。中心から外側に向かってスパイラル状に配置することで光演算用データを生成する。 FIG. 10A shows an example of coordinate conversion after performing color conversion when the number of elements is 12, FIG. 10B shows the registration data, and FIG. 10C actually converts the identification target data. This is an example. Data for optical calculation is generated by arranging in a spiral shape from the center to the outside.

光演算手段300における光演算用特徴ベクトル光記憶部320では、光演算用データ変換部310で生成した光演算用データをホログラムとして記憶する。 The optical calculation feature vector optical storage unit 320 in the optical calculation means 300 stores the optical calculation data generated by the optical calculation data conversion unit 310 as a hologram.

図11は、図1に示す光演算用特徴ベクトル光記録部320と類似度計算部330に用いる概略光学手段の一例を示す図である。 FIG. 11 is a diagram showing an example of schematic optical means used for the feature vector optical recording unit 320 for optical calculation and the similarity calculation unit 330 shown in FIG.

ホログラム記録用光源341から出射された光は、ピーム形成光学手段342によって十分に広がった平行光に形成される。例えばビームエキスパンダーなどが含まれる。平行光は波長板343によって位相差を与えられ、ミラー344によって折り返され、波長板346によって位相差を与えられ、偏光ビームスプリッタ347で折り返されたのちに空間光変調素子348に入射する。この時、光演算用データ変換部310で生成した記録するデータにホログラム作成のための参照光となる画像をデータに付加したデータを空間光変調素子に入力する。 The light emitted from the hologram recording light source 341 is formed into parallel light sufficiently spread by the pem forming optical means 342. For example, a beam expander and the like are included. The parallel light is given a phase difference by the wave plate 343, folded back by the mirror 344, given a phase difference by the wavelength plate 346, folded back by the polarizing beam splitter 347, and then incident on the spatial light modulation element 348. At this time, data obtained by adding an image serving as reference light for creating a hologram to the data to be recorded generated by the optical calculation data conversion unit 310 is input to the spatial light modulation element.

入射した光は空間光変調素子によって白ピクセルのみ位相差が与えられ、白ピクセルの光のみが偏光ビームスプリッタ347を通過し、レンズ349とレンズ353によって像はリレーされ、アクチュエータ355に搭載された対物レンズによってフーリエ変換され、ホログラム記録媒体356にデータが記録される。ここで、用いる空間光変調素子によっては、不図示の1/4波長板を組み合わせることで白ピクセルのみを通過させてもよい。 The incident light is given a phase difference only in white pixels by the spatial light modulator, only the light of white pixels passes through the polarizing beam splitter 347, the image is relayed by the lens 349 and the lens 353, and the objective mounted on the actuator 355. It is Fourier transformed by the lens and data is recorded on the hologram recording medium 356. Here, depending on the spatial light modulation element used, only white pixels may be passed by combining a 1/4 wave plate (not shown).

ここで、ディスクを回転する機構とした場合、記録時や照合時とは異なる波長を持つサーボ用の光源364を保持し、ミラー366で折り返し、波長板367で位相差を与え、ダイクロイックピームスプリッタ354によって折り返され、アクチュエータ355によってホログラム記録媒体に照射された光が記録媒体の反射面から戻り、偏光ビームスプリッタ365によって折り返され、光受光素子368によって検出され、その強度によってアクチュエータ上の対物レンズの位置を動かす、フォーカスやトラッキングのサーボ機能を付加する。 Here, when the mechanism for rotating the disk is used, the servo light source 364 having a wavelength different from that at the time of recording or collation is held, folded back by the mirror 366, and the phase difference is given by the wave plate 367, and the dichroic plum splitter 354. The light emitted to the hologram recording medium by the actuator 355 returns from the reflecting surface of the recording medium, is folded back by the polarizing beam splitter 365, is detected by the light receiving element 368, and is detected by the light receiving element 368, and the position of the objective lens on the actuator is determined by its intensity. Adds focus and tracking servo functions to move.

ここで、光演算用データをホログラムとして記憶する媒体は、ホログラフィック光ディスクに限定されない。例えば、前述の媒体には多角形のものも含まれ、媒質の材質にはフォトポリマー、結晶、液晶なども含まれる。 Here, the medium for storing the optical calculation data as a hologram is not limited to the holographic optical disk. For example, the above-mentioned medium includes a polygonal medium, and the material of the medium also includes a photopolymer, a crystal, a liquid crystal, and the like.

次に、識別手段400では、識別対象データ入力部410より入力されたデータと、登録手段200において光演算用特徴ベクトル光記憶部320に記憶されたデータとの相関照合により識別を行う。 Next, the identification means 400 performs identification by correlation matching between the data input from the identification target data input unit 410 and the data stored in the optical calculation feature vector optical storage unit 320 in the registration means 200.

識別手段400における特徴抽出においても、登録手段200で用いたものと同じ特徴抽出部220を用いて、識別対象データ入力部410より入力されたデータの特徴量を抽出する。 Also in the feature extraction by the identification means 400, the feature amount of the data input from the identification target data input unit 410 is extracted by using the same feature extraction unit 220 as that used in the registration means 200.

識別手段400における光演算用データ変換部310においても、登録手段200で用いたものと同じ光演算用データ変換部310を用いて、特徴抽出部220より抽出した特徴量を光演算用データへと変換する。 The optical calculation data conversion unit 310 in the identification means 400 also uses the same optical calculation data conversion unit 310 used in the registration means 200 to convert the feature amount extracted from the feature extraction unit 220 into optical calculation data. Convert.

識別手段400における類似度計算部330では、識別対象データ入力部410で入力したデータから特徴抽出部220で得た特徴量を光演算用データ変換部310で光演算用データ化したデータと、登録手段200において登録用データを記憶した前記光演算用特徴ベクトル光記憶部320に記憶されたデータとの間で類似度を算出する。 The similarity calculation unit 330 in the identification means 400 registers the feature amount obtained by the feature extraction unit 220 from the data input by the identification target data input unit 410 with the data converted into optical calculation data by the optical calculation data conversion unit 310. The similarity with the data stored in the optical calculation feature vector optical storage unit 320 that stores the registration data in the means 200 is calculated.

図11に示した光学手段例においては、照合用光源357から出射された光はピーム形成光学手段358によって十分に広がった平行光に形成される。平行光は波長板359によって位相差を与えられ、偏光ピームスプリッタ345によって折り返され、波長板346によって位相差を与えられ、偏光ビームスプリッタ347で折り返されたのちに空間光変調素子348に入射する。 In the example of the optical means shown in FIG. 11, the light emitted from the matching light source 357 is formed into parallel light sufficiently spread by the pem forming optical means 358. The parallel light is given a phase difference by the wave plate 359, folded back by the polarizing beam splitter 345, given a phase difference by the wavelength plate 346, folded back by the polarizing beam splitter 347, and then incident on the spatial light modulator 348.

この時、識別対象データ入力部410から入力されたデータから光演算用データ変換部310で生成したデータを空間光変調素子に入力する。白ピクセルの光のみが偏光ビームスプリッタ347を通過し、レンズ349とレンズ353によって像はリレーされ、アクチュエータ355に搭載された対物レンズによってフーリエ変換され、データが記録されたホログラム記録媒体356に照射される。ディスクの鏡面で反射された光は、偏光ビームスプリッタ350によって折り返され、レンズ360とミラー361、レンズ362を通過し、光受光素子363によって光強度が検出される。 At this time, the data generated by the optical calculation data conversion unit 310 from the data input from the identification target data input unit 410 is input to the spatial light modulation element. Only white pixel light passes through the polarizing beam splitter 347, the image is relayed by the lens 349 and the lens 353, Fourier transformed by the objective lens mounted on the actuator 355, and irradiated to the hologram recording medium 356 on which the data is recorded. The lens. The light reflected by the mirror surface of the disk is folded back by the polarizing beam splitter 350, passes through the lens 360, the mirror 361, and the lens 362, and the light intensity is detected by the light receiving element 363.

類似度計算部330で求めた類似度は、類似性が高いものほど大きな光強度、類似性が低いものほど小さな光強度として、識別手段400における出力部420より出力される。 The similarity obtained by the similarity calculation unit 330 is output from the output unit 420 of the identification means 400 as a higher light intensity as the similarity is higher and a lower light intensity as the similarity is lower.

識別手段400における出力部420より出力された光強度の大きい方からk個の記憶データに属するクラスの多数決投票により得られる結果を識別結果として用いると、本手法は、デジタルにおいてk近傍法を実装したことと同義である。 When the result obtained by the majority vote of the class belonging to k stored data from the one with the larger light intensity output from the output unit 420 of the identification means 400 is used as the identification result, this method implements the k-nearest neighbor method digitally. It is synonymous with what you did.

図1の光演算処理によるk近傍識別器をスケッチベース3次元照合に適用して実験を行った。 An experiment was conducted by applying the k-nearest neighbor classifier obtained by the optical arithmetic processing of FIG. 1 to sketch-based three-dimensional collation.

具体的な実験手法は、学習データを3次元モデルの概形データとスケッチデータの一定の割合での混合データとし、クラス数10クラスの識別用学習器を学習手段100に基づいて生成し、スケッチデータを検証データとして学習を進め、得られた学習済み学習手段の特徴抽出部を特徴抽出器として用いた。前述の特徴抽出器に3次元モデルの概形データを入力し、抽出した光演算用特徴ベクトルを光演算手段300の光演算用特徴ベクトル光記憶部320に記憶した。 The specific experimental method is to use the learning data as mixed data of the outline data of the three-dimensional model and the sketch data at a fixed ratio, generate an identification learning device with 10 classes based on the learning means 100, and sketch. Learning proceeded using the data as verification data, and the feature extraction unit of the obtained learned learning means was used as a feature extractor. The outline data of the three-dimensional model was input to the above-mentioned feature extractor, and the extracted feature vector for optical calculation was stored in the optical calculation feature vector optical storage unit 320 of the optical calculation means 300.

ここで、識別対象データとなるスケッチデータを識別手段400の識別対象データ入力部410より入力し、得られた光記憶用特徴ベクトルを、光演算用特徴ベクトル光記憶部320に記憶された特徴ベクトルとの聞で類似度計算を行う、その出力結果を前記出力部420から得た。得られた出力は、前述したとおり類似性が高いものほど大きな光強度、類似性が低いものほど小さな光強度の出力となる。 Here, the sketch data to be the identification target data is input from the identification target data input unit 410 of the identification means 400, and the obtained optical storage feature vector is stored in the optical calculation feature vector optical storage unit 320. The similarity was calculated in response to the above, and the output result was obtained from the output unit 420. As described above, the obtained output has a higher light intensity as the similarity is higher, and a lower light intensity as the output has a lower similarity.

したがって、出力された光強度の大きい方からk個記憶データの属するクラスの多数決投票により得られる結果を識別し、さらにk個の3次元モデルデータを、入力したスケッチデータに対して類似形状をもつ3次元モデル照合結果とした。 Therefore, the result obtained by the majority vote of the class to which the k stored data belongs is identified from the output light intensity, and the k three-dimensional model data has a similar shape to the input sketch data. The result was a three-dimensional model collation.

図5では、得られた特徴量の識別精度を示している。図5より、学習手段における識別精度は、テストデータで約86%となった。その学習手段の学習済み特徴抽出部を特徴抽出器として利用して得た特徴量をバイナリ化した特徴量によるk近傍法の識別精度はテストデータで約87%となっており、本学習手段で得られた特徴量はパイナリ化しでもその表現力を維持できる特徴量となっていることを確認した。 FIG. 5 shows the identification accuracy of the obtained feature amount. From FIG. 5, the identification accuracy in the learning means was about 86% in the test data. The identification accuracy of the k-nearest neighbor method based on the binaryized features obtained by using the learned feature extraction unit of the learning means as a feature extractor is about 87% in the test data, and this learning means It was confirmed that the obtained feature amount is a feature amount that can maintain its expressive power even if it is pinaried.

また、実際のデジタルk近傍におけるスケッチベース3次元モデルデータの照合では、t r e eクラスのスケッチ2種類(スケッチデータA、スケッチデータB) を入力したとき、スケッチデータAに対して類似形状をもつ3次元モデルの照合結果は、スケッチデータAに類似した形状をもつ3次元モデルとなっていた。 Further, in the collation of the sketch-based 3D model data in the vicinity of the actual digital k, when two types of tree class sketches (sketch data A and sketch data B) are input, the 3D has a similar shape to the sketch data A. The collation result of the model was a three-dimensional model having a shape similar to the sketch data A.

一方で、スケッチデータBに対して類似形状をもつ3次元モデルの照合結果は、スケッチデータBには、あまり類似していないがtreeクラスに属する3次元モデルとなっていた。このとき、スケッチデータAとk近傍の距離とスケッチデータBとk近傍の距離は、前者の方が小さく後者の方が大きかった。つまり、本学習手段で得られた特徴量は、類似形状の表現量をもつバイナリ化特徴量となっていることを確認した。 On the other hand, the collation result of the three-dimensional model having a similar shape to the sketch data B was a three-dimensional model belonging to the tree class, although it was not very similar to the sketch data B. At this time, the distance between the sketch data A and the vicinity of k and the distance between the sketch data B and the vicinity of k were smaller in the former and larger in the latter. That is, it was confirmed that the feature quantity obtained by this learning means is a binary feature quantity having an expression quantity of a similar shape.

図6は、図1の光演算処理によるk近傍識別器をスケッチベース3次元照合に適用したとき、イスクラスの記憶部にポジティブデータであるイスのスケッチを識別対象データとして入力した場合と、ネガティブデータであるイス以外のスケッチを識別対象データとして入力した場合の光演算による類似度計算結果を縦軸の光強度で示した図である。 FIG. 6 shows a case where a sketch of a chair, which is positive data, is input as identification target data in a storage unit of a chair class when the k-near classifier obtained by optical arithmetic processing of FIG. It is a figure which showed the similarity calculation result by the optical calculation when the sketch other than the chair is input as the identification target data by the light intensity of the vertical axis.

図6から、わかるようにポジティブクラスの識別対象データを入カとした場合光強度が大きくなる一方で、ネガティブクラスの識別対象データを入カとした場合、光強度が小さくなることが確認でき、光演算による類似度計算が可能であることを示している。 As can be seen from FIG. 6, it can be confirmed that the light intensity increases when the positive class identification target data is input, while the light intensity decreases when the negative class identification target data is input. It shows that the similarity can be calculated by optical calculation.

図7は、図1の光演算処理によるk近傍識別器をスケッチベース3次元照合に適用した場合の、光演算による多クラス識別結果を示した図である。 FIG. 7 is a diagram showing a multi-class identification result by optical calculation when the k-nearest neighbor classifier obtained by optical calculation processing of FIG. 1 is applied to sketch-based three-dimensional collation.

図7(a),(b) において左側はタイヤクラスの3次元モデル概形データより抽出した光演算用特徴ベクトルを記憶した部分、右側はギタークラスの3次元モデル概形データより抽出した光演算用特徴ベクトルを記憶した部分である。 In FIGS. 7A and 7B, the left side is the part that stores the feature vector for optical calculation extracted from the 3D model outline data of the tire class, and the right side is the optical calculation extracted from the 3D model outline data of the guitar class. This is the part that stores the feature vector.

図7(a),(b) からわかるように、ギターのスケッチデータを識別対象データとして入力した場合、記憶部の右側と類似度が高いが、左側とは類似度が小さいことがわかる。また、タイヤのスケッチデータを識別対象データとして入力した場合、記憶部の左側と類似度が高いが、右側とは類似度が小さいことがわかる。このことから、多識別にも光演算による類似度計算が適用可能であることを確認した。 As can be seen from FIGS. 7 (a) and 7 (b), when the sketch data of the guitar is input as the identification target data, the similarity is high with the right side of the storage unit, but the similarity is small with the left side. Further, when the tire sketch data is input as the identification target data, it can be seen that the degree of similarity is high with that of the left side of the storage unit, but the degree of similarity is small with that of the right side. From this, it was confirmed that the similarity calculation by optical calculation can be applied to multi-discrimination.

図8は、図1の光演算処理によるk近傍識別器をスケッチベース3次元照合に適用した場合の、光相関演算によるk近傍法による3次元モデル照合結果を示した図である。 FIG. 8 is a diagram showing a three-dimensional model collation result by the k-nearest neighbor method by the optical correlation calculation when the k-nearest neighbor classifier obtained by the optical arithmetic processing of FIG. 1 is applied to the sketch-based three-dimensional collation.

前述したように、光相関演算では、類似性が高いものほど大きな光強度、類似性が低いものほど小さな光強度として、識別手段400における出力部420より出力される。識別手段400における出力部420より出力された光強度の大きい方からk個記憶データの属するクラスの多数決投票により得られる結果を識別結果として用いると、本手法は、デジタルにおいてk近傍法を実装したことと同義である。つまり、本光演算によるk近傍法によるスケッチベースで類似形状をもつ3次元モデルデータ照合の結果を示した図が図8である。 As described above, in the optical correlation calculation, the higher the similarity, the higher the light intensity, and the lower the similarity, the lower the light intensity, which is output from the output unit 420 of the identification means 400. When the result obtained by the majority vote of the class to which k stored data belongs from the one with the larger light intensity output from the output unit 420 of the identification means 400 is used as the identification result, this method implements the k-nearest neighbor method digitally. It is synonymous with that. That is, FIG. 8 is a diagram showing the result of three-dimensional model data collation having a similar shape based on a sketch by the k-nearest neighbor method by this optical calculation.

図8はk=5として、5近傍識別を行った結果を示す。
図8より、スケッチベース3次元モデルデータの照合部分に光演算を適用した場合でも、入力したスケッチデータに対して、精度よく類似形状をもつ3次元モデル照合が可能であることを確認した。
FIG. 8 shows the result of performing 5 neighborhood identification with k = 5.
From FIG. 8, it was confirmed that even when the optical calculation is applied to the collation portion of the sketch-based three-dimensional model data, the three-dimensional model collation having a similar shape can be accurately performed with respect to the input sketch data.

次に、図2をもとに本実施例に関わる光演算処理によるk近傍識別器のフローチャートを説明する。説明及び各ステップを「S」と略記する。 Next, a flowchart of the k-nearest neighbor classifier by optical arithmetic processing according to this embodiment will be described with reference to FIG. The description and each step are abbreviated as "S".

前述の光演算処理によるk近傍識別器のフローチャートは、学習処理、登録処理、識別処理からなる。 The flowchart of the k-nearest neighbor classifier by the optical calculation process described above includes a learning process, a registration process, and an identification process.

学習処理においては、はじめにS101において教師ラベルと学習データとをセットにして入力する。次に、S102において、S101で入力されたデータに対して前処理を施す。具体的には、学習データ全ての配列値を学習データの各配列値のなかでの最大値で割ることで値を正規化する。 In the learning process, first, the teacher label and the learning data are input as a set in S101. Next, in S102, preprocessing is performed on the data input in S101. Specifically, the values are normalized by dividing the array values of all the training data by the maximum value among the array values of the training data.

S102の前処理により正規化されたデータを用いて、S103において特徴量抽出を行う。S103で得られた特徴量を、S104において識別関数にかけることで識別結果を取得し、識別結果をもとに重みベクトルの最適化を行う。学習が終了したと判断されるまで、S101,S102,S103およびS104を一定回数繰り返す。 Feature extraction is performed in S103 using the data normalized by the preprocessing of S102. The feature amount obtained in S103 is multiplied by the discrimination function in S104 to obtain the discrimination result, and the weight vector is optimized based on the discrimination result. S101, S102, S103 and S104 are repeated a certain number of times until it is determined that the learning is completed.

登録処理においては、まず、S201において教師ラベルとセットとして登録用データを入力する。そして、S202においてS102と同様の前処理を施す。 In the registration process, first, the registration data is input as a set with the teacher label in S201. Then, in S202, the same pretreatment as in S102 is performed.

S203では、学習処理において重みベクトルを最適化した学習済みの特徴抽出部を取り出し特徴抽出器として利用することで、S202の前処理で得られたデータより特徴量を抽出する。抽出した特徴量に対して、S204において闘値処理を施し、特徴量をバイナリ化することでバイナリ特徴量を得る。得られたバイナリ特徴量を、0を黒、1を白のピクセル値として光演算用データ化し、S205においてホログラムに記憶する。 In S203, the feature amount is extracted from the data obtained in the preprocessing of S202 by extracting the learned feature extraction unit whose weight vector is optimized in the learning process and using it as a feature extractor. The extracted features are subjected to competitive value processing in S204, and the features are binarized to obtain a binary feature. The obtained binary feature amount is converted into optical calculation data with 0 as a black pixel value and 1 as a white pixel value, and stored in a hologram in S205.

識別処理においては、まず、S301においてラベルのない識別したい対象となるデータを入力する。次に、S302においてS102と同様の前処理を施す。S303においても、S203と同様に、学習処理により重みベクトルを最適化した学習済みの特徴抽出部を取り出し特徴抽出器として利用することで、S302の前処理で得られたデータより特徴量を抽出する。 In the identification process, first, the data to be identified to be identified without a label in S301 is input. Next, in S302, the same pretreatment as in S102 is performed. In S303 as well, as in S203, the feature amount is extracted from the data obtained in the preprocessing of S302 by extracting the learned feature extraction unit whose weight vector is optimized by the learning process and using it as a feature extractor. ..

抽出した特徴量に対して、S304において闘値処理を施し特徴量を光演算用データ変換することでバイナリ特徴量を得る。得られたバイナリ特徴量を用いてS305において、登録手段200におけるS205においてホログラムに記憶したバイナリ特徴量との類似度を光演算により算出する。光演算により得られた類似度をもとにS306において識別判定を行う。 A binary feature amount is obtained by performing a fighting value process in S304 on the extracted feature amount and converting the feature amount into data for optical calculation. Using the obtained binary features, in S305, the similarity with the binary features stored in the hologram in S205 in the registration means 200 is calculated by optical calculation. The identification determination is performed in S306 based on the similarity obtained by the optical calculation.

次に、図9をもとに光演算手段300におけるフローチャートを説明する。 Next, a flowchart of the optical calculation means 300 will be described with reference to FIG.

図9(a) は登録手段200における光演算手段300のフローチャートである。S401において特徴抽出部によって得られた特徴量を入力し、S402においてバイナリ変換を施す。S403においては、得られた特徴量を空間光変調器や光学系に合わせてアドレス再配置を行う。 FIG. 9A is a flowchart of the optical calculation means 300 in the registration means 200. The feature amount obtained by the feature extraction unit is input in S401, and binary conversion is performed in S402. In S403, the obtained features are relocated according to the spatial light modulator and the optical system.

S403で得られたパターンに対して、S404において参照光を付加し、S405において空間光変調素子へ表示し、S406において光照射する。このS401からS406までのステップが登録手段200および光演算用データ変換処理310である。 Reference light is added to the pattern obtained in S403 in S404, displayed on the spatial light modulation element in S405, and irradiated with light in S406. The steps from S401 to S406 are the registration means 200 and the optical calculation data conversion process 310.

S406ののちは、光演算用特徴量記憶処理320であり、S406で照射した光が記録媒体に到達し、登録用データから生成された特徴量が登録される。登録用のデータすべてに対して記憶処理が終了したと判断されるまで、S401,S402,S403,S404,S405およびS406を繰り返す。 After S406, the feature amount storage process 320 for optical calculation is performed, the light irradiated by S406 reaches the recording medium, and the feature amount generated from the registration data is registered. S401, S402, S403, S404, S405 and S406 are repeated until it is determined that the storage process has been completed for all the data for registration.

図9(b)は識別手段400における光演算手段300のフローチャートである。S501において特徴抽出部によって得られた特徴量を入力し、S502においてバイナリ変換を施す。S503においては、得られた特徴量を空間光変調器や光学系に合わせてアドレス再配置を行う。 FIG. 9B is a flowchart of the optical calculation means 300 in the identification means 400. The feature amount obtained by the feature extraction unit in S501 is input, and binary conversion is performed in S502. In S503, the obtained features are relocated according to the spatial light modulator and the optical system.

S503で得られたパターンをS504において空間光変調素子へ表示し、S505において光照射する。このS501からS505までのステップが識別手段400における光演算用データ変換部310の処理である。 The pattern obtained in S503 is displayed on the spatial light modulation element in S504, and light is irradiated in S505. The steps from S501 to S505 are the processing of the optical calculation data conversion unit 310 in the identification means 400.

S505の後は、類似度計算部330で処理を行い、S505で照射した光がS407で登録用データの特徴量が記憶されている記録媒体に到達し、照合が実施され、S506において照合結果として光強度が受光され、S507において類似度が判定される。 After S505, processing is performed by the similarity calculation unit 330, the light irradiated by S505 reaches the recording medium in which the feature amount of the registration data is stored in S407, collation is performed, and the collation result is obtained in S506. The light intensity is received and the similarity is determined in S507.

光演算処理による線形識別器による識別法の実施例2について図1の構成図をもとに説明する。 Example 2 of the identification method using a linear classifier by optical arithmetic processing will be described with reference to the configuration diagram of FIG.

実施例1における光演算処理による線形識別器は、学習手段100、登録手段200、光演算手段300、識別手段400により構成され、図12は各手段のフローチャートである。 The linear classifier by the optical calculation process in the first embodiment is composed of the learning means 100, the registration means 200, the optical calculation means 300, and the identification means 400, and FIG. 12 is a flowchart of each means.

学習手段100は、登録手段200及び識別手段400において用いる特徴抽出部121及び光演算用制約付加部122を構築するための手段である。 The learning means 100 is a means for constructing the feature extraction unit 121 and the optical calculation constraint addition unit 122 used in the registration means 200 and the identification means 400.

具体的には、学習手段100は、学習データ入力部110、前記学習データ入力部110より取得したデータから特徴量を抽出する抽出器を生成する特徴抽出器生成部120、特徴抽出器生成部120より得られた特徴抽出器から抽出される特徴量をもとに識別判定を行う識別部130、識別部130による識別結果を評価する学習系評価部140、学習系評価部140による評価をもとに特徴抽出部の重みの更新を行う特徴抽出部121、特徴抽出部120において光演算に適用可能な特徴量にデータを変換する光演算用制約付加部122と学習の進行状態を評価するための検証用データを入力するための検証データ入力部150からなる手段である。 Specifically, the learning means 100 includes a learning data input unit 110, a feature extractor generation unit 120 that generates an extractor that extracts a feature amount from the data acquired from the learning data input unit 110, and a feature extractor generation unit 120. Based on the evaluation by the identification unit 130 that performs the identification judgment based on the feature amount extracted from the feature extractor obtained, the learning system evaluation unit 140 that evaluates the identification result by the identification unit 130, and the learning system evaluation unit 140. In the feature extraction unit 121 that updates the weight of the feature extraction unit, the feature extraction unit 120, the optical calculation constraint addition unit 122 that converts data into the feature amount applicable to the optical calculation, and the learning progress state are evaluated. It is a means including a verification data input unit 150 for inputting verification data.

学習手段100における学習用データ入力部110では、学習用データと識別において正解となる情報をセットして入力する。また、特徴抽出器生成部120は、複数の特徴量抽出層からなる。各特徴量抽出層は、それぞれ学習用データに対する畳み込み、次元削減、全結合の処理を行う。 The learning data input unit 110 in the learning means 100 sets and inputs the learning data and the information that is the correct answer in the identification. Further, the feature extractor generation unit 120 is composed of a plurality of feature amount extraction layers. Each feature extraction layer performs convolution, dimension reduction, and full coupling processing on the training data.

学習手段100における識別部130では、得られる特徴量次元が識別対象クラス数分の次元となる全結合層となることが好ましい。また、学習系評価部140では、識別部130において得られた識別結果の正誤の判定を行う。もし、識別が誤っていた場合は、正解との誤差を求める。さらに、学習手段100における特徴抽出部121では、学習系評価部140において求めた誤差を最小化するように特徴抽出部における重みの更新を行う。 In the identification unit 130 in the learning means 100, it is preferable that the feature quantity dimension obtained is a fully connected layer having dimensions equal to the number of classes to be identified. Further, the learning system evaluation unit 140 determines whether the identification result obtained by the identification unit 130 is correct or incorrect. If the identification is incorrect, find the error from the correct answer. Further, the feature extraction unit 121 in the learning means 100 updates the weight in the feature extraction unit so as to minimize the error obtained by the learning system evaluation unit 140.

学習手段100における光演算用制約付加部122では、学習データ入力部110から入力した学習用データに特徴抽出部121を適用したデータと識別において正解となる情報をセットして入力し、入力されたデータを適切なクラスに分類する最適な重みベクトルを求める。また求めた前述の重みベクトルを複数のバイナリベクトルと実数係数に分解する。 In the optical calculation constraint addition unit 122 in the learning means 100, the data obtained by applying the feature extraction unit 121 to the learning data input from the learning data input unit 110 and the information that is the correct answer in the identification are set and input, and the data is input. Find the optimal weight vector to classify the data into the appropriate class. Further, the above-mentioned weight vector obtained is decomposed into a plurality of binary vectors and real number coefficients.

ここで、光演算手段300における光演算で扱うデータは実施例2では、パイナリデータである。多値データから抽出した特徴量は多値であり、これをバイナリ化する変換においては、データ表現力が落ちるので情報量を損なってしまうことが知られている。この情報量の欠損は、光演算による識別性能に影響をおよぼす可能性が高い。したがって、学習手段100における前記特徴抽出部121において情報量を保持する特徴量を設計する、または複数の関値を設定しバイナリ化を行うことでデータ次元数を多値のものより増やし、データの表現力を向上させバイナリデータ変換処理を施されても、情報量を維持できるようにした。 Here, the data handled by the optical calculation in the optical calculation means 300 is pinary data in the second embodiment. It is known that the feature amount extracted from the multi-valued data is multi-valued, and in the conversion to binarize the feature amount, the data expressive power is lowered and the amount of information is impaired. This lack of information amount is likely to affect the discrimination performance by optical calculation. Therefore, the number of data dimensions can be increased from that of the multi-valued data by designing the feature amount that holds the information amount in the feature extraction unit 121 of the learning means 100, or by setting a plurality of relational values and performing binarization. The expressive power has been improved so that the amount of information can be maintained even if binary data conversion processing is performed.

具体的には、特徴量抽出部121では多値データによる特徴量を得られるように学習を進め、特徴量抽出学習部で得られた多値データによる特徴量を闇値よってバイナリ化し、それを闘値数分繰り返すことで表現力の高いバイナリ特徴量を得る。 Specifically, the feature amount extraction unit 121 advances learning so that the feature amount based on the multivalued data can be obtained, and the feature amount based on the multivalued data obtained by the feature amount extraction learning unit is binarized by the dark value and converted into a binary. A highly expressive binary feature is obtained by repeating for the number of fighting values.

ここで、多値データの特徴量を得る手法、得られた特徴量を2値化する手法について説明する。 Here, a method for obtaining a feature amount of multi-valued data and a method for binarizing the obtained feature amount will be described.

図13および図14は、図1の学習手段100の特徴量抽出部121の実装例を示す図である。 13 and 14 are diagrams showing an implementation example of the feature amount extraction unit 121 of the learning means 100 of FIG.

学習手段100における特徴量抽出部121の実装は、畳込み層を、マックスプーリング処理を挟んで1層、全結合層を2層重ねて最終出力層をクラス数と同じ2ユニットとした。 In the implementation of the feature amount extraction unit 121 in the learning means 100, the convolution layer is one layer with the max pooling process interposed therebetween, and the fully connected layer is two layers, and the final output layer is two units having the same number of classes.

前述の実装における活性化関数にはReLU(Rectified Linear Unit) 関数を用いた。 The ReLU (Rectified Linear Unit) function was used as the activation function in the above implementation.

前述の実装の各層の重みを最適化し、畳込み層の出力によって多値による特徴量を算出することができる。ただし、特徴抽出する際には光学演算による畳み込みを行った。これは畳み込み処理は光学計算によって置き換え可能であるからである。 The weight of each layer of the above-mentioned implementation can be optimized, and the feature quantity by multiple values can be calculated by the output of the convolution layer. However, when the features were extracted, convolution was performed by optical calculation. This is because the convolution process can be replaced by optical calculation.

前述のように算出した特徴量を図14に示すバイナリ処理によって光演算用にデータ変換する。多値データの中で闇値より大きいものを1、そうでないものを0とすることでバイナリ化し、前記のバイナリ化を複数の闘値により行う。 The feature amount calculated as described above is converted into data for optical calculation by the binary processing shown in FIG. Among the multi-valued data, the one that is larger than the dark value is set to 1 and the one that is not is set to 0 to binarize, and the above-mentioned binarization is performed by a plurality of fighting values.

前述のように算出されるバイナリ化特徴量から識別関数の最適な重みベクトルを算出する学習手段100における光演算制約付加部122では、最適化アルゴリズムとして線形SVM(Support Vector Machine) を用いた。 In the optical calculation constraint addition unit 122 in the learning means 100 for calculating the optimum weight vector of the discrimination function from the binarized features calculated as described above, a linear SVM (Support Vector Machine) was used as the optimization algorithm.

重みベクトルを算出することで得られる識別関数は式(5)となる。ここでωが重みベクトル、xが識別対象データである。 The discrimination function obtained by calculating the weight vector is given by Eq. (5). Here, ω is the weight vector and x is the data to be identified.

Figure 0006851634
Figure 0006851634

次に、光演算手段300における光演算用データ変換部320では、前記光演算制約付加部122で生成した重みベクトルを図15に示した分解アルゴリズムによってバイナリベクトルと実数係数に分解し、バイナリベクトルを前記光演算用データ変換部に入力し。0は黒、1は白として色変換を行い中心から外側に向かつてスパイラル状に配置することで光演算用データをホログラム光メモリ上に記憶する。 Next, the optical calculation data conversion unit 320 in the optical calculation means 300 decomposes the weight vector generated by the optical calculation constraint addition unit 122 into a binary vector and a real number coefficient by the decomposition algorithm shown in FIG. 15, and obtains the binary vector. Input to the data conversion unit for optical calculation. The optical calculation data is stored in the hologram optical memory by performing color conversion with 0 being black and 1 being white and arranging them in a spiral shape from the center to the outside.

図15に示した分解アルゴリズムでは、多値の重みベクトルの内正の数を1、負の数を0に対応させてバイナリ化し、元の多値の重みベクトルとバイナリ化したベクトルが同じ大きさになるように実数係数を求め、求めた実数係数とバイナリベクトルの積を再び正負によってバイナリ化する。以上を繰り返すことにより多値の重みベクトルをバイナリベクトルと実数係数に分解する。 In the decomposition algorithm shown in FIG. 15, the positive number of the multi-valued weight vector corresponds to 1 and the negative number corresponds to 0, and the original multi-valued weight vector and the binarized vector have the same magnitude. The real number coefficient is obtained so that, and the product of the obtained real number coefficient and the binary vector is binarized again by positive and negative. By repeating the above, the multi-valued weight vector is decomposed into a binary vector and a real number coefficient.

バイナリベクトルと実数係数に分解すると、識別関数は式(6)のように変形される。 When decomposed into a binary vector and a real number coefficient, the discriminant function is transformed as shown in Eq. (6).

Figure 0006851634
Figure 0006851634

光演算手段300における光演算用特徴ベクトル光記憶部320では、光演算用データ変換部310で生成した光演算用データをホログラム光メモリ上に記憶する。 The optical calculation feature vector optical storage unit 320 in the optical calculation means 300 stores the optical calculation data generated by the optical calculation data conversion unit 310 in the hologram optical memory.

次に、識別手段400では、識別対象データ入力部410より入力されたデータと、登録手段200において光演算用特徴ベクトル光記憶部320に記憶されたデータとの類似度照合により識別を行う。 Next, the identification means 400 identifies by similarity matching between the data input from the identification target data input unit 410 and the data stored in the optical calculation feature vector optical storage unit 320 in the registration means 200.

識別手段400における特徴抽出においては、特徴抽出部220を用いて、識別対象データ入力部410より入力されたデータの特徴量を抽出する。 In the feature extraction in the identification means 400, the feature extraction unit 220 is used to extract the feature amount of the data input from the identification target data input unit 410.

実施例2における前記特徴抽出部220は前記学習手段100の特徴抽出器生成部120の特徴抽出部121を用いる。 The feature extraction unit 220 in the second embodiment uses the feature extraction unit 121 of the feature extractor generation unit 120 of the learning means 100.

識別手段400における光演算用データ変換部310においては、特徴抽出部220によって得られたバイナリベクトルを0は黒、1は白として色変換を行い、中心から外側に向かってスパイラル状に配置することで光演算用データへ変換する。 In the optical calculation data conversion unit 310 of the identification means 400, the binary vector obtained by the feature extraction unit 220 is color-converted with 0 being black and 1 being white, and arranged in a spiral shape from the center to the outside. Convert to optical calculation data with.

識別手段400における類似度計算部330では、前述の識別対象データ入力部410で入力したデータから特徴抽出部220で得た特徴量を光演算用データ変換部330で光演算用データ化したデータと、登録手段200において登録用データを記憶した前記光演算用特徴ベクトル光記憶部320に記憶されたデータとの聞で類似度を算出する。 In the similarity calculation unit 330 of the identification means 400, the feature amount obtained by the feature extraction unit 220 from the data input by the identification target data input unit 410 described above is converted into data for optical calculation by the optical calculation data conversion unit 330. , The degree of similarity is calculated by listening to the data stored in the optical calculation feature vector optical storage unit 320 in which the registration data is stored in the registration means 200.

前記類似度計算部330で求めた類似度は、類似度が高いものほど大きな光強度、類似度が低いものほど小さな光強度として、識別手段400における出力部420に出力される。 The similarity obtained by the similarity calculation unit 330 is output to the output unit 420 of the identification means 400 as a higher light intensity as the degree of similarity is higher and a lower light intensity as the degree of similarity is lower.

得られた出力に対して、前記光演算用データ変換部で得られる実数係数を付加し、式(7)の計算をすることで、識別関数の出力を得る。ここで、βは実数係数、bは光演算用特徴ベクトル光記憶部320に記憶されたバイナリベクトル、xは識別対象データ入力部410から入力された識別対象データに対して特徴抽出部220の処理を施したベクトルである。 The output of the identification function is obtained by adding the real number coefficient obtained by the optical calculation data conversion unit to the obtained output and performing the calculation of the equation (7). Here, β is a real number coefficient, b is a binary vector stored in the optical storage feature vector optical storage unit 320, and x is the processing of the feature extraction unit 220 with respect to the identification target data input from the identification target data input unit 410. It is a vector with.

Figure 0006851634
Figure 0006851634

次に図12に示したフローチャートについて説明する。説明及び各ステップを「S」と略記する。 Next, the flowchart shown in FIG. 12 will be described. The description and each step are abbreviated as "S".

前述の光演算処理における線形識別器による識別法は学習処理、学習処理における光演算制約付加部、登録処理、識別処理からなる。 The identification method by the linear classifier in the above-mentioned optical arithmetic processing includes a learning process, an optical arithmetic constraint addition part in the learning process, a registration process, and an identification process.

学習処理においては、はじめにS101おいて教師ラベルとセットとして学習データを入力する。次に、S102において、S101で入力されたデ}タに対して前処理を施す。具体的には、学習データ全ての配列値を学習データの各配列値のなかでの最大値で割ることによる値の正規化と、グレースケール化である。 In the learning process, first, the learning data is input as a set with the teacher label in S101. Next, in S102, preprocessing is performed on the data input in S101. Specifically, the value is normalized by dividing the array values of all the training data by the maximum value among the array values of the training data, and grayscale is performed.

S102の前処理により正規化されたデータを用いて、S103において特徴量抽出を行う。S103で得られた特徴量を、S104において識別関数にかけることで識別結果を取得し、識別結果をもとに重みベクトルの最適化を行う。学習が終了したと判断されるまで、S101,102,S103およびS104を一定回数繰り返す。 Feature extraction is performed in S103 using the data normalized by the preprocessing of S102. The feature amount obtained in S103 is multiplied by the discrimination function in S104 to obtain the discrimination result, and the weight vector is optimized based on the discrimination result. S101, 102, S103 and S104 are repeated a certain number of times until it is determined that the learning is completed.

光演算制約付加部においてはS201において教師ラベルとセットとして学習データを入力する。次に、S202において、S201で入力されたデータに対して前処理を施す。具体的には、学習データ全ての配列値を学習データの各配列値のなかでの最大値で割ることによる値の正規化と、グレースケール化である。 In the optical calculation constraint addition unit, learning data is input as a set with the teacher label in S201. Next, in S202, preprocessing is performed on the data input in S201. Specifically, the value is normalized by dividing the array values of all the training data by the maximum value among the array values of the training data, and grayscale is performed.

S202の前処理により正規化されたデータを用いて、S204においてバイナリ化を行い、S205において線形SVMにより識別関数の重みベクトルを、入力データをクラス毎に分類できるように最適化する。 Using the data normalized by the preprocessing of S202, binarization is performed in S204, and the weight vector of the identification function is optimized by linear SVM in S205 so that the input data can be classified for each class.

S205の学習によって求めた重みベクトルを前記パイナリ分解手法によって複数のバイナリベクトルと複数の実数係数に分解する。 The weight vector obtained by the learning of S205 is decomposed into a plurality of binary vectors and a plurality of real number coefficients by the pinary decomposition method.

登録処理においては、まず、S301において光演算制約付加部のS206で得られたバイナリベクトルを登録用データとして入力する。 In the registration process, first, the binary vector obtained in S206 of the optical calculation constraint addition unit in S301 is input as registration data.

S302,S303,S204では、光演算制約付加部のS206で得られたバイナリベクトルベクトルを、0を黒、1を白のピクセル値として光演算用データ化し、S205においてホログラムに記憶する。 In S302, S303, and S204, the binary vector vector obtained in S206 of the optical calculation constraint addition unit is converted into data for optical calculation with 0 as a black pixel value and 1 as a white pixel value, and stored in a hologram in S205.

識別処理においては、まず、S401においてラベルのない識別したい対象となるデータを入力する。次に、S402においてS102と同様の前処理を施す。S403においても、S203と同様に、学習処理により重みベクトルを最適化した学習済みの特徴抽出部を取り出し入力データ対して適用することで特徴量を抽出する。 In the identification process, first, in S401, the data to be identified to be identified without a label is input. Next, in S402, the same pretreatment as in S102 is performed. In S403 as well, as in S203, the feature amount is extracted by taking out the learned feature extraction unit whose weight vector is optimized by the learning process and applying it to the input data.

S404では抽出した特徴量に対して、S204と同様の処理により特徴量をバイナリ化することでバイナリ特徴量を取得し、得られたパイナリ特徴量に対してS304と同様の処理により、光演算用データに変換する。得られたバイナリ特徴量を用いてS405において、登録処理におけるS305においてホログラムに記憶したバイナリ特徴量との類似度を光演算により算出する。光演算により得られた類似度をもとにS406において識別判定を行う。 In S404, a binary feature amount is obtained by binarizing the extracted feature amount by the same processing as in S204, and the obtained pinary feature amount is subjected to the same processing as in S304 for optical calculation. Convert to data. Using the obtained binary features, in S405, the similarity with the binary features stored in the hologram in S305 in the registration process is calculated by optical calculation. The identification determination is performed in S406 based on the similarity obtained by the optical calculation.

学習手段100の前記特徴抽出部121においてCNN(Convolutional Neural Network)の学習によって得られる特徴量をバイナリ化したものではなく、B−HOG特徴量を使い人検出の実験を行った。B−HOG特徴量はHOG特徴量から得られる勾配ヒストグラムを関値により正負で2値化し、さらに情報の欠損を防ぐためにHOG特徴量の各ブロック内でXORの共起表現を付加したものである。 In the feature extraction unit 121 of the learning means 100, the feature quantity obtained by learning of CNN (Convolutional Neural Network) was not binarized, but the B-HOG feature quantity was used for the human detection experiment. The B-HOG feature is obtained by binarizing the gradient histogram obtained from the HOG feature with positive and negative values according to the relational value, and adding a co-occurrence expression of XOR in each block of the HOG feature to prevent information loss. ..

具体的な実験方法は、人画像とそれ以外の画像からなる学習データから学習手段に100に基づき、B−HOG特徴量を算出し、その特徴量から識別関数を生成する。学習手段100の光演算制約付加部122で得られるバイナリベクトルを光演算手段300の光演算用データ変換部に入力し、光演算用特徴ベクトル光記憶部320に記憶した。ここで、識別対象データとなる画像を識別手段400の識別対象データ入力部410より入力し、得られた光記憶用特徴ベクトルを、光演算用特徴ベクトノレ光記憶部320に記憶されたバイナリベクトルとの問で類似度計算を行う。その出力結果を前記出力部420から得た。得られた出力は、前述した通り類似度が高いものほど大きな光強度、類似度が低いものほど小さな光強度の出力となる。得られた出力に対して光演算用制約付加部122の分解手法により得られる実数係数を付加し、識別関数の出力を計算する。得られた出力を闘値判定することにより、識別結果が得られる。 A specific experimental method is to calculate a B-HOG feature amount based on 100 based on a learning means from learning data consisting of a human image and other images, and generate an identification function from the feature amount. The binary vector obtained by the optical calculation constraint addition unit 122 of the learning means 100 was input to the optical calculation data conversion unit of the optical calculation means 300, and stored in the optical calculation feature vector optical storage unit 320. Here, the image to be the identification target data is input from the identification target data input unit 410 of the identification means 400, and the obtained optical storage feature vector is combined with the binary vector stored in the optical calculation feature vector optical storage unit 320. Calculate the similarity with the question. The output result was obtained from the output unit 420. As described above, the obtained output has a higher light intensity as the similarity is higher, and a lower light intensity as the output has a lower similarity. The output of the discriminant function is calculated by adding the real number coefficient obtained by the decomposition method of the constraint addition unit 122 for optical calculation to the obtained output. The identification result can be obtained by determining the fighting value of the obtained output.

学習手段110においてB−HOG特徴量を使った識別関数の識別精度は約92%となった。 In the learning means 110, the identification accuracy of the identification function using the B-HOG feature amount was about 92%.

識別手段400の出力部420の出力から計算した識別関数の出カは図16となった。図16から闇値判定することで、人とそれ以外の画像データを判別可能であることが確認できる。 The output of the identification function calculated from the output of the output unit 420 of the identification means 400 is shown in FIG. By determining the darkness value from FIG. 16, it can be confirmed that it is possible to distinguish between a person and other image data.

本発明に係る実施例3(すなわち、光演算処理によるパターン認識手法の一実施例)について図17の構成図をもとに説明する。 Example 3 according to the present invention (that is, one embodiment of the pattern recognition method by optical arithmetic processing) will be described with reference to the configuration diagram of FIG.

実施例3における光演算処理によるパターン認識装置2は、図17に示すように、学習手段100、特徴量変換手段(特徴量変換モジュール)500、登録手段200、光演算手段300、識別手段400により構成され、図18は前述の各手段のフローチャートである。 As shown in FIG. 17, the pattern recognition device 2 by the optical calculation processing in the third embodiment is provided by the learning means 100, the feature amount conversion means (feature amount conversion module) 500, the registration means 200, the optical calculation means 300, and the identification means 400. FIG. 18 is a flowchart of each of the above-mentioned means.

学習手段100は、光相関用データ変換部の変換関数を決定することを目的とする手段である。具体的には、学習手段100は、学習データ入力部110、学習データ入力部110より取得したデータを変換する特徴抽出器生成部120、特徴抽出器生成部120より得られた変換後データをもとに判定を行う識別部130、識別部130による判定結果を評価する学習系評価部140と学習の進行状態を評価するための検証用データを入力するための検証データ入力部150からなる。また様々な学術機関が配布しているディープラーニングを電子計算機上で実行するためのソフトウェアには、学習済みの重みやバイアスを出力したり、読み込んで利用したりできるような機能が搭載されており、学習手段100を経ずに学習済み特徴量抽出器を用いることもできる。 The learning means 100 is a means for determining a conversion function of the optical correlation data conversion unit. Specifically, the learning means 100 also includes the learning data input unit 110, the feature extractor generation unit 120 that converts the data acquired from the learning data input unit 110, and the converted data obtained from the feature extractor generation unit 120. It is composed of an identification unit 130 for making a determination, a learning system evaluation unit 140 for evaluating the determination result by the identification unit 130, and a verification data input unit 150 for inputting verification data for evaluating the progress state of learning. In addition, the software for executing deep learning distributed by various academic institutions on a computer is equipped with a function that can output, read, and use learned weights and biases. It is also possible to use the trained feature amount extractor without going through the learning means 100.

特徴量変換手段500は、ニューラルネットワーク(単に、「ネットワーク」という場合がある)における学習によって学習データの特徴量を変換する特徴量変換モジュールであって、任意の第一の次元数および任意の特徴量を有する学習データが入力される学習データ入力部510と、所定の光演算制約条件を満たす第二の次元数を有する重みとバイアスとを因子にもつ多項式(式)からなる非線形関数(関数)より構成された学習モデルに、学習データ入力部510に入力された学習データを入力し、第二の次元数を有する中間層を設定する中間層設定部520と、中間層設定部520で設定された中間層から第一の次元数を有する出力層を計算し、ニューラルネットワークの出力を算出する出力算出部530と、出力算出部530によって算出されたニューラルネットワークの出力と学習データとの誤差を算出する誤差算出部540と、誤差算出部540によって算出された誤差が所定の条件を満たすか否かを判定する判定部550と、誤差に基づいて重みとバイアスとをそれぞれ変更し、変更後の重みとバイアスとを得る重みバイアス変更部560と、変更後の重みとバイアスとを因子にもつ多項式からなる非線形関数によって構成された学習モデルを出力する学習モデル出力部570と、を備えている。また、特徴量変換手段500は、判定部550において誤差が所定の条件を満たすと判定された場合には、学習モデル出力部570から変更後の重みとバイアスとを因子にもつ式からなる関数によって構成された学習モデルを出力させ、判定部550において誤差が所定の条件を満たさないと判定された場合には、出力算出部530において学習モデルの多項式に含まれる重みとバイアスを重みバイアス変更部560で得られた変更後の重みとバイアスにそれぞれ変更し、ニューラルネットワークの出力を算出させる制御部580を備えている。 The feature amount conversion means 500 is a feature amount conversion module that converts the feature amount of the training data by training in a neural network (sometimes simply referred to as a “network”), and has an arbitrary first dimension number and an arbitrary feature. A non-linear function consisting of a learning data input unit 510 in which training data having a quantity is input, and a polynomial (expression) having a weight and a bias having a second dimension number satisfying a predetermined optical calculation constraint condition as factors. The learning data input to the training data input unit 510 is input to the learning model composed of the above, and the intermediate layer setting unit 520 for setting the intermediate layer having the second dimension number and the intermediate layer setting unit 520 are set. The output layer having the first number of dimensions is calculated from the intermediate layer, and the output calculation unit 530 that calculates the output of the neural network and the error between the neural network output and the training data calculated by the output calculation unit 530 are calculated. The error calculation unit 540 to be performed, the determination unit 550 to determine whether or not the error calculated by the error calculation unit 540 satisfies a predetermined condition, and the weight and the bias are changed based on the error, and the weight after the change is changed. It includes a weight bias changing unit 560 that obtains the weight and the bias, and a learning model output unit 570 that outputs a learning model composed of a non-linear function composed of a neural network having the changed weight and the bias as factors. Further, when the determination unit 550 determines that the error satisfies a predetermined condition, the feature amount conversion means 500 uses a function composed of an equation having the changed weight and bias as factors from the learning model output unit 570. When the configured learning model is output and the determination unit 550 determines that the error does not satisfy a predetermined condition, the output calculation unit 530 sets the weights and biases included in the polynomial of the learning model to the weight bias change unit 560. It is provided with a control unit 580 that changes the weight and bias after the change obtained in the above and calculates the output of the neural network.

前述の光演算制約条件は、ニューラルネットワークの出力を用いて行う光演算における所定の量子化数、光演算に用いられる光相関器の光学パラメータ、および所定のエネルギー数によって決まる。 The above-mentioned optical calculation constraint condition is determined by a predetermined quantization number in the optical calculation performed using the output of the neural network, an optical parameter of the optical correlator used in the optical calculation, and a predetermined energy number.

具体的には、光演算制約条件としては、
(1)量子化数が制限されている
(2)次元数が光相関システム(光相関器)に最適な値を満たしている
(3)エネルギー量が一定である
(4)特徴量の情報を失わない
が挙げられる。本実施例では、(1)についてはバイナリデータによって量子数が2に制限されている。また、(3)についてはホワイトレート一定と等価としている。
Specifically, as an optical calculation constraint condition,
(1) The number of quantizations is limited (2) The number of dimensions satisfies the optimum value for the optical correlation system (optical correlator) (3) The amount of energy is constant (4) Information on the feature amount I will not lose it. In this embodiment, the quantum number of (1) is limited to 2 by the binary data. Further, (3) is equivalent to a constant white rate.

上述の制約条件(2)については、図23に示すように、光源602、ビーム径拡大レンズ系604、ミラー606、空間光変調器(表示素子)608、偏光ビームスプリッタ612、縮小光学系614、対物レンズ(レンズ)616が配置された光相関器600では、式(1)を満たすことが好ましい。ただし、縮小光学系614は省略可能である。

Figure 0006851634
Regarding the above-mentioned constraint condition (2), as shown in FIG. 23, the light source 602, the beam diameter expansion lens system 604, the mirror 606, the spatial light modulator (display element) 608, the polarization beam splitter 612, the reduction optical system 614, and the like. The optical correlator 600 in which the objective lens (lens) 616 is arranged preferably satisfies the equation (1). However, the reduction optical system 614 can be omitted.
Figure 0006851634

なお、(1)式において、zは第二の次元数、aは空間光変調器608のピクセルピッチ[mm]、rはレンズ対物レンズ616の半径[mm]、bは縮小光学系614の縮小倍率を示す。 In equation (1), z is the second dimension number, a is the pixel pitch [mm] of the spatial light modulator 608, r is the radius [mm] of the lens objective lens 616, and b is the reduction of the reduction optical system 614. Indicates the magnification.

学習データ入力部510においては、制御部が、特徴情報を持つ任意の次元数(第一の次元数)nを持つデータを、教師情報として入力する。ニューラルネットワークの層は1つでもよいし、複数層で構成してもよい。各層は、それぞれ学習データに対する畳み込み、次元削減、全結合の処理を行う。 In the learning data input unit 510, the control unit inputs data having an arbitrary number of dimensions (first dimension number) n having feature information as teacher information. The neural network may have one layer or may be composed of a plurality of layers. Each layer performs convolution, dimension reduction, and full coupling processing on the training data.

中間層設定部520は、教師情報を受け取り、初期ネットワーク格納部に格納されているニューラルネットワークに対し、以下の設定を行う。まず、教師情報と同じ次元数nを入力層と出力層に設定する。加えて、上述の制約条件(2)を満たすために中間層に対して光相関演算に適した次元数(第二の次元数、すなわち式(1)におけるz)mを設定する。本実施例では、図19に示すような入力層、中間層、出力層の三つの層からなるネットワークを用いた。 The intermediate layer setting unit 520 receives the teacher information and makes the following settings for the neural network stored in the initial network storage unit. First, the same number of dimensions n as the teacher information is set in the input layer and the output layer. In addition, in order to satisfy the above-mentioned constraint condition (2), a dimension number (second dimension number, that is, z in the equation (1)) m suitable for the optical correlation calculation is set for the intermediate layer. In this embodiment, a network consisting of three layers, an input layer, an intermediate layer, and an output layer, as shown in FIG. 19 was used.

ネットワーク初期設定部では前記初期ネットワーク格納部に格納されている重みw,w´とバイアスb,b´に対して任意の値を初期値として設定する。ここで、中間層の活性化関数として光相関システム用活性化関数yを設定し、教師情報の値域と同じ値域を出力として持つ活性化関数を出力層の活性化関数gとして設定する。 In the network initial setting unit, arbitrary values are set as initial values for the weights w and w'and the biases b and b'stored in the initial network storage unit. Here, the activation function y for the optical correlation system is set as the activation function of the intermediate layer, and the activation function having the same range as the range of the teacher information as the output is set as the activation function g of the output layer.

光相関用活性化関数は制約条件1を満たすためにシグモイド関数のネイピア数の指数k
を実数倍することで、近似的にステップ関数に近づけている(式(8)参照)。近似的にステップ関数に近づけることで入力データの近似バイナリ化を実現している。本研究では、学習の収束具合の観測よりk=1000
としている。
The activation function for photocorrelation is an exponent of the number of Napiers in the sigmoid function k in order to satisfy constraint 1.
Is multiplied by a real number to approximate the step function (see equation (8)). Approximate binarization of input data is realized by approximating the step function. In this study, k = 1000 from the observation of the convergence of learning.
It is said.

Figure 0006851634
Figure 0006851634

さらに、入力値オフセットcによって制約条件(3)を適用する。シグモイド関数では入力値の0を基準として、出力値が0または1へと緩やかに変化して行くが、制約条件(3)を満たすために、この活性化関数では入力値を減算するオフセットcを入力値に応じて動的に設定することで基準値を変動させ、ホワイトレートを20%に設定した。 Further, the constraint condition (3) is applied by the input value offset c. In the sigmoid function, the output value gradually changes to 0 or 1 with reference to the input value of 0, but in order to satisfy the constraint condition (3), in this activation function, an offset c for subtracting the input value is set. The reference value was changed by dynamically setting according to the input value, and the white rate was set to 20%.

ここで、使用する光相関器に合わせて設定するホワイトレートを変えてもよい。また、入力データ群を降順にソートしたあと入力に応じて動的に設定することによってホワイトレートを完全均一にすることも容易である。 Here, the white rate to be set may be changed according to the optical correlator used. It is also easy to make the white rate completely uniform by sorting the input data group in descending order and then dynamically setting it according to the input.

学習を行う際に用いられる誤差逆伝播法では活性化関数の微分を計算する。前述の活性化関数を微分すると式(9)となり誤差逆伝播法における重みの更新式は式(10)となる。式(10)では、実数倍部分が更新重みに直接関与する。このことは学習による重みの更新が極端に大きくなることに繋がり、学習が進まない。そのため、この実数倍部分を取り除いた式(11)を活性化関数fにおける重みの更新式として用いた。 The backpropagation method used for learning calculates the derivative of the activation function. When the above activation function is differentiated, it becomes Eq. (9), and the weight update equation in the backpropagation method is Eq. (10). In equation (10), the real multiple part is directly involved in the update weight. This leads to the renewal of weights due to learning becoming extremely large, and learning does not proceed. Therefore, the equation (11) in which the real number multiple portion is removed is used as the weight update equation in the activation function f.

Figure 0006851634
Figure 0006851634

Figure 0006851634
Figure 0006851634

Figure 0006851634
Figure 0006851634

ネットワーク初期化部で初期化されたネットワークを受け取ったネットワーク出力算出部では、教師情報を入力層に通し、中間層、出力層へと伝播させる。入力層のユニットの出力が中間層のユニットへ伝播する際には、ユニットの出力に対して第一の重みwがかけられ、第一のバイアスbが加算され、さらにこの結果を活性化関数fに入力し、活性化関数fの出力が中間層のユニットの出力とする。つまり、第一の重みw=[w11,w12,…,wmn−1,wmn]、第一のバイアスb=[b,b,…,bm−1,b]とすると、中間層の出力は式(12)で表される。In the network output calculation unit that receives the network initialized by the network initialization unit, the teacher information is passed through the input layer and propagated to the intermediate layer and the output layer. When the output of the unit of the input layer propagates to the unit of the intermediate layer, the output of the unit is subjected to the first weight w, the first bias b is added, and this result is further multiplied by the activation function f. And the output of the activation function f is the output of the unit in the intermediate layer. That is, the first weight w = [w 11 , w 12 , ..., w mn-1 , w mn ], the first bias b = [b 1 , b 2 , ..., b m-1 , b m ]. Then, the output of the intermediate layer is represented by the equation (12).

Figure 0006851634
Figure 0006851634

中間層のユニットの出力が出力層へ伝播する際には、中間層のユニットの出力に対して第二の重みw´がかけられ、バイアスb´が加算され、さらにこの結果を入力値の値域と同じ値域を持つ活性化関数gに入力し、この活性化関数gの出力が出力層のユニットの出力、つまりネットワークの出力となる。 When the output of the unit in the intermediate layer propagates to the output layer, a second weight w'is applied to the output of the unit in the intermediate layer, a bias b'is added, and this result is added to the range of the input value. It is input to the activation function g having the same range as, and the output of this activation function g becomes the output of the unit of the output layer, that is, the output of the network.

誤差算出部540は、出力算出部530からネットワークの出力と学習データ入力部510から受け取った教師情報を用いて、ネットワークの出力と教師情報とが同じ値となるように2つの間の誤差を計算する。 The error calculation unit 540 uses the network output from the output calculation unit 530 and the teacher information received from the learning data input unit 510 to calculate the error between the two so that the network output and the teacher information have the same value. To do.

判定部550は、誤差算出部540から誤差を受け取り、誤差の変化がほぼなくなったか、または処理が指定回数だけ繰り返されたかを判定する。前述のいずれも満たさない場合にはネットワークと誤差を重みバイアス変更部560に渡す。いずれかを満たす場合には、ネットワークから出力層と第二の重みw´とバイアスb´を取り除き、入力層と第一の重みwとバイアスbと中間層のみを残し、光相関演算用データ変換器として出力する。 The determination unit 550 receives an error from the error calculation unit 540, and determines whether the change in the error has almost disappeared or whether the process has been repeated a specified number of times. If none of the above is satisfied, the network and error are passed to the weight bias changing unit 560. When either of them is satisfied, the output layer, the second weight w'and the bias b'are removed from the network, and only the input layer, the first weight w, the bias b and the intermediate layer are left, and the data conversion for optical correlation calculation is performed. Output as a vessel.

重みバイアス変更部560は、判定部550からネットワークと誤差を受け取り、誤差を元に重みw,w´、バイアスb,b´を変更し、変更したネットワークを再度、出力算出部530に渡す。 The weight bias changing unit 560 receives a network and an error from the determination unit 550, changes the weights w, w'and bias b, b'based on the error, and passes the changed network to the output calculation unit 530 again.

実際には、判定部550における判定に基づき、制御部580によって、重みバイアス変更部560と出力算出部530とのやりとりがなされる。 Actually, based on the determination in the determination unit 550, the control unit 580 communicates between the weight bias changing unit 560 and the output calculation unit 530.

中間層の次元数や活性化関数に対して光演算制約条件を加えた上で教師情報とネットワークの出力が同じとなるように学習を行わせることで、上述の制約条件(1)−(3)を満たしつつも、制約条件4の情報損失を防止する条件を満たしたデータを中間層から出力可能な変換器を特徴抽出部と光相関用データ変換部の間に組み込んだ。 By adding optical calculation constraints to the number of dimensions and activation function of the intermediate layer and then training so that the teacher information and the network output are the same, the above-mentioned constraints (1)-(3) ), But the data that satisfies the condition to prevent information loss of constraint 4 can be output from the intermediate layer. A converter is incorporated between the feature extraction unit and the optical correlation data conversion unit.

登録手段200は、まず特徴抽出部へ登録用データを入力することで特徴量抽出を行い、次にこの特徴量を特徴量変換手段へ入力し、その後光演算用データ変換部へ入力し光演算用データへと変換、そして光演算用データを光記憶部に記録するための手段である。 The registration means 200 first extracts the feature amount by inputting the registration data to the feature extraction unit, then inputs this feature amount to the feature amount conversion means, and then inputs the feature amount to the optical calculation data conversion unit to perform optical calculation. It is a means for converting into data for use and recording data for optical calculation in an optical storage unit.

識別手段400は、まず特徴抽出部へ識別対象データを入力することで特徴量抽出を行い、この特徴量を特徴量変換モジュールへ変換した後、光演算用データ変換部へ入力し光演算用データへと変換、そして前記登録手段において光演算用特徴ベクトル記憶部に記憶されたデータとの相関照合を類似度計算部により行い、識別を行うための手段である。 The identification means 400 first extracts the feature amount by inputting the identification target data into the feature extraction unit, converts the feature amount into the feature amount conversion module, and then inputs the feature amount to the optical calculation data conversion unit to perform the optical calculation data. It is a means for performing identification by performing correlation matching with the data stored in the feature vector storage unit for optical calculation in the registration means by the similarity calculation unit.

識別手段400においては、登録手段200で用いたものと同じ特徴抽出部、特徴量変換モジュール及び、光演算用データ変換部を用いて、識別対象データ入力部より入力されたデータの特徴量を抽出し、光演算用データへ変換した。また類似度計算部で求めた類似度は、類似性が高いものほど大きな光強度を示し、逆に類似性が低いものほど小さい光強度として出力部へ出力される。 The identification means 400 uses the same feature extraction unit, feature amount conversion module, and optical calculation data conversion unit as those used in the registration means 200 to extract the feature amount of the data input from the identification target data input unit. Then, it was converted into data for optical calculation. Further, as for the similarity obtained by the similarity calculation unit, the higher the similarity, the higher the light intensity, and conversely, the lower the similarity, the lower the light intensity is output to the output unit.

次に図18に示したフローチャートについて説明する。説明及び書くステップを「S」と略記する。 Next, the flowchart shown in FIG. 18 will be described. The explanation and writing steps are abbreviated as "S".

光演算処理によるパターン認識手法における識別は、よりよい特徴量抽出のための学習処理、特徴量に光相関制約条件を付加した上で変換する特徴量変換手段、登録処理、識別処理からなる。前述のように様々な学術機関が配布しているディープラーニングを電子計算機上で実行するためのソフトウェアには、学習済みの重みやバイアスを出力したり、読み込んで利用したりできるような機能が搭載されており、前述の学習手段を経ずに学習済み特徴量抽出器を用いることも可能である。このため、学習処理はあってもなくてもよい。 Identification in the pattern recognition method by optical arithmetic processing includes learning processing for better feature extraction, feature conversion means for converting features with optical correlation constraint conditions added, registration processing, and identification processing. As mentioned above, the software for executing deep learning distributed by various academic institutions on a computer is equipped with a function that can output, read, and use learned weights and biases. It is also possible to use the learned feature amount extractor without going through the above-mentioned learning means. Therefore, the learning process may or may not be performed.

学習処理100においては、S102の前処理により正規化されたデータを用いて、S103において特徴量抽出を行なう。S103で得られた特徴量を、S104において識別関数にかけることで識別結果を取得し、識別結果をもとに特徴抽出器の最適化を行なう。学習が終了したと判断されるまで、S101,102,S103およびS104を一定回数繰り返す。 In the learning process 100, the feature amount extraction is performed in S103 using the data normalized by the preprocessing of S102. The feature amount obtained in S103 is multiplied by the identification function in S104 to obtain the identification result, and the feature extractor is optimized based on the identification result. S101, 102, S103 and S104 are repeated a certain number of times until it is determined that the learning is completed.

特徴量変換手段においては、光制約を付加するための学習をおこなう。S201において特徴量抽出器で特徴抽出済みのデータを入力する。次に、S202において、S201で入力されたデータに対してS202において符号化を施す。その後S203において複合し、S201で入力したデータとS203で複合したデータの差分を用いてS204にて特徴量変換器を最適化する。 In the feature amount conversion means, learning is performed to add a light constraint. In S201, the data whose features have been extracted by the feature amount extractor is input. Next, in S202, the data input in S201 is encoded in S202. After that, the feature amount converter is optimized in S204 by combining in S203 and using the difference between the data input in S201 and the data combined in S203.

登録処理においては、まず、S301において登録データを入力し、S102と同様の前処理を施す。S303において学習処理1または予め用意してあった特徴抽出器を用いて特徴量抽出した後、S305にて特徴量変換手段で作成した特徴量変換器を用いて光演算制約付加しS304で得られたバイナリベクトルを登録用データとして変換する。得られた登録用データをS306においてホログラムに記憶する。 In the registration process, first, the registration data is input in S301, and the same preprocessing as in S102 is performed. After the feature amount is extracted using the learning process 1 or the feature extractor prepared in advance in S303, an optical calculation constraint is added using the feature amount converter created by the feature amount conversion means in S305, and the result is obtained in S304. Convert the binary vector as registration data. The obtained registration data is stored in the hologram in S306.

識別処理においては、まず、S401において識別したい対象となるデータを入力する。次に、S402においてS102と同様の前処理を施す。S403においても、S203と同様に、学習処理1により最適化した学習済みの特徴量抽出器または予め用意した特徴量抽出器を取り出し入力データ対して適用することで特徴量を抽出する。 In the identification process, first, the data to be identified in S401 is input. Next, in S402, the same pretreatment as in S102 is performed. In S403 as well, as in S203, the feature amount is extracted by taking out the learned feature amount extractor optimized by the learning process 1 or the feature amount extractor prepared in advance and applying it to the input data.

S404では抽出した特徴量に対して、S305と同様の処理により特徴量をバイナリ化することでバイナリ特徴量を取得し、得られた特徴量に対してS304と同様に、光演算用データに変換する。得られたバイナリ特徴量を用いてS406において、登録処理におけるS306においてホログラムに記憶したバイナリ特徴量との類似度を光演算により算出する。光演算により得られた類似度をもとにS407において識別判定を行う。 In S404, a binary feature amount is obtained by binarizing the extracted feature amount by the same processing as in S305, and the obtained feature amount is converted into optical calculation data in the same manner as in S304. To do. Using the obtained binary features, in S406, the similarity with the binary features stored in the hologram in S306 in the registration process is calculated by optical calculation. The identification determination is performed in S407 based on the similarity obtained by the optical calculation.

本実施例では、光演算処理によるパターン認識をスケッチベースの商品画像検索システムに適用して実験を行った。 In this example, an experiment was conducted by applying pattern recognition by optical arithmetic processing to a sketch-based product image search system.

具体的な実験手法は、特徴抽出部にスケッチによる商品画像検索を行う学習済みCNNネットワークを用い、更に光演算用特徴変換部の符号化部における中間の全結合層のユニット数を、2560次元で表現可能な入力データに対して40000ユニットにすることで2560次元のままバイナリ化するよりも15倍以上の表現力を持たせた。 As a concrete experimental method, a trained CNN network that searches for product images by sketching is used for the feature extraction unit, and the number of units in the intermediate fully connected layer in the coding unit of the feature conversion unit for optical calculation is calculated in 2560 dimensions. By making 40,000 units for the input data that can be expressed, it has more than 15 times more expressive power than binarizing the 2560 dimensions.

データセットとして椅子の商品画像とスケッチ画像の97ペア用いた。ここでペアと記したのは、スケッチ画像が商品画像を基に描かれたものであり、商品画像とスケッチの一対一の対応がついているためである。 As a data set, 97 pairs of chair product images and sketch images were used. The term "pair" is used here because the sketch image is drawn based on the product image, and there is a one-to-one correspondence between the product image and the sketch.

ここで、登録手段においては、椅子の商品画像を特徴抽出部に入力することで特徴量を抽出し、特徴量変換モジュールを通した後に、前述の特徴量を光演算用特徴変換部により光演算用データへ変換し、この光演算用データを光演算手段の光演算用特徴ベクトル記憶部に記憶した。 Here, in the registration means, the feature amount is extracted by inputting the product image of the chair into the feature extraction unit, and after passing through the feature amount conversion module, the above-mentioned feature amount is optically calculated by the feature conversion unit for optical calculation. The data was converted into data for optical calculation, and the data for optical calculation was stored in the feature vector storage unit for optical calculation of the optical calculation means.

実験における識別手段においては、椅子のスケッチを特徴抽出部に入力することで特徴量を抽出し、この特徴量を光演算用特徴変換部により光演算用データへ変換、この変換した椅子のスケッチの光演算用データと、前記光演算用特徴ベクトル記憶部に記憶した椅子の商品画像の光演算用データとの間で類似度計算を行い、その出力結果を出力部より得た。 In the identification means in the experiment, the feature amount is extracted by inputting the sketch of the chair into the feature extraction unit, and this feature amount is converted into the data for optical calculation by the feature conversion unit for optical calculation. A similarity calculation was performed between the optical calculation data and the optical calculation data of the product image of the chair stored in the optical calculation feature vector storage unit, and the output result was obtained from the output unit.

ここで特定の椅子のスケッチを入力した際に、特徴抽出部で抽出された多値特徴量の値分布及び、光演算用特徴変換部から出力される光演算用データの値分布を図20に示す。 FIG. 20 shows the value distribution of the multi-valued features extracted by the feature extraction unit and the value distribution of the optical calculation data output from the optical calculation feature conversion unit when a sketch of a specific chair is input. Shown.

図20(a)は特徴抽出部より抽出された多値特徴量の値分布であり、図20(b)が光演算用特徴変換部から出力された光演算用データの値分布である。どちらも横軸が特徴量の大きさを、縦軸がその特徴量の大きさの出現回数を示している。特徴抽出部により抽出された−2.5から2までの広い値域を持つ特徴量は、光演算用特徴変換部により値域が0から1へ制限され、更に限りなく0または1に近似していることを確認した。 FIG. 20 (a) shows the value distribution of the multi-valued feature amount extracted from the feature extraction unit, and FIG. 20 (b) shows the value distribution of the optical calculation data output from the optical calculation feature conversion unit. In both cases, the horizontal axis indicates the magnitude of the feature amount, and the vertical axis indicates the number of occurrences of the magnitude of the feature amount. The feature quantity with a wide range of -2.5 to 2 extracted by the feature extraction unit is limited to 0 to 1 by the feature conversion unit for optical calculation, and is further approximated to 0 or 1 infinitely. It was confirmed.

ここで、データセットにおいて商品画像とスケッチの一対一の対応が存在することを利用して、スケッチ画像を入力した際の出力のうち上位K番以内に対応する商品画像がデータセット全体で何割存在するかを示すacc@Kを評価指標として導入した。この評価指標を基に、光演算用特徴変換の評価を行った。 Here, by utilizing the fact that there is a one-to-one correspondence between the product image and the sketch in the data set, what percentage of the output of the input of the sketch image corresponds to the product image within the upper K number in the entire data set. We introduced acc @ K, which indicates whether it exists, as an evaluation index. Based on this evaluation index, the feature conversion for optical calculation was evaluated.

図21に識別精度を示す。図21に示す結果より、光演算処理によるパターン認識においては、表現力を維持可能な特徴量となっていることがわかる。 FIG. 21 shows the identification accuracy. From the results shown in FIG. 21, it can be seen that the feature quantity can maintain the expressive power in the pattern recognition by the optical arithmetic processing.

図22に、横軸はデータベースのインデックス、縦軸は内積値の大きさである。図22に示す結果より、スケッチ画像に対応した商品画像の相関度が大きく表れ、それ以外は抑制されていることを確認した。 In FIG. 22, the horizontal axis is the index of the database, and the vertical axis is the size of the internal product value. From the results shown in FIG. 22, it was confirmed that the degree of correlation of the product image corresponding to the sketch image was large, and that the other parts were suppressed.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲内に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments, and various aspects of the present invention are described within the scope of the claims. It can be transformed and changed.

100 学習手段
110 学習データ入力部
120 特徴抽出器生成部
121 特徴抽出部
122 光演算用制約付加部
130 識別部
140 学習系評価部
150 検証データ入力部
200 登録手段
210 登録用データ入力部
300 光演算手段
310 光演算用データ変換部
320 光演算用特徴ベクトノレ光記憶部
330 類似度計算部
500 特徴量変換手段(特徴量変換モジュール)
510 学習データ入力部
520 中間層設定部
530 出力算出部
540 誤差算出部
550 判定部
560 重みバイアス変更部
570 学習モデル出力部
580 制御部
100 Learning means 110 Learning data input unit 120 Feature extractor generator 121 Feature extraction unit 122 Optical calculation constraint addition unit 130 Identification unit 140 Learning system evaluation unit 150 Verification data input unit 200 Registration means 210 Registration data input unit 300 Optical calculation Means 310 Optical calculation data conversion unit 320 Optical calculation feature vector optical storage unit 330 Similarity calculation unit 500 Feature amount conversion means (feature amount conversion module)
510 Learning data input unit 520 Intermediate layer setting unit 530 Output calculation unit 540 Error calculation unit 550 Judgment unit 560 Weight bias change unit 570 Learning model output unit 580 Control unit

Claims (16)

ニューラルネットワークにおける学習によって学習データの特徴量を変換する特徴量変換モジュールであって、
任意の第一の次元数および任意の特徴量を有する学習データが入力される学習データ入力部と、
所定の光演算制約条件を満たす第二の次元数を有する重みとバイアスとを因子にもつ式からなる関数より構成された学習モデルに、前記学習データ入力部に入力された前記学習データを入力し、前記第二の次元数を有する中間層を設定する中間層設定部と、
前記中間層設定部で設定された前記中間層から前記第一の次元数を有する出力層を計算し、前記ニューラルネットワークの出力を算出する出力算出部と、
前記出力算出部によって算出された前記ニューラルネットワークの出力と前記学習データとの誤差を算出する誤差算出部と、
前記誤差算出部によって算出された前記誤差が所定の条件を満たすか否かを判定する判定部と、
前記誤差に基づいて前記重みと前記バイアスとをそれぞれ変更し、変更後の前記重みと前記バイアスとを得る重みバイアス変更部と、
前記変更後の前記重みと前記バイアスとを因子にもつ式からなる関数によって構成された学習モデルを出力する学習モデル出力部と、
前記判定部において前記誤差が所定の条件を満たすと判定された場合には、前記出力部から前記変更後の前記重みと前記バイアスとを因子にもつ式からなる関数によって構成された学習モデルを出力させ、前記判定部において前記誤差が所定の条件を満たさないと判定された場合には、前記出力算出部において前記学習モデルの前記式に含まれる前記重みと前記バイアスを前記重みバイアス変更部で得られた前記変更後の前記重みと前記バイアスにそれぞれ変更し、前記ニューラルネットワークの出力を算出させる制御部と、
を備え、
前記光演算制約条件は、前記ニューラルネットワークの出力を用いて行う光演算における所定の量子化数、前記光演算に用いられる光相関器の光学パラメータ、および所定のエネルギー数によって決まることを特徴とする特徴量変換モジュール。
A feature conversion module that transforms the features of training data by learning in a neural network.
A learning data input unit in which learning data having an arbitrary first dimension number and an arbitrary feature quantity is input, and
The training data input to the training data input unit is input to a training model composed of a function consisting of an equation having a weight and a bias having a second dimension number satisfying a predetermined optical calculation constraint condition as factors. , The intermediate layer setting unit for setting the intermediate layer having the second dimension number, and
An output calculation unit that calculates an output layer having the first dimension number from the intermediate layer set by the intermediate layer setting unit and calculates the output of the neural network.
An error calculation unit that calculates an error between the output of the neural network calculated by the output calculation unit and the learning data, and an error calculation unit.
A determination unit that determines whether or not the error calculated by the error calculation unit satisfies a predetermined condition,
A weight bias changing unit that changes the weight and the bias based on the error to obtain the changed weight and the bias, respectively.
A learning model output unit that outputs a learning model composed of a function composed of an equation having the changed weight and the bias as factors, and a learning model output unit.
When the determination unit determines that the error satisfies a predetermined condition, the output unit outputs a learning model composed of a function composed of an equation having the changed weight and the bias as factors. When the determination unit determines that the error does not satisfy a predetermined condition, the output calculation unit obtains the weight and the bias included in the equation of the learning model in the weight bias changing unit. A control unit that changes the weight and the bias after the change and calculates the output of the neural network.
With
The optical calculation constraint condition is characterized by being determined by a predetermined quantization number in an optical calculation performed using the output of the neural network, an optical parameter of an optical correlator used in the optical calculation, and a predetermined energy number. Feature conversion module.
前記光相関器は、前記ニューラルネットワークの出力に基づく光演算用データを表示する表示素子と、前記演算用データが反映された光を集光するレンズと、を備え、
前記光学パラメータには、前記表示素子のピクセルピッチおよび前記レンズの半径が含まれることを特徴とする請求項1に記載の特徴量変換モジュール。
The optical correlator includes a display element that displays optical calculation data based on the output of the neural network, and a lens that collects light that reflects the calculation data.
The feature amount conversion module according to claim 1, wherein the optical parameters include the pixel pitch of the display element and the radius of the lens.
前記光相関器は、前記表示素子に表示された前記光演算用データが反映された光のビーム径を縮小し、該ビーム径が縮小された光を前記レンズに向けて出射する縮小光学系をさらに備え、
前記光学パラメータには、前記縮小光学系の縮小倍率が含まれることを特徴とする請求項2に記載の特徴量変換モジュール。
The optical correlator reduces the beam diameter of light on which the optical calculation data displayed on the display element is reflected, and emits light having the reduced beam diameter toward the lens. Further prepare
The feature amount conversion module according to claim 2, wherein the optical parameter includes a reduction magnification of the reduction optical system.
前記第二の次元数は、以下の(1)式を満たすことを特徴とする前記請求項3に記載の特徴量変換モジュール。
Figure 0006851634
なお、上述の(1)式において、zは前記第二の次元数、aは前記表示素子のピクセルピッチ[mm]、rは前記レンズの半径[mm]、bは前記縮小光学系の縮小倍率を示す。
The feature amount conversion module according to claim 3, wherein the second dimension number satisfies the following equation (1).
Figure 0006851634
In the above equation (1), z is the second dimension number, a is the pixel pitch [mm] of the display element, r is the radius [mm] of the lens, and b is the reduction magnification of the reduction optical system. Is shown.
請求項1から請求項4のいずれかに記載の特徴量変換モジュールと、
クラスラベルの付加された学習用データを入カとし、光演算用制約条件を備えた前記学習用データの識別精度を最大化するような特徴抽出器を学習する学習手段と、
前記特徴抽出器より抽出された特徴量を特徴抽出器に変換する光演算用データ変換部と、
光演算用データを記憶する光記憶部と、複数の光演算用データ聞における類似度を算出することによって光相関機能を提供する類似度計算部による光演算手段と、
識別対象データの辞書となる登録用データを入力とし、前記学習手段により得られた特徴抽出器を用いて抽出した特徴量を、前記光演算用データ変換部において光演算用に光演算用特徴量として変換し、前記光演算手段における光記憶部に登録する登録手段と、
識別対象データを入力とし、前記学習手段で生成された特徴抽出器より抽出した特徴量と前記登録手段において光記憶部に登録した特徴量聞の類似度を前記光演算手段における類似度計算部において算出し、出力部より識別結果を出力する識別手段と、
を備えることを特徴とするパターン識別装置。
The feature amount conversion module according to any one of claims 1 to 4,
A learning means for learning a feature extractor that maximizes the identification accuracy of the learning data having a constraint condition for optical calculation by using the learning data with a class label as an input.
An optical calculation data conversion unit that converts the feature amount extracted from the feature extractor into the feature extractor, and
An optical storage unit that stores optical calculation data, an optical calculation means by a similarity calculation unit that provides an optical correlation function by calculating similarity in a plurality of optical calculation data hearings, and an optical calculation means.
The feature amount extracted by using the feature extractor obtained by the learning means with the registration data as a dictionary of the identification target data as an input is used in the optical calculation data conversion unit for the optical calculation feature amount. And the registration means registered in the optical storage unit in the optical calculation means.
With the identification target data as input, the similarity between the feature amount extracted from the feature extractor generated by the learning means and the feature amount registered in the optical storage unit in the registration means is set in the similarity calculation unit in the optical calculation means. An identification means that calculates and outputs the identification result from the output unit,
A pattern identification device comprising.
クラスラベルの付加された学習用データを入カとし、光演算用制約条件を備えた前記学習用データの識別精度を最大化するような特徴抽出器を学習する学習手段と、
前記特徴抽出器より抽出された特徴量を特徴抽出器に変換する光演算用データ変換部と光演算用データを記憶する光記憶部と、複数の光演算用データ聞における類似度を算出することによって光相関機能を提供する類似度計算部による光演算手段と、
識別対象データの辞書となる登録用データを入力とし、前記学習手段により得られた特徴抽出器を用いて抽出した特徴量を、前記光演算用データ変換部において光演算用に光演算用特徴量として変換し、前記光演算手段における光記憶部に登録する登録手段と、
識別対象データを入力とし、前記学習手段で生成された特徴抽出器より抽出した特徴量と前記登録手段において光記憶部に登録した特徴量聞の類似度を前記光演算手段における類似度計算部において算出し、出力部より識別結果を出力する識別手段と、
を備えることを特徴とするパターン識別装置。
A learning means for learning a feature extractor that maximizes the identification accuracy of the learning data having a constraint condition for optical calculation by using the learning data with a class label as an input.
To calculate the similarity between a data conversion unit for optical calculation that converts the feature amount extracted from the feature extractor into a feature extractor, an optical storage unit that stores data for optical calculation, and a plurality of data for optical calculation. Optical calculation means by the similarity calculation unit that provides the optical correlation function by
The feature amount extracted by using the feature extractor obtained by the learning means with the registration data as a dictionary of the identification target data as an input is used in the optical calculation data conversion unit for the optical calculation feature amount. And the registration means registered in the optical storage unit in the optical calculation means.
With the identification target data as input, the similarity between the feature amount extracted from the feature extractor generated by the learning means and the feature amount registered in the optical storage unit in the registration means is set in the similarity calculation unit in the optical calculation means. An identification means that calculates and outputs the identification result from the output unit,
A pattern identification device comprising.
前記学習手段において、特徴抽出器の生成における学習の過程において、学習後に生成される特徴抽出器による出力がバイナリ近似された特徴量となるように、前記特徴抽出器における活性化関数にステップ関数、もしくはシグモイド関数で近似したステップ関数である特徴量の各次元の値を0から1の値の範囲に分布させる関数を適用することを特徴とする請求項5または請求項6に記載のパターン識別装置。 In the learning means, in the course of learning in the generation of feature extractor, so that the output by the feature extractor generated after learning becomes feature amounts binary approximation, the activation function definitive to the feature extractor, step The pattern according to claim 5 or 6, wherein a function that distributes the values of each dimension of the feature amount, which is a step function approximated by a function or a sigmoid function, in a value range of 0 to 1 is applied. Identification device. 前記学習手段において、特徴抽出器の生成における学習の過程において、学習後に生成される特徴抽出器による出力がバイナリ近似された特徴量となり、且つ、特徴量のもつ表現力が多値である場合と比較しも劣らない特徴量となるように、前記特徴抽出器の生成における学習により更新が行われるパラメータ部分の数を、多値の特徴量を抽出する特徴抽出器を生成する場合と比較し、大きな数とすることを特徴とする請求項5から請求項7のいずれか1項に記載のパターン識別装置。 In the learning means, in the course of learning in the generation of feature extractor, output by the feature extractor to be generated becomes feature amounts binary approximation after learning, and, if expressive with the feature quantity is a multi-value and as a feature quantity not inferior as compared, the number of parameters portions updating is performed by the learning in the generation of the feature extractor, compared with the case of generating a feature extractor for extracting a feature value of the multi-level The pattern identification device according to any one of claims 5 to 7, wherein the number is large. 前記学習手段における特徴抽出器生成部の学習の結果得られた特徴抽出器から得られる0から1の範囲に各次元の特徴量が分布するバイナリ近似された特徴量を、前記光演算用データ変換部において特定の闇値でバイナリ化することを特徴とする請求項5から請求項8のいずれか1項に記載のパターン識別装置。 The binary-approximate feature amount in which the feature amount of each dimension is distributed in the range of 0 to 1 obtained from the feature extractor obtained as a result of the learning of the feature extractor generation unit in the learning means is converted into the data for optical calculation. The pattern identification device according to any one of claims 5 to 8, characterized in that the unit is binarized with a specific dark value. 前記学習手段における特徴抽出器生成部の光演算制約付加部において、前記学習手段より得られた特徴量抽出器に対して、入力データを与え抽出した特徴量を線形識別器による最適化をおこなった重みベクトルをバイナリ化する手法を備えたことを特徴とする請求項5または請求項6に記載のパターン識別装置。 In the optical calculation constraint addition unit of the feature extractor generation unit in the learning means, the feature amount extracted by giving input data to the feature amount extractor obtained by the learning means was optimized by a linear classifier. The pattern identification device according to claim 5 or 6, further comprising a method for binarizing a weight vector. 前記学習手段における特徴抽出器生成部の光演算制約付加部において、前記学習手段より得られた特徴量抽出器に対して、入力データを与え抽出した特徴量を、複数閥値において、それぞれの闇値と各次元の特徴量値の大小関係を利用してバイナリ化する手法を備えることを特徴とする請求項10に記載のパターン識別装置。 In the optical calculation constraint addition unit of the feature extractor generation unit in the learning means, the feature amount extracted by giving input data to the feature amount extractor obtained by the learning means is subjected to the darkness of each of the multiple sword values. The pattern identification device according to claim 10, further comprising a method of binarizing using a magnitude relationship between a value and a feature amount value of each dimension. 前記光記憶部はホログラフィック記録媒体であることを特徴とする請求項5から請求項11のいずれか1項に記載のパターン識別装置。 The pattern identification device according to any one of claims 5 to 11, wherein the optical storage unit is a holographic recording medium. 前記ホログラフィック記録媒体は円盤状に形成され、前記ホログラフィック記録媒体を回転させつつ、前記識別対象データ照射することを特徴とする請求項12に記載のパターン識別装置。 The hologram Fitted click recording medium is formed in a disk shape, while rotating the holographic recording medium, the pattern identification apparatus according to claim 12, characterized in that the identification target data irradiation. 前記光演算手段において、光演算用データ変換部の特徴抽出を、光演算で行うことを特徴とする請求項5から請求項13のいずれか1項に記載のパターン識別装置。 The pattern identification device according to any one of claims 5 to 13, wherein in the optical calculation means, feature extraction of a data conversion unit for optical calculation is performed by optical calculation. 入力されたデータを何らかのクラスに識別するパターン識別装置のパターン識別方法において、前記パターン識別装置によるクラスラベルの付加された学習用データを入力とし、光演算用制約条件を備えた前記学習用データの識別精度を最大化するような特徴抽出器を学習する学習ステップと、
前記特徴抽出器より抽出された特徴量を特徴抽出器に変換する光演算用データ変換部と光演算用データを記憶する光記憶部と、複数の光演算用データ聞における類似度を算出することによって光相関機能を提供する類似度計算部による光演算ステップと、識別対象データの辞書となる登録用データを入力とし、前記学習ステップにより得られた特徴抽出器を用いて抽出した特徴量を、前記光演算用データ変換部において光演算用に光演算用特徴量として変換し、前記光演算ステップにおける光記憶部に登録する登録ステップと、
識別対象データを入力とし、前記学習ステップで生成された特徴抽出器より抽出した特徴量と前記登録ステップにおいて光記憶部に登録した特徴量問の類似度を前記光演算ステップにおける類似度計算部において算出し、出力部より認識結果を出力する識別ステップと、
を含むパターン識別方法。
In the pattern identification method of the pattern identification device that identifies the input data into some class, the learning data to which the class label is added by the pattern identification device is input, and the learning data having the constraint condition for optical calculation is provided. Learning steps to learn feature extractors that maximize identification accuracy,
To calculate the similarity between a data conversion unit for optical calculation that converts the feature amount extracted from the feature extractor into a feature extractor, an optical storage unit that stores data for optical calculation, and a plurality of data for optical calculation. The feature amount extracted by using the feature extractor obtained by the learning step with the optical calculation step by the similarity calculation unit that provides the optical correlation function and the registration data to be the dictionary of the identification target data as input. A registration step in which the data conversion unit for optical calculation converts the feature amount for optical calculation for optical calculation and registers it in the optical storage unit in the optical calculation step.
With the identification target data as input, the similarity between the feature amount extracted from the feature extractor generated in the learning step and the feature amount question registered in the optical storage unit in the registration step is set in the similarity calculation unit in the optical calculation step. An identification step that calculates and outputs the recognition result from the output unit,
Pattern identification method including.
コンピュータを、クラスラベルの付加された学習用データを入力とし、光演算用制約条件を備えた前記学習用データの識別精度を最大化するような特徴抽出器を学習する学習ステップと、
前記特徴抽出器より抽出された特徴量を特徴抽出器に変換する光演算用データ変換部と光演算用データを記憶する光記憶部と、複数の光演算用データ聞における類似度を算出することによって光相関機能を提供する類似度計算部による光演算ステップと、
識別対象データの辞書となる登録用データを入力とし、前記学習ステップにより得られた特徴抽出器を用いて抽出した特徴量を、前記光演算用データ変換部において光演算用に光演算用特徴量として変換し、前記光演算ステップにおける光記憶部に登録する登録ステップと、
識別対象データを入力とし、前記学習ステップで生成された特徴抽出器より抽出した特徴量と前記登録ステップにおいて光記憶部に登録した特徴量聞の類似度を前記光演算ステップにおける類似度計算部において算出し、出カ部より識別結果を出力する識別ステップとして機能させるプログラム。
A learning step of learning a feature extractor that uses a computer as an input of learning data to which a class label is attached and that maximizes the identification accuracy of the training data having constraints for optical calculation.
To calculate the similarity between a data conversion unit for optical calculation that converts the feature amount extracted from the feature extractor into a feature extractor, an optical storage unit that stores data for optical calculation, and a plurality of data for optical calculation. An optical calculation step by a similarity calculator that provides an optical correlation function by
The feature amount extracted by using the feature extractor obtained in the learning step by inputting the registration data to be the dictionary of the identification target data is used in the optical calculation data conversion unit for the optical calculation feature amount. And the registration step of converting as and registering in the optical storage unit in the optical calculation step,
With the identification target data as input, the similarity between the feature amount extracted from the feature extractor generated in the learning step and the feature amount registered in the optical storage unit in the registration step is set in the similarity calculation unit in the optical calculation step. A program that calculates and functions as an identification step that outputs the identification result from the output section.
JP2018500181A 2016-02-15 2017-02-15 Feature conversion module, pattern identification device, pattern identification method, and program Active JP6851634B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016025892 2016-02-15
JP2016025892 2016-02-15
PCT/JP2017/005600 WO2017141997A1 (en) 2016-02-15 2017-02-15 Characteristic amount conversion module, pattern identification device, pattern identification method, and program

Publications (2)

Publication Number Publication Date
JPWO2017141997A1 JPWO2017141997A1 (en) 2018-12-27
JP6851634B2 true JP6851634B2 (en) 2021-03-31

Family

ID=59625197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018500181A Active JP6851634B2 (en) 2016-02-15 2017-02-15 Feature conversion module, pattern identification device, pattern identification method, and program

Country Status (2)

Country Link
JP (1) JP6851634B2 (en)
WO (1) WO2017141997A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7008448B2 (en) * 2017-09-01 2022-01-25 日本放送協会 Hologram recording / playback device
CN107944180A (en) * 2017-12-08 2018-04-20 成都谷问信息技术有限公司 Suitable for the system of big data analysis
WO2019131486A1 (en) * 2017-12-25 2019-07-04 ローム株式会社 Signal processing device, wireless sensor network system, and signal processing method
JP2019142304A (en) * 2018-02-19 2019-08-29 株式会社明電舎 Fallen object detection device and fallen object detection method
GB2573171B (en) * 2018-04-27 2021-12-29 Optalysys Ltd Optical processing systems
JP7557845B2 (en) 2020-02-20 2024-09-30 国立大学法人電気通信大学 Imaging device and imaging method thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2619575B2 (en) * 1991-10-03 1997-06-11 浜松ホトニクス株式会社 Neural network device and execution method thereof
JPH05210141A (en) * 1992-01-30 1993-08-20 Matsushita Electric Ind Co Ltd Optical information processor
JPH0843768A (en) * 1994-07-28 1996-02-16 Olympus Optical Co Ltd Image processor
US6005985A (en) * 1997-07-29 1999-12-21 Lockheed Martin Corporation Post-processing system for optical correlators
GB201013195D0 (en) * 2009-09-28 2010-09-22 Qinetiq Ltd Processor
US20130011051A1 (en) * 2011-07-07 2013-01-10 Lockheed Martin Corporation Coded aperture imaging

Also Published As

Publication number Publication date
WO2017141997A1 (en) 2017-08-24
JPWO2017141997A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6851634B2 (en) Feature conversion module, pattern identification device, pattern identification method, and program
Barbastathis et al. On the use of deep learning for computational imaging
Gao et al. Deep transfer learning for image‐based structural damage recognition
Turhan et al. Recent trends in deep generative models: a review
Xu et al. Beam search for learning a deep convolutional neural network of 3d shapes
US20200342306A1 (en) Autonomous modification of data
JP2017220222A (en) Method, program, and apparatus for comparing data graphs
Zhang et al. Knowledge projection for deep neural networks
Kim et al. Deep clustered convolutional kernels
Tao et al. An efficient and robust cloud-based deep learning with knowledge distillation
Msuya et al. Deep learning model compression techniques: advances, opportunities, and perspective
Huang et al. Image steganalysis based on attention augmented convolution
Çarpınlıoğlu et al. Genetically programmable optical random neural networks
KR20230065125A (en) Electronic device and training method of machine learning model
CN110717402B (en) Pedestrian re-identification method based on hierarchical optimization metric learning
EP4073713A1 (en) Hyper-opinion classification using a neural network
Shen et al. Simcrosstrans: A simple cross-modality transfer learning for object detection with convnets or vision transformers
Couturier et al. Using deep learning for object distance prediction in digital holography
Chen et al. Universal adder neural networks
Wang Generative Adversarial Networks (GAN): A Gentle Introduction
Lim et al. Vitmed: Vision transformer for medical image analysis
Mittal Ensemble of transfer learnt classifiers for recognition of cardiovascular tissues from histological images
Abdullahi et al. A systematic literature review of visual feature learning: deep learning techniques, applications, challenges and future directions
Wagh et al. EXPLORING TRANSFER LEARNING IN IMAGE ANALYSIS USING FEATURE EXTRACTION WITH PRE-TRAINED MODELS.
Zhang Training deep neural networks via multi-task optimisation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210303

R150 Certificate of patent or registration of utility model

Ref document number: 6851634

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150