JP2020122855A - Estimation device, method thereof and program - Google Patents
Estimation device, method thereof and program Download PDFInfo
- Publication number
- JP2020122855A JP2020122855A JP2019014052A JP2019014052A JP2020122855A JP 2020122855 A JP2020122855 A JP 2020122855A JP 2019014052 A JP2019014052 A JP 2019014052A JP 2019014052 A JP2019014052 A JP 2019014052A JP 2020122855 A JP2020122855 A JP 2020122855A
- Authority
- JP
- Japan
- Prior art keywords
- spectrogram
- phase
- signal
- acoustic signal
- amplitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
【課題】復元したい信号の統計的性質を利用して、振幅スペクトルのみから、矛盾のない位相スペクトルを復元する推定装置等を提供する。【解決手段】推定装置は、(i)位相と振幅が矛盾する複素スペクトログラムを時間波形に変換し、変換された時間波形を位相と振幅が矛盾しない複素スペクトログラムに変換する処理と、(ii)振幅を所望の音響信号の振幅スペクトログラムAの大きさに変換する処理と、(iii)所望の音響信号に対応する学習用の音響信号の統計的性質に基づき、位相スペクトログラムを所望の音響信号に近づける処理と、を関連付けることで、振幅スペクトログラムAを所望の音響信号に近づける位相スペクトログラムを推定する推定部を有する。【選択図】図1PROBLEM TO BE SOLVED: To provide an estimation device or the like for restoring a consistent phase spectrum from only an amplitude spectrum by utilizing the statistical property of a signal to be restored. An estimation device (i) converts a complex spectrogram whose phase and amplitude conflict with each other into a time waveform, and converts the converted time waveform into a complex spectrogram whose phase and amplitude do not conflict, and (ii) amplitude. Is converted to the magnitude of the amplitude spectrogram A of the desired acoustic signal, and (iii) the phase spectrogram is brought closer to the desired acoustic signal based on the statistical properties of the learning acoustic signal corresponding to the desired acoustic signal. It has an estimation unit that estimates a phase spectrogram that brings the amplitude spectrogram A closer to a desired acoustic signal by associating with and. [Selection diagram] Fig. 1
Description
本発明は、振幅スペクトルのみから、位相スペクトルを推定し、復元する推定装置、その方法、およびプログラムに関する。 The present invention relates to an estimation device that estimates and restores a phase spectrum from only an amplitude spectrum, its method, and a program.
STFT(short-time Fourier transform)スペクトルは複素数であり、STFTスペクトログラムから時間信号を復元するには、(1)振幅スペクトログラムと(2)位相スペクトログラムの両方が必要である。ところが、位相スペクトルはその扱いが難しいため、音声合成や音声強調では、振幅スペクトルのみを推定したり制御し、位相スペクトルは最小位相や、観測位相で代用し、時間信号へと逆変換することが多い。振幅スペクトログラムと位相スペクトログラムは独立変数ではないため、片方を制御した場合、もう片方はそれに対応した変数である必要がある。ゆえに、音声合成や音声強調では、振幅と位相の矛盾により、出力音の品質が低下することがある。 The STFT (short-time Fourier transform) spectrum is a complex number, and in order to recover the time signal from the STFT spectrogram, both (1) amplitude spectrogram and (2) phase spectrogram are necessary. However, since the phase spectrum is difficult to handle, it is possible to estimate or control only the amplitude spectrum in speech synthesis or speech enhancement, and substitute the minimum phase or the observed phase for the phase spectrum and convert it back into a time signal. Many. Since the amplitude spectrogram and the phase spectrogram are not independent variables, if one is controlled, the other must be the corresponding variable. Therefore, in speech synthesis or speech enhancement, the quality of the output sound may deteriorate due to the contradiction between the amplitude and the phase.
振幅スペクトログラムから、それと矛盾しない位相スペクトログラムを推定する技術として、非特許文献1が知られている。非特許文献1の技術(Griffin-Limアルゴリズムと呼ばれている)は、以下の手順を繰り返すことで振幅スペクトログラムAから、無矛盾な位相スペクトログラムを推定する技術である。
Non-Patent
ここでXは振幅がAの複素スペクトログラム、GとG†は短時間フーリエ変換(STFT)と逆STFT、 Where X is a complex spectrogram with amplitude A, G and G † are short-time Fourier transform (STFT) and inverse STFT,
|・|は要素毎の絶対値演算を表す。この方式は、以下の最適化問題を解いていることと等しい。 |•| represents the absolute value calculation for each element. This method is equivalent to solving the following optimization problem.
ここで||・||2 Froはフロベニウスノルムを表す。なお、Bは振幅がAのスペクトログラムの集合である。前述の通り、位相スペクトルは最小位相や、観測位相で代用するため、複素スペクトログラムXに式(1)のSTFTと逆STFTを行うと、元の複素スペクトログラムXに戻らない。そこで、式(2)により振幅を与えられた振幅スペクトログラムAに固定し、式(3)により、正しい短時間フーリエ変換表現となるように位相を求める。 Where ||・|| 2 Fro represents the Frobenius norm. B is a set of spectrograms whose amplitude is A. As described above, since the phase spectrum is substituted with the minimum phase or the observed phase, when the complex spectrogram X is subjected to STFT and inverse STFT of equation (1), it does not return to the original complex spectrogram X. Therefore, the amplitude is fixed to the given amplitude spectrogram A by the equation (2), and the phase is obtained by the equation (3) so as to obtain a correct short-time Fourier transform expression.
しかしながら、非特許文献1の方式は、あらゆる音響信号に対して適応可能である一方、膨大な回数の繰り返しが必要である。これは、最適化の枠組みの中に、復元したい信号(以下、所望の音響信号ともいう)の統計的性質について一切の仮定を置いていないためである。
However, the method of Non-Patent
本発明は、復元したい信号の統計的性質を利用して、振幅スペクトルのみから、矛盾のない位相スペクトルを復元する推定装置、その方法、およびプログラムを提供することを目的とする。 It is an object of the present invention to provide an estimating apparatus, a method, and a program for restoring a consistent phase spectrum from only an amplitude spectrum by using the statistical property of a signal to be restored.
上記の課題を解決するために、本発明の一態様によれば、推定装置は、(i)位相と振幅が矛盾する複素スペクトログラムを時間波形に変換し、変換された時間波形を位相と振幅が矛盾しない複素スペクトログラムに変換する処理と、(ii)振幅を所望の音響信号の振幅スペクトログラムAの大きさに変換する処理と、(iii)所望の音響信号に対応する学習用の音響信号の統計的性質に基づき、位相スペクトログラムを所望の音響信号に近づける処理と、を関連付けることで、振幅スペクトログラムAを所望の音響信号に近づける位相スペクトログラムを推定する推定部を有する。 In order to solve the above problems, according to one aspect of the present invention, the estimation apparatus converts (i) a complex spectrogram in which the phase and the amplitude are inconsistent into a time waveform, and the converted time waveform has a phase and an amplitude. The process of converting into a complex spectrogram that does not contradict, (ii) the process of converting the amplitude into the magnitude of the amplitude spectrogram A of the desired acoustic signal, and (iii) the statistical analysis of the learning acoustic signal corresponding to the desired acoustic signal. An estimation unit that estimates the phase spectrogram that brings the amplitude spectrogram A closer to the desired acoustic signal by associating with the processing that brings the phase spectrogram closer to the desired acoustic signal based on the property.
上記の課題を解決するために、本発明の他の態様によれば、推定装置は、所望の音響信号の振幅スペクトログラムAに複素スペクトログラムXの位相を付与し、付与後の信号Yを求める位相付与部と、信号Yを逆短時間フーリエ変換により時間波形に変換し、変換された時間波形を逆短時間フーリエ変換に対応する短時間フーリエ変換により周波数領域の信号Zに変換する変換部と、複素スペクトログラムXと信号Yと信号Zとを用いて、所望の音響信号に対応する学習用の音響信号の統計的性質に基づき、複素スペクトログラムXの位相を所望の音響信号の位相に近づける位相変更部と、を含む。 In order to solve the above-mentioned problems, according to another aspect of the present invention, the estimation apparatus adds the phase of the complex spectrogram X to the amplitude spectrogram A of the desired acoustic signal, and the phase addition for obtaining the signal Y after the addition. And a transform unit that transforms the signal Y into a time waveform by the inverse short-time Fourier transform, and transforms the transformed time waveform into a signal Z in the frequency domain by the short-time Fourier transform corresponding to the inverse short-time Fourier transform, and a complex Using the spectrogram X and the signal Y and the signal Z, based on the statistical properties of the acoustic signal for learning corresponding to the desired acoustic signal, a phase changing unit that brings the phase of the complex spectrogram X closer to the phase of the desired acoustic signal. ,including.
本発明によれば、復元したい信号の統計的性質を利用して、従来技術よりも少ない計算量で振幅スペクトルのみから、矛盾のない位相スペクトルを復元することができるという効果を奏する。 Advantageous Effects of Invention According to the present invention, it is possible to restore a consistent phase spectrum from only an amplitude spectrum with a smaller amount of calculation than that in the conventional technique by using the statistical property of a signal to be restored.
以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。以下の説明において、テキスト中で使用する記号「^」等は、本来直後の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直前に記載する。式中においてはこれらの記号は本来の位置に記述している。また、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。 Hereinafter, embodiments of the present invention will be described. In the drawings used in the following description, components having the same function and steps for performing the same process are denoted by the same reference numerals, and duplicate description will be omitted. In the following description, the symbol "^" or the like used in the text should be written directly above the character immediately after it, but due to the limitation of the text notation, it is written immediately before the character. In the formula, these symbols are written in their original positions. Unless otherwise specified, the processing performed for each element of a vector or matrix shall be applied to all the elements of the vector or matrix.
<第一実施形態のポイント>
本実施形態では、、非特許文献1の方式に、深層学習を組み込む。なお、深層学習を利用した位相復元には例えば参考文献1などの方式がある。
(参考文献1) K. Oyamada, H. Kameoka, K. Tanaka T. Kaneko, N. Hojo, and H. Ando, "Generative adversarial network-based approach to signal reconstruction from magnitude spectrograms", in Eur. Signal Process. Conf. (EUSIPCO), Sept. 2018.
<Points of the first embodiment>
In this embodiment, deep learning is incorporated into the method of Non-Patent
(Reference 1) K. Oyamada, H. Kameoka, K. Tanaka T. Kaneko, N. Hojo, and H. Ando, "Generative adversarial network-based approach to signal reconstruction from magnitude spectrograms", in Eur. Signal Process. Conf. (EUSIPCO), Sept. 2018.
これらの方式と本実施形態の違いは、参考文献1が大規模なニューラルネットワークを用いていわば、end-to-endで位相を復元するのに対し、本実施形態は、非特許文献1の繰り返し最適化の一部にDNN(Deep Neural Network,ディープニューラルネットワーク)を利用することで、学習に必要なパラメータ数を削減する点にある。
The difference between these methods and the present embodiment is that the
また、繰り返し回数がそのままニューラルネットワークのスタッキング(深層化)に直結するため、従来のニューラルネットワークと異なり、学習時とテスト時にネットワーク形状が一致する必要がない。また、実用時の計算機パワーや精度の要件などに合わせ、処理時間と復元精度のトレードオフに対して、スケーラビリティを持つことも特徴である。 Further, since the number of repetitions is directly connected to the stacking (deepening) of the neural network, unlike the conventional neural network, the network shapes do not need to match during learning and testing. It is also characterized by having scalability in terms of the trade-off between processing time and restoration accuracy, according to the requirements of computer power and accuracy during practical use.
前述の通り、本実施形態では、Griffin-Limアルゴリズムの中に深層学習を組み込む。例えば、学習データを用いて訓練したDNNを利用して、Griffin-Limアルゴリズムの中に復元したい信号の統計的性質を組み込む。図1は第一実施形態に係る推定装置100の機能ブロック図を、図2はその処理フローの例を示す。推定装置100はM個の推定部110−m(m=0,1,2,…,M-1、Mは1以上の整数の何れか)を含む。図3は、推定部110−mの機能ブロック図を示す。推定部110−mは、式(2)に対応する位相付与部111と、式(1)に対応する変換部112と含み、さらに、所望の音響信号に対応する学習用の音響信号の統計的性質に基づき、複素スペクトログラムXの位相を所望の音響信号の位相に近づける位相変更部113を含む。
As described above, in this embodiment, deep learning is incorporated in the Griffin-Lim algorithm. For example, using the DNN trained with the training data, the statistical properties of the signal to be restored are incorporated into the Griffin-Lim algorithm. FIG. 1 is a functional block diagram of the
図1、図3の構成にし、Griffin-Limアルゴリズムの1回分の繰り返しの後にDNNによる処理を行うことで、復元したい信号の統計的性質を考慮した無矛盾位相推定を実現する。これは、内部のDNNを繰り返し数(M)分スタッキングしていることと等価である。つまり、この処理ブロックの繰り返し数(M)を制御することで、処理時のDNNのスケールを変化させることができる。例えば、DNN部113−1内のDNNの層数が3の場合には、M=1,2,3,…のときそれぞれ全体として3,6,9,…層からなるDNNとして機能する。繰り返し数を少なくすることは浅いDNNを使うことと等価であり、処理性能は低下するが、高速な演算が可能になる。一方、繰り返し数を多くすることは深いDNNを使うことと等価であり、処理速度は遅くなるが、高品質な出力音を得ることができる。 With the configurations of FIGS. 1 and 3, by performing the processing by the DNN after the Griffin-Lim algorithm is repeated once, the consistent phase estimation in consideration of the statistical property of the signal to be restored is realized. This is equivalent to stacking the internal DNN for the number of repetitions (M). In other words, the DNN scale during processing can be changed by controlling the number of repetitions (M) of this processing block. For example, when the number of DNN layers in the DNN unit 113-1 is 3, when M=1, 2, 3,..., As a whole, the DNN functions as a DNN composed of 3, 6, 9,. Reducing the number of iterations is equivalent to using a shallow DNN, which reduces processing performance but enables high-speed computation. On the other hand, increasing the number of repetitions is equivalent to using a deep DNN, and the processing speed becomes slower, but a high quality output sound can be obtained.
ここで利用するDNNの条件は、復元したい信号の統計的性質に基づき(復元したい信号の学習データから何らかの方式で学習されればよい)、Griffin-Limアルゴリズムの出力音の位相を、復元したい信号に近づける処理であれば何でもよい。その一例として、以下の残差学習を実施形態として示す。
Y[m]=PB(X[m]) (4)
Z[m]=PC(Y[m]) (5)
X[m+1]=E(X[m]) (6)
=Z[m]-Fθ(X[m],Y[m],Z[m]) (7)
ここでFθは何らかの形で実装されたDNNである。つまり、Griffin-Limアルゴリズムで生じた歪みや推定誤差を、復元したい信号の統計的性質に基づき学習されたDNNが除去(減算)するという構成になっている。ここでDNNは、復元したい信号を直接推定するのではなく、復元したい信号でない成分を推定していることになる。DNNの学習は、例えば以下の目的関数を最小化するように学習できる。
The condition of the DNN used here is based on the statistical properties of the signal to be restored (it may be learned in some way from the learning data of the signal to be restored), and the phase of the output sound of the Griffin-Lim algorithm is the signal to be restored. Any process may be used as long as it is close to. As an example, the following residual learning is shown as an embodiment.
Y [m] =P B (X [m] ) (4)
Z [m] =P C (Y [m] )(5)
X[m+1]=E(X [m] ) (6)
=Z [m] -F θ (X [m] ,Y [m] ,Z [m] ) (7)
Where F θ is a DNN implemented somehow. In other words, the DNN learned based on the statistical properties of the signal to be restored removes (subtracts) the distortion and estimation error caused by the Griffin-Lim algorithm. Here, the DNN does not directly estimate the signal to be restored, but estimates the component that is not the signal to be restored. The DNN can be learned by, for example, minimizing the following objective function.
ここでX*は真の複素スペクトログラム、~X=X*+N、Nは複素ガウスノイズ、~Y=PB(~X)、~Z=PC(~Y)である。ただし、Griffin-Limアルゴリズムは位相スペクトルのみを復元する処理のため、~Yの振幅は、X*の振幅と一致するようにする。 Here, X * is a true complex spectrogram, ~X=X * +N, N is complex Gaussian noise, ~Y=P B (~X), ~Z=P C (~Y). However, since the Griffin-Lim algorithm is a process for restoring only the phase spectrum, the amplitude of ~Y is made to match the amplitude of X * .
本実施形態は、DNNの学習段階と位相スペクトルの推定段階とからなる。まず、学習段階について説明する。
<第一実施形態に係る学習装置>
図4は本実施形態の学習装置200の機能ブロック図を、図5はその処理フローの例を示す。
This embodiment includes a DNN learning step and a phase spectrum estimation step. First, the learning stage will be described.
<Learning device according to the first embodiment>
FIG. 4 is a functional block diagram of the
学習装置200は、復元したい信号の学習データ(クリーン音響信号X(L)*であり、複素スペクトログラムで表現される)とクリーン音響信号X(L)*に対応する振幅スペクトログラムA(L)とノイズNと各種最適化に必要なパラメータを入力とし、学習済みのDNNを出力する。
The
学習装置200は、ノイズ加算部209と、位相付与部211と、変換部212と、DNN部213と、減算部214と、パラメータ更新部215とを含む。
The
例えば、学習装置200は、図示しない初期化部において、DNN部213で用いるDNNのパラメータθを何からの乱数で初期化する(S208)。
For example, the
<ノイズ加算部209>
ノイズ加算部209は、クリーン音響信号X(L)*とノイズNとを入力とし、クリーン音響信号X(L)*にノイズNを加算し(S209)、複素スペクトログラム~X(=X(L)*+N)を求め、出力する。
<
<位相付与部211>
位相付与部211は、複素スペクトログラム~Xとクリーン音響信号X(L)*に対応する振幅スペクトログラムA(L)とを入力とし、次式に示すように、振幅スペクトログラムA(L)に複素スペクトログラム~Xの位相を付与し(S211)、付与後の信号~Y=PB(~X)を求め、出力する。
<Phase imparting
The
なお、 In addition,
が複素スペクトログラム~Xの位相を抽出する処理に相当し、式(12)が抽出した複素スペクトログラム~Xの位相を振幅スペクトログラムA(L)に付与する処理に相当する。なお、式(12)は、複素スペクトログラム~Xの各要素に対して振幅スペクトログラムA(L)の各要素を乗算し、その積を複素スペクトログラム~Xの振幅スペクトログラム|~X|で除算しているため、複素スペクトログラム~Xの振幅を振幅スペクトログラムA(L)の大きさに変換する処理といってもよい。 Corresponds to the process of extracting the phase of the complex spectrogram to X, and Eq. (12) corresponds to the process of adding the extracted phase of the complex spectrogram to X to the amplitude spectrogram A (L) . Note that in the equation (12), each element of the complex spectrogram ~X is multiplied by each element of the amplitude spectrogram A (L) , and the product is divided by the amplitude spectrogram |~X| of the complex spectrogram ~X. Therefore, it may be said that the amplitude of the complex spectrogram ~X is converted into the magnitude of the amplitude spectrogram A (L) .
<変換部212>
変換部212は、信号~Yを入力とし、次式により、信号~Yを逆短時間フーリエ変換G†により時間波形に変換し、変換された時間波形を逆短時間フーリエ変換G†に対応する短時間フーリエ変換Gにより周波数領域の信号~Z=Pc(~Y)に変換し(S212)、出力する。
<
<DNN部213>
DNN部213は、パラメータθの初期値または後述するパラメータ更新部215で更新されたパラメータθと、複素スペクトログラム~Xと、信号~Yと、信号~Zとを入力とし、DNNにより、Griffin-Limアルゴリズムで生じた歪みまたは推定誤差を推定し(S213)、推定値Fθ(~X,~Y,~Z)を出力する。
<
The
<減算部214>
減算部214は、信号~Zとクリーン音響信号X(L)*とを入力とし、差分を求め(S214)、求めた差分(複素スペクトログラム~Z-X(L)*)を出力する。
<
The
<パラメータ更新部215>
パラメータ更新部215は、差分(複素スペクトログラム~Z-X(L)*)と、推定値Fθ(~X,~Y,~Z)とを入力とし、これらの値を用いて、
<
The
となるように、DNNのパラメータθを更新する(S215−1)。学習法には、確率的最急降下法などを利用すればよく、その学習率は10-5程度に設定すればよい。さらに、パラメータ更新部215は、所定の条件を満たすか否かを判定し(S215−2)、所定の条件を満たす場合には、その時点のDNNを学習済みのDNNとして出力する。所定の条件を満たさない場合には、更新後のパラメータθをDNN部213へ出力し、新たなクリーン音響信号X(L)*と新たなノイズNと更新後のパラメータθとを用いて、S209〜S215−1を繰り返す。なお、所定の条件には、学習を一定回数(例えば10万回)繰り返したか?などを利用できる。
The parameter θ of the DNN is updated so that (S215-1). The learning method may be a stochastic steepest descent method or the like, and the learning rate may be set to about 10 -5 . Further, the
以上の処理により、DNNの学習段階を実現する。次に位相スペクトルの推定段階について説明する。
<推定装置100>
上述の通り、図1は本実施形態の推定装置100の機能ブロック図を、図2はその処理フローの例を示す。
Through the above processing, the learning stage of DNN is realized. Next, the phase spectrum estimation step will be described.
<
As described above, FIG. 1 shows a functional block diagram of the
推定装置100は、振幅スペクトログラムAと位相と振幅が矛盾する複素スペクトログラムX[0]とを入力とし、振幅スペクトログラムAに矛盾しない位相スペクトログラムを持つ複素スペクトログラムY[M]を求め、出力する。ここで、複素スペクトログラムX[0]の振幅は振幅スペクトログラムAである。
The
推定装置100は、M個の推定部110−mと、位相付与部120とを含む(図1参照)。
The
<推定部110−m>
推定部110−mは、所望の音響信号の振幅スペクトログラムAと、位相と振幅が矛盾する複素スペクトログラムX[m]とを入力とし、推定した位相スペクトログラムを持つ複素スペクトログラムX[m+1]を求め、出力する。例えば、推定部110−mは、(i)位相と振幅が矛盾する複素スペクトログラムを時間波形に変換し、変換された時間波形を位相と振幅が矛盾しない複素スペクトログラムに変換する処理と、(ii)振幅を所望の音響信号の振幅スペクトログラムAの大きさに変換する処理と、(iii)所望の音響信号に対応する学習用の音響信号の統計的性質に基づき、位相スペクトログラムを所望の音響信号に近づける処理と、を関連付けることで、振幅スペクトログラムAを所望の音響信号に近づける位相スペクトログラムを推定する(S110)。
<Estimation unit 110-m>
The estimation unit 110-m receives the amplitude spectrogram A of the desired acoustic signal and the complex spectrogram X [m] in which the phase and the amplitude are inconsistent, and obtains a complex spectrogram X [m+1] having the estimated phase spectrogram. ,Output. For example, the estimation unit 110-m performs (i) a process of converting a complex spectrogram in which the phase and the amplitude are inconsistent into a time waveform, and a process of converting the converted time waveform into a complex spectrogram in which the phase and the amplitude are not inconsistent, and (ii) The phase spectrogram is brought closer to the desired acoustic signal based on the process of converting the amplitude into the magnitude of the amplitude spectrogram A of the desired acoustic signal and (iii) the statistical properties of the learning acoustic signal corresponding to the desired acoustic signal. By associating with the processing, the phase spectrogram that brings the amplitude spectrogram A closer to the desired acoustic signal is estimated (S110).
図3は、推定部110−mの機能ブロック図を示す。推定部110−mは位相付与部111と変換部112と位相変更部113とを含み、さらに、位相変更部113はDNN部113−1と減算部113−2とを含む。
FIG. 3 shows a functional block diagram of the estimation unit 110-m. The estimating unit 110-m includes a
各推定部110−mの位相変更部113のDNN部113−1には、学習装置200で学習されたDNNが設定されている。前述の通り、繰り返し回数がそのままニューラルネットワークのスタッキング(深層化)に直結するため、従来のニューラルネットワークと異なり、学習時とテスト時にネットワーク形状が一致する必要がなく、学習時には上述の通りM個ではなく1個のDNNを学習すればよい。また、推定時には計算機パワーや精度の要件などに合わせ、繰り返し回数(M)を制御し、処理時間と復元精度のトレードオフに対して、スケーラビリティを持つことができる。例えば、M=5程度を実行すればよい。
The DNN learned by the
<位相付与部111>
位相付与部111は、所望の音響信号の振幅スペクトログラムAと、位相と振幅が矛盾する複素スペクトログラムX[m]とを入力とし、次式に示すように、振幅スペクトログラムAに複素スペクトログラムX[m]の位相を付与し(S111)、付与後の信号Y[m]=PB(X[m])を求め、出力する。
<Phase imparting
The
なお、 In addition,
が複素スペクトログラムX[m]の位相を抽出する処理に相当し、式(21)が抽出した複素スペクトログラムX[m]の位相を振幅スペクトログラムAに付与する処理に相当する。なお、式(21)は、複素スペクトログラムX[m]の各要素に対して振幅スペクトログラムAの各要素を乗算し、その積を複素スペクトログラムX[m]の振幅スペクトログラム|X[m]|で除算しているため、複素スペクトログラムX[m]の振幅を振幅スペクトログラムAの大きさに変換する処理といってもよい。 Corresponds to the process of extracting the phase of the complex spectrogram X [m] , and Eq. (21) corresponds to the process of adding the extracted phase of the complex spectrogram X [m] to the amplitude spectrogram A. In equation (21), each element of the complex spectrogram X [m] is multiplied by each element of the amplitude spectrogram A, and the product is divided by the amplitude spectrogram |X [m] | of the complex spectrogram X [m]. Therefore, it can be said that the amplitude of the complex spectrogram X [m] is converted into the magnitude of the amplitude spectrogram A.
<変換部112>
変換部112は、信号Y[m]を入力とし、次式により、信号Y[m]を逆短時間フーリエ変換G†により時間波形に変換し、変換された時間波形を逆短時間フーリエ変換G†に対応する短時間フーリエ変換Gにより周波数領域の信号Z[m]=Pc(Y[m])に変換し(S112)、出力する。
<
この処理は、位相と振幅が矛盾する複素スペクトログラムY[m]を時間波形に変換し、変換された時間波形を位相と振幅が矛盾しない複素スペクトログラムZ[m]に変換する処理に相当する。 This process corresponds to a process of converting the complex spectrogram Y [m] in which the phase and the amplitude are inconsistent into a time waveform, and the converted time waveform into a complex spectrogram Z [m] in which the phase and the amplitude are inconsistent.
<位相変更部113>
位相変更部113は、複素スペクトログラムX[m]と信号Y[m]と信号Z[m]とを用いて、所望の音響信号に対応する学習用の音響信号の統計的性質に基づき、複素スペクトログラムX[m]の位相を所望の音響信号の位相に近づけ(S113)、近づけた信号X[m+1]を出力する。例えば、位相変更部113は、以下のDNN部113−1と減算部113−2とにより、この処理を実現する。
<Phase changing
The
<DNN部113−1>
DNN部113−1は、複素スペクトログラムX[m]と信号Y[m]と信号Z[m]とを入力とし、所望の音響信号に対応する学習用の音響信号の統計的性質に基づくDNNにより、Griffin-Limアルゴリズムで生じた歪みまたは推定誤差(Z[m]-X[m])を推定し(S113−1)、推定値Fθ(X[m],Y[m],Z[m])を出力する。なお、推定値Fθ(X[m],Y[m],Z[m])は複素スペクトログラムであり、例えば、次式によりFθ(X[m],Y[m],Z[m])からその位相スペクトログラムを求めることができる。
<DNN unit 113-1>
The DNN unit 113-1 receives the complex spectrogram X [m] , the signal Y [m], and the signal Z [m] as input, and uses the DNN based on the statistical properties of the learning acoustic signal corresponding to the desired acoustic signal. , The distortion or estimation error (Z [m] -X [m] ) generated by the Griffin-Lim algorithm is estimated (S113-1), and the estimated value F θ (X [m] ,Y [m] ,Z [m ] ) is output. The estimated value F θ (X [m] ,Y [m] ,Z [m] ) is a complex spectrogram. For example, F θ (X [m] ,Y [m] ,Z [m] ), the phase spectrogram can be obtained.
そのため、複素スペクトログラムFθ(X[m],Y[m],Z[m])を求める処理とその位相スペクトログラムを求める処理とは等価な処理と言える。 Therefore, it can be said that the process for obtaining the complex spectrogram F θ (X [m] , Y [m] , Z [m] ) and the process for obtaining the phase spectrogram are equivalent.
<減算部113−2>
減算部113−2は、信号Z[m]と推定値Fθ(X[m],Y[m],Z[m])とを入力とし、差分を求め(S113−2)、求めた差分(複素スペクトログラムX[m+1]=Z[m]-Fθ(X[m],Y[m],Z[m]))を出力する。この減算が、Griffin-Limアルゴリズムで生じた歪みまたは推定誤差を除去する処理に相当し、また、信号Z[m](対応する複素スペクトログラムX[m]と言ってもよい)の位相スペクトログラムを所望の音響信号に近づける処理に相当する。
<Subtraction unit 113-2>
The subtraction unit 113-2 receives the signal Z [m] and the estimated value F θ (X [m] , Y [m] , Z [m] ) as input, calculates a difference (S113-2), and calculates the calculated difference. (Complex spectrogram X [m+1] =Z [m] -F θ (X [m] ,Y [m] ,Z [m] )) is output. This subtraction corresponds to the process of removing the distortion or estimation error caused by the Griffin-Lim algorithm, and the phase spectrogram of the signal Z [m] (which may be called the corresponding complex spectrogram X [m] ) is desired. This is equivalent to the processing to bring the sound signal into
推定部110−mは、全体として振幅スペクトログラムAを所望の音響信号に近づけており、これは、振幅スペクトログラムAを所望の音響信号に近づける位相スペクトログラムを推定する処理と等価である。 The estimation unit 110-m approximates the amplitude spectrogram A to the desired acoustic signal as a whole, and this is equivalent to the process of estimating the phase spectrogram that approximates the amplitude spectrogram A to the desired acoustic signal.
上述の処理S111〜S113−2を推定部110−mの個数M回分繰り返し、推定部110−(M−1)は複素スペクトログラムX[M]を求め、出力する。 The above-described processes S111 to S113-2 are repeated M times by the number of estimation units 110-m, and the estimation unit 110-(M-1) obtains and outputs a complex spectrogram X [M] .
<位相付与部120>
位相付与部120は、複素スペクトログラムX[M]を入力とし、次式に示すように、振幅スペクトログラムAに複素スペクトログラムX[M]の位相を付与し(S120)、付与後の信号Y[M]=PB(X[M])を出力する。
<Phase imparting
この処理により、再度、複素スペクトログラムX[M]の振幅を振幅スペクトログラムAの大きさに変換する。 By this processing, the amplitude of the complex spectrogram X [M] is converted into the magnitude of the amplitude spectrogram A again.
<効果>
以上の構成により、復元したい信号の統計的性質を利用して、従来技術よりも少ない計算量で振幅スペクトルのみから、矛盾のない位相スペクトルを復元することができる。
<Effect>
With the above configuration, it is possible to restore a consistent phase spectrum from only the amplitude spectrum with a smaller amount of calculation than the conventional technique by using the statistical property of the signal to be restored.
<変形例>
本実施形態では、位相と振幅が矛盾する複素スペクトログラムX[0]を入力として与えられているが、振幅スペクトログラムAのみを入力とし、振幅スペクトログラムAに対し、適当な位相スペクトログラム(初期値)を乱数で選び、初期値の複素スペクトログラムX[0]を作成する構成としてもよい。
<Modification>
In the present embodiment, the complex spectrogram X [0] in which the phase and the amplitude are contradictory is given as an input, but only the amplitude spectrogram A is input, and an appropriate phase spectrogram (initial value) is randomly generated for the amplitude spectrogram A. Alternatively, the initial value may be a complex spectrogram X [0] .
本実施形態では、ノイズに強いDNNを構築するために、ノイズ加算部209を設けているが、ノイズ加算部209を設けずに、クリーン音響信号X(L)*をそのまま複素スペクトログラム~X(=X(L)*)として用いてもよい。
In the present embodiment, the
本実施形態では、残差学習の例を示したが、復元したい信号の統計的性質に基づき、Griffin-Limアルゴリズムの出力信号の位相を、復元したい信号に近づける処理を含めばよい。 In the present embodiment, an example of residual learning is shown, but a process of bringing the phase of the output signal of the Griffin-Lim algorithm closer to the signal to be restored may be included based on the statistical property of the signal to be restored.
<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<Other modifications>
The present invention is not limited to the above embodiments and modifications. For example, the above-described various processes may be executed not only in time series according to the description but also in parallel or individually according to the processing capability of the device that executes the process or the need. Other changes can be made as appropriate without departing from the spirit of the present invention.
<ハードウェア構成>
学習装置200と推定装置100は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。学習装置200と推定装置100は、例えば、中央演算処理装置の制御のもとで各処理を実行する。学習装置200と推定装置100に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。学習装置200と推定装置100の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。学習装置200と推定装置100が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。ただし、各記憶部は、必ずしも学習装置200と推定装置100がその内部に備える必要はなく、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置により構成し、学習装置200と推定装置100の外部に備える構成としてもよい。
<Hardware configuration>
The
<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
<Program and recording medium>
Further, various processing functions in each device described in the above-described embodiment and modification may be realized by a computer. In that case, the processing content of the function that each device should have is described by the program. By executing this program on a computer, various processing functions of the above-mentioned devices are realized on the computer.
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。 The program describing the processing contents can be recorded in a computer-readable recording medium. The computer-readable recording medium may be, for example, a magnetic recording device, an optical disc, a magneto-optical recording medium, a semiconductor memory, or the like.
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。 The distribution of this program is performed by selling, transferring, or lending a portable recording medium such as a DVD or a CD-ROM in which the program is recorded. Further, this program may be stored in a storage device of a server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program first stores, for example, the program recorded in a portable recording medium or the program transferred from the server computer in its own storage unit. Then, when executing the process, this computer reads the program stored in its own storage unit and executes the process according to the read program. Further, as another embodiment of this program, the computer may directly read the program from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer to this computer, the processing according to the received program may be sequentially executed. Further, the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by executing the execution instruction and the result acquisition without transferring the program from the server computer to the computer. May be The program includes information used for processing by an electronic computer and equivalent to the program (data that is not a direct command to a computer but has the property of defining processing of a computer).
また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 Further, although each device is configured by executing a predetermined program on a computer, at least a part of the processing contents may be realized by hardware.
Claims (7)
推定装置。 (i) A process for converting a complex spectrogram in which the phase and amplitude are inconsistent into a time waveform, and converting the converted time waveform into a complex spectrogram in which the phase and amplitude are inconsistent, and (ii) the amplitude spectrogram of the desired acoustic signal. By associating the process of converting to the magnitude of A and (iii) the process of bringing the phase spectrogram closer to the desired acoustic signal based on the statistical property of the learning acoustic signal corresponding to the desired acoustic signal. , Having an estimator for estimating a phase spectrogram that brings the amplitude spectrogram A closer to the desired acoustic signal,
Estimator.
前記信号Yを逆短時間フーリエ変換により時間波形に変換し、変換された時間波形を前記逆短時間フーリエ変換に対応する短時間フーリエ変換により周波数領域の信号Zに変換する変換部と、
前記複素スペクトログラムXと前記信号Yと前記信号Zとを用いて、所望の音響信号に対応する学習用の音響信号の統計的性質に基づき、前記複素スペクトログラムXの位相を前記所望の音響信号の位相に近づける位相変更部と、を含む、
推定装置。 A phase imparting unit that imparts the phase of the complex spectrogram X to the amplitude spectrogram A of the desired acoustic signal and obtains the signal Y after imparting,
The signal Y is converted into a time waveform by an inverse short-time Fourier transform, and the converted time waveform is converted into a signal Z in the frequency domain by a short-time Fourier transform corresponding to the inverse short-time Fourier transform,
Using the complex spectrogram X, the signal Y and the signal Z, based on the statistical properties of the learning acoustic signal corresponding to the desired acoustic signal, the phase of the complex spectrogram X is the phase of the desired acoustic signal. And a phase changing unit that brings the
Estimator.
前記学習用の音響信号の統計的性質は、深層ニューラルネットワークにより表現され、
前記深層ニューラルネットワークは、
前記学習用の音響信号から得られる複素スペクトログラムX(L)*と、その振幅スペクトログラムA(L)とを用いて、学習されたものであり、
前記複素スペクトログラムXと前記信号Yと前記信号Zとを入力とし、前記信号Zと前記複素スペクトログラムXとの残差の推定値を出力とする、
推定装置。 The acoustic signal restoration device according to claim 2,
The statistical properties of the acoustic signal for learning are expressed by a deep neural network,
The deep neural network is
A complex spectrogram X (L)* obtained from the acoustic signal for learning and its amplitude spectrogram A (L) are used for learning,
Inputting the complex spectrogram X, the signal Y, and the signal Z, and outputting an estimated value of the residual difference between the signal Z and the complex spectrogram X,
Estimator.
推定方法。 (i) A process for converting a complex spectrogram in which the phase and amplitude are inconsistent into a time waveform, and converting the converted time waveform into a complex spectrogram in which the phase and amplitude are inconsistent, and (ii) the amplitude spectrogram of the desired acoustic signal. By associating the process of converting to the magnitude of A and (iii) the process of bringing the phase spectrogram closer to the desired acoustic signal based on the statistical property of the learning acoustic signal corresponding to the desired acoustic signal. , An estimation step of estimating a phase spectrogram approximating the amplitude spectrogram A to the desired acoustic signal,
Estimation method.
前記信号Yを逆短時間フーリエ変換により時間波形に変換し、変換された時間波形を前記逆短時間フーリエ変換に対応する短時間フーリエ変換により周波数領域の信号Zに変換する変換ステップと、
前記複素スペクトログラムXと前記信号Yと前記信号Zとを用いて、所望の音響信号に対応する学習用の音響信号の統計的性質に基づき、前記複素スペクトログラムXの位相を前記所望の音響信号の位相に近づける位相変更ステップと、を含む、
推定方法。 A phase adding step of adding the phase of the complex spectrogram X to the amplitude spectrogram A of the desired acoustic signal and obtaining the signal Y after the addition,
A conversion step of converting the signal Y into a time waveform by an inverse short-time Fourier transform, and converting the converted time waveform into a signal Z in the frequency domain by a short-time Fourier transform corresponding to the inverse short-time Fourier transform,
Using the complex spectrogram X, the signal Y and the signal Z, based on the statistical properties of the learning acoustic signal corresponding to the desired acoustic signal, the phase of the complex spectrogram X is the phase of the desired acoustic signal. And a phase changing step of
Estimation method.
前記学習用の音響信号の統計的性質は、深層ニューラルネットワークにより表現され、
前記深層ニューラルネットワークは、
前記学習用の音響信号から得られる複素スペクトログラムX(L)*と、その振幅スペクトログラムA(L)とを用いて、学習されたものであり、
前記複素スペクトログラムXと前記信号Yと前記信号Zとを入力とし、前記信号Zと前記複素スペクトログラムXとの残差の推定値を出力とする、
推定方法。 The acoustic signal restoration method according to claim 5, wherein
The statistical properties of the acoustic signal for learning are expressed by a deep neural network,
The deep neural network is
A complex spectrogram X (L)* obtained from the acoustic signal for learning and its amplitude spectrogram A (L) are used for learning,
Inputting the complex spectrogram X, the signal Y, and the signal Z, and outputting an estimated value of the residual difference between the signal Z and the complex spectrogram X,
Estimation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019014052A JP7120573B2 (en) | 2019-01-30 | 2019-01-30 | Estimation device, its method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019014052A JP7120573B2 (en) | 2019-01-30 | 2019-01-30 | Estimation device, its method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020122855A true JP2020122855A (en) | 2020-08-13 |
JP7120573B2 JP7120573B2 (en) | 2022-08-17 |
Family
ID=71992613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019014052A Active JP7120573B2 (en) | 2019-01-30 | 2019-01-30 | Estimation device, its method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7120573B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7567716B2 (en) | 2021-08-24 | 2024-10-16 | 日本電信電話株式会社 | Estimation method, estimation program, deep neural network device, and estimation device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019139102A (en) * | 2018-02-13 | 2019-08-22 | 日本電信電話株式会社 | Audio signal generation model learning device, audio signal generation device, method, and program |
-
2019
- 2019-01-30 JP JP2019014052A patent/JP7120573B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019139102A (en) * | 2018-02-13 | 2019-08-22 | 日本電信電話株式会社 | Audio signal generation model learning device, audio signal generation device, method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7567716B2 (en) | 2021-08-24 | 2024-10-16 | 日本電信電話株式会社 | Estimation method, estimation program, deep neural network device, and estimation device |
Also Published As
Publication number | Publication date |
---|---|
JP7120573B2 (en) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113436643B (en) | Training and application method, device and equipment of voice enhancement model and storage medium | |
JP6903611B2 (en) | Signal generators, signal generators, signal generators and programs | |
JP7103390B2 (en) | Acoustic signal generation method, acoustic signal generator and program | |
JP6623376B2 (en) | Sound source enhancement device, its method, and program | |
JP5634959B2 (en) | Noise / dereverberation apparatus, method and program thereof | |
JP2019078864A (en) | Musical sound emphasis device, convolution auto encoder learning device, musical sound emphasis method, and program | |
CN112767959A (en) | Voice enhancement method, device, equipment and medium | |
JP2024129003A (en) | A generative neural network model for processing audio samples in the filter bank domain | |
US11393443B2 (en) | Apparatuses and methods for creating noise environment noisy data and eliminating noise | |
JP2020122855A (en) | Estimation device, method thereof and program | |
CN118173111A (en) | Model training and far-field multichannel voice noise reduction method, device, equipment and medium | |
WO2020121860A1 (en) | Acoustic signal processing device, method for acoustic signal processing, and program | |
CN112863539B (en) | High-sampling-rate voice waveform generation method, device, equipment and storage medium | |
JP6912780B2 (en) | Speech enhancement device, speech enhancement learning device, speech enhancement method, program | |
WO2023152895A1 (en) | Waveform signal generation system, waveform signal generation method, and program | |
WO2019208137A1 (en) | Sound source separation device, method therefor, and program | |
KR102505653B1 (en) | Method and apparatus for integrated echo and noise removal using deep neural network | |
RU2823017C1 (en) | Uncontrolled voice restoration using unconditioned diffusion model without teacher | |
JP6067760B2 (en) | Parameter determining apparatus, parameter determining method, and program | |
JP7568977B2 (en) | Conversion model learning device, conversion model generating method, conversion device, conversion method, and program | |
JP2018191255A (en) | Sound collecting device, method thereof, and program | |
Bhattacharya et al. | Machine Learning for Audio | |
WO2020032177A1 (en) | Method and device for generating frequency component vector of time-series data | |
JP2023030771A (en) | Estimation method, estimation program, deep neural network and estimation device | |
WO2021144934A1 (en) | Voice enhancement device, learning device, methods therefor, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220727 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7120573 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |