JP2014191192A - Reference data creation device, reference data creation system, and performance terminal device - Google Patents
Reference data creation device, reference data creation system, and performance terminal device Download PDFInfo
- Publication number
- JP2014191192A JP2014191192A JP2013066705A JP2013066705A JP2014191192A JP 2014191192 A JP2014191192 A JP 2014191192A JP 2013066705 A JP2013066705 A JP 2013066705A JP 2013066705 A JP2013066705 A JP 2013066705A JP 2014191192 A JP2014191192 A JP 2014191192A
- Authority
- JP
- Japan
- Prior art keywords
- data
- singing
- music
- song
- singer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 claims abstract description 34
- 238000011156 evaluation Methods 0.000 claims description 62
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 238000013500 data storage Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 abstract description 71
- 239000000284 extract Substances 0.000 abstract 1
- 239000011295 pitch Substances 0.000 description 80
- 230000008569 process Effects 0.000 description 35
- 238000012545 processing Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000012854 evaluation process Methods 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
【課題】基準の音高を示す基準データのない楽曲について、ユーザに合った態様の基準データを作成する。
【解決手段】サーバ10の記憶手段12には複数の歌唱データと、各歌唱データに対応する楽曲IDと、歌唱データ対応する歌唱者の属性を示す歌唱者属性とが記憶されている。サーバ10は、カラオケ装置20から、演奏される楽曲の楽曲IDと、演奏される楽曲を歌唱する歌唱者の属性を示す歌唱者属性とを取得する。サーバ10は、記憶している歌唱データの中から、取得した楽曲IDに対応し、かつ、取得した歌唱者属性と一致する歌唱者属性と対応する歌唱データを抽出する。つぎに、抽出した歌唱データを基準の音階に基づいて採点し、採点結果が所定の基準を満たす歌唱データを選択する。そして、選択した歌唱データで示される歌唱音声の音高情報に基づいて、演奏される楽曲の音高列の基準を示す基準データを作成する。
【選択図】 図1Kind Code: A1 The present invention relates to a method for generating reference data in a form suitable for a user for a music piece without reference data indicating a reference pitch.
A storage means 12 of a server 10 stores a plurality of song data, a song ID corresponding to each song data, and a singer attribute indicating a singer attribute corresponding to the song data. The server 10 acquires from the karaoke apparatus 20 the song ID of the song to be played and the singer attribute indicating the attribute of the singer who sings the song to be played. The server 10 extracts singing data corresponding to the acquired song ID and corresponding to the acquired singer attribute from the stored singing data. Next, the extracted singing data is scored based on the standard scale, and the singing data whose scoring result satisfies a predetermined standard is selected. And based on the pitch information of the song voice shown by the selected song data, the reference data which shows the reference | standard of the pitch row | line | column of the music to be performed are produced.
[Selection] Figure 1
Description
本発明は、歌唱音声を記録した歌唱データから楽曲の基準データを作成する基準データ作成装置に関する。 The present invention relates to a reference data creation device for creating reference data of music from song data in which singing voice is recorded.
カラオケにおける歌唱を評価する方法として、MIDI規格の演奏データ等から生成される評価基準の音高データ(以下、基準データと称する)に対し、歌唱者が歌った音声の音高がどの程度一致しているかを評価するものが知られている。このような評価方法によれば歌唱と評価基準との一致度合によって、歌唱の巧拙を正確に評価できるが、歌唱を評価するために、正しい音高を示す基準データが必須である。また、演奏データに基づいて演奏される伴奏と共に、歌唱のお手本として歌唱パートのメロディーを出力する、いわゆるガイドメロディ―機能にも、歌唱パートの正しい音高を示す基準データが必要である。 As a method of evaluating singing in karaoke, how much the pitch of the voice sung by the singer matches the pitch data (hereinafter referred to as reference data) of the evaluation standard generated from performance data of the MIDI standard. Something is known to evaluate whether it is. According to such an evaluation method, the skill of the singing can be accurately evaluated by the degree of coincidence between the singing and the evaluation criterion, but in order to evaluate the singing, reference data indicating a correct pitch is essential. In addition, reference data indicating the correct pitch of the singing part is also required for the so-called guide melody function that outputs the melody of the singing part as an example of singing along with the accompaniment performed based on the performance data.
一方、特許文献1には、次のような歌唱の評価方法が開示されている。様々な歌唱音声のサンプル音声データに対して、評価者が主観的に評価した結果が予め記憶されている。そして、評価対象の歌唱音声と類似するサンプル音声データにされた評価を、評価対象の歌唱音声の評価とする。
On the other hand,
近年では、個人が制作した楽曲をインターネット上のウェブサイトに投稿して公開できるサービスが普及している。この種のサービスでは、投稿された楽曲の演奏に合わせてユーザが一緒に歌唱を行うことも考えられる。しかしながら、投稿された楽曲等は、音高の基準を示す基準データが存在せず、評価の基準となる正しい音高が不明であるため、基準データを用いた歌唱の評価やガイドメロディの出力を行うことができない。 In recent years, services that can post and publish music created by individuals on websites on the Internet have become widespread. In this type of service, the user may sing along with the performance of the posted music. However, since there is no reference data indicating the reference of the pitch for the submitted music, etc., and the correct pitch that is the reference for the evaluation is unknown, singing evaluation using the reference data and output of the guide melody I can't do it.
上述の特許文献1の技術では、基準データを用いずに歌唱を評価できるものの、その評価は評価者の主観によるものに過ぎず、基準データによる豊富な情報量に基づく評価と比較すると、正確性の面で不十分である。
In the technique of the above-mentioned
本発明は、上記の問題を解決するためになされたものである。その目的は、基準の音高を示す基準データがない楽曲について、ユーザに合った態様の基準データを作成するための技術を提供することである。 The present invention has been made to solve the above problems. The purpose is to provide a technique for creating reference data in a mode suitable for the user for music that does not have reference data indicating the reference pitch.
本発明の基準データ作成装置は、記憶手段と、演奏情報取得手段と、抽出手段と、基準評価手段と、選択手段と、作成手段とを備える。記憶手段は、歌唱された音声を表す複数の歌唱データと、各歌唱データに対応付けられた楽曲を識別する楽曲識別情報と、各歌唱データに対応付けられた歌唱者の属性を示す歌唱者属性情報又は楽曲に対応付けられた所定の歌唱者の属性を示す楽曲属性情報とを記憶する。演奏情報取得手段は、楽曲の演奏を行う演奏端末装置から、演奏される楽曲を識別する楽曲識別情報と、演奏される楽曲を歌唱する歌唱者の属性を示す歌唱者属性情報とを取得する。 The reference data creation device of the present invention comprises storage means, performance information acquisition means, extraction means, reference evaluation means, selection means, and creation means. The storage means includes a plurality of song data representing the sung voice, song identification information for identifying the song associated with each song data, and a singer attribute indicating the attributes of the singer associated with each song data. Information or music attribute information indicating attributes of a predetermined singer associated with the music is stored. A performance information acquisition means acquires the music identification information which identifies the music to be performed, and the singer attribute information which shows the attribute of the singer who sings the music to be performed from the performance terminal device which performs the music.
抽出手段は、記憶されている歌唱データの中から、取得された楽曲識別情報で示される楽曲と対応付けられ、かつ、取得された楽曲識別情報に対応する楽曲属性情報、又は取得された歌唱者属性情報で示される歌唱者の属性の何れかと対応する歌唱者属性情報が対応付けられた歌唱データを抽出する。基準評価手段は、歌唱データに示される歌唱音声の音高と、歌唱音声の音高に対応する基準の音階との差に基づいて、歌唱音声を評価する。なお、基準評価手段による歌唱の評価は、音高の基準データなしで行われるものであり、一例として、特許文献2において開示されているような周知の方法がある。選択手段は、抽出された歌唱データの中から、基準評価手段による評価結果が所定の基準を満たす歌唱データを選択する。作成手段は、選択された歌唱データで示される歌唱音声の音高情報に基づいて、演奏される楽曲の音高列の基準を示す基準データを作成する。
The extraction means is associated with the music indicated by the acquired music identification information from the stored song data, and the music attribute information corresponding to the acquired music identification information, or the acquired singer Singing data in which singer attribute information corresponding to any of the attributes of the singer indicated by the attribute information is associated is extracted. The reference evaluation means evaluates the singing voice based on the difference between the pitch of the singing voice indicated in the singing data and the reference scale corresponding to the pitch of the singing voice. Note that the evaluation of the singing by the reference evaluation means is performed without the reference data of the pitch, and as an example, there is a known method as disclosed in
本発明によれば、楽曲が実際に歌唱された歌唱音声を表す複数の歌唱データの中から、歌唱が上手いと評価された歌唱データを選別して基準データの作成に用いることで、上手い歌唱に基づく正確性の高い基準データを作成できる。さらに、基準データの作成に用いる作成対象として、演奏される楽曲の歌唱者の属性又は楽曲の属性に適合する歌唱者の歌唱データを抽出することで、演奏される楽曲の歌唱者や楽曲本来の性質に合った基準データを作成できる。 According to the present invention, by selecting singing data evaluated as being good at singing from a plurality of singing data representing singing voices in which the music is actually sung, it is used for creating reference data, so that the singing can be performed well. Highly accurate reference data can be created. Furthermore, as the creation target used for creating the reference data, by extracting the singer's singing data that matches the attributes of the singer or the tune of the tune to be played, It is possible to create reference data that matches the properties.
なお、基準データの作成のもととなる歌唱データは、演奏端末装置から収集して蓄積したものを用いることが考えられる。具体的には、請求項2に記載のように、基準データ作成装置が、歌唱データ取得手段と、歌唱データ記録手段とを備える。歌唱データ取得手段は、演奏端末装置から、歌唱音声が記録された歌唱データと、歌唱データに対応する楽曲の楽曲識別情報と、歌唱データに対応する歌唱者の歌唱者属性情報とを取得する。歌唱データ記録手段は、取得された歌唱データと、楽曲識別情報と、歌唱者属性情報とを対応付けて記憶手段に記録する。このような構成によれば、様々な歌唱者による歌唱音声が記録された歌唱データを多数蓄積することができる。基準データのサンプルとなる歌唱データが多ければ、より優れた基準データを作成できる。
In addition, it is possible to use what was collected and accumulated | stored from the performance terminal device as song data used as preparation of reference | standard data. Specifically, as described in
本発明の基準データ作成装置によって作成されたデータの利用方法として、作成された基準データを、演奏情報取得手段により楽曲識別情報と歌唱者属性情報とを取得した演奏端末装置に送信し(請求項3)、各演奏端末装置において歌唱の評価やガイドメロディの演奏に用いることが考えられる。あるいは、作成された基準データを用いて基準データ作成装置が、演奏端末装置において行われた歌唱の評価を行うように構成してもよい。具体的には、請求項4に記載のように、基準データ作成装置が、基準データ記憶手段と、歌唱結果取得手段と、歌唱評価手段とを備える。基準データ記憶手段は、作成された基準データを、基準データを作成した楽曲の楽曲識別情報と対応付けて記憶する。歌唱結果取得手段は、演奏端末装置から、歌唱音声が記録された歌唱データと、当該歌唱データに対応する楽曲識別情報とを取得する。歌唱評価手段は、取得された歌唱データで示される歌唱音声を、当該歌唱データに対応する楽曲識別情報に該当する基準データを用いて評価する。
As a method of using the data created by the reference data creation device of the present invention, the created reference data is transmitted to the performance terminal device that has acquired the music identification information and the singer attribute information by the performance information acquisition means (claim). 3) It can be considered that each performance terminal device is used for singing evaluation and playing a guide melody. Or you may comprise so that a reference | standard data production apparatus may evaluate the song performed in the performance terminal device using the produced | generated reference data. Specifically, as described in
ところで、歌唱が上手い条件の1つとして、例えばビブラートのような特徴的な歌唱技法が駆使されていることが挙げられる。しかしながら、たとえ上手な歌唱であっても、ビブラート等の音の高さを意図的に揺らす歌唱技法によって生じる特徴波形を含む歌唱データは、正確な音高の基準となる基準データの作成に用いる歌唱データには適さないことがある。そこで、請求項5に記載のようにするとよい。すなわち、選択手段は、評価結果が所定の基準を満たす歌唱データのうち、音高を示す波形の中に所定の特徴波形が含まれる歌唱データは選択しない。このようにすることで、音高の基準としては適さない特徴波形を含む歌唱データを基準データの作成対象から除外でき、より正確な音高の基準を示す基準データを作成できる。
By the way, as one of the conditions for singing well, for example, a characteristic singing technique such as vibrato is used. However, even if it is a good singing, the singing data that includes the characteristic waveform generated by the singing technique that intentionally fluctuates the pitch of vibrato etc. is the singing used to create the reference data that is the reference of the accurate pitch. May not be suitable for data. Therefore, it is preferable to perform as described in
ビブラート等の特徴的な歌唱技法は、上級者によって多く用いられる傾向にある。そこで、特徴波形が多く含まれる上級者の歌唱データを基準データの作成に用いない代わりに、特徴的な歌唱技法を用いない中程度の歌唱力に相当する歌唱データを用いるようにすることで、正しい音高の基準データを作成する面において有利に働く。具体的には、請求項6に記載のようにするとよい。すなわち、選択手段は、評価結果が所定の基準を満たさず、特徴波形を含まない歌唱データを選択する。 Characteristic singing techniques such as vibrato tend to be used a lot by advanced players. Therefore, instead of using the singing data of advanced players that contain many characteristic waveforms for the creation of the reference data, by using singing data corresponding to moderate singing ability without using characteristic singing techniques, This is advantageous in terms of creating correct pitch reference data. Specifically, it may be as described in claim 6. That is, the selecting means selects song data whose evaluation result does not satisfy a predetermined standard and does not include a characteristic waveform.
請求項7に記載の基準データ作成装置は、次の特徴を有する。すなわち、基準評価手段は、1つの歌唱データで表される歌唱音声を所定時間ごとの複数の区間に分割した区間単位で歌唱を評価する。そして、選択手段は、抽出された各歌唱データにおける全ての区間について、各区間単位の評価結果が所定の基準を満たす区間に対応する部分の歌唱データを選択する。作成手段は、選択手段によって選択された各区間単位の歌唱データで示される歌唱音声の音高情報に基づいて、演奏される楽曲の音高列の基準を示す基準データを作成する。 The reference data creation device according to claim 7 has the following characteristics. That is, the reference evaluation means evaluates the singing in units of sections obtained by dividing the singing voice represented by one singing data into a plurality of sections every predetermined time. And a selection means selects the song data of the part corresponding to the area where the evaluation result of each area satisfy | fills a predetermined reference | standard about all the areas in each extracted song data. The creation means creates reference data indicating the reference of the pitch sequence of the music to be played based on the pitch information of the singing voice indicated by the singing data for each section selected by the selection means.
同じ楽曲に対応する歌唱データであっても、上手に歌えている箇所とそうでない箇所が歌唱者によって異なる場合がある。そこで、1つの歌唱データを複数区間に分けた区間ごとの評価結果に基づき、各区間から評価のよい部分の歌唱データを選んで基準データを作成することで、全ての区間において正確性の高い基準データを作成できる。 Even if it is the song data corresponding to the same music, the part which is singing well and the part which is not so may differ depending on the singer. Therefore, based on the evaluation results for each section obtained by dividing one singing data into a plurality of sections, by selecting the singing data of the part with good evaluation from each section and creating the reference data, the standard with high accuracy in all sections Can create data.
ところで、選択された複数の歌唱データから基準データを作成する方法として、複数の歌唱データで表される音高を統計的に処理し、音高の平均を基準データの音高とすることが考えられる。しかしながら、基準データのサンプルとして収集される複数の歌唱データにおいては、「音程の相対的変化は同じだが、ベースとなるキーが異なる。」ということがあり得る。すなわち、各歌唱データにおいて原曲からキーを変更して歌唱されている場合、キーが異なる各歌唱データの音高をそのまま平均化しても、正しい音高を導き出すことはできない。 By the way, as a method of creating reference data from a plurality of selected song data, it is considered that the pitches represented by the plurality of song data are statistically processed and the average of the pitches is set as the pitch of the reference data. It is done. However, in a plurality of pieces of singing data collected as samples of reference data, it is possible that “the relative change in pitch is the same, but the base key is different”. That is, when each song data is sung by changing the key from the original song, the correct pitch cannot be derived even if the pitches of the song data with different keys are averaged as they are.
そこで、請求項8に記載のように構成するとよい。すなわち、選択手段は、抽出された歌唱データの中から、評価結果が所定の基準を満たす複数の歌唱データを選択する。作成手段は、選択された複数の歌唱データで示される歌唱音声の相対的な音程の時間変化を平均化し、平均化した音程の時間変化に対して所定の基準音高を付与して基準データを作成する。このようにすることで、キーが異なる複数の歌唱データからでも正しい音高の基準データを作成できる。 Therefore, it is preferable to configure as described in claim 8. That is, the selection means selects a plurality of song data whose evaluation result satisfies a predetermined criterion from the extracted song data. The creating means averages the relative time changes of the singing voices indicated by the plurality of selected singing data, and gives the reference data by giving a predetermined reference pitch to the averaged time changes of the pitch. create. By doing in this way, the correct pitch reference data can be created even from a plurality of song data with different keys.
なお、本発明は、請求項9に記載のように、上述の基準データ作成装置と、楽曲を演奏する演奏端末装置とからなる基準データ作成システムとして実現することもできる。このうち、演奏端末装置は、演奏情報送信手段を備える。演奏情報送信手段は、演奏をする楽曲に対応する基準データを保有していないとき、楽曲識別情報と、歌唱する歌唱者の属性を示す歌唱者属性情報とを、基準データ作成装置に送信する。 In addition, this invention can also be implement | achieved as a reference | standard data preparation system which consists of the above-mentioned reference | standard data preparation apparatus and the performance terminal device which plays a music as described in Claim 9. Among these, the performance terminal device includes performance information transmission means. When the performance information transmission means does not have the reference data corresponding to the music to be played, the performance information transmission means transmits the music identification information and the singer attribute information indicating the attributes of the singer to sing to the reference data creation device.
上述の基準データ作成システムを構成する演奏端末装置としては、請求項10に記載のように、基準データ取得手段と、評価手段とを更に備えるものが考えられる。基準データ取得手段は、演奏情報送信手段によって送信された楽曲識別情報と歌唱者属性情報とに基づいて基準データ作成装置によって作成された基準データを取得する。歌唱評価手段は、取得された基準データを用いて、演奏をする楽曲に合わせて入力される歌唱者の歌唱音声を評価する。このような演奏端末装置によれば、演奏する楽曲に対応する基準データがない場合であっても、基準データ作成装置に基準データの作成を依頼して、歌唱者の属性に合う基準データを取得し、歌唱者の歌唱を適切に評価できる。
As the performance terminal device constituting the above-described reference data creation system, as described in
以下、本発明の一実施形態を図面に基づいて説明する。なお、本発明は下記の実施形態に限定されるものではなく様々な態様にて実施することが可能である。
[カラオケシステム1の構成の説明]
図1に示すように、カラオケシステム1は、サーバ10と、カラオケ店舗に設置されるカラオケ装置20とを備える。サーバ10及びカラオケ装置20は、インターネット等の広域ネットワークを介して通信可能に接続される。なお、図1では、広域ネットワークに接続されたカラオケ装置20を1つ図示しているが、複数のカラオケ装置20が広域ネットワークに接続されていてもよい。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In addition, this invention is not limited to the following embodiment, It is possible to implement in various aspects.
[Description of configuration of karaoke system 1]
As shown in FIG. 1, the
サーバ10は、適宜な処理能力を有する情報処理装置等で構成されている。このサーバ10は、制御部11、各種情報を記憶する記憶部12、広域ネットワークを介した通信を制御する通信部13等を備える。制御部11は、CPUやROM、RAM等を中心に構成された情報処理デバイスであり、サーバ10全体を制御する。このサーバ10は、カラオケ装置20からの要求に応じて、演奏される楽曲について、楽曲の音高列の基準を示す基準データを作成し、要求元のカラオケ装置20に基準データを提供する機能を有する(詳細は後述する)。
The
サーバ10は、ユーザによって歌唱された音声が記録された歌唱データ、各歌唱データの属性を示す歌唱データリスト、及び、歌唱データにおいて歌唱された楽曲の属性を示す楽曲属性リストを記憶部12に記憶する。歌唱データは、カラオケ装置20等の演奏端末による楽曲の演奏に合わせて歌唱されたときの音声が録音されることにより作成され、各演奏端末から広域ネットワークを介してサーバ10にアップロードされるようになっている。記憶部12に蓄積された歌唱データは、楽曲の音高の基準を示す基準データを作成するためのサンプルとして用いられる。
The
歌唱データリストには、図2(a)に例示されるように、記憶部12に記憶されている歌唱データごとに、歌唱データID、楽曲ID、歌唱者属性等の情報項目を含むレコードが記録されている。歌唱データIDは、各歌唱データを識別する識別情報である。楽曲IDは、歌唱データにおいて歌唱者が歌唱した楽曲を識別する識別情報である。歌唱者属性は、歌唱データに対応付けられた歌唱者の属性を示す情報である。本実施形態では、歌唱者の性別や国籍が歌唱者属性として記録される事例を示す。
In the singing data list, as illustrated in FIG. 2A, for each singing data stored in the
楽曲属性リストには、図2(b)に例示されるように、楽曲ID、楽曲属性等の情報項目を含むレコードが楽曲ごとに記録されている。楽曲IDは、楽曲を識別する識別情報である。楽曲属性は、楽曲のオリジナルの歌唱者であるアーティストの属性を示す情報である。本実施形態では、アーティストの性別や国籍が楽曲属性として記録される事例を示す。 In the song attribute list, as illustrated in FIG. 2B, a record including information items such as a song ID and a song attribute is recorded for each song. The song ID is identification information for identifying a song. The music attribute is information indicating the attribute of the artist who is the original singer of the music. In this embodiment, an example is shown in which the gender and nationality of an artist are recorded as music attributes.
図1の説明に戻る。カラオケ装置20は、カラオケの楽曲を演奏する機能や歌唱の評価をする機能を持った演奏端末である。カラオケ装置20は、制御部21、記憶部22、楽曲再生部23、採点処理部24、音声制御部25、映像制御部26、操作部27、通信部28等を備える。
Returning to the description of FIG. The
制御部21は、CPUやROM、RAM等を中心に構成された情報処理デバイスであり、カラオケ装置20全体を制御する。制御部21は、記憶部22から読込んだプログラムやデータに基づいて種々の処理を実行する。カラオケ装置20の主な機能として、制御部21は、リクエストされた楽曲の演奏を楽曲再生部23に実行させる。また、制御部21は、楽曲の音高の基準を示す基準データに基づき、演奏される楽曲に合わせて入力される歌唱音声を評価する処理や、ガイドメロディを出力する処理を実行する。また、制御部21は、楽曲の演奏が行われるときに歌唱データを作成する。この歌唱データには、楽曲の演奏時にマイク30から入力される歌唱音声を録音したデータが含まれる。作成された歌唱データは、カラオケ装置20の記憶部22に一時記憶され、楽曲IDや歌唱者属性情報と対応付けてサーバ10にアップロードされる。このようにして、複数の歌唱データがサーバ10に蓄積される。
The
記憶部22は、ハードディスクドライブ等の記憶装置である。記憶部22には、楽曲を演奏するための楽曲データや、楽曲の基準データ、カラオケ装置20の動作を制御するプログラム等の各種データが記憶されている。なお、記憶部22に記憶されている基準データは、カラオケ装置20において演奏される全ての楽曲について用意されているとは限らない。例えば、個人が制作した楽曲がインターネット等を通じて公開されることもあるが、このような楽曲には、音高の基準を示す基準データが存在しない場合がある。
The
楽曲再生部23は、記憶部22に記憶されている楽曲データに基づいて楽曲の再生を行い、楽曲の音源信号を発生するデバイスである。採点処理部24は、楽曲の演奏に合わせて歌唱される歌唱音声で示される音高と、演奏される楽曲に対応する基準データで示される音高とを比較し、歌唱音声で示される音高が、基準データで示される音高に対してどの程度一致しているかを評価して点数をつけるデバイスである。
The
音声制御部25は、音声の入出力を制御するデバイスであり、マイク入力部25aと出力部25bとを備える。マイク入力部25aには、マイク30が接続される。これにより、マイク入力部25aは、歌唱するユーザの音声を取得し、取得した音声を音源信号に変換する。出力部25bにはスピーカ31が接続されている。出力部25bは、楽曲再生部23によって再生される楽曲の音源信号と、マイク入力部25aから入力される歌唱音声の音源信号とをスピーカ31に出力する。スピーカ31は、出力部25bから出力される音源信号を音に換えて出力する。
The
映像制御部26は、制御部21から送られてくる映像データに基づく映像の再生及び出力を行う。映像制御部26が再生する映像としては、楽曲の演奏と共に表示する背景及び歌詞画像が含まれる。映像制御部26には、映像の表示を行うモニタ32が接続されている。これにより、映像制御部26は再生した映像をモニタ32に表示させる。操作部27は、カラオケ装置20に対する各種操作を行うための入力装置である。通信部28は、カラオケ装置20を広域ネットワークに接続して通信を行うための通信インタフェースである。カラオケ装置20は、通信部28により広域ネットワークを介してサーバ10と通信を行う。
The
また、カラオケ装置20は、カラオケシステム1により提供されるカラオケサービスのアカウントを有するユーザが所定の手続きを経てカラオケサービスにログインすることにより、演奏する曲のリクエスト(予約)や曲の演奏に関する指示を、個々のログインユーザの識別情報と対応付けて行う。なお、カラオケ装置20のその他の機能や構成については公知技術に従っているので、ここでの詳細な説明は省略する。
In addition, the
[メイン処理の説明]
カラオケ装置20の制御部21が実行するメイン処理の手順について、図3のフローチャートを参照しながら説明する。この処理は、楽曲の演奏及び歌唱の評価の実施がログインユーザから指示されたときに実行される。
[Description of main processing]
The procedure of the main process executed by the
S100では、制御部21は、歌唱評価モードを開始する。S102では、制御部21は、記憶部22に記憶されている基準データの中に、演奏する楽曲に対応する基準データが存在するか否かを判定する。ここで演奏する楽曲は、ログインユーザがカラオケ装置20に対してリクエストをした楽曲である。演奏する楽曲に対応する基準データが存在しない場合(S102:NO)、制御部21はS104に進む。一方、演奏する楽曲に対応する基準データが存在する場合(S102:YES)、制御部21はS118に進む。
In S100, the
演奏する楽曲に対応する基準データが存在しない場合に進むS104では、制御部21は、演奏する楽曲の楽曲IDと、演奏する楽曲をリクエストしたログインユーザ(歌唱者)の属性を示す歌唱者属性とをサーバ10に送信する。ここで送信された楽曲ID及び歌唱者属性に基づいて、演奏される楽曲の基準データがサーバ10によって作成される。なお、本実施形態では、楽曲をリクエストしたログインユーザを、その楽曲を歌唱する歌唱者と特定することを前提としている。歌唱者の属性を示す属性情報は、カラオケシステム1によるカラオケサービスへのログインを認証する外部の認証サーバ(図示なし)等にユーザのアカウントと対応して予め登録されている属性(性別、国籍等)を取得することが一例として挙げられる。あるいは、カラオケ装置20にユーザの属性が予め登録されていてもよいし、ユーザがカラオケ装置20の利用を開始するときに、ユーザが自らの属性をカラオケ装置20に入力するような構成であってもよい。あるいは、ユーザの属性が存在しない場合は、サーバ10は基準データを作成するのに、常に楽曲の属性情報を使用するような構成としてもよい(楽曲の属性情報を使用する場合の詳細については後述する)。
In S104, which proceeds when there is no reference data corresponding to the music to be played, the
次のS106では、制御部21は、S104で送信された情報に基づいて作成された基準データをサーバ10から取得し、記憶部22に記録する。そして、S108では、制御部21は、記憶部22に記憶されている楽曲データに基づき、リクエストされた楽曲の演奏を行う。また、S106で取得した基準データに基づき、楽曲の基準音高を示す画像を楽曲の演奏に進行と同期させてモニタ32に表示させる。このとき、ガイドメロディの出力を行う設定がなされている場合、S106で取得した基準データに基づき、歌唱パートのガイドメロディを再生する。
In the next S106, the
S110では、制御部21は、楽曲の演奏中にマイク30を介して入力される歌唱者の音声信号を標本化して歌唱データを取得し、取得した歌唱データを記憶部22に記録する。次のS112では、採点処理部24において、S106で取得した基準データを評価基準にして、S110で取得した歌唱データで示される歌唱音声が評価される(歌唱評価処理、図9参照)。この歌唱評価処理の詳細な手順については後述する。そして、S114では、制御部21は、S112で得られた歌唱の評価結果を示す画像を、モニタ32に表示させる。S116では、演奏した楽曲の楽曲IDと、S110で録音した歌唱データと、演奏した楽曲の歌唱者として対応付けられているログインユーザの歌唱者属性とをサーバ10に送信する。送信後、制御部21は本処理を終了する。
In S <b> 110, the
一方、S102において、演奏する楽曲に対応する基準データが記憶部22に存在すると判定した場合に進むS118では、制御部21は、記憶部22に記憶されている楽曲データに基づき、リクエストされた楽曲の演奏を行う。また、演奏する楽曲に対応する基準データに基づき、楽曲の基準音高を示す画像を楽曲の演奏に進行と同期させてモニタ32に表示させる。このとき、ガイドメロディの出力を行う設定がなされている場合、演奏する楽曲に対応する基準データに基づき、歌唱パートのガイドメロディを再生する。
On the other hand, in S <b> 118, which proceeds when it is determined in S <b> 102 that the reference data corresponding to the music to be played exists in the
S120では、制御部21は、楽曲の演奏中にマイク30を介して入力される歌唱者の音声信号を標本化して歌唱データを取得する。次のS122では、採点処理部24において、演奏された楽曲に対応する基準データを評価基準にして、S120で取得した歌唱データで示される歌唱音声が評価される。そして、S124では、制御部21は、S122で得られた歌唱の評価結果を示す画像を、モニタ32に表示させる。表示後、制御部21は本処理を終了する。
In S120, the
[基準データ作成処理の説明]
サーバ10の制御部11が実行する基準データ作成処理の手順について、図4のフローチャートを参照しながら説明する。この処理は、演奏される楽曲に対応する基準データの作成を要求する情報がカラオケ装置20から送信されてきたときに実行される。
[Description of standard data creation process]
The procedure of the reference data creation process executed by the
S200では、制御部11は、演奏される楽曲に対応する基準データの作成を要求する情報である、演奏される楽曲の楽曲IDと、演奏される楽曲の歌唱者の属性を示す歌唱者属性とを、カラオケ装置20から受信する。ここで受信する楽曲ID及び歌唱者属性は、上述のメイン処理(図3)のS104においてカラオケ装置20からサーバ10に送信される情報である。S202では、制御部11は、歌唱データリスト(図2(a)参照)に基づき、S200で受信した楽曲IDと一致する楽曲IDが対応付けられた歌唱データを読出す。S204では、制御部11は、歌唱データリストに基づき、楽曲IDが一致する歌唱データの中から、S200で受信した歌唱者属性と一致する歌唱者属性が対応付けられた歌唱データを選択する。
In S200, the
S206では、制御部11は、S204における選択の結果、歌唱者の歌唱者属性が一致する歌唱データが存在するか否かを判定する。歌唱者の歌唱者属性と一致する歌唱データが存在する場合(S206:YES)、制御部11はS212に進む。一方、歌唱者の歌唱者属性と一致する歌唱データが存在しない場合(S206:NO)、制御部11はS208に進む。S208では、制御部11は、歌唱データリスト及び楽曲属性リスト(図2(a),(b)参照)に基づき、楽曲IDが一致する歌唱データの中から、演奏される楽曲の楽曲IDに対応する楽曲属性と一致する歌唱者属性が対応付けられた歌唱データを選択する。
In S206, the
S210では、制御部11は、S208における選択の結果、演奏される楽曲の楽曲属性と一致する歌唱者属性の歌唱データが存在するか否かを判定する。演奏される楽曲の楽曲属性と一致する歌唱者属性の歌唱データが存在する場合(S210:YES)、制御部11はS212に進む。一方、演奏される楽曲の楽曲属性と一致する歌唱者属性の歌唱データが存在しない場合(S210:NO)、制御部11はS216に進む。
In S210, the
S212では、制御部11は、S204又はS208で選択した歌唱データから、演奏される楽曲に対応する基準データを合成する(合成処理、図5参照)。この合成処理の詳細な手順については後述する。次のS214では、制御部11は、S212で作成した基準データを、S200で受信した楽曲ID及び歌唱者属性の送信元であるカラオケ装置20に送信する。送信後、制御部11は本処理を終了する。
In S212, the
一方、S210で楽曲属性と一致する歌唱者属性の歌唱データが存在しないと判定した場合に進むS216では、制御部11は、基準データが存在しない旨を示す情報を、S200で受信した楽曲ID及び歌唱者属性の送信元であるカラオケ装置20に通知する。通知後、制御部11は本処理を終了する。
On the other hand, in S <b> 216, which proceeds when it is determined in S <b> 210 that there is no song data having a singer attribute that matches the song attribute, the
[合成処理の説明]
サーバ10の制御部11が実行する合成処理の手順について、図5のフローチャートを参照しながら説明する。この処理は、上述の基準データ作成処理(図4参照)のS212において実行されるサブルーチンである。
[Description of composition processing]
The procedure of the synthesis process executed by the
S300では、制御部11は、S204又はS208(図4参照)で選択した複数の歌唱データを記憶部12から取得する。S302では、制御部11は、S300で取得した各歌唱データを、所定時間ごとに複数の区間に分割する。S304では、制御部11は、S302で分割した各区間について、基準データを合成していない区間があるか否かを判定する。基準データを合成していない区間がある場合(S304:YES)、制御部11はS306に進む。S306では、制御部11は、基準データを合成していない区間のうち、再生時間が最も早い区間を対象区間として選択する。
In S300, the
S308では、制御部11は、各歌唱データについて、選択した対象区間に該当する歌唱部分を採点する。ここでは、音高の基準を示す基準データを用いない歌唱評価方法で歌唱の評価を行う。具体的には、例えば、歌唱データから歌唱音声の音高を抽出し、抽出した音高と、抽出した音高の最近傍にある音階(基準の音高)との差が小さいほど高い得点を付与する。つまり、歌唱された音高と、基準の音階とのずれが小さいほど歌唱が上手いと評価する。採点結果の一例を図6(a)に例示する。図6(a)の事例では、楽曲(楽曲ID:XXX)に対応する各歌唱データ(aaa〜eee)について、0〜30秒、31〜60秒、…91〜120秒のように30秒ごとに区切られた区間ごとに採点結果が算出されている。
In S308, the
図5のフローチャートの説明に戻る。次のS310では、制御部11は、各歌唱データについて、選択した対象区間に該当する歌唱部分の基準キーを取得する。基準キーとしては、例えば、歌唱データの先頭音やロングトーンの等の任意の箇所の音高を採用する。図6(b)に例示されるとおり、楽曲に対応する各歌唱データについて、それぞれ基準キーが取得される。
Returning to the flowchart of FIG. In next S310, the
図5のフローチャートの説明に戻る。次のS312では、制御部11は、各歌唱データから、対象区間内の音高の時間変化を示す音高波形を取得する。そして、S314では、制御部11は、S308で採点された対象区間の採点結果が所定の基準点を満たす歌唱データが存在するか否かを判定する。例えば、図6(a)に例示される採点結果において、基準点を80点以上と設定した場合、0〜30秒の区間では、aaa,ccc,dddの各歌唱データが基準点を満たす歌唱データとして選択される。
Returning to the flowchart of FIG. In next S <b> 312, the
図5のフローチャートの説明に戻る。対象区間の採点結果が基準点を満たす歌唱データが存在する場合(S314:YES)、制御部11はS316に進む。一方、対象区間の採点結果が基準点を満たす歌唱データが存在しない場合(S314:NO)、制御部11はS324に進む。基準点を満たす歌唱データが存在する場合に進むS316では、制御部11は、基準点を満たす各歌唱データについて、対象区間内の音高の時間変化を示す音高波形に、特定の歌唱技法を示す特徴波形が含まれているか否かを判定する。特定の歌唱技法としては、ビブラート等の音の高さを意図的に揺らす歌唱技法が例示される。基準点を満たす歌唱データの対象区間内に特徴波形が含まれている場合(S316、YES)、制御部11はS318に進む。一方、基準点を満たす歌唱データの対象区間内に特徴波形が含まれていない場合(S316、NO)、制御部11はS320に進む。
Returning to the flowchart of FIG. When the singing data in which the scoring result of the target section satisfies the reference point exists (S314: YES), the
基準点を満たす歌唱データの対象区間内に特徴波形が含まれている場合に進むS318では、制御部11は、基準点を満たさない各歌唱データについて、対象区間内の音高の時間変化を示す音高波形に特徴波形が含まれているか否かを判定する。基準点を満たさない歌唱データの対象区間内に特徴波形が含まれている場合(S318、YES)、制御部11はS320に進む。基準点を満たさない歌唱データの対象区間内に特徴波形が含まれていない場合(S318、NO)、制御部11はS322に進む。
In S318 that proceeds when the characteristic waveform is included in the target section of the song data that satisfies the reference point, the
S320では、制御部11は、基準点を満たす全ての歌唱データの対象区間に該当する部分を合成対象と決定する。一方、S322では、制御部11は、基準点を満たす歌唱データと基準点を満たさない歌唱データのうち、対象区間内に特徴波形が含まれていない全ての歌唱データの対象区間に該当する部分を合成対象と決定する。あるいは、S314で基準点を満たす歌唱データが存在しないと判定した場合に進むS324では、制御部11は、採点結果が最も高い歌唱データの対象区間に該当する部分を合成対象と決定する。S326では、制御部11は、S320、S322又はS324において合成対象と決定した歌唱データの対象区間内における音高波形を合成し、対象区間に対応する基準データを作成する。
In S320, the
ここで、S326における基準データの具体的な合成方法について、図7を参照しながら説明する。基本的には、図7(a)に例示されるように、1つ以上の歌唱データから、対象区間内の音高の時間変化を示す音高波形を取得し、取得した各歌唱データの音高波形の平均を算出することで、対象区間に対応する音高の基準を示す基準データを得る。複数の歌唱データの音高を平均して基準データを得る方法では、各歌唱データ間でベースとなるキーが揃っていることが前提となる。しかしながら、実際には、楽曲の演奏時において独自にキーコントロールが適用されることで、同じ楽曲に対応する歌唱データであっても、ベースとなるキーが歌唱データごとに異なる場合がある。その場合、たとえ相対的な音程の変化が同じであっても、絶対的な音高が相違する。そのため、単純に各歌唱データの音高の平均を取っても、正確な音高が反映された基準データにならない場合がある。 Here, a specific method of combining the reference data in S326 will be described with reference to FIG. Basically, as exemplified in FIG. 7 (a), a pitch waveform indicating a temporal change in pitch within the target section is acquired from one or more song data, and the sound of each acquired song data is acquired. By calculating the average of the high waveforms, reference data indicating the pitch reference corresponding to the target section is obtained. In the method of obtaining reference data by averaging the pitches of a plurality of song data, it is premised that the keys serving as the base are aligned among the song data. However, in practice, the key control is independently applied during the performance of the music, so that even if the song data corresponds to the same music, the base key may be different for each song data. In that case, even if the relative pitch changes are the same, the absolute pitches are different. For this reason, even if the average of the pitches of each song data is simply taken, there may be cases where the reference data does not reflect the accurate pitches.
そこで、図7(b)に例示されるように、各歌唱データの相対的な音程の変化のみを平均化した基準データを作成する。これに伴い、各歌唱データの先頭音やロングトーンの音高から特定した基準キーを記憶しておく。そして、記憶した基準キーの中から最頻出のものを、作成した基準データの絶対的な音高を決定付ける基準キーに適用する。このようにして作成された基準データによれば、ユーザがカラオケ装置20でキーコントロールを設定したときに、基準データに対応する基準キーをキーコントロールの設定値に応じて変更することで、基準データにキーコントロールを反映できる。
Therefore, as illustrated in FIG. 7B, reference data is created by averaging only the relative pitch changes of each song data. Along with this, the reference key specified from the head tone of each singing data and the pitch of the long tone is stored. Then, the most frequently stored reference key is applied to the reference key that determines the absolute pitch of the generated reference data. According to the reference data created in this way, when the user sets the key control with the
図5のフローチャートの説明に戻る。次のS328では、制御部11は、S310で取得した各歌唱データの基準キーをメモリに記憶し、S304に戻る。以降、制御部11は、所定区間に分割した歌唱データについて、最終の区間に対応する基準データの作成が終わるまで、S304〜S328の処理を順次繰返す。そして、S304において基準データを合成していない区間がないと判定した場合(S304:NO)、制御部11はS330に進む。S330では、制御部11は、メモリに記憶されている基準キーのうち最多のキーを、作成した基準データに適用する基準キーと設定する。設定された基準キーは、作成した基準データに対応付けて記録される。基準キーの設定後、制御部11はメインルーチンに戻る。
Returning to the flowchart of FIG. In next S328, the
[歌唱データ記録処理の説明]
サーバ10の制御部11が実行する歌唱データ記録処理の手順について、図8のフローチャートを参照しながら説明する。この処理は、カラオケ装置20において録音された歌唱データを含む情報がカラオケ装置20から送信されてきたときに実行される。
[Description of song data recording process]
The procedure of the song data recording process executed by the
S400では、制御部11は、カラオケ装置20から、歌唱データに対応付けられた楽曲の楽曲ID、歌唱データ、及び歌唱者属性を受信する。ここで受信するデータは、カラオケ装置20において実行される上述のメイン処理(図3参照)のS116において送信されるデータである。
In S <b> 400, the
次のS402では、制御部11は、受信した歌唱データに固有の歌唱データIDを付与して記憶部12に保存する。また、制御部11は、受信した楽曲ID及び歌唱者属性を歌唱データIDに対応付けて、記憶部12に記憶されている歌唱データリスト(図2(a)参照)に記録する。データを保存した後、制御部11は本処理を終了する。
In next step S <b> 402, the
[歌唱評価処理の説明]
カラオケ装置20の採点処理部24において実行される歌唱評価処理の手順について、図9のフローチャートを参照しながら説明する。この処理は、上述のメイン処理(図3参照)のS112において実行されるサブルーチンである。
[Description of singing evaluation process]
The procedure of the song evaluation process performed in the
S500では、採点処理部24は、S110(図3参照)で取得された歌唱データに記録された歌唱音声の音高の時間変化を示す音高データを取得する。S502では、採点処理部24は、S500で取得した音高データから基準キーを特定する。ここでは、例えば、音高データの先頭音やロングトーン等の任意の箇所の音高を基準キーとして取得する。S504では、採点処理部24は、S106(図3参照)で取得した基準データに設定されている基準キーに対し、楽曲の演奏時に適用されたキーコントロールの設定値を反映して基準データの音高を補正する。そして、S506では、採点処理部24は、キーコントロールを反映した基準データと、音高データとの音高を比較し、音高の差分に応じて点数を付ける。具体的には、基準データと音高データとの音高の差分が小さいほど、高い得点を付与する。S506の処理後メインルーチンに戻る。
In S500, the
[効果]
実施形態のカラオケシステム1によれば、以下の効果を奏する。
楽曲が実際に歌唱された歌唱音声を表す複数の歌唱データの中から、歌唱が上手い歌唱データを選別して基準データの作成に用いることで、正確性の高い基準データを作成できる。さらに、基準データの作成に用いるサンプルとして、演奏される楽曲の歌唱者と性別等の属性が一致する歌唱者の歌唱データを抽出することで、演奏される楽曲の歌唱者の性質に合った基準データを作成できる。あるいは、演奏される楽曲のオリジナルの歌唱者(アーティスト)と性別等の属性が一致する歌唱者の歌唱データを抽出することで、演奏される楽曲本来の性質に合った基準データを作成できる。
[effect]
The
Highly accurate reference data can be created by selecting song data that is well sung from a plurality of song data that represents the singing voice of the song that is actually sung and using it for creating the reference data. Furthermore, as a sample used to create the reference data, by extracting the singing data of the singer whose attributes such as sex match the singer of the music to be played, a standard that matches the nature of the singer of the music to be played Can create data. Alternatively, by extracting singing data of a singer whose attributes such as sex match the original singer (artist) of the music to be played, reference data that matches the original nature of the music to be played can be created.
カラオケ装置20において歌唱された歌唱音声を記録した歌唱データを、サーバ10が収集し蓄積することができる。基準データのサンプルとなる歌唱データが多ければ、より優れた基準データを作成できる。
The
歌唱データから基準データを合成する際、例えばビブラートのような音高を意図的に揺らす歌唱技法が含まれる歌唱データを合成の対象から除外できる。これにより、より正確な音高の基準を示す基準データを作成できる。このとき、歌唱技法の特徴波形が多く含まれる上級者の歌唱データを基準データの作成に用いない代わりに、特殊な歌唱技法を用いない中程度の歌唱力に相当する歌唱データを用いることができる。 When synthesizing the reference data from the singing data, for example, singing data including a singing technique that intentionally shakes the pitch, such as vibrato, can be excluded from the synthesis target. Thereby, reference data indicating a more accurate pitch reference can be created. At this time, singing data corresponding to medium singing ability without using a special singing technique can be used instead of using the singing data of the advanced person including many characteristic waveforms of the singing technique for creating the reference data. .
同じ楽曲に対応する歌唱データであっても、上手に歌えている箇所とそうでない箇所が歌唱者によって異なる場合がある。そこで、1つの歌唱データを所定時間ごと又は所定フレーズごとに分けた区間ごとに歌唱を評価し、各区間から評価のよい部分の歌唱データを選んで基準データを作成することで、全ての区間において正確性の高い基準データを作成できる。 Even if it is the song data corresponding to the same music, the part which is singing well and the part which is not so may differ depending on the singer. Therefore, by evaluating the singing for each section obtained by dividing one singing data every predetermined time or every predetermined phrase, by selecting the singing data of the good evaluation from each section and creating the reference data, in all the sections Highly accurate reference data can be created.
複数の歌唱データから基準データを合成する方法として、選択された複数の歌唱データで示される歌唱音声の相対的な音程の時間変化を平均化し、平均化した音程の時間変化に対して所定の基準キーを付与する。このようにすることで、キーが異なる複数の歌唱データからでも正しい音高の基準データを作成できる。 As a method of synthesizing the reference data from a plurality of song data, the time intervals of the relative pitches of the singing voices indicated by the plurality of selected song data are averaged, and a predetermined standard for the time changes of the averaged pitches Give a key. By doing in this way, the correct pitch reference data can be created even from a plurality of song data with different keys.
[変形例]
上述の実施形態では、サーバ10が作成した基準データを、作成を要求した要求元のカラオケ装置20に対して送信し、送信された基準データに基づいてカラオケ装置20が歌唱を評価する事例について説明した。この他にも、サーバ10が作成した基準データを用いて、サーバ10が歌唱の評価を行うような構成であってもよい。具体的には、サーバ10は、作成した基準データを記憶部12に記憶しておく。そして、サーバ10は、カラオケ装置20から歌唱音声が記録された歌唱データを受信し、受信した歌唱データで示される歌唱音声を保有している基準データを用いて、歌唱を採点する。サーバ10は、歌唱の採点結果を歌唱データの送信元であるカラオケ装置20に送信する。
[Modification]
In the above-described embodiment, the reference data created by the
上述の実施形態では、サーバ10が、合成処理(図5参照)のときに歌唱データに対する基準データなしの採点を実施する(S308)事例について説明した。これとは別に、歌唱データ記録処理(図8参照)でカラオケ装置20から歌唱データを受信したときに、予め採点を実施する構成にしてもよい。その場合、歌唱データの採点結果(図6(a)参照)を、歌唱データリスト(図2(a)参照)の歌唱データIDに対応付けて記録しておくことが考えられる。そうすることで、合成処理のときに歌唱データリストから採点結果を参照し、基準データの合成に採用する歌唱データを選択することができる。あるいは、基準データの合成に採用する、歌唱が上手な歌唱データを選択する基準として、ユーザからの評価を用いる構成であってもよい。具体的には、カラオケ装置20において作成された歌唱データに対してユーザからの主観的な評価を受付け、その評価結果を歌唱データと共にサーバ10にアップロードするといった方法が考えられる。
In the above-described embodiment, the case where the
サーバ10は、基準データの作成専用に用意されるものに限らず、例えば、広域ネットワークに接続された複数のカラオケ装置20がそれぞれサーバ10の機能を持つ構成であってもよい。その場合、カラオケ装置20間で歌唱データを交換してもよいし、各カラオケ装置20が、それぞれ自前の歌唱データのみを用いて基準データを作成する構成でもよい。あるいは、サーバ10で行われる処理は、単独のサーバに限らず、広域ネットワークを介してカラオケシステム1に接続された携帯端末や任意の端末装置で行われてもよい。
The
サーバ10に蓄積される歌唱データは、ユーザがカラオケ装置20で歌唱を行えば行うほど増え、それに伴って上手な歌唱者のサンプルが多く集まると考えられる。そこで、基準データを作成済みの楽曲について、定期的に基準データを更新するように構成してもよい。あるいは、歌唱データを受信する都度、受信した歌唱データに対する採点を行い、採点結果が良好な歌唱データを受信した段階で、その歌唱データに対応する楽曲の基準データを更新してもよい。
The singing data stored in the
[特許請求の範囲に記載の構成との対応]
実施形態に記載の構成と、特許請求の範囲に記載の構成との対応は次のとおりである。
サーバ10が基準データ作成装置に相当する。このうち、記憶部12が、記憶手段及び基準データ記憶手段に相当する。制御部11が、抽出手段、基準評価手段、選択手段、作成手段、歌唱データ記録手段、及び、歌唱評価手段に相当する。制御部11及び通信部13が、演奏情報取得手段、歌唱データ取得手段、基準送信手段、及び、歌唱結果取得手段に相当する。カラオケ装置20が演奏端末装置に相当する。このうち、制御部21及び通信部28が、演奏情報送信手段及び基準データ取得手段に相当する。採点処理部24が評価手段に相当する。
[Correspondence with configuration described in claims]
The correspondence between the configuration described in the embodiment and the configuration described in the claims is as follows.
The
1…カラオケシステム、10…サーバ、11…制御部、12…記憶部、13…通信部、20…カラオケ装置、21…制御部、22…記憶部、23…楽曲再生部、24…採点処理部、25…音声制御部、25a…マイク入力部、25b…出力部、26…映像制御部、27…操作部、28…通信部、30…マイク、31…スピーカ、32…モニタ。
DESCRIPTION OF
Claims (10)
楽曲の演奏を行う演奏端末装置から、演奏される楽曲を識別する楽曲識別情報と、前記演奏される楽曲を歌唱する歌唱者の属性を示す歌唱者属性情報とを取得する演奏情報取得手段と、
前記記憶手段に記憶されている歌唱データの中から、前記演奏情報取得手段により取得された楽曲識別情報で示される楽曲と対応付けられ、かつ、取得された楽曲識別情報に対応する楽曲属性情報、又は取得された歌唱者属性情報で示される歌唱者の属性の何れかと対応する歌唱者属性情報が対応付けられた歌唱データを抽出する抽出手段と、
前記歌唱データに示される歌唱音声の音高と、前記歌唱音声の音高に対応する基準の音階との差に基づいて、前記歌唱音声を評価する基準評価手段と、
前記抽出手段により抽出された歌唱データの中から、前記基準評価手段による評価結果が所定の基準を満たす歌唱データを選択する選択手段と、
前記選択手段によって選択された歌唱データで示される歌唱音声の音高情報に基づいて、前記演奏される楽曲の音高列の基準を示す基準データを作成する作成手段と、
を備えることを特徴とする基準データ作成装置。 A plurality of singing data representing the sung voice, music identification information for identifying music associated with each singing data, and singer attribute information or music indicating the attributes of the singer associated with each singing data Storage means for storing music attribute information indicating attributes of a predetermined singer associated with
Performance information acquisition means for acquiring music identification information for identifying a music to be played and singer attribute information indicating an attribute of a singer who sings the music to be played, from a performance terminal device for performing the music;
The song attribute information corresponding to the song identification information acquired and associated with the song indicated by the song identification information acquired by the performance information acquisition unit from the song data stored in the storage unit, Or extraction means for extracting song data associated with any one of the attributes of the singer indicated by the acquired singer attribute information and corresponding singer attribute information;
Reference evaluation means for evaluating the singing voice based on the difference between the pitch of the singing voice indicated in the singing data and a reference scale corresponding to the pitch of the singing voice;
A selection unit that selects song data in which the evaluation result by the reference evaluation unit satisfies a predetermined criterion from among the song data extracted by the extraction unit;
Creating means for creating reference data indicating the reference of the pitch sequence of the music to be played, based on the pitch information of the singing voice indicated by the singing data selected by the selecting means;
A reference data creation device comprising:
楽曲の演奏を行う演奏端末装置から、演奏に合わせて歌唱された歌唱音声が記録された歌唱データと、前記歌唱データに対応する楽曲を識別する楽曲識別情報と、前記歌唱データに対応する歌唱者の属性を示す歌唱者属性情報とを取得する歌唱データ取得手段と、
前記歌唱データ取得手段により取得された歌唱データと、楽曲識別情報と、歌唱者属性情報とを対応付けて前記記憶手段に記録する歌唱データ記録手段と、
を更に備えることを特徴とする基準データ作成装置。 In the reference data creation device according to claim 1,
Singing data in which singing voices sung in accordance with the performance are recorded from the performance terminal device performing the music, music identification information for identifying the music corresponding to the song data, and a singer corresponding to the song data Singing data acquisition means for acquiring singer attribute information indicating the attributes of
Singing data recording means for associating the song data acquired by the singing data acquisition means, the music identification information, and the singer attribute information in the storage means;
A reference data creation device further comprising:
前記作成手段により作成された基準データを、前記演奏情報取得手段により前記楽曲識別情報と前記歌唱者属性情報とを取得した演奏端末装置に送信する基準送信手段を更に備えること、
を特徴とする基準データ作成装置。 In the reference data creation device according to claim 1 or claim 2,
Further comprising reference transmission means for transmitting the reference data created by the creation means to the performance terminal device that has acquired the music identification information and the singer attribute information by the performance information acquisition means;
Reference data creation device characterized by
前記作成手段により作成された基準データを、前記基準データを作成した楽曲の楽曲識別情報と対応付けて記憶する基準データ記憶手段と、
楽曲の演奏を行う演奏端末装置から、歌唱音声が記録された歌唱データと、前記歌唱データに対応する楽曲識別情報とを取得する歌唱結果取得手段と、
前記歌唱結果取得手段により取得された歌唱データで示される歌唱音声を、前記歌唱データに対応する楽曲識別情報に該当する基準データを用いて評価する歌唱評価手段と、
を更に備えることを特徴とする基準データ作成装置。 In the reference data creation device according to any one of claims 1 to 3,
Reference data storage means for storing the reference data created by the creation means in association with the music identification information of the music that created the reference data;
Singing result acquisition means for acquiring singing data in which singing voice is recorded and music identification information corresponding to the singing data, from a performance terminal device that performs the performance of the music;
Singing evaluation means for evaluating the singing voice indicated by the singing data acquired by the singing result acquiring means using reference data corresponding to the music identification information corresponding to the singing data;
A reference data creation device further comprising:
前記選択手段は、前記評価結果が所定の基準を満たす歌唱データのうち、音高を示す波形の中に所定の特徴波形が含まれる歌唱データは選択しないこと、
を特徴とする基準データ作成装置。 In the reference data creation device according to any one of claims 1 to 4,
The selection means does not select singing data in which a predetermined characteristic waveform is included in a waveform indicating a pitch among singing data in which the evaluation result satisfies a predetermined criterion;
Reference data creation device characterized by
前記選択手段は、前記評価結果が所定の基準を満たさず、前記特徴波形を含まない歌唱データを選択すること、
を特徴とする基準データ作成装置。 In the reference data creation device according to claim 5,
The selecting means selects the singing data in which the evaluation result does not satisfy a predetermined standard and does not include the characteristic waveform;
Reference data creation device characterized by
前記基準評価手段は、1つの歌唱データで表される歌唱音声を所定時間ごとの複数の区間に分割した区間単位で歌唱を評価し、
前記選択手段は、抽出された各歌唱データにおける全ての区間について、各区間単位の評価結果が所定の基準を満たす区間に対応する部分の歌唱データを選択し、
前記作成手段は、前記選択手段によって選択された各区間単位の歌唱データで示される歌唱音声の音高情報に基づいて、前記演奏される楽曲の音高列の基準を示す基準データを作成すること、
を特徴とする基準データ作成装置。 In the reference data creation device according to any one of claims 1 to 6,
The reference evaluation means evaluates the singing in units of sections obtained by dividing the singing voice represented by one singing data into a plurality of sections every predetermined time,
The selection means selects, for all sections in each extracted song data, the song data corresponding to a section in which the evaluation result of each section satisfies a predetermined criterion,
The creation means creates reference data indicating the reference of the pitch sequence of the music to be played based on the pitch information of the singing voice indicated by the singing data for each section selected by the selection means. ,
Reference data creation device characterized by
前記選択手段は、前記抽出手段により抽出された歌唱データの中から、前記基準評価手段による評価結果が所定の基準を満たす複数の歌唱データを選択し、
前記作成手段は、選択された複数の歌唱データで示される歌唱音声の相対的な音程の時間変化を平均化し、平均化した音程の時間変化に対して所定の基準音高を付与して基準データを作成すること、
を特徴とする基準データ作成装置。 In the reference data creation device according to any one of claims 1 to 7,
The selection means selects a plurality of song data from which the evaluation result by the reference evaluation means satisfies a predetermined standard from among the song data extracted by the extraction means,
The creation means averages the relative time variations of the singing voices indicated by the plurality of selected singing data, and assigns a predetermined reference pitch to the averaged time variations of the singing sound, thereby providing reference data. Creating
Reference data creation device characterized by
楽曲の演奏を行う演奏端末装置から、演奏される楽曲を識別する楽曲識別情報と、前記演奏される楽曲を歌唱する歌唱者の属性を示す歌唱者属性情報とを取得する演奏情報取得手段と、
前記記憶手段に記憶されている歌唱データの中から、前記演奏情報取得手段により取得された楽曲識別情報で示される楽曲と対応付けられ、かつ、取得された楽曲識別情報に対応する楽曲属性情報、又は取得された歌唱者属性情報で示される歌唱者の属性の何れかと対応する歌唱者属性情報が対応付けられた歌唱データを抽出する抽出手段と、
前記歌唱データに示される歌唱音声の音高と、前記歌唱音声の音高に対応する基準の音階との差に基づいて、前記歌唱音声を評価する基準評価手段と、
前記抽出手段により抽出された歌唱データの中から、前記基準評価手段による評価結果が所定の基準を満たす歌唱データを選択する選択手段と、
前記選択手段によって選択された歌唱データで示される歌唱音声の音高情報に基づいて、前記演奏される楽曲の音高列の基準を示す基準データを作成する作成手段と、
を備える基準データ作成装置と、
楽曲を演奏する演奏端末装置であって、
演奏をする楽曲に対応する基準データを保有していないとき、演奏をする楽曲を識別する楽曲識別情報と、演奏をする楽曲に合わせて歌唱する歌唱者の属性を示す歌唱者属性情報とを、前記基準データ作成装置に送信する演奏情報送信手段を備える演奏端末装置と、
を有すること特徴とする基準データ作成システム。 A plurality of singing data representing the sung voice, music identification information for identifying music associated with each singing data, and singer attribute information or music indicating the attributes of the singer associated with each singing data Storage means for storing music attribute information indicating attributes of a predetermined singer associated with
Performance information acquisition means for acquiring music identification information for identifying a music to be played and singer attribute information indicating an attribute of a singer who sings the music to be played, from a performance terminal device for performing the music;
The song attribute information corresponding to the song identification information acquired and associated with the song indicated by the song identification information acquired by the performance information acquisition unit from the song data stored in the storage unit, Or extraction means for extracting song data associated with any one of the attributes of the singer indicated by the acquired singer attribute information and corresponding singer attribute information;
Reference evaluation means for evaluating the singing voice based on the difference between the pitch of the singing voice indicated in the singing data and a reference scale corresponding to the pitch of the singing voice;
A selection unit that selects song data in which the evaluation result by the reference evaluation unit satisfies a predetermined criterion from among the song data extracted by the extraction unit;
Creating means for creating reference data indicating the reference of the pitch sequence of the music to be played, based on the pitch information of the singing voice indicated by the singing data selected by the selecting means;
A reference data creation device comprising:
A performance terminal device for playing music,
When the reference data corresponding to the music to be played is not possessed, the music identification information for identifying the music to be played and the singer attribute information indicating the attributes of the singer singing along with the music to be played, A performance terminal device comprising performance information transmitting means for transmitting to the reference data creation device;
A reference data creation system characterized by comprising:
楽曲の演奏を行う演奏端末装置から、演奏される楽曲を識別する楽曲識別情報と、前記演奏される楽曲を歌唱する歌唱者の属性を示す歌唱者属性情報とを取得する演奏情報取得手段と、
前記記憶手段に記憶されている歌唱データの中から、前記演奏情報取得手段により取得された楽曲識別情報で示される楽曲と対応付けられ、かつ、取得された楽曲識別情報に対応する楽曲属性情報、又は取得された歌唱者属性情報で示される歌唱者の属性の何れかと対応する歌唱者属性情報が対応付けられた歌唱データを抽出する抽出手段と、
前記歌唱データに示される歌唱音声の音高と、前記歌唱音声の音高に対応する基準の音階との差に基づいて、前記歌唱音声を評価する基準評価手段と、
前記抽出手段により抽出された歌唱データの中から、前記基準評価手段による評価結果が所定の基準を満たす歌唱データを選択する選択手段と、
前記選択手段によって選択された歌唱データで示される歌唱音声の音高情報に基づいて、前記演奏される楽曲の音高列の基準を示す基準データを作成する作成手段と、
を備える基準データ作成装置と通信する演奏端末装置であって、
演奏をする楽曲に対応する基準データを保有していないとき、演奏をする楽曲を識別する楽曲識別情報と、演奏をする楽曲に合わせて歌唱する歌唱者の属性を示す歌唱者属性情報とを、前記基準データ作成装置に送信する演奏情報送信手段と、
前記演奏情報送信手段によって送信された楽曲識別情報と歌唱者属性情報とに基づき前記基準データ作成装置によって作成された基準データを取得する基準データ取得手段と、
前記基準データ取得手段により取得された基準データを用いて、演奏をする楽曲に合わせて入力される前記歌唱者の歌唱音声を評価する評価手段と、
を備えることを特徴とする演奏端末装置。 A plurality of singing data representing the sung voice, music identification information for identifying music associated with each singing data, and singer attribute information or music indicating the attributes of the singer associated with each singing data Storage means for storing music attribute information indicating attributes of a predetermined singer associated with
Performance information acquisition means for acquiring music identification information for identifying a music to be played and singer attribute information indicating an attribute of a singer who sings the music to be played, from a performance terminal device for performing the music;
The song attribute information corresponding to the song identification information acquired and associated with the song indicated by the song identification information acquired by the performance information acquisition unit from the song data stored in the storage unit, Or extraction means for extracting song data associated with any one of the attributes of the singer indicated by the acquired singer attribute information and corresponding singer attribute information;
Reference evaluation means for evaluating the singing voice based on the difference between the pitch of the singing voice indicated in the singing data and a reference scale corresponding to the pitch of the singing voice;
A selection unit that selects song data in which the evaluation result by the reference evaluation unit satisfies a predetermined criterion from among the song data extracted by the extraction unit;
Creating means for creating reference data indicating the reference of the pitch sequence of the music to be played, based on the pitch information of the singing voice indicated by the singing data selected by the selecting means;
A performance terminal device that communicates with a reference data creation device comprising:
When the reference data corresponding to the music to be played is not possessed, the music identification information for identifying the music to be played and the singer attribute information indicating the attributes of the singer singing along with the music to be played, Performance information transmitting means for transmitting to the reference data creating device;
Reference data acquisition means for acquiring reference data created by the reference data creation device based on music identification information and singer attribute information transmitted by the performance information transmission means;
Using the reference data acquired by the reference data acquisition means, evaluation means for evaluating the singing voice of the singer input in accordance with the music to be performed;
A performance terminal device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013066705A JP6065703B2 (en) | 2013-03-27 | 2013-03-27 | Reference data creation system and performance terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013066705A JP6065703B2 (en) | 2013-03-27 | 2013-03-27 | Reference data creation system and performance terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014191192A true JP2014191192A (en) | 2014-10-06 |
JP6065703B2 JP6065703B2 (en) | 2017-01-25 |
Family
ID=51837474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013066705A Active JP6065703B2 (en) | 2013-03-27 | 2013-03-27 | Reference data creation system and performance terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6065703B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016534406A (en) * | 2013-08-28 | 2016-11-04 | イ・ソンホLee Sung−Ho | Sound source evaluation method, performance information analysis method and recording medium used therefor, and sound source evaluation device using the same |
WO2017068990A1 (en) * | 2015-10-22 | 2017-04-27 | ヤマハ株式会社 | Musical sound evaluation device, evaluation criteria generation device, and recording medium |
WO2017082061A1 (en) * | 2015-11-10 | 2017-05-18 | ヤマハ株式会社 | Tuning estimation device, evaluation apparatus, and data processing apparatus |
JP2017134346A (en) * | 2016-01-29 | 2017-08-03 | ブラザー工業株式会社 | Karaoke system, karaoke device and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06295192A (en) * | 1993-04-09 | 1994-10-21 | Matsushita Electric Ind Co Ltd | Comparing device |
JPH1185171A (en) * | 1997-09-02 | 1999-03-30 | Takako Ito | Reference interval signal forming device for karaoke sing-along machine and key adjustment signal forming device utilizing the same as well as song grading device |
JP2007271977A (en) * | 2006-03-31 | 2007-10-18 | Yamaha Corp | Evaluation standard decision device, control method, and program |
JP2007334364A (en) * | 2007-08-06 | 2007-12-27 | Yamaha Corp | Karaoke equipment |
JP2010107911A (en) * | 2008-10-31 | 2010-05-13 | Daiichikosho Co Ltd | Singing recording system |
JP2010237257A (en) * | 2009-03-30 | 2010-10-21 | Yamaha Corp | Evaluation device |
-
2013
- 2013-03-27 JP JP2013066705A patent/JP6065703B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06295192A (en) * | 1993-04-09 | 1994-10-21 | Matsushita Electric Ind Co Ltd | Comparing device |
JPH1185171A (en) * | 1997-09-02 | 1999-03-30 | Takako Ito | Reference interval signal forming device for karaoke sing-along machine and key adjustment signal forming device utilizing the same as well as song grading device |
JP2007271977A (en) * | 2006-03-31 | 2007-10-18 | Yamaha Corp | Evaluation standard decision device, control method, and program |
JP2007334364A (en) * | 2007-08-06 | 2007-12-27 | Yamaha Corp | Karaoke equipment |
JP2010107911A (en) * | 2008-10-31 | 2010-05-13 | Daiichikosho Co Ltd | Singing recording system |
JP2010237257A (en) * | 2009-03-30 | 2010-10-21 | Yamaha Corp | Evaluation device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016534406A (en) * | 2013-08-28 | 2016-11-04 | イ・ソンホLee Sung−Ho | Sound source evaluation method, performance information analysis method and recording medium used therefor, and sound source evaluation device using the same |
WO2017068990A1 (en) * | 2015-10-22 | 2017-04-27 | ヤマハ株式会社 | Musical sound evaluation device, evaluation criteria generation device, and recording medium |
JP2017083484A (en) * | 2015-10-22 | 2017-05-18 | ヤマハ株式会社 | Musical sound evaluation apparatus and evaluation standard generation apparatus |
US10453435B2 (en) | 2015-10-22 | 2019-10-22 | Yamaha Corporation | Musical sound evaluation device, evaluation criteria generating device, method for evaluating the musical sound and method for generating the evaluation criteria |
WO2017082061A1 (en) * | 2015-11-10 | 2017-05-18 | ヤマハ株式会社 | Tuning estimation device, evaluation apparatus, and data processing apparatus |
US20180357920A1 (en) * | 2015-11-10 | 2018-12-13 | Yamaha Corporation | Tuning estimating apparatus, evaluating apparatus, and data processing apparatus |
US10733900B2 (en) | 2015-11-10 | 2020-08-04 | Yamaha Corporation | Tuning estimating apparatus, evaluating apparatus, and data processing apparatus |
JP2017134346A (en) * | 2016-01-29 | 2017-08-03 | ブラザー工業株式会社 | Karaoke system, karaoke device and program |
Also Published As
Publication number | Publication date |
---|---|
JP6065703B2 (en) | 2017-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6452229B2 (en) | Karaoke sound effect setting system | |
JP2009244789A (en) | Karaoke system with guide vocal creation function | |
JP6065703B2 (en) | Reference data creation system and performance terminal device | |
JP4926756B2 (en) | Karaoke sound effect output system | |
JP5151245B2 (en) | Data reproducing apparatus, data reproducing method and program | |
JP6501344B2 (en) | Karaoke scoring system considering listener's evaluation | |
JP5772054B2 (en) | Singing evaluation device | |
JP5980931B2 (en) | Content reproduction method, content reproduction apparatus, and program | |
JP5459331B2 (en) | Post reproduction apparatus and program | |
JP2014071226A (en) | Music reproduction system and music reproduction method | |
JP2007233078A (en) | Evaluation device, control method, and program | |
JP5457791B2 (en) | Karaoke scoring system | |
JP6316099B2 (en) | Karaoke equipment | |
JP6365483B2 (en) | Karaoke device, karaoke system, and program | |
JP5218509B2 (en) | Karaoke equipment, karaoke system | |
JP4182782B2 (en) | Karaoke equipment | |
JP2017102253A (en) | Sound effect imparting device and sound effect imparting program | |
JP6219750B2 (en) | Singing battle karaoke system | |
JP5660408B1 (en) | Posted music performance system and posted music performance method | |
JP6611633B2 (en) | Karaoke system server | |
JP6003861B2 (en) | Acoustic data creation device, program | |
JP6048437B2 (en) | Information processing device, program, karaoke system | |
JP6115480B2 (en) | Karaoke device, program | |
JP6177091B2 (en) | Singing scoring system | |
JP5980930B2 (en) | CONTENT REPRODUCTION METHOD, CONTENT REPRODUCTION DEVICE, CONTENT REPRODUCTION SYSTEM, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6065703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |