JP6954780B2 - Karaoke equipment - Google Patents
Karaoke equipment Download PDFInfo
- Publication number
- JP6954780B2 JP6954780B2 JP2017147475A JP2017147475A JP6954780B2 JP 6954780 B2 JP6954780 B2 JP 6954780B2 JP 2017147475 A JP2017147475 A JP 2017147475A JP 2017147475 A JP2017147475 A JP 2017147475A JP 6954780 B2 JP6954780 B2 JP 6954780B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- singing
- karaoke
- reference data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 claims description 226
- 238000011156 evaluation Methods 0.000 claims description 64
- 230000014509 gene expression Effects 0.000 claims description 57
- 230000002996 emotional effect Effects 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 24
- 238000000034 method Methods 0.000 claims description 15
- 238000013500 data storage Methods 0.000 claims description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
本発明はカラオケ装置に関する。 The present invention relates to a karaoke device.
カラオケ装置は、マイクにより入力された歌唱音声から抽出した歌唱音声データと、カラオケ演奏された楽曲の主旋律を示すリファレンスデータとを比較することにより、カラオケ歌唱の採点を行うことができる。 The karaoke device can score karaoke singing by comparing the singing voice data extracted from the singing voice input by the microphone with the reference data indicating the main melody of the music played in karaoke.
たとえば、特許文献1には、カラオケ演奏に合わせてマイクから入力される歌唱音声信号から音高データ及び音長データを抽出し、カラオケ演奏に並行して読み出されるガイドメロディと比較することによって歌唱の巧拙を採点評価する技術が開示されている。
For example, in
一方、歌唱者の歌唱スキルには差があるため、一生懸命歌っていてもリファレンスデータとの乖離が大きい場合には十分な採点評価を得ることができない。そこで、特許文献2には、歌唱に相当する音声から感情の込め方と相関のある感情特徴量を抽出し、当該感情特徴量に基づいて歌唱に込められた感情を分析する技術が開示されている。このような技術によれば、歌唱者の感情表現を評価することができる。 On the other hand, since there is a difference in the singing skills of the singers, even if they sing hard, if the deviation from the reference data is large, it is not possible to obtain a sufficient scoring evaluation. Therefore, Patent Document 2 discloses a technique for extracting an emotional feature amount that correlates with how to put emotions from a voice corresponding to singing and analyzing the emotions put into the singing based on the emotional feature amount. There is. According to such a technique, the emotional expression of the singer can be evaluated.
ところで、カラオケ楽曲(カラオケ楽曲に含まれる各歌唱区間)は、歌詞や曲調等により、楽しい雰囲気や哀しい雰囲気等、様々な雰囲気が表現されている。従って、カラオケ楽曲毎の雰囲気を考慮した感情表現を伴う歌唱は巧いカラオケ歌唱であるといえる。 By the way, in karaoke music (each singing section included in the karaoke music), various atmospheres such as a fun atmosphere and a sad atmosphere are expressed by lyrics and tunes. Therefore, it can be said that singing with emotional expression considering the atmosphere of each karaoke song is a skillful karaoke singing.
ここで、特許文献2に開示されている技術では、カラオケ楽曲の雰囲気に関わらず、一生懸命歌えば(たとえば音量や熱唱度が高くなれば)高評価になってしまう。すなわち、特許文献2に開示されている技術では、カラオケ楽曲の雰囲気を考慮した感情表現の評価を行うことができない。 Here, in the technique disclosed in Patent Document 2, regardless of the atmosphere of the karaoke music, if the song is sung hard (for example, if the volume and the degree of enthusiasm are high), the evaluation will be high. That is, the technique disclosed in Patent Document 2 cannot evaluate the emotional expression in consideration of the atmosphere of the karaoke music.
本発明の目的は、カラオケ楽曲の雰囲気にふさわしい感情表現で歌唱が行われているかを適切に評価可能なカラオケ装置を提供することにある。 An object of the present invention is to provide a karaoke device capable of appropriately evaluating whether or not singing is performed with an emotional expression suitable for the atmosphere of a karaoke music.
上記目的を達成するための主たる発明は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する感情リファレンスデータ取得部と、前記カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを前記歌唱区間毎に生成する歌唱感情データ生成部と、前記感情リファレンスデータと前記歌唱感情データとを比較することにより、前記歌唱区間毎の感情表現の評価を行う感情表現評価部と、を有するカラオケ装置である。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
The main invention for achieving the above object is an emotion reference data acquisition unit that acquires emotion reference data indicating emotions to be expressed when singing a karaoke song for each singing section, and an emotion reference data acquisition unit obtained by singing the karaoke song. By comparing the emotion reference data and the singing emotion data with the singing emotion data generation unit that generates the singing emotion data obtained by emotionally analyzing the singing voice, the emotion expression of each singing section can be expressed. It is a karaoke device having an emotion expression evaluation unit for evaluation.
Other features of the present invention will be clarified by the description of the description and drawings described later.
本発明によれば、カラオケ楽曲の雰囲気にふさわしい感情表現で歌唱が行われているかを適切に評価できる。 According to the present invention, it is possible to appropriately evaluate whether or not the singing is performed with an emotional expression suitable for the atmosphere of the karaoke music.
<実施形態>
図1〜図9を参照して、本実施形態に係るカラオケ装置1について説明する。
<Embodiment>
The
==カラオケ装置==
カラオケ装置1は、歌唱者が選曲した楽曲のカラオケ演奏及び歌唱者がカラオケ歌唱を行うための装置である。図1に示すように、カラオケ装置1は、カラオケ本体10、スピーカ20、表示装置30、マイク40、及びリモコン装置50を備える。
== Karaoke device ==
The
スピーカ20はカラオケ本体10からの放音信号に基づいて放音するための構成である。表示装置30はカラオケ本体10からの信号に基づいて映像や画像を画面に表示するための構成である。マイク40は歌唱者の歌唱音声(マイク40からの入力音声)をアナログの歌唱音声信号に変換してカラオケ本体10に入力するための構成である。
The speaker 20 is configured to emit sound based on the sound emitted signal from the karaoke
(カラオケ本体のハードウェア)
図1に示すように、カラオケ本体10は、制御部11、通信部12、記憶部13、音響処理部14、表示処理部15及び操作部16を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。
(Karaoke hardware)
As shown in FIG. 1, the karaoke
カラオケ本体10は、選曲された楽曲のカラオケ演奏制御、歌詞や背景画像等の表示制御、マイク40を通じて入力された歌唱音声信号の処理といった、カラオケ歌唱に関する各種の制御を行う。
The
制御部11は、CPU11aおよびメモリ11bを備える。CPU11aは、メモリ11bに記憶された動作プログラムを実行することにより各種の制御機能を実現する。メモリ11bは、CPU11aに実行されるプログラムを記憶したり、プログラムの実行時に各種情報を一時的に記憶したりする記憶装置である。
The
通信部12は、ルーター(図示なし)を介してカラオケ本体10を通信回線に接続するためのインターフェースを提供する。
The
記憶部13は、各種のデータを記憶する大容量の記憶装置であり、たとえばハードディスクドライブなどである。記憶部13は、カラオケ装置1によりカラオケ演奏を行うための複数の楽曲データを記憶する。
The
楽曲データは、個々のカラオケ楽曲を特定するための識別情報(楽曲ID)が付与されている。楽曲データは、伴奏データ、リファレンスデータ、背景画像データ、歌詞データ及び属性情報を含む。伴奏データは、カラオケ演奏音の元となるMIDI形式のデータである。リファレンスデータは、歌唱者によるカラオケ歌唱を採点する際の基準として用いられるデータである。リファレンスデータは、ピッチ(音高)データ、音長データ、タイミングデータ等を含む。背景画像データは、カラオケ演奏時に合わせて表示装置30等に表示される背景画像に対応するデータである。歌詞データは、表示装置30等に表示させる歌詞(歌詞テロップ)に関するデータである。属性情報は、曲名、歌手名、作詞・作曲者名、及びジャンル等の当該楽曲に関する情報である。
Identification information (music ID) for identifying each karaoke music is added to the music data. The music data includes accompaniment data, reference data, background image data, lyrics data, and attribute information. The accompaniment data is MIDI format data that is the source of the karaoke performance sound. Reference data is data used as a reference when scoring karaoke singing by a singer. The reference data includes pitch (pitch) data, sound length data, timing data, and the like. The background image data is data corresponding to the background image displayed on the
音響処理部14は、制御部11の制御に基づき、カラオケ楽曲に対する演奏の制御およびマイク40を通じて入力された歌唱音声信号の処理を行う。音響処理部14は、たとえばMIDI音源、ミキサ、アンプ(いずれも図示なし)を含む。制御部11は、予約された楽曲の伴奏データを、テンポクロック信号に基づいて順次読み出し、MIDI音源に入力する。MIDI音源は、当該伴奏データに基づいて楽音信号を生成する。ミキサは、当該音楽信号およびマイク40から出力される歌唱音声信号を適当な比率でミキシングしてアンプに出力する。アンプは、ミキサからのミキシング信号を増幅し、放音信号としてスピーカ20へ出力する。これにより、スピーカ20からは放音信号に基づくカラオケ演奏音およびマイク40からの歌唱音声が放音される。
Based on the control of the
表示処理部15は、制御部11の制御に基づき、表示装置30における各種表示に関する処理を行う。たとえば、表示処理部15は、カラオケ演奏時における背景画像に歌詞や各種アイコンが重ねられた映像を表示装置30に表示させる制御を行う。
The
操作部16は、パネルスイッチおよびリモコン受信回路などからなり、歌唱者によるカラオケ装置1のパネルスイッチあるいはリモコン装置50の操作に応じて選曲信号、演奏中止信号などの操作信号を制御部11に対して出力する。制御部11は、操作部16からの操作信号を検出し、対応する処理を実行する。
The
リモコン装置50は、カラオケ本体10に対する各種操作をおこなうための装置である。歌唱者はリモコン装置50を用いて歌唱を希望するカラオケ楽曲の選曲(予約)等を行うことができる。
The
(カラオケ本体のソフトウェア)
図2はカラオケ本体10のソフトウェア構成例を示す図である。カラオケ本体10は、単語−感情タイプデータベース100、曲調−感情タイプデータベース200、感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、及びカラオケ歌唱評価部700を備える。単語−感情タイプデータベース100、及び曲調−感情タイプデータベース200は、記憶部13の記憶領域の一部として提供される。感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、及びカラオケ歌唱評価部700は、CPU11aがメモリ11bに記憶されるプログラムを実行することにより実現される。
(Karaoke main unit software)
FIG. 2 is a diagram showing a software configuration example of the karaoke
[単語−感情タイプデータベース]
単語−感情タイプデータベース100は、様々なカラオケ楽曲の歌詞に含まれる単語それぞれに対し、感情タイプを関連付けたものである。感情タイプは、喜怒哀楽等の一般的な感情表現に相当する。図3は、単語−感情タイプデータベース100に記憶されるデータの一部を示したものである。この例では、感情タイプとして、「喜び」、「怒り」、「哀しみ」の3つが設定されている。各単語には、感情タイプ毎に所定のスコア(この例では1〜5点の5段階)が付与されている。たとえば、単語「いない」に対しては、感情タイプ毎に「喜び:1点、怒り:3点、哀しみ:5点」のスコアが付与されている。
[Word-Emotion type database]
The word-
[曲調−感情タイプデータベース]
曲調−感情タイプデータベース200は、カラオケ楽曲に使用される曲調と感情タイプとを関連付けたものである。図4は、曲調−感情タイプデータベース200に記憶されるデータの一部を示したものである。この例では、図3と同様、感情タイプとして、「喜び」、「怒り」、「哀しみ」の3つのタイプが設定されている。図4の例では、複数のコードで曲調を分類している。各コードには、感情タイプ毎に所定のスコア(この例では1〜5点の5段階)が付与されている。たとえば、メジャーコードに対しては、感情タイプ毎に「喜び:5点、怒り:1点、哀しみ:1点」のスコアが付与されている。また「メジャー」とは、例えばC、E、F、Gなどのメジャーコード(長調の和音)であり、「マイナー」とは、例えばDm、Em、Amなどのマイナーコード(短調の和音)である。
[Song-Emotion Type Database]
The music tone-
なお、一の単語または一の曲調に対しては、少なくとも一つの感情タイプが関連付けられていればよい。たとえば、ある単語(ある曲調)に対して最も支配的な感情タイプを一つだけ関連付けることも可能であるし、逆に4つ以上の感情タイプを関連付けることでもよい。また、単語−感情タイプデータベース100に登録されていない単語が歌詞の中で使われている可能性もありうる。そこで、単語−感情タイプデータベース100は、「その他」として「喜び:1点、怒り:1点、哀しみ:1点」のようなスコアを記憶してもよい。
It is sufficient that at least one emotion type is associated with one word or one tune. For example, it is possible to associate only one most dominant emotion type with a word (a certain tune), or conversely, associate four or more emotion types. It is also possible that words that are not registered in the word-
[感情リファレンスデータ取得部]
感情リファレンスデータ取得部300は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する。
[Emotion reference data acquisition department]
The emotion reference
カラオケ楽曲の各歌唱区間は、それぞれ歌唱にふさわしい雰囲気がある。すなわち、カラオケ楽曲を歌唱する際には、歌唱区間毎に表現すべき適切な感情が存在する。たとえば、哀しい雰囲気を持ったカラオケ楽曲に対しては、哀しみの感情表現を行うことが適切である。感情リファレンスデータは、このような感情表現が適切に行われているかどうかを判断する際に参照するデータである。感情リファレンスデータの取得は、カラオケ楽曲の歌詞及び曲調の少なくとも一方に基づいて行われる。 Each singing section of a karaoke song has an atmosphere suitable for singing. That is, when singing a karaoke song, there are appropriate emotions to be expressed for each singing section. For example, for a karaoke song with a sad atmosphere, it is appropriate to express the feeling of sadness. The emotional reference data is data to be referred to when determining whether or not such emotional expression is properly performed. The acquisition of emotional reference data is performed based on at least one of the lyrics and the tone of the karaoke song.
図5は、カラオケ楽曲Xに含まれる歌唱区間毎の歌詞、及び曲調を示したものである。各歌詞は複数の単語から構成されている。感情リファレンスデータ取得部300は、図5に示した歌唱区間毎に、感情リファレンスデータを取得する。
FIG. 5 shows the lyrics and tunes for each singing section included in the karaoke song X. Each lyrics is composed of multiple words. The emotion reference
たとえば、歌唱区間Aの歌詞は「あなたは」及び「いない」の2つの単語を含む。また、歌唱区間Aのコードは「Am」である(図5参照)。 For example, the lyrics of singing section A include two words, "you" and "not". The code of the singing section A is "Am" (see FIG. 5).
この場合、感情リファレンスデータ取得部300は、単語−感情タイプデータベース100から単語「あなたは」及び単語「いない」それぞれについて、感情タイプ毎のスコアを読み出す。図3の例を参照すると、単語「あなたは」は「喜び:5点、怒り:3点、哀しみ:5点」のスコアであり、単語「いない」は「喜び:1点、怒り:3点、哀しみ:5点」のスコアである。
In this case, the emotion reference
感情リファレンスデータ取得部300は、歌唱区間Aの歌詞(2つの単語)について読み出したスコアを感情タイプ毎に加算する。歌唱区間Aの例では、「喜び:6点、怒り:6点、哀しみ:10点」となる。
The emotion reference
また、感情リファレンスデータ取得部300は、曲調−感情タイプデータベース200からコード「Am」について、感情タイプ毎のスコアを読み出す。図4の例を参照すると、コード「Am」はマイナーであるので「喜び:1点、怒り:3点、哀しみ:5点」のスコアである。
Further, the emotion reference
感情リファレンスデータ取得部300は、歌唱区間Aの歌詞に基づくスコア(喜び:6点、怒り:6点、哀しみ:10点)と、歌唱区間Aの曲調に基づくスコア(喜び:1点、怒り:3点、哀しみ:5点)とを感情タイプ毎に加算した合計スコア(喜び:7点、怒り:9点、哀しみ:15点)を求める。本実施形態においては、一の歌唱区間に含まれる複数の単語から成る歌詞に基づくスコアと、一の曲調に基づくスコアを単純に加算したが、歌唱区間の長さや単語及び曲調の数などに応じて、重み付けをして加算してもよい。
The emotion reference
感情リファレンスデータ取得部300は、残りの歌唱区間B〜Hについても同様に感情タイプ毎の合計スコアを求める(図6A参照)。そして、感情リファレンスデータ取得部300は、感情タイプ毎に加算した合計スコアの比率を歌唱区間毎に算出することで感情リファレンスデータを取得する(図6B参照)。このように、感情リファレンスデータは、感情タイプ毎の数値として取得することができる。
The emotion reference
なお、本実施形態では、歌詞(単語)及び曲調に基づいて感情リファレンスデータを取得する例について述べたが、いずれか一方のみ(たとえば、単語のみ)に基づいて感情リファレンスデータを取得してもよい。また、感情リファレンスデータは、感情タイプの比率に基づく数値でなくてもよい。たとえば、感情リファレンスデータは、ある歌唱区間について、最もスコアが高い感情タイプを100点とし、それ以外の感情タイプを0点としてもよい。図6Bの歌唱区間Aの例でいえば、最もスコアが高い「哀しみ」を100点とし、「喜び」及び「怒り」を0点とすることでもよい。また、本実施形態においては、一の歌唱区間に一のコード(曲調)が含まれている例で説明したが、一の歌唱区間に複数のコードが含まれている場合もありうる。その場合、感情リファレンスデータ取得部300は、複数のコードのスコアを感情タイプ毎に合計したものを一の歌唱区間のスコアとして取得してもよい。
In the present embodiment, an example of acquiring emotion reference data based on lyrics (words) and tunes has been described, but emotion reference data may be acquired based on only one of them (for example, only words). .. Also, the emotion reference data does not have to be a numerical value based on the emotion type ratio. For example, in the emotion reference data, the emotion type with the highest score may be set to 100 points for a certain singing section, and the other emotion types may be set to 0 points. In the example of the singing section A of FIG. 6B, the highest score "sadness" may be set to 100 points, and "joy" and "anger" may be set to 0 points. Further, in the present embodiment, the example in which one chord (tune) is included in one singing section has been described, but there may be a case where a plurality of chords are included in one singing section. In that case, the emotion reference
[歌唱感情データ生成部]
歌唱感情データ生成部400は、カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを歌唱区間毎に生成する。
[Singing emotion data generation unit]
The singing emotion
歌唱感情データは、実際のカラオケ歌唱に込められた感情表現を示すデータである。本実施形態において、歌唱感情データは数値で示される。歌唱感情データは歌唱音声を感情分析することにより得られる。感情分析は、公知の技術(たとえば、特許文献2や「音声こころ分析サービス」(株式会社日立システムズ))を利用することができる。具体例として、歌唱感情データ生成部400は、歌唱音声から感情の込め方と相関のある感情特徴量を抽出する。また、歌唱感情データ生成部400は、抽出された感情特徴量に基づいて、歌唱に込められた感情を分析する。感情分析は、所定の歌唱区間毎に行われる。そして、歌唱感情データ生成部400は、感情分析により得られた情報を数値化し、所定の感情タイプに分類することで、歌唱区間毎の歌唱感情データを生成する。
The singing emotion data is data showing the emotional expression included in the actual karaoke singing. In this embodiment, the singing emotion data is shown numerically. Singing emotion data is obtained by emotionally analyzing the singing voice. For emotion analysis, known techniques (for example, Patent Document 2 and "Voice Heart Analysis Service" (Hitachi Systems, Ltd.)) can be used. As a specific example, the singing emotion
或いは、公知の人工知能技術を利用して歌唱感情データを生成することも可能である。たとえば、音声感情認識エンジンSTにより、会話音声から喜び、怒り、哀しみなどの感情状態と10段階の興奮の強さを検出する機能を有するPC用開発支援キット「ST Emotion SDK」(株式会社AGI)が存在する。歌唱感情データ生成部400がこのようなキットと同様の機能を備え、歌唱音声の感情分析を機械学習させることで歌唱者の感情を検出することが可能となる。この場合、歌唱感情データ生成部400は、検出した情報を数値化し、所定の感情タイプに分類することで、歌唱区間毎の歌唱感情データを生成することができる。
Alternatively, it is also possible to generate singing emotion data using a known artificial intelligence technique. For example, the PC development support kit "ST Emotion SDK" (AGI Co., Ltd.) has a function to detect emotional states such as joy, anger, and sorrow and the intensity of excitement in 10 stages from conversational voice using the voice emotion recognition engine ST. Exists. The singing emotion
図7は、歌唱者が図5に示したカラオケ楽曲Xの歌詞を歌唱した場合の歌唱感情データを示す。この例では、歌唱区間毎に感情分析結果を3つの感情タイプに分類した歌唱感情データを生成している。また、図7の例では、3つの感情タイプの合計スコアが100点以下になるように調整されている。なお、歌唱感情データは、ある歌唱区間について、最もスコアが高い感情タイプを100点とし、それ以外の感情タイプを0点としてもよい。また、一の歌唱区間に対しては、少なくとも一つの感情タイプが関連付けられていればよい。たとえば、歌唱区間に対して最も支配的な感情タイプを一つだけ関連付けることも可能であるし、逆に4つ以上の感情タイプを関連付けることでもよい。 FIG. 7 shows singing emotion data when the singer sings the lyrics of the karaoke song X shown in FIG. In this example, singing emotion data is generated by classifying the emotion analysis results into three emotion types for each singing section. Further, in the example of FIG. 7, the total score of the three emotion types is adjusted to be 100 points or less. In the singing emotion data, the emotion type having the highest score may be set to 100 points for a certain singing section, and the other emotion types may be set to 0 points. Further, at least one emotion type may be associated with one singing section. For example, it is possible to associate only one of the most dominant emotion types with a singing section, or conversely, associate four or more emotion types.
[感情表現評価部]
感情表現評価部500は、感情リファレンスデータと歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う。
[Emotional expression evaluation department]
The emotional
感情表現の評価は、カラオケ歌唱に感情がどれだけ込められているかを数値化することにより行う。具体的に、感情表現評価部500は、感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行い、感情タイプ毎に得られたスコアを合計した値により感情表現の評価を行う。この場合、感情リファレンスデータ及び歌唱感情データは、共通する複数の感情タイプで構成されていることが好ましい。
Emotional expression is evaluated by quantifying how much emotion is contained in karaoke singing. Specifically, the emotion
たとえば、感情リファレンスデータ取得部300が図6Bに示す感情リファレンスデータを取得し、歌唱感情データ生成部400が図7に示す歌唱感情データを生成したとする。
For example, suppose that the emotion reference
この場合、感情表現評価部500は、歌唱区間Aについて、感情タイプ毎に感情リファレンスデータのスコアと歌唱感情データのスコアとのANDを取る。具体的には、「喜び:23点&10点=10点」、「怒り:29点&0点=0点」、「哀しみ:48点&20点=20点」となる。そして、感情表現評価部500は、各感情タイプのスコアを合計した値(10点+20点=30点)を歌唱区間Aの評価とする。感情表現評価部500は、歌唱区間B〜Hについても同様の処理を行い、歌唱区間毎に感情表現を評価する(図8参照)。なお、ある歌唱区間における感情リファレンスデータのスコアが100点を満点とし、ある歌唱区間における歌唱感情データのスコアの最大値が100点であるため、歌唱区間毎の評価は100点が満点となる。
In this case, the emotion
感情表現評価部500は、評価結果を歌唱者に提示することができる。たとえば、感情表現評価部500は、図8に示す評価結果を表示装置30に表示させることが可能である。或いは、感情表現評価部500は、歌唱区間毎のスコアの平均値(図8の例であれば、53.125点)を算出し、当該平均値を提示することも可能である。
The emotional
なお、感情リファレンスデータにおいて、最もスコアの高い感情タイプを100点とし、それ以外を0点とし、歌唱感情データにおいて最もスコアの高い感情タイプ以外を0点とした場合、感情表現評価部500においては実質的に、歌唱区間毎に支配的な感情タイプが一致するか否かという観点で評価がなされる事になる。
When the emotion type with the highest score is set to 100 points in the emotion reference data, the other points are set to 0 points, and the emotion type other than the emotion type having the highest score in the singing emotion data is set to 0 points, the emotion
[採点処理部]
採点処理部600は、歌唱音声から抽出した歌唱音声データを、音高、音量及び歌唱技法の少なくとも一つに基づいて採点することにより採点値を算出する。
[Scoring section]
The
カラオケ歌唱の採点は、公知の技術を利用することができる。たとえば、採点処理部600は、マイク40から入力された歌唱音声信号から、ピッチ(音高)データ、音量データ等の歌唱音声データを抽出し、カラオケ楽曲のリファレンスデータと比較することにより、採点値を算出する。
Known techniques can be used for scoring karaoke songs. For example, the
[カラオケ歌唱評価部]
カラオケ歌唱評価部700は、カラオケ楽曲の歌唱に基づく感情表現の評価及び採点値に基づいて、カラオケ楽曲の歌唱の評価を行う。
[Karaoke Singing Evaluation Department]
The karaoke
本実施形態におけるカラオケ歌唱の評価は、リファレンスデータに沿ったカラオケ歌唱が行われたか、及び適切な感情表現が行われたかを総合的に評価することにより行う。 The evaluation of the karaoke singing in the present embodiment is performed by comprehensively evaluating whether the karaoke singing is performed according to the reference data and whether the appropriate emotional expression is performed.
たとえば、カラオケ楽曲X全体の感情表現評価部500による各歌唱区間の感情表現の評価の平均値が60点であり、採点処理部600による採点結果が85点であったとする。
For example, it is assumed that the average value of the emotional expression evaluation of each singing section by the emotional
この場合、カラオケ歌唱評価部700は、これらのスコアを用いてカラオケ楽曲Xの歌唱評価を行う。たとえば、「採点結果:感情表現の評価=9:1」の重み付けが設定されている場合、カラオケ歌唱評価部700は、(85点×0.9)+(60点×0.1)=82.5点をカラオケ楽曲Xの歌唱評価のスコアとして算出する。
In this case, the karaoke
或いは、感情表現の評価を採点結果に対する10%のボーナス点として加算する場合、カラオケ歌唱評価部700は、85点+(60点×0.1)=91点をカラオケ楽曲Xの歌唱評価のスコアとして算出する。なお、このように加算方式を採用する場合、上限は、カラオケ装置1の採点機能が備える最大値(たとえば100点)とすることが好ましい。
Alternatively, when the evaluation of emotional expression is added as a bonus point of 10% to the scoring result, the karaoke
カラオケ歌唱評価部700は、評価結果を歌唱者に提示することができる。たとえば、カラオケ歌唱評価部700は、算出したスコアを表示装置30に表示させることが可能である。
The karaoke
==カラオケ装置1の動作について==
次に、図9を参照して本実施形態におけるカラオケ装置1の動作の具体例について述べる。図9は、カラオケ装置1の動作例を示すフローチャートである。
== About the operation of the
Next, a specific example of the operation of the
カラオケ装置1は、歌唱者が選曲したカラオケ楽曲Xの伴奏データに基づいてカラオケ演奏を行う(カラオケ演奏。ステップ10)。歌唱者はカラオケ演奏に合わせてカラオケ歌唱を行う。
The
カラオケ楽曲Xのカラオケ歌唱が終了した後、感情リファレンスデータ取得部300は、カラオケ楽曲Xを歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する(感情リファレンスデータの取得。ステップ11)。
After the karaoke singing of the karaoke song X is completed, the emotion reference
歌唱感情データ生成部400は、カラオケ楽曲Xを歌唱することにより得られた歌唱音声を感情分析し、歌唱区間毎に歌唱感情データを生成する(歌唱感情データの生成。ステップ12)。
The singing emotion
感情表現評価部500は、ステップ11で取得した感情リファレンスデータと、ステップ12で生成した歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う(感情表現の評価。ステップ13)。
The emotional
採点処理部600は、カラオケ楽曲Xを歌唱することにより得られた歌唱音声から抽出した歌唱音声データをリファレンスデータと比較することで、採点値を算出する(採点値の算出。ステップ14)。
The
カラオケ歌唱評価部700は、ステップ13で行われた感情表現の評価、及びステップ14で算出された採点値に基づいて、カラオケ楽曲Xの歌唱評価を行う(カラオケ歌唱の評価。ステップ15)。
The karaoke
なお、上記例では、カラオケ楽曲Xのカラオケ歌唱が終了した後に処理する例について述べたが、感情表現の評価は、少なくとも一の歌唱区間のカラオケ歌唱が終了した後に行われることでもよい。たとえば、歌唱区間Aの歌唱終了後に上記ステップ11〜14の処理を行い、歌唱区間Bの歌唱終了後に上記ステップ11〜14の処理を行い、歌唱区間Cの歌唱終了後に・・・・というように、カラオケ楽曲Xの終了までステップ11〜14の処理を繰り返し行い、最後に各歌唱区間における感情表現の評価と採点値に基づいて、カラオケ楽曲Xの歌唱評価を行ってもよい。
In the above example, the example of processing after the karaoke singing of the karaoke song X is completed has been described, but the evaluation of the emotional expression may be performed after the karaoke singing of at least one singing section is completed. For example, the processing of
また、感情リファレンスデータは、カラオケ楽曲の歌詞や曲調に基づいて生成したものを記憶部13に記憶しておくことでもよい。この場合、感情リファレンスデータ取得部300は、記憶部13から感情リファレンスデータを直接取得する。
Further, the emotion reference data may be stored in the
このように本実施形態に係るカラオケ装置1は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する感情リファレンスデータ取得部300と、カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを歌唱区間毎に生成する歌唱感情データ生成部400と、感情リファレンスデータと歌唱感情データとを比較することにより、歌唱区間毎の感情表現の評価を行う感情表現評価部500とを有する。
As described above, the
歌唱音声を感情分析した歌唱感情データと感情リファレンスデータとを比較することにより、カラオケ楽曲の雰囲気を考慮した感情表現がなされている場合には評価が高くなる。一方、単に大きな声で歌唱した場合のように、雰囲気を考慮しない歌唱は評価が低くなる。すなわち、本実施形態に係るカラオケ装置1によれば、カラオケ楽曲の雰囲気にふさわしい感情表現で歌唱が行われているかを適切に評価できる。
By comparing the singing emotion data obtained by emotionally analyzing the singing voice with the emotion reference data, the evaluation is high when the emotion expression considering the atmosphere of the karaoke song is made. On the other hand, singing that does not consider the atmosphere, such as when singing in a loud voice, has a low evaluation. That is, according to the
また、本実施形態に係るカラオケ装置1において、感情リファレンスデータ及び歌唱感情データは、共通する複数の感情タイプで構成され、感情表現評価部500は、感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行う。このように、複数の感情タイプ毎に感情リファレンスデータと歌唱感情データとの比較を行うことにより、カラオケ楽曲の雰囲気にふさわしい感情表現がなされているかどうかをより正確に判断できる。
Further, in the
また、本実施形態に係るカラオケ装置1は、歌唱音声から抽出した歌唱音声データを、音高、音量及び歌唱技法の少なくとも一つに基づいて採点することにより採点値を算出する採点処理部600と、カラオケ楽曲の歌唱に基づく感情表現の評価及び採点値に基づいて、カラオケ楽曲の歌唱の評価を行うカラオケ歌唱評価部700と、を有する。このようなカラオケ装置1によれば、感情表現の評価を含むカラオケ歌唱の総合評価を行うことができる。
Further, the
また、感情リファレンスデータ取得部300は、カラオケ楽曲の歌詞及び曲調の少なくとも一方に基づいて、感情リファレンスデータを取得する。このように、カラオケ楽曲の歌詞及び曲調の少なくとも一方を用いることにより、カラオケ楽曲の雰囲気を反映した感情リファレンスデータの取得が可能となる。
Further, the emotion reference
<変形例>
上記実施形態では、感情リファレンスデータ取得部300が、カラオケ楽曲の歌詞及び曲調に基づいて、感情リファレンスデータを取得する例について述べた。
<Modification example>
In the above embodiment, an example in which the emotion reference
図10は、本変形例に係るカラオケ本体10のソフトウェア構成例を示す図である。カラオケ本体10は、感情リファレンスデータ取得部300、歌唱感情データ生成部400、感情表現評価部500、採点処理部600、カラオケ歌唱評価部700、及び感情リファレンスデータ記憶部800を備える。感情リファレンスデータ記憶部800は、記憶部13の記憶領域の一部として提供される。
FIG. 10 is a diagram showing a software configuration example of the karaoke
[感情リファレンスデータ記憶部]
感情リファレンスデータ記憶部800は、カラオケ楽曲の原曲歌手の歌唱音声を感情分析した歌唱感情データに基づく感情リファレンスデータを記憶する。原曲歌手は、カラオケ楽曲を歌唱するプロの歌手等であり、カラオケ楽曲の歌唱を最も上手く歌える者である。すなわち、各歌唱区間における感情表現も正確に再現することができる。
[Emotion reference data storage]
The emotion reference
感情リファレンスデータの記憶は、たとえば新たなカラオケ楽曲が配信される都度行われる。具体的に、歌唱感情データ生成部400は、新たなカラオケ楽曲の原曲歌手の歌唱分析を行い、複数の感情タイプからなる歌唱感情データを生成する。歌唱感情データ生成部400は、歌唱感情データを元に、複数の感情タイプの比率を100点満点で正規化し、感情リファレンスデータとして記憶する。図11は、上記実施形態における歌唱区間A〜Hの感情リファレンスデータの例を示した図である。図11から明らかなように、いずれの歌唱区間においても感情タイプの合計スコアが100点満点になるように設定されている。
The emotion reference data is stored, for example, each time a new karaoke song is delivered. Specifically, the singing emotion
[感情リファレンスデータ取得部]
本変形例に係る感情リファレンスデータ取得部300は、カラオケ楽曲を歌唱する際に表現すべき感情を示す感情リファレンスデータを歌唱区間毎に取得する。
[Emotion reference data acquisition department]
The emotion reference
感情リファレンスデータ取得部300は、感情リファレンスデータ記憶部800から感情リファレンスデータを取得する。たとえば、カラオケ楽曲Xが選曲された場合、感情リファレンスデータ取得部300は、感情リファレンスデータ記憶部800からカラオケ楽曲Xの感情リファレンスデータを読み出す。
The emotion reference
このように、本変形例に係るカラオケ装置1によれば、感情表現の評価を行う都度、感情リファレンスデータを算出する必要が無い。また、原曲歌手の歌唱音声から感情リファレンスデータを作成することで、原曲歌手の歌唱に沿った適切な感情表現の評価が可能となる。
As described above, according to the
<その他>
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
<Others>
The above embodiment is presented as an example and does not limit the scope of the invention. The above configurations can be implemented in appropriate combinations, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The above-described embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.
1 カラオケ装置
100 単語−感情タイプデータベース
200 曲調−感情タイプデータベース
300 感情リファレンスデータ取得部
400 歌唱感情データ生成部
500 感情表現評価部
600 採点処理部
700 カラオケ歌唱評価部
1
Claims (4)
前記カラオケ楽曲を歌唱することにより得られた歌唱音声を感情分析した歌唱感情データを前記歌唱区間毎に生成する歌唱感情データ生成部と、
前記感情リファレンスデータと前記歌唱感情データとを比較することにより、前記歌唱区間毎の感情表現の評価を行う感情表現評価部と、
を有し、
前記感情リファレンスデータは、前記歌唱感情データ生成部が生成可能な種類の歌唱感情データに対応する感情を示し、
前記感情リファレンスデータ及び前記歌唱感情データは、共通する複数の感情タイプで構成され、
前記感情表現評価部は、前記感情タイプ毎に前記感情リファレンスデータと前記歌唱感情データとの比較を行うカラオケ装置。 An emotion reference data acquisition unit that acquires emotion reference data indicating emotions to be expressed when singing a karaoke song for each singing section, and an emotion reference data acquisition unit.
A singing emotion data generation unit that generates singing emotion data obtained by emotionally analyzing the singing voice obtained by singing the karaoke song for each singing section.
An emotional expression evaluation unit that evaluates the emotional expression for each singing section by comparing the emotional reference data with the singing emotional data.
Have a,
The emotion reference data indicates emotions corresponding to the types of singing emotion data that can be generated by the singing emotion data generation unit.
The emotion reference data and the singing emotion data are composed of a plurality of common emotion types.
The emotion expression evaluation unit is a karaoke device that compares the emotion reference data with the singing emotion data for each emotion type.
前記カラオケ楽曲の歌唱に基づく前記感情表現の評価及び前記採点値に基づいて、前記カラオケ楽曲の歌唱の評価を行うカラオケ歌唱評価部と、
を有することを特徴とする請求項1記載のカラオケ装置。 A scoring processing unit that calculates a scoring value by scoring singing voice data extracted from the singing voice based on at least one of pitch, volume, and singing technique.
A karaoke singing evaluation unit that evaluates the emotional expression based on the singing of the karaoke song and evaluates the singing of the karaoke song based on the scoring value.
Claim 1 Symbol placement karaoke apparatus characterized by having a.
前記感情リファレンスデータ取得部は、前記感情リファレンスデータ記憶部から前記感情リファレンスデータを取得することを特徴とする請求項1または2に記載のカラオケ装置。 It has an emotion reference data storage unit that stores emotion reference data based on singing emotion data obtained by emotionally analyzing the singing voice of the original singer of the karaoke song.
The karaoke device according to claim 1 or 2, wherein the emotion reference data acquisition unit acquires the emotion reference data from the emotion reference data storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017147475A JP6954780B2 (en) | 2017-07-31 | 2017-07-31 | Karaoke equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017147475A JP6954780B2 (en) | 2017-07-31 | 2017-07-31 | Karaoke equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019028251A JP2019028251A (en) | 2019-02-21 |
JP6954780B2 true JP6954780B2 (en) | 2021-10-27 |
Family
ID=65478330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017147475A Active JP6954780B2 (en) | 2017-07-31 | 2017-07-31 | Karaoke equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6954780B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7402396B2 (en) * | 2020-01-07 | 2023-12-21 | 株式会社鉄人化計画 | Emotion analysis device, emotion analysis method, and emotion analysis program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09212480A (en) * | 1996-01-31 | 1997-08-15 | Yamaha Corp | Atmosphere information generating device and karaoke device |
JP3751596B2 (en) * | 2003-02-04 | 2006-03-01 | コナミ株式会社 | Karaoke device, output volume control method, and program |
JP2007233078A (en) * | 2006-03-01 | 2007-09-13 | Yamaha Corp | Evaluation device, control method, and program |
-
2017
- 2017-07-31 JP JP2017147475A patent/JP6954780B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019028251A (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007256617A (en) | Musical piece practice device and musical piece practice system | |
JP2008026622A (en) | Evaluation apparatus | |
JP6724938B2 (en) | Information processing method, information processing apparatus, and program | |
JP2008139426A (en) | Data structure of data for evaluation, karaoke machine, and recording medium | |
JP6954780B2 (en) | Karaoke equipment | |
JP6035112B2 (en) | A voice evaluation device for evaluating singing by the shout technique | |
JP6803294B2 (en) | Karaoke device | |
JP6920135B2 (en) | Karaoke equipment | |
JP2007140165A (en) | Karaoke device and program for karaoke device | |
JP5830840B2 (en) | Voice evaluation device | |
JP2007225916A (en) | Authoring apparatus, authoring method and program | |
JP6944366B2 (en) | Karaoke equipment | |
JP4218066B2 (en) | Karaoke device and program for karaoke device | |
JP2007233078A (en) | Evaluation device, control method, and program | |
JP2015194767A (en) | Voice evaluation device | |
JP2020134901A (en) | Karaoke system | |
JP6842356B2 (en) | Karaoke equipment | |
JP4218064B2 (en) | Karaoke device and program for karaoke device | |
JP6944390B2 (en) | Karaoke equipment | |
JP7478077B2 (en) | Karaoke equipment | |
JP7158331B2 (en) | karaoke device | |
JP6546834B2 (en) | Karaoke device | |
JP4218065B2 (en) | Karaoke device and program for karaoke device | |
JP2022116652A (en) | karaoke equipment | |
JP4186982B2 (en) | Karaoke device and program for karaoke device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6954780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |