JP3807380B2 - Score data editing device, score data display device, and program - Google Patents
Score data editing device, score data display device, and program Download PDFInfo
- Publication number
- JP3807380B2 JP3807380B2 JP2003052059A JP2003052059A JP3807380B2 JP 3807380 B2 JP3807380 B2 JP 3807380B2 JP 2003052059 A JP2003052059 A JP 2003052059A JP 2003052059 A JP2003052059 A JP 2003052059A JP 3807380 B2 JP3807380 B2 JP 3807380B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- period
- note
- singing
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 16
- 238000004519 manufacturing process Methods 0.000 claims 3
- 239000011295 pitch Substances 0.000 description 29
- 230000015572 biosynthetic process Effects 0.000 description 25
- 238000003786 synthesis reaction Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 19
- 230000008859 change Effects 0.000 description 11
- 230000002194 synthesizing effect Effects 0.000 description 11
- 238000007493 shaping process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241001342895 Chorus Species 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、自動演奏のためのスコアデータの編集および表示を行う装置、およびプログラムに関する。
【0002】
【従来の技術】
楽曲に含まれる音の音高および発音期間を示すデータであるスコアデータを用いて、自動演奏装置に楽曲の自動演奏を行わせる技術がある。また、自動演奏用のスコアデータを編集する装置がある。
【0003】
スコアデータ編集装置におけるスコアデータの表示方法の一つに、ピアノロール表示と呼ばれるものがある。ピアノロール表示の画面においては、音高を示す軸と時間を示す軸から構成される座標平面上に、スコアデータが示す各々の音に対応する棒状の図形が配置される。ユーザは棒状の図形の音高軸方向の位置と、時間軸方向の位置および長さにより、各音の音高および発音期間を知ることができる。
【0004】
さらに、ピアノロール表示の画面に配置された棒状の図形の位置やサイズをマウス等により変更することによって、その図形の位置やサイズに対応するスコアデータ内のデータを変更することができる(例えば、特許文献1参照。)。
【0005】
一方、音高および発音期間に関するデータに加え、歌詞に関するデータを含む歌唱スコアデータを用いて、歌唱合成装置により歌唱を自動的に行わせる技術がある(例えば、特許文献2参照。)。
【0006】
【特許文献1】
特開平1−321484号公報
【特許文献2】
特開2002−202790号公報
【0007】
【発明が解決しようとする課題】
ところで、楽器音による自動演奏用のスコアデータを編集する場合と同様に、スコアデータ編集装置においてピアノロール表示等により歌唱スコアデータに含まれる音の音高および発音期間を表示させ、表示された図形を操作することにより歌唱スコアデータに含まれる音高および発音期間に関するデータを編集することができれば、ユーザの編集作業が容易になる。
【0008】
しかしながら、歌唱演奏においては1人により複数の声が同時に発せられることはないのに対し、多くの楽器は複数の音を同時に発することができる。そのため、スコアデータ編集装置を、歌唱スコアデータの編集に利用すると、ユーザは誤って、同じ人の声で同時に複数の音を発声させることを指示する歌唱スコアデータを作成してしまう可能性がある。
【0009】
このような歌唱スコアデータに従い、歌唱合成装置が歌唱を行うと、その歌唱演奏は不自然なものとなってしまう。場合によっては、歌唱合成装置は同時に複数の音を発声させる指示を発見した場合、先行する音を止めた後、後続の音を発声させる等の処理を行う。そのような場合、歌唱合成装置により行われる歌唱演奏が、ユーザの意図したものと異なってしまう場合もあり、不都合である。
【0010】
上記の状況に鑑み、本発明は、歌唱用および単声楽器用のスコアデータの表示および編集において、ユーザが誤って、同時に複数の音を発音させるようなスコアデータを作成することを防止すると同時に、誤って作成されたデータ部分を自動的に修正することにより、ユーザの手間を省くことを可能とする装置を提供する。
【0011】
【課題を解決するための手段】
以上説明した課題を解決するため、本発明は、(1)音の高さを示す音高データおよび(2)該音の発音期間を示す発音期間データを少なくとも含むノートデータを複数含むスコアデータを記憶する記憶手段と、前記スコアデータに含まれる2以上のノートデータに関し、一のノートデータに含まれる第1の発音期間データにより示される第1の発音期間と、前記一のノートデータとは異なる他のノートデータに含まれる第2の発音期間データにより示される第2の発音期間との間に重複部分があるか否かを判定する判定手段と、音の高さを示す第1の軸と時間の経過を示す第2の軸を有する座標上に、前記スコアデータに含まれるノートデータの各々について、該ノートデータに含まれる音高データが示す音の高さに対応する前記第1の軸方向の位置に、該ノートデータに含まれる発音期間データが示す発音期間の始期および終期に対応する前記第2の軸方向の位置をそれぞれ一の端点および他の端点とする図形を表示する表示手段とを備え、前記表示手段は、前記判定手段により重複部分があると判定された場合、前記一のノートデータに対応する図形と、前記他のノートデータに対応する図形を、他の図形と異なる態様で表示することを特徴とするスコアデータ表示装置を提供する。
【0012】
かかる構成によるスコアデータ表示装置によれば、ユーザは容易に歌唱用もしくは単声楽器用のスコアデータに含まれる、複数音の同時発音を示すデータ部分を確認することができる。
【0013】
また、本発明にかかるスコアデータ表示装置において、前記調整手段は、前記判定手段により重複部分があると判定された場合、前記第1の発音期間と前記第2の発音期間との間に重複部分が無くなるように、前記第1の発音期間データおよび前記第2の発音期間データの少なくとも一方を変更するように構成されてもよい。
【0014】
かかる構成によるスコアデータ表示装置によれば、歌唱用もしくは単声楽器用のスコアデータに含まれる、複数音の同時発音を示すデータが自動的に修正され、ユーザによるスコアデータの修正作業が軽減される。
【0015】
また、上記態様のスコアデータ表示装置において、前記調整手段は、前記第1の発音期間の終期および前記第2の発音期間の終期のうち、より早い方を、前記第1の発音期間の始期および前記第2の発音期間の始期のうち、より遅い方と同時となるように、前記第1の発音期間データおよび前記第2の発音期間データのいずれか一方を変更するように構成されてもよい。
【0016】
かかる構成によるスコアデータ表示装置によれば、多くの場合、歌唱用もしくは単声楽器用のスコアデータに含まれる、複数音の同時発音を示すデータが、ユーザの意図する内容に修正される。
【0019】
さらに、本発明は、上記のスコアデータ表示装置が行う処理と同様の処理をコンピュータに実行させるプログラムを提供する。
【0020】
【発明の実施の形態】
[1.実施形態]
[1.1.構成]
図1は、この発明の一実施形態である歌唱合成システムを実現するコンピュータ1の構成を示すブロック図である。図1において、コンピュータ1は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HD(Hard Disk)104、表示部105、操作部106、データ入出力部107、D/A(Digital to Analog)コンバータ108、アンプ109およびスピーカ110を有している。アンプ109およびスピーカ110以外の構成部は、バス115を介して接続されており、互いにデータの送受信が可能である。
【0021】
CPU101は汎用的なデータ処理を行うマイクロプロセッサであり、ROM102に記憶されたBIOS(Basic Input/Output System)等の制御用プログラムおよびHD104に記憶されたOS(Operating System)に従い、コンピュータ1の他の構成部の制御処理を行う。
【0022】
ROM102はBIOS等の制御用プログラムを格納する不揮発性メモリである。また、RAM103はCPU101や他の構成部が利用するデータを一時的に記憶するための揮発性メモリである。ROM102内のBIOSは、コンピュータ1の電源が投入されたときに、CPU101によって読み出され、RAM103に書き込まれる。CPU101は、このRAM103内のBIOSに従ってハードウェアの利用環境を構築する。
【0023】
HD104は大容量の記憶領域を有する不揮発性のメモリであり、HD104に記憶されるデータは書き換え可能である。HD104には、OSと、各種のアプリケーションと、各アプリケーションにより利用されるデータが記憶されている。CPU101は、BIOSによるハードウェア環境の構築後、HD104からOSを読み出してRAM103に書き込み、OSに従ってGUI(Graphical User Interface)環境およびアプリケーションの実行環境の構築等の処理を行う。
【0024】
HD104に記憶されているアプリケーションのうち主要なものとして、歌唱合成アプリケーションがある。CPU101は、マウス操作等により、歌唱合成アプリケーションの実行指示をユーザから受け取ると、HD104から歌唱合成アプリケーションを読み出してRAM103に書き込み、歌唱合成アプリケーションに従って各種処理を行う環境を構築する。このようにしてコンピュータ1は、本実施形態に係る歌唱合成システムとして機能する。
【0025】
表示部105は、液晶ディスプレイと、CPU101による制御の下、液晶ディスプレイを駆動する駆動回路とを有し、文字、図形等の情報を表示する。操作部106はキーパッドやマウス等を有し、ユーザによって行われる操作内容を反映したデータをCPU101に送信する。
【0026】
データ入出力部107は、例えばUSB(Universal SerialBus)インタフェース等、各種データを入出力可能なインタフェースであり、外部機器からデータを受信し、受信したデータをCPU101に転送し、またCPU101により生成されたデータを外部機器に送信する。
【0027】
D/Aコンバータ108は、CPU101からデジタル音声データを受信し、これをアナログ音声信号に変換し、アンプ109に出力する。アンプ109は、このアナログ音声信号を増幅し、スピーカ110から音として出力する。
【0028】
図2は、CPU101が歌唱合成アプリケーションに従って提供する歌唱合成システムの機能を示すブロック図である。歌唱合成システムは、スコアデータ編集部20と歌唱合成部30から構成されている。スコアデータ編集部20は、歌唱スコアデータをユーザに表示し、またユーザの操作に従い編集し、編集した歌唱スコアデータを歌唱合成部30に引き渡すモジュールである。ここで、歌唱スコアデータは、歌唱楽曲を構成する時系列の歌唱音のそれぞれの音高を指定する音高データ、発音期間を指定する発音期間データ、歌詞に対応する発音記号等を含む。歌唱合成部30は、この歌唱スコアデータに基づき、歌唱音声データを合成するモジュールである。
【0029】
スコアデータ編集部20は、データ入力手段201、整形手段202、記憶手段203、判定手段204、表示手段205、操作手段206、編集手段207、調整手段208およびデータ出力手段209を備えている。これらのうち記憶手段203は、コンピュータ1のRAM103およびHD104である。また、それ以外の要素は、歌唱合成アプリケーションを構成するソフトウェアモジュールである。
【0030】
歌唱合成部30は、データ入力手段301、記憶手段302、素片データベース303、データ選択手段304、音高調整手段305、継続期間調整手段306、音量調整手段307、操作手段308および音声出力手段309を備えている。これらのうち素片データベース303および記憶手段302は、コンピュータ1のRAM103もしくはHD104である。また、それ以外の要素は、歌唱合成アプリケーションを構成するソフトウェアモジュールである。
【0031】
なお、スコアデータ編集部20および歌唱合成部30の各構成要素の機能については、説明の重複を避けるため、本実施形態の動作説明の項において併せて説明する。
【0032】
[1.2.動作]
本発明の特徴は、スコアデータ編集部20にある。しかしながら、スコアデータ編集部20により行われる処理の技術的意義を理解するためには、このスコアデータ編集部20の出力データを利用して歌唱合成を行う歌唱合成部30の処理内容を理解しておくのが好ましい。そこで、以下では、まず歌唱合成部30の動作について説明し、その後、スコアデータ編集部20の動作を説明する。
【0033】
まず、歌唱合成部30のデータ入力手段301は、スコアデータ編集部20から歌唱スコアデータを受信し、受信した歌唱スコアデータを記憶手段302に記憶させる。
【0034】
図3は、この歌唱スコアデータの構成を示す図である。歌唱スコアデータには、歌唱演奏を表すパートデータが、1もしくは複数含まれている。また、歌唱スコアデータには、このパートデータの他に、演奏で用いられる拍子およびテンポを示すデータ、および分解能を示すデータが含まれている。図3に示される歌唱スコアデータは、パート1〜3の3つのパートデータを含み、拍子として4/4拍子が、テンポとして120が、また分解能として480が設定されている。テンポに関する数値「120」は、この歌唱スコアデータが示す楽曲が、1分間に4分音符を120含むテンポで演奏されることを示している。また、分解能に関する数値「480」は、この歌唱スコアデータにおいて、1つの4分音符を480分割した時間が単位時間として用いられていることを示している。
【0035】
パートデータは、そのパートを構成する複数の歌唱音のそれぞれにつき、音高、発音期間、発音記号および強さを示すデータの組であるノートデータを複数含んでいる。パートデータにおいて、ノートデータは、例えば発音期間の始期の早い順に、また発音期間の始期が同じ場合には発音期間の終期が早い順に、並んでいる。
【0036】
本実施形態においては、歌唱スコアデータが含む発音期間に関する情報は、発音期間の始期を示す情報と発音期間の終期を示す情報とにより構成されており、これらは、各々、「小節番号+拍番号+単位時間番号」の形式で表現される。例えば、「0005:03:240」は、第5小節の第3拍のタイミングから単位時間240個分の時間、すなわち1/2拍分の時間が経過したタイミングを表している。なお、歌唱スコアデータにおけるタイミングの表現の方法は、「小節番号+拍番号+単位時間番号」に限られない。通常の「時間+分+秒」の形式等、様々な表現方法が採用可能である。また、基準となるタイミングからの絶対時間ではなく、先行のデータからの相対時間により後続のデータのタイミングを特定する方法を採用してもよい。
【0037】
データ入力手段301により、歌唱スコアデータが記憶手段302に記憶されると、データ選択手段304は、歌唱スコアデータによって指示された歌唱音の歌唱音声データを生成するために必要となるデータを素片データベース303から読み出す処理を行う。
【0038】
図4は素片データベース303の構成を示す図である。素片データベース303は、複数の歌唱者の各々に対応した個人別データベースに分かれている。図4に示される例では、素片データベース303はそれぞれ3人の歌唱者に対応する個人別データベース303a〜cを含んでいる。
【0039】
各歌唱者に対応した個人別データベースには、その歌唱者の歌唱音声波形から採取された素片データが複数含まれている。素片データとは、歌唱音声波形から、音声学的な特徴部分を切り出して符号化した音声データである。
【0040】
ここで、素片データについて、「さいた」という歌詞を歌唱する場合を例として説明する。「さいた」という歌詞は発音記号で「saita」と表される。発音記号「saita」で表される音声の波形を特徴により分析すると、「s」の音の立ち上がり部分→「s」の音→「s」の音から「a」の音への遷移部分→「a」の音・・・と続き、「a」の音の減衰部分で終わる。それぞれの素片データは、これらの音声学的な特徴部分に対応する音声データである。
【0041】
素片データベース303は、あらゆる音および音の組み合わせに関し、上記の音声学的な特徴部分に対応する音声データを素片データとして含んでいる。以下の説明において、ある発音記号で表される音の立ち上がり部分に対応する素片データを、その発音記号の前に「#」を付けて、「#s」のように表す。また、ある発音記号で表される音の減衰部分に対応する素片データを、その発音記号の後に「#」を付けて、「a#」のように表す。また、ある発音記号で表される音から他の発音記号で表される音への遷移部分に対応する素片データを、それらの発音記号の間に「−」を入れて、「s−a」のように表す。従って、例えば「saita」は、「#s」「s」「s−a」「a」「a−i」「i」「i−t」「t」「t−a」「a」「a#」の素片データの単位に分解される。
【0042】
データ選択手段304は、歌唱スコアデータに例えば「saita」という歌詞が含まれており、この歌詞の歌唱音声を合成する場合に、素片データベース303から「#s」「s」「s−a」「a」「a−i」「i」「i−t」「t」「t−a」「a」「a#」の順に、素片データを読み出す。データ選択手段304は、読み出した素片データを、歌唱スコアデータと共に音高調整手段305に送信する。
【0043】
音高調整手段305は、受信した素片データに対し、歌唱スコアデータに含まれる音高に関するデータに基づき、音高調整を行う。音高調整手段305は、音高調整を行った素片データを、歌唱スコアデータと共に継続期間調整手段306に送信する。
【0044】
継続期間調整手段306に送られる歌唱スコアデータは、個々の素片データに対応した音の発音期間を指定するデータを含んでいる。継続期間調整手段306は、このデータによって指定された期間だけ音が持続するように、各素片データの発音期間の時間調整を行う。継続期間調整手段306は、発音期間の時間調整を行った素片データを、歌唱スコアデータと共に音量調整手段307に送信する。
【0045】
音量調整手段307に送られる歌唱スコアデータは、個々の素片データに対応した音の強さに関するデータを含んでいる。音量調整手段307は、このデータに基づき、各素片データの音量調整を行う。さらに、音量調整手段307は、音量調整を行った素片データのそれぞれに関し、先行するデータの最後の音量と後続のデータの最初の音量とが一致するように、素片データの終端付近もしくは先頭付近の音量調整を行う。
【0046】
音量調整手段307は、音量調整を行った素片データを歌唱スコアデータにより示される順序で繋ぎ合わせ、歌唱音声データを生成し、生成した歌唱音声データを記憶手段302に記憶させる。
【0047】
ユーザが、操作手段308を用いて歌唱合成部30に対し再生の指示を与えると、音声出力手段309は記憶手段302から歌唱音声データを読み出し、図1におけるD/Aコンバータ108に出力する。その結果、ユーザは歌唱スコアデータにより示される歌唱演奏を聴くことができる。
【0048】
なお、歌唱合成部30による歌唱演奏をより自然なものとするために、素片データベース303には、同じ発音記号で表される音の特徴部分に関し、異なるテンポや音高、またはアクセントやレガート等の音楽的な表情等に応じた異なる素片データを複数格納させ、データ選択手段304には、それらの素片データから最適なものを読み出させるようにしてもよい。
【0049】
また、上記の説明において、歌唱合成部30において用いられる素片データは音声波形を符号化した音声データであったが、素片データの形式はこれに限られない。例えば、素片データベース303には、音声波形から得られる音声データの周波数成分の特徴をパラメータ化したものを素片データとして格納させ、データ選択手段304等が素片データに含まれるパラメータに基づいて音声データを再生成することにより、歌唱音声データを生成させるようにしてもよい。
【0050】
次に、スコアデータ編集部20の動作を説明する。まず、スコアデータ編集部20のデータ入力手段201は、外部機器等から歌唱スコアデータを受信し、受信した歌唱スコアデータを整形手段202に送信する。データ入力手段201が外部機器等から受信する歌唱スコアデータの構成は、図3に示したものと同じである。
【0051】
整形手段202は、歌唱スコアデータの各パートデータに含まれるノートデータを、発音期間の始期の早い順に、また発音期間の始期が同じ場合には、発音期間の終期が早い順に並び替える。さらに、整形手段202は、歌唱スコアデータに番号および重なりの項目を追加する。
【0052】
図5は、整形手段202により項目の追加等が行われた後の歌唱スコアデータを示している。番号の欄には、各ノートデータの識別番号が昇順等の規則に従って割り当てられる。重なりの欄には、他のノートデータが示す音との間に時間的な重なりがある場合に、その重なりを持つ相手のノートデータの番号が書き込まれる。整形手段202は項目の追加等を行った歌唱スコアデータを、記憶手段203に記憶させる。
【0053】
[1.2.1.発音期間の重なりの解消に関する動作]
整形手段202の指示により記憶手段203に歌唱スコアデータが記憶されると、判定手段204は、歌唱スコアデータの各パートデータについて、時間軸上において重複する発音期間を持ったノートデータの組が含まれているかどうかを判定する。
【0054】
そして、例えば、同一パートデータに属するノートデータAおよびノートデータBが示す音の発音期間に重なりがあると判定した場合、判定手段204は、ノートデータAの重なりの欄にノートデータBの番号を、ノートデータBの重なりの欄にノートデータAの番号を書き込む。なお、あるノートデータが示す音の発音期間が、他の複数のノートデータが示す音の発音期間と重なりを持つ場合もあり、その場合には重なりの欄に該当する複数のノートデータの番号が書き込まれる。図5に示した歌唱スコアデータにおいては、他のノートデータと発音期間に重なりを持つノートデータは含まれていないので、全てのノートデータに関して、重なりの欄は空欄となっている。
【0055】
表示手段205は、歌唱スコアデータに基づき、ピアノロール表示を行う。図6は、図5に示した歌唱スコアデータに基づき表示手段205が行うピアノロール表示の画面である。図6において、ノートバー401a〜fのそれぞれは、ノートデータに対応している。画面の上下方向は音の高さに対応しており、画面左部に示されるピアノ鍵盤の図により、ユーザは各ノートバーが示すノートデータの音高を確認することができる。画面の左右方向は時間に対応しており、ユーザは各ノートバーの左端の位置および右端の位置から、ノートバーが示すノートデータの発音期間の始期および発音期間の終期を確認することができる。
【0056】
図6においては、パート1のパートデータに関してのみ、ノートバーが表示されている。ユーザは操作手段206を用いて所定の操作を行うことにより、表示手段205に表示させるパートデータを指示することができる。ユーザにより複数のパートデータの表示が指示された場合、表示手段205は、例えばパートデータごとに異なる色でノートバーを表示する。
【0057】
また、表示手段205は重なりの欄にいずれかのノートデータの番号が書き込まれている音に対応するノートバーについては、例えば斜線を付けて表示することにより、重なりの欄にいずれのノートデータの番号も書き込まれていない音に対応するノートバーと区別する。なお、重なりの欄にいずれかのノートデータの番号が書き込まれている音、すなわち他の音との間に発音期間の重なりを持つ音に対応するノートバーを他の音と区別する方法は、斜線を付す以外に、色や線の太さを変えたり、ノートバーを点滅させる等、様々な方法が適用可能である。
【0058】
ピアノロール表示の画面には通常、ノートデータに含まれる音の強さ、発音記号等の情報も表示される。図6の例では、ノートバー401aがユーザの操作手段206を用いた操作により選択されており、画面左下部に選択されたノートバー401aに対応するノートデータの音の強さおよび発音記号、さらにノートバー401aを含むパートデータの名称が示されている。また、ユーザにより選択されたノートバー401aは、境界が太線で表示されている。
【0059】
ユーザは、操作手段206を用いてピアノロール表示におけるノートバーを操作することにより、スコアデータ編集部20に対し、そのノートバーに対応するノートデータの音高および発音期間の変更を指示することができる。例えば、ユーザはノートバーをマウスでクリックして選択した後、上下のカーソルキーを押下することにより、選択したノートバーに対応するノートデータの音高を示すデータの増減を指示することができる。また、ユーザはノートバーの左端もしくは右端をマウスでドラッグすることにより、そのノートバーに対応するノートデータの発音期間の始期もしくは終期を示すデータの増減を指示することができる。
【0060】
操作手段206は、上記のようなユーザによるノートバーに対する操作に関するデータを編集手段207に送信し、編集手段207はその操作に関するデータに基づいて、歌唱スコアデータの内容を変更する。
【0061】
歌唱スコアデータに含まれる発音期間の始期もしくは終期に関するデータの変更が行われると、判定手段204は変更後の歌唱スコアデータに対して、上述した発音期間の重なりの有無に関する判定処理を行う。判定手段204は判定処理の結果に従い、変更の結果、発音期間に重なりを持つこととなった2つのノートデータについては重なりの欄に相手のノートデータの番号が登録され、逆に変更の結果、発音期間に重なりを持たないこととなった2つのノートデータについては重なりの欄のデータが消去される。編集手段207もしくは判定手段204により歌唱スコアデータが変更されると、表示手段205は変更後の歌唱スコアデータに基づいて、ピアノロール表示を更新する。
【0062】
図7は、ユーザが図6に示したピアノロール表示において、ノートバー401cに対し操作を行い、ノートバー401cに対応するノートデータの発音期間の始期を早くした場合に表示手段205が表示する画面の例を示している。図7に示されるように、ノートバー401bとノートバー401cのそれぞれに対応する音の発音期間に重なりが生じているため、ノートバー401bとノートバー401cには斜線が付されている。また、この場合、歌唱スコアデータにおいて、ノートバー401bに対応するノートデータの重なりの欄にはノートバー401cに対応するノートデータの番号が、またノートバー401cに対応するノートデータの重なりの欄にはノートバー401bに対応するノートデータの番号が登録されている。
【0063】
ユーザは歌唱スコアデータの編集作業を終えると、操作手段206を用いて、歌唱スコアデータを歌唱合成部30に送信する指示を行う。操作手段206はユーザによる歌唱スコアデータの送信指示に関するデータを、調整手段208に送信する。調整手段208は、送信指示に関するデータを受信すると、歌唱スコアデータに含まれるノートデータを1つ取り出し、取り出したノートデータの重なりの欄にいずれかの番号が書き込まれているか否かを判定する。
【0064】
調整手段208は、上記の判定処理において重なりの欄にいずれかの番号が書き込まれていると判定した場合には、表示手段205に対し、そのノートデータおよび重なりの欄に書き込まれている番号(複数の番号が書き込まれている場合にはそのうちの1つ)に対応するノートデータについて、対応するノートバーを強調表示するように指示する。さらに、調整手段208は表示手段205に対し、ユーザに発音期間に重なりを持つそれらの2つのノートデータについて、タイミングの調整処理を行うか否かの指示を促すメッセージ窓を表示するように指示する。図8は調整手段208の指示により表示手段205により表示されるメッセージ窓の例を示している。
【0065】
ユーザが図8に示したメッセージ窓に対し「後発優先で調整する」を選択して、「実行」を指示すると、調整手段208は発音期間に重なりを持つ2つのノートデータに関し、図9の(a)に示すように、後発のノートデータの発音期間の始期と同じになるように、先発のノートデータの発音期間の終期関するデータを変更する。
【0066】
ユーザが図8に示したメッセージ窓に対し「先発優先で調整する」を選択して、「実行」を指示すると、調整手段208は発音期間に重なりを持つ2つのノートデータに関し、図9の(b)に示すように、先発のノートデータの発音期間の終期と同じになるように、後発のノートデータの発音期間の始期に関するデータを変更する。
【0067】
「後発優先で調整する」もしくは「先発優先で調整する」のいずれかが選択された場合であって、発音期間に重なりを持つ2つノートデータの発音期間の始期が互いに同じ場合や発音期間の終期が互いに同じ場合には、調整手段208は例えば図9の(c)や(d)に示すように、発音期間の始期もしくは終期を変更する。
【0068】
なお、発音期間に重なりを持つ2つノートデータの発音期間の調整処理の方法は上記の後発優先や先発優先に限られない。例えばユーザが指定する比率に従って発音期間の重なりを分割したタイミングに、先発のノートデータの発音期間の終期と、後発のノートデータの発音期間の始期を一致させるようにしてもよい。調整手段208は、上記のように発音期間の始期もしくは終期の変更を行った後、2つのノートデータの重なりの欄から、重なりが解消した相手のノートデータの番号を削除する。
【0069】
ユーザが図8に示したメッセージ窓に対し「何もしない」を選択して、「実行」を指示すると、調整手段208は発音期間に重なりを持つ2つノートデータの発音期間の始期および終期に変更を加えず、重なりの欄の番号に、ユーザが意図的に重なりを残したことを示すマーク、例えば「*」を付ける。
【0070】
調整手段208は、歌唱スコアデータに含まれる全てのノートデータに関し、上記の調整処理を繰り返す。なお、ユーザが図8のメッセージ窓において、「全ての重なり部分について適用する」にチェックを付けて「実行」を指示すると、調整手段208は個々の重なりについてユーザの確認を促すことなく、全てのノートデータに関し上記の調整処理を行う。その結果、重なりの欄が全て空欄であるか、もしくは重なりの欄の全ての番号に、ユーザが意図的に重なりを残したことを示す「*」が付けられた歌唱スコアデータが生成される。
【0071】
調整手段208により歌唱スコアデータが変更されると、表示手段205は変更後の歌唱スコアデータに基づいて、ピアノロール表示を行う。図10は図7に示したピアノロール表示に対応する歌唱スコアデータに対し、調整手段208が調整処理を行った結果、表示手段205により表示されるピアノロール表示の画面である。続いて調整手段208は、歌唱スコアデータから番号および重なりの欄を取り除いた部分を、データ出力手段209を介して歌唱合成部30に送信する。
【0072】
歌唱合成部30は、既に説明した動作に従って、スコアデータ編集部20から受信した歌唱スコアデータに基づいて歌唱音声データを生成し、その歌唱音声データを再生することにより歌唱演奏を行う。
【0073】
[1.2.2.基準のパートデータに基づくタイミングの調整に関する動作]
一般的に歌唱合成装置は、複数の人の声による合唱演奏を行うこともできる。その場合の歌唱スコアデータは、歌唱演奏パートに対応するパートデータを複数含んでいる。合唱楽曲においては、複数の歌唱演奏パートの間で、音高のみが異なる演奏がよく行われる。これは合唱楽曲において、複数の声による和声が作られることが意図されるからである。
【0074】
合唱楽曲の歌唱スコアデータを編集する場合、複数のパートデータ間で発音期間に関するデータが共通していると、ユーザが発音期間に関し行う編集作業はそれらのパートデータのそれぞれに関して同じである。しかしながら、従来技術によれば、それらのパートデータは音高に関するデータが異なっているため、編集済みのパートデータの内容を、未編集のパートデータの内容に反映させることができなかった。従って、ユーザはあるパートデータに含まれるタイミングに関するデータを編集した後、全く同じ編集作業を、他のパートデータにおいて繰り返す必要があり、不便であった。
【0075】
このような不都合を解消するために、本実施形態には、編集済みのパートデータの発音期間を示すデータに基づき未編集のパートデータの発音期間を示すデータを自動的に修正する機能が設けられている。以下、その動作を説明する。
【0076】
スコアデータ編集部20の表示手段205は、既に述べたように、複数のパートデータを含む歌唱スコアデータに基づいて、複数のパートデータに含まれるノートデータを、異なる色で区別して同時にピアノロール表示することができる。図11は2つのパートデータに関し、表示手段205がピアノロール表示を行った場合の画面の例を示している。図11において、ノートバー401a〜fはパート1のパートデータ、ノートバー402a〜fはパート2のパートデータに対応している。
【0077】
図11に例示した歌唱スコアデータは、例えば外部装置によりユーザの実演奏に基づき作成されたものであり、ユーザが意図しない発音期間を示すデータを含んでいる。ここで、ユーザはパート1のパートデータに関しては、既に発音期間に関する情報の編集を行い、パート1に属する各歌唱音の発音期間はユーザが意図したものになっているものとする。また、パート2のパートデータに関しては、ユーザはまだ編集作業を行っていないものとする。このような場合、ユーザはパート1のパートデータの発音期間を示すデータを基準として、パート2のパートデータの発音期間を示すデータを変更することができる。
【0078】
まず、ユーザは基準としたいノートデータおよび発音期間の変更をしたいノートデータを全て、操作手段206を用いて選択する。例えば、ユーザは図11のピアノロール表示において、マウスを用いて選択したいと考えるノートバーを長方形で囲む操作を行う。その後、ユーザは、スコアデータ編集部20に対し、操作手段206を用いてタイミングの調整処理の実行を指示する。操作手段206は判定手段204に対し、ユーザにより選択されたノートデータを特定するデータと共に、タイミングの調整処理の実行を指示するデータを送信する。
【0079】
判定手段204は、操作手段206からユーザにより選択されたノートデータを特定するデータ等を受信すると、記憶手段203に記憶されている歌唱スコアデータから、ユーザにより選択されたノートデータの番号、発音期間に関するデータを読み出す。図12は、ユーザが図11のピアノロール表示において、ノートバー401b〜eおよびノートバー402b〜eを選択し、タイミングの調整処理の実行を指示した際に判定手段204により読み出されるデータの例を示している。
【0080】
続いて、判定手段204は、ユーザに基準とするパートデータの指定等を促すメッセージ窓を表示手段205に表示するよう指示する。図13は、判定手段204の指示により、表示手段205が表示するメッセージ窓の例を示している。図13における「基準とするパート」には、ユーザにより指定されたノートデータのいずれかを含む全てのパートデータの名称がリストアップされ、ユーザはリストアップされたパートデータの名称から、必ず1つを選択する必要がある。
【0081】
「感度」は、基準とするパートデータの発音期間の始期もしくは終期と、変更対象のパートデータの発音期間の始期もしくは終期とのズレの最大時間を、単位時間数にて示した値である。例えば、感度が150であり、基準となるノートデータの発音期間の始期が「0001:02:015」である場合、発音期間の始期が「0001:01:345」〜「0001:02:165」の範囲内であるノートデータが、変更の対象となる。
【0082】
「強さ」は、基準となる発音期間と、変更対象となる発音期間とのズレに対する、修正時間の比率をパーセントで示した値である。例えば、強さが100%であれば、変更対象の発音期間の始期もしくは終期は、基準となる発音期間の始期もしくは終期と完全に一致する。また、強さが70%であれば、変更対象となる発音期間の始期もしくは終期は、基準となる発音期間の始期もしくは終期との差の70%にあたる時間だけ、基準となる発音期間に近づけられる。
【0083】
「発音期間の始期を修正する」および「発音期間の終期を修正する」は、ユーザが変更を行うタイミングの種類を指示する項目である。
図13に示したメッセージ窓において、ユーザが「実行」を指示すると、判定手段204はユーザにより修正指示が行われたタイミングに関して、以下の判定処理を行う。例として、ユーザにより、基準とするパートとしてパート1が、感度として150が、強さとして70%が指定され、「発音期間の始期を修正する」および「発音期間の終期を修正する」の両方にチェックが付けられた場合につき説明する。
【0084】
判定手段204はまず、図12に示したデータの変更対象となるパートデータ、すなわちパート2に関する部分に対し、「基準−始期」および「基準−終期」という欄を追加する。続いて、判定手段204はパート2の発音期間の始期のそれぞれについて、基準となるパートデータ、すなわちパート1の発音期間の始期の中から最も近いものを検索する。
【0085】
判定手段204は検索したパート1の発音期間の始期から、パート2の発音期間の始期を減算し、その減算結果の絶対値が感度として指定された150以下であるか否かを判定する。判定手段204は減算結果の絶対値が150以下であると判定した場合、「基準−始期」の欄に、検索したパート1のノートデータの番号を基準となるノートデータの番号として書き込む。一方、判定手段204は減算結果の絶対値が150以下でないと判定した場合、そのパート2のノートデータに関しては、「基準−始期」の欄を空欄のままとする。
【0086】
判定手段204は上記の検索、判定および番号の書き込みの処理を、パート2の変更対象のノートデータの発音期間の始期の全てについて繰り返す。
【0087】
続いて、判定手段204はパート2のノートデータの発音期間の終期に関しても、上記の発音期間の始期に関する場合と同様に、検索、判定および番号の書き込みの処理を行う。その結果、判定手段204は図14に示すデータを生成する。判定手段204は生成したデータを、先にユーザにより指定された強さを示すデータ、すなわち「70%」と共に、調整手段208に送信する。
【0088】
調整手段208は判定手段204からデータを受信すると、まずパート2のノートデータの発音期間の始期のデータで、「基準−始期」の欄に番号が書き込まれているものに関し、「基準−始期」の欄の番号により指定されるパート1のノートデータにおける発音期間の始期から、パート2のノートデータの発音期間の始期を減算し、その減算結果に70%、すなわち0.70を乗ずる。
【0089】
続いて、調整手段208は乗算結果を、パート2のノートデータの発音期間の始期に加算する。調整手段208は、その加算結果で、記憶手段203に記憶されている歌唱スコアデータの、パート2のパートデータにおける、対応する番号のノートデータの発音期間の始期を書き換える。
【0090】
調整手段208は図14に示したデータの、パート2のノートデータの発音期間の始期に関し、全てのノートデータについて上記の減算、乗算、加算および歌唱スコアデータの書き換えの処理を行う。さらに、調整手段208は発音期間の終期に関しても、上記の発音期間の始期に関する場合と同様に、減算、乗算、加算および歌唱スコアデータの書き換えの処理を行う。
【0091】
上記の例においては、ユーザにより発音期間の始期と終期の両方が変更の対象として選択された場合につき説明したが、いずれか片方のみが選択された場合には、選択されなかったタイミングに関しては、単にタイミングの調整処理が行われない。
【0092】
また、上記の例においては、判定手段204は、変更対象のノートデータと基準となるノートデータとの対応付けを、発音期間の始期と終期のそれぞれに関し個別に行っている。しかしながら、例えば発音期間の始期と終期の両方が、基準となるタイミングから「感度」により指定された時間範囲に入る時にのみ、変更対象のノートデータと基準となるノートデータとの対応付けを行うなど、他の対応付けの方法が用いられてもよい。
【0093】
調整手段208により歌唱スコアデータが変更されると、表示手段205は変更後の歌唱スコアデータに基づいて、ピアノロール表示を行う。図15は図11のピアノロール表示に示された歌唱スコアデータに対し、パート1のパートデータを基準とするパート2のパートデータのタイミングの調整処理が行われた結果、表示手段205により表示される画面である。
【0094】
ユーザは上記のようにタイミングの調整処理を終えた後、歌唱スコアデータを歌唱合成部30に送信する指示を行う。その結果、既に説明したように、スコアデータ編集部20から歌唱合成部30に対し歌唱スコアデータが送信され、歌唱合成部30により歌唱演奏が行われる。
【0095】
[2.変形例]
上述した実施形態は、本発明の実施形態の例示であり、上記実施形態に対しては、本発明の主旨から逸脱しない範囲で様々な変形を加えることができる。
【0096】
例えば、スコアデータ編集装置により編集されたスコアデータが、歌唱合成装置に対してではなく、単声楽器の音を出力可能な音源装置に対して送信されてもよい。ただし、その場合には、スコアデータには発音記号に関するデータは含まれない。
【0097】
また、歌唱スコアデータの形式としては、例えばMIDI(Musical Instrument Digital Interface)規格に従ったデータ形式など、他のデータ形式が用いられてもよい。
【0098】
また、上述した実施形態においては、汎用的なコンピュータに、アプリケーションに従った処理を実行させることにより、歌唱合成システムを実現したが、同様の歌唱合成システムを専用のハードウェアにより構成してもよい。さらに、汎用的なコンピュータを用いる場合、専用のハードウェアを用いる場合のいずれにおいても、歌唱合成システムの構成要素は一つの筐体に配置される必要はない。例えば、歌唱合成システムの個々の構成要素が独立した装置を形成し、それらが互いにLAN等により接続されていてもよい。
【0099】
また、上述した実施形態において、発音期間に重なりを持つ2以上のノートデータ間の発音期間の変更処理は、ユーザが歌唱スコアデータの送信を指示した時点で行われていた。しかしながら、変更処理のタイミングは上記の実施形態におけるものに限られない。例えば、ユーザによりピアノロール表示におけるノートバーに対する操作が行われ、発音期間に関するデータの変更が行われる度に、重なりの判定処理が行われ、ユーザにより変更が行われた発音期間に関するデータが再変更されるようにしてもよい。その際、ユーザに対する確認作業を行わないようにすれば、いわゆる「吸着」と呼ばれる、近くにあるノートバーの端点に、編集中のノートバーの端点が自動的に一致される処理が行われることになる。
【0100】
また、上述した実施形態において、基準とするパートデータのノートデータと他のパートデータのノートデータの間における発音期間の変更処理は、ユーザがタイミングの調整処理を指示した時点で行われていた。しかしながら、これらの処理のタイミングは上記の実施形態におけるものに限られない。例えば、ユーザによりピアノロール表示におけるノートバーに対する操作が行われ、発音期間に関するデータの変更が行われる度に、基準として指定されたパートデータに含まれるノートデータの発音期間の始期もしくは終期と、ユーザにより変更されたノートデータの発音期間の始期もしくは終期との差が所定の期間以下であるか否かが判定され、ユーザにより変更されたノートデータの発音期間が再変更されるようにしてもよい。その際、ユーザに対する確認作業を行わないようにすれば、いわゆる「吸着」処理が行われることになる。
【0101】
【発明の効果】
以上示したように、本発明にかかるスコアデータ表示装置およびプログラムによれば、ユーザが歌唱もしくは単声楽器による演奏に関するスコアデータを編集する際に、誤って同時に複数音の発音を指示するデータ部分が生じてしまっても、ユーザは容易にそのデータ部分を確認することができ、歌唱合成装置もしくは単声楽器の音源装置に不自然な演奏を行わせるスコアデータが作成されることが防止される。
【0102】
また、本発明にかかるスコアデータ編集装置およびプログラムによれば、ユーザが歌唱もしくは単声楽器による演奏に関するスコアデータを編集する際に、ユーザは、スコアデータに含まれる、同時に複数音の発音を指示するデータ部分を、同時に1音の発音を指示するデータに容易に修正することができる。
【0103】
また、本発明にかかるスコアデータ編集装置およびプログラムによれば、ユーザはあるパートデータの発音期間に関するデータに基づき、他のパートデータの発音期間に関するデータを容易に修正することができ、発音期間に関するデータが同じもしくは類似する複数のパートデータを含むスコアデータの編集において、ユーザの作業が軽減される。
【図面の簡単な説明】
【図1】 本実施形態の歌唱合成システムを実現するコンピュータの構成を示すブロック図である。
【図2】 本実施形態の歌唱合成システムの機能を示すブロック図である。
【図3】 本実施形態の歌唱スコアデータの構成を示す図である。
【図4】 本実施形態の素片データベースの構成を示す図である。
【図5】 本実施形態の整形手段による整形が行われた後の歌唱スコアデータを示す図である。
【図6】 本実施形態のピアノロール表示の画面を示す図である。
【図7】 本実施形態のピアノロール表示の画面を示す図である。
【図8】 本実施形態の調整手段の指示により表示されるメッセージ窓を示す図である。
【図9】 本実施形態の調整手段が行う発音期間の調整の様子を示す図である。
【図10】 本実施形態のピアノロール表示の画面を示す図である。
【図11】 本実施形態のピアノロール表示の画面を示す図である。
【図12】 本実施形態の判定手段により読み出されるデータを示す図である。
【図13】 本実施形態の判定手段の指示により表示されるメッセージ窓を示す図である。
【図14】 本実施形態の判定手段により生成されるデータを示す図である。
【図15】 本実施形態のピアノロール表示の画面を示す図である。
【符号の説明】
1…コンピュータ、101…CPU、102…ROM、103…RAM、104…HD、105…表示部、106…操作部、107…データ入出力部、108…D/Aコンバータ、109…アンプ、110…スピーカ、115…バス、20…スコアデータ編集部、30…歌唱合成部、201・301…データ入力手段、202…整形手段、203・302…記憶手段、204…判定手段、205…表示手段、206・308…操作手段、207…編集手段、208…調整手段、209…データ出力手段、303…素片データベース、304…データ選択手段、305…音高調整手段、306…継続期間調整手段、307…音量調整手段、309…音声出力手段。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for editing and displaying score data for automatic performance, and a program.
[0002]
[Prior art]
There is a technique for causing an automatic performance apparatus to perform automatic performance of music by using score data that is data indicating the pitch and sound generation period of a sound included in the music. There is also a device for editing score data for automatic performance.
[0003]
One method of displaying score data in the score data editing apparatus is called piano roll display. On the piano roll display screen, a bar-shaped figure corresponding to each sound indicated by the score data is arranged on a coordinate plane composed of an axis indicating pitch and an axis indicating time. The user can know the pitch and sound generation period of each sound from the position in the pitch axis direction of the bar-shaped figure and the position and length in the time axis direction.
[0004]
Furthermore, the data in the score data corresponding to the position and size of the figure can be changed by changing the position and size of the bar-shaped figure arranged on the piano roll display screen with a mouse or the like (for example, (See Patent Document 1).
[0005]
On the other hand, there is a technique in which singing is automatically performed by a singing synthesizer using singing score data including data on lyrics in addition to data on pitches and pronunciation periods (see, for example, Patent Document 2).
[0006]
[Patent Document 1]
JP-A-1-321484
[Patent Document 2]
JP 2002-202790 A
[0007]
[Problems to be solved by the invention]
By the way, as in the case of editing score data for automatic performance with instrument sounds, the score data editing device displays the pitch and pronunciation period of the sounds included in the singing score data by piano roll display etc. If the data relating to the pitch and the pronunciation period included in the singing score data can be edited by operating, the user's editing work becomes easy.
[0008]
However, in a singing performance, a single person does not emit a plurality of voices simultaneously, whereas many musical instruments can emit a plurality of sounds simultaneously. Therefore, if the score data editing device is used for editing the singing score data, the user may erroneously create singing score data instructing to utter a plurality of sounds simultaneously with the same person's voice. .
[0009]
If the synthesizer sings according to such singing score data, the singing performance becomes unnatural. In some cases, when the singing voice synthesizing apparatus finds an instruction to utter a plurality of sounds at the same time, the singing synthesizer performs processing such as uttering the subsequent sound after stopping the preceding sound. In such a case, the singing performance performed by the singing synthesizing apparatus may be different from what the user intended, which is inconvenient.
[0010]
In view of the above situation, the present invention prevents the user from creating score data that causes a plurality of sounds to be pronounced at the same time in displaying and editing score data for singing and monophonic instruments. The present invention provides an apparatus that can save a user's trouble by automatically correcting a data portion that has been created in error.
[0011]
[Means for Solving the Problems]
In order to solve the problems described above, the present invention provides (1) pitch data indicating the pitch of the sound and (2) score data including a plurality of note data including at least the sounding period data indicating the sounding period of the sound. With respect to storage means for storing and two or more note data included in the score data,oneA first sound generation period indicated by first sound generation period data included in the note data;oneDetermining means for determining whether or not there is an overlapping portion between the second sound generation period indicated by the second sound generation period data included in other note data different from the note data ofThe sound indicated by the pitch data included in the note data for each of the note data included in the score data on the coordinates having the first axis indicating the pitch and the second axis indicating the passage of time. The position in the first axial direction corresponding to the height of the second axial direction corresponds to the position in the second axial direction corresponding to the beginning and end of the sounding period indicated by the sounding period data included in the note data, respectively. Display means for displaying a graphic as another end point, the display means,If it is determined by the determining means that there is an overlapping part,oneofShape corresponding to note dataAnd saidotherofNotedataCompatible withDoShapes, other shapesWhenDifferentRuDisplay by wayScore data characterized bydisplayProviding equipment.
[0012]
Score data with this configurationdisplayAccording to the deviceEasy for usersData indicating simultaneous pronunciation of multiple sounds included in score data for singing or monophonic instrumentsPart can be confirmed.
[0013]
Also, the score data according to the present inventiondisplayIn the apparatus, the adjusting means includes theWhen it is judged by the judging means that there is an overlapping partThe first pronunciation periodWhenThe second pronunciation period andThere is no overlap betweenThe first sound generation period data and the second sound generation period dataat leastIt may be configured to change one.
[0014]
Score data with this configurationdisplayAccording to the apparatus, data indicating the simultaneous pronunciation of a plurality of sounds included in the score data for singing or for a monophonic instrument is provided.It is automatically corrected and the score data correction work by the user is reduced..
[0015]
In the score data display device according to the aspect described above, the adjusting unit may determine the earlier of the end of the first sound generation period and the end of the second sound generation period as the start of the first sound generation period and One of the first sound generation period data and the second sound generation period data may be changed so as to coincide with a later one of the start periods of the second sound generation period. .
[0016]
According to the score data display device having such a configuration,In many cases,Data indicating simultaneous pronunciation of multiple sounds included in score data for singing or monophonic instrumentsIs corrected to the contents intended by the user.
[0019]
Furthermore, the present invention providesThe above score data display deviceA program for causing a computer to execute processing similar to that performed by the computer is provided.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
[1. Embodiment]
[1.1. Constitution]
FIG. 1 is a block diagram showing a configuration of a
[0021]
The
[0022]
The
[0023]
The
[0024]
Among the applications stored in the
[0025]
The
[0026]
The data input /
[0027]
The D /
[0028]
FIG. 2 is a block diagram showing functions of the song synthesis system provided by the
[0029]
The score data editing unit 20 includes data input means 201, shaping means 202, storage means 203, determination means 204, display means 205, operation means 206, editing means 207, adjustment means 208, and data output means 209. Among these, the storage means 203 is the
[0030]
The
[0031]
In addition, in order to avoid duplication of description, the function of each component of the score data editing unit 20 and the singing
[0032]
[1.2. Operation]
The feature of the present invention resides in the score data editing unit 20. However, in order to understand the technical significance of the processing performed by the score data editing unit 20, the processing content of the
[0033]
First, the data input means 301 of the
[0034]
FIG. 3 is a diagram showing the configuration of the singing score data. The singing score data includes one or more part data representing singing performance. In addition to the part data, the singing score data includes data indicating the time and tempo used in the performance, and data indicating the resolution. The singing score data shown in FIG. 3 includes three part data of
[0035]
The part data includes a plurality of note data that is a set of data indicating a pitch, a pronunciation period, a pronunciation symbol, and a strength for each of a plurality of singing sounds constituting the part. In the part data, for example, note data are arranged in order from the earliest beginning of the sounding period, or in the order from the earliest end of the sounding period when the sounding period has the same beginning.
[0036]
In the present embodiment, the information related to the pronunciation period included in the singing score data is composed of information indicating the beginning of the pronunciation period and information indicating the end of the pronunciation period. It is expressed in the format of “+ unit time number”. For example, “0005: 03: 240” represents a timing at which a time of 240 unit times, that is, a time of 1/2 beat has elapsed from the timing of the third beat of the fifth measure. Note that the method of expressing the timing in the song score data is not limited to “measure number + beat number + unit time number”. Various expression methods such as a normal “hour + minute + second” format can be adopted. Moreover, you may employ | adopt the method of specifying the timing of subsequent data not by the absolute time from the reference | standard timing but by the relative time from preceding data.
[0037]
When the singing score data is stored in the
[0038]
FIG. 4 is a diagram showing the configuration of the
[0039]
The individual database corresponding to each singer includes a plurality of segment data collected from the singing voice waveform of the singer. The segment data is voice data obtained by extracting and encoding a phonetic feature from a singing voice waveform.
[0040]
Here, the case of singing the lyrics of “sai” with respect to the segment data will be described as an example. The lyrics “Saita” are expressed by phonetic symbols “saita”. When analyzing the waveform of the sound represented by the phonetic symbol “saita”, the rising portion of the sound of “s” → the sound of “s” → the transition portion from the sound of “s” to the sound of “a” → “ The sound of “a” is continued, and ends with the attenuation part of the sound of “a”. Each piece of data is audio data corresponding to these phonetic features.
[0041]
The
[0042]
The data selection means 304 includes, for example, the lyrics “saita” in the singing score data. When synthesizing the singing voice of the lyrics, “#s” “s” “s-a” is stored from the
[0043]
The pitch adjusting means 305 adjusts the pitch of the received segment data based on the data related to the pitch included in the singing score data. The
[0044]
The singing score data sent to the duration adjustment means 306 includes data for designating the sound generation period corresponding to the individual segment data. The
[0045]
The singing score data sent to the volume adjusting means 307 includes data relating to the sound intensity corresponding to each piece of piece data. The
[0046]
The
[0047]
When the user gives a playback instruction to the singing
[0048]
In order to make the singing performance by the
[0049]
In the above description, the segment data used in the singing
[0050]
Next, the operation of the score data editing unit 20 will be described. First, the
[0051]
The
[0052]
FIG. 5 shows the singing score data after the item is added by the shaping means 202. In the number column, identification numbers of the respective note data are assigned according to a rule such as ascending order. In the overlap column, when there is a temporal overlap with the sound indicated by other note data, the number of the other party's note data having the overlap is written. The
[0053]
[1.2.1. Operation related to elimination of overlapping pronunciation periods]
When the singing score data is stored in the
[0054]
For example, when it is determined that there is an overlap in the sound generation periods indicated by the note data A and the note data B belonging to the same part data, the
[0055]
The display means 205 performs a piano roll display based on the singing score data. FIG. 6 is a piano roll display screen performed by the display means 205 based on the singing score data shown in FIG. In FIG. 6, each of the
[0056]
In FIG. 6, the note bar is displayed only for the part data of
[0057]
Further, the display means 205 displays, for example, a note bar corresponding to the sound in which the number of any note data is written in the overlap column, with a hatched line, so that any note data is displayed in the overlap column. Distinguishes from note bars corresponding to sounds for which no number is written. In addition, the method of distinguishing the note bar corresponding to the sound in which the number of the note data is written in the overlap column, that is, the sound having the overlap of the pronunciation period with the other sound, from the other sound is as follows: In addition to the hatching, various methods such as changing the color and line thickness and blinking the note bar can be applied.
[0058]
On the screen of the piano roll display, information such as the sound intensity and phonetic symbols included in the note data is usually displayed. In the example of FIG. 6, the
[0059]
The user can instruct the score data editing unit 20 to change the pitch and the sound generation period of the note data corresponding to the note bar by operating the note bar in the piano roll display using the operation means 206. it can. For example, the user can instruct increase / decrease of data indicating the pitch of the note data corresponding to the selected note bar by pressing the up and down cursor keys after selecting the note bar with the mouse. Further, the user can instruct increase / decrease of data indicating the start or end of the sound generation period of the note data corresponding to the note bar by dragging the left end or the right end of the note bar with the mouse.
[0060]
The
[0061]
When the data related to the start or end of the pronunciation period included in the singing score data is changed, the
[0062]
FIG. 7 shows a screen displayed by the display means 205 when the user operates the
[0063]
When the user finishes editing the song score data, the user uses the operation means 206 to give an instruction to transmit the song score data to the
[0064]
If the
[0065]
When the user selects “Adjust with priority to later” in the message window shown in FIG. 8 and instructs “execute”, the adjustment means 208 relates to two note data having overlapping pronunciation periods ( As shown in a), the data related to the end of the sounding period of the preceding note data is changed so as to be the same as the start time of the sounding period of the later note data.
[0066]
When the user selects “adjust with priority from the start” in the message window shown in FIG. 8 and instructs “execute”, the adjustment means 208 relates to two note data having overlapping pronunciation periods ( As shown in b), the data related to the start of the sounding period of the subsequent note data is changed so as to be the same as the end of the sounding period of the preceding note data.
[0067]
If either “Adjust with Subsequent Priority” or “Adjust with Prior Priority” is selected and the start period of two note data with overlapping pronunciation periods is the same, When the end periods are the same as each other, the adjusting
[0068]
It should be noted that the method of adjusting the sound generation period of two note data having overlapping sound generation periods is not limited to the above-mentioned prior priority or first priority. For example, the end of the sound generation period of the first note data may coincide with the start of the sound generation period of the subsequent note data at the timing at which the overlap of the sound generation periods is divided according to the ratio specified by the user. After changing the start or end of the sound generation period as described above, the adjustment means 208 deletes the number of the other note data whose overlap has been eliminated from the overlap field of the two note data.
[0069]
When the user selects “do nothing” in the message window shown in FIG. 8 and instructs “execute”, the adjustment means 208 starts and ends the sound generation periods of two note data having overlapping sound generation periods. A mark indicating that the user intentionally left an overlap, for example, “*” is added to the number in the overlap column without changing.
[0070]
The
[0071]
When the singing score data is changed by the adjusting
[0072]
The singing
[0073]
[1.2.2. Operation related to timing adjustment based on reference part data]
In general, a singing synthesizer can also perform a choral performance based on the voices of a plurality of people. The singing score data in that case includes a plurality of part data corresponding to the singing performance part. In choral music, performances that differ only in pitch are often performed among a plurality of singing performance parts. This is because it is intended that a chorus with a plurality of voices is created in the choral music.
[0074]
When editing the singing score data of the choral music, if the data related to the pronunciation period is common among the plurality of part data, the editing work performed by the user regarding the pronunciation period is the same for each of the part data. However, according to the prior art, since the data regarding the pitches of these part data are different, the contents of the edited part data cannot be reflected in the contents of the unedited part data. Therefore, it is inconvenient because the user needs to repeat the same editing operation for other part data after editing data related to timing included in a part data.
[0075]
In order to eliminate such inconvenience, the present embodiment is provided with a function for automatically correcting data indicating the pronunciation period of unedited part data based on data indicating the pronunciation period of edited part data. ing. Hereinafter, the operation will be described.
[0076]
As described above, the
[0077]
The singing score data illustrated in FIG. 11 is created based on the actual performance of the user by an external device, for example, and includes data indicating a pronunciation period that is not intended by the user. Here, regarding the part data of
[0078]
First, the user selects all the note data to be used as a reference and the note data to be changed in the pronunciation period using the operation means 206. For example, in the piano roll display of FIG. 11, the user performs an operation of surrounding a note bar to be selected using a mouse with a rectangle. Thereafter, the user instructs the score data editing unit 20 to execute timing adjustment processing using the
[0079]
When the
[0080]
Subsequently, the
[0081]
“Sensitivity” is a value indicating the maximum time of the difference between the start or end of the sound generation period of the reference part data and the start or end of the sound generation period of the part data to be changed, in unit time. For example, when the sensitivity is 150 and the start time of the sound generation period of the reference note data is “0001: 02: 015”, the start time of the sound generation period is “0001: 01: 345” to “0001: 02: 165”. Note data within the range is subject to change.
[0082]
The “strength” is a value indicating the ratio of the correction time to the deviation between the reference sound generation period and the sound generation period to be changed as a percentage. For example, if the strength is 100%, the start or end of the sound generation period to be changed completely coincides with the start or end of the reference sound generation period. If the strength is 70%, the start or end of the sound generation period to be changed is brought closer to the reference sound generation period by a time corresponding to 70% of the difference from the start or end of the reference sound generation period. .
[0083]
“Correct the beginning of the pronunciation period” and “Correct the end of the pronunciation period” are items for instructing the type of timing for the user to change.
When the user instructs “execute” in the message window shown in FIG. 13, the
[0084]
First, the
[0085]
The
[0086]
The
[0087]
Subsequently, the
[0088]
When the
[0089]
Subsequently, the adjusting
[0090]
The adjustment means 208 performs the above-described subtraction, multiplication, addition, and rewriting of the singing score data for all the note data with respect to the beginning of the pronunciation period of the note data of
[0091]
In the above example, the case where both the start and the end of the pronunciation period are selected as the change target by the user has been described, but when only one of them is selected, regarding the timing not selected, The timing adjustment process is simply not performed.
[0092]
In the above example, the
[0093]
When the singing score data is changed by the adjusting
[0094]
After finishing the timing adjustment process as described above, the user gives an instruction to transmit the song score data to the
[0095]
[2. Modified example]
The above-described embodiment is an exemplification of the embodiment of the present invention, and various modifications can be made to the above-described embodiment without departing from the gist of the present invention.
[0096]
For example, score data edited by the score data editing device may be transmitted not to the singing synthesizer but to a sound source device capable of outputting a sound of a monophonic instrument. In this case, however, the score data does not include data related to phonetic symbols.
[0097]
As the format of the singing score data, other data formats such as a data format according to the MIDI (Musical Instrument Digital Interface) standard may be used.
[0098]
In the above-described embodiment, the singing synthesis system is realized by causing a general-purpose computer to execute processing according to the application. However, a similar singing synthesis system may be configured by dedicated hardware. . Furthermore, in the case of using a general-purpose computer or the case of using dedicated hardware, the constituent elements of the singing synthesis system do not need to be arranged in one casing. For example, the individual components of the singing voice synthesis system may form an independent device, and they may be connected to each other via a LAN or the like.
[0099]
In the above-described embodiment, the process of changing the pronunciation period between two or more note data that overlap in the pronunciation period is performed when the user instructs transmission of the singing score data. However, the timing of the change process is not limited to that in the above embodiment. For example, each time the user performs an operation on the note bar in the piano roll display and the data related to the sound generation period is changed, the overlap determination process is performed, and the data related to the sound generation period changed by the user is changed again. You may be made to do. At this time, if the confirmation work for the user is not performed, so-called “sucking” is performed, and the processing of automatically matching the end point of the note bar being edited with the end point of the nearby note bar is performed. become.
[0100]
In the above-described embodiment, the sound generation period changing process between the note data of the reference part data and the note data of other part data is performed when the user instructs the timing adjustment process. However, the timing of these processes is not limited to that in the above embodiment. For example, every time the user performs an operation on the note bar in the piano roll display and changes the data related to the pronunciation period, the beginning or end of the pronunciation period of the note data included in the part data specified as the reference, and the user It may be determined whether or not the difference between the start time or the end time of the sound generation period of the note data changed by the step is equal to or less than a predetermined period, and the sound generation period of the note data changed by the user may be changed again. . At this time, if the confirmation operation for the user is not performed, a so-called “adsorption” process is performed.
[0101]
【The invention's effect】
As described above, according to the score data display device and the program according to the present invention, when the user edits the score data related to the performance by the singing or the monophonic instrument, the data portion erroneously instructing the simultaneous sound generation simultaneously. Even if this occurs, the user can easily check the data portion, and it is possible to prevent the creation of score data that causes the singing synthesizer or the sound generator of the monophonic instrument to perform an unnatural performance. .
[0102]
Further, according to the score data editing apparatus and the program according to the present invention, when the user edits score data related to singing or playing with a monophonic instrument, the user instructs the pronunciation of a plurality of sounds simultaneously included in the score data. It is possible to easily correct the data portion to be changed to data for instructing the pronunciation of one sound at the same time.
[0103]
Further, according to the score data editing apparatus and program according to the present invention, the user can easily correct the data related to the pronunciation period of other part data based on the data related to the pronunciation period of certain part data. In editing score data including a plurality of part data having the same or similar data, the user's work is reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a computer that realizes a singing voice synthesis system according to an embodiment.
FIG. 2 is a block diagram illustrating functions of the singing voice synthesis system according to the present embodiment.
FIG. 3 is a diagram illustrating a configuration of song score data according to the present embodiment.
FIG. 4 is a diagram showing a configuration of a segment database according to the present embodiment.
FIG. 5 is a diagram showing singing score data after shaping by the shaping unit of the present embodiment.
FIG. 6 is a diagram showing a piano roll display screen of the present embodiment.
FIG. 7 is a diagram showing a piano roll display screen of the present embodiment.
FIG. 8 is a diagram showing a message window displayed in accordance with an instruction from the adjusting unit of the present embodiment.
FIG. 9 is a diagram showing how sound generation periods are adjusted by the adjusting means of the present embodiment.
FIG. 10 is a diagram showing a piano roll display screen of the present embodiment.
FIG. 11 is a diagram showing a piano roll display screen of the present embodiment.
FIG. 12 is a diagram illustrating data read by the determination unit of the present embodiment.
FIG. 13 is a diagram showing a message window displayed in accordance with an instruction from a determination unit according to the present embodiment.
FIG. 14 is a diagram illustrating data generated by the determination unit of the present embodiment.
FIG. 15 is a diagram showing a piano roll display screen of the present embodiment.
[Explanation of symbols]
DESCRIPTION OF
Claims (5)
前記スコアデータに含まれる2以上のノートデータに関し、一のノートデータに含まれる第1の発音期間データにより示される第1の発音期間と、前記一のノートデータとは異なる他のノートデータに含まれる第2の発音期間データにより示される第2の発音期間との間に重複部分があるか否かを判定する判定手段と、
音の高さを示す第1の軸と時間の経過を示す第2の軸を有する座標上に、前記スコアデータに含まれるノートデータの各々について、該ノートデータに含まれる音高データが示す音の高さに対応する前記第1の軸方向の位置に、該ノートデータに含まれる発音期間データが示す発音期間の始期および終期に対応する前記第2の軸方向の位置をそれぞれ一の端点および他の端点とする図形を表示する表示手段と
を備え、
前記表示手段は、前記判定手段により重複部分があると判定された場合、前記一のノートデータに対応する図形と、前記他のノートデータに対応する図形を、他の図形と異なる態様で表示する
ことを特徴とするスコアデータ表示装置。Storage means for storing (1) pitch data indicating a pitch, and (2) score data including a plurality of note data including at least sound generation period data indicating a sound generation period;
Relates two or more note data included in the score data, contained in the first and sounding period, different from the note data from said one note data indicated by the first sound production period data included in one note data Determining means for determining whether or not there is an overlapping portion between the second sound generation period data indicated by the second sound generation period data;
The sound indicated by the pitch data included in the note data for each of the note data included in the score data on the coordinates having the first axis indicating the pitch and the second axis indicating the passage of time. of the position of the first axis direction corresponding to the height, said second position to one respective axial end points corresponding to the beginning and end of the sounding period indicated by the sound production period data included in the note data and And display means for displaying a figure as another end point,
The display means displays the graphic corresponding to the one note data and the graphic corresponding to the other note data in a different form from the other graphic when the determining means determines that there is an overlapping portion. A score data display device characterized by that.
を備えることを特徴とする請求項1に記載のスコアデータ表示装置。When it is determined by the determining means that there is an overlapping portion, the first sounding period data and the second sounding period data and the second sounding period are set such that there is no overlapping portion between the first sounding period and the second sounding period. The score data display device according to claim 1, further comprising an adjusting unit that changes at least one of the pronunciation period data.
ことを特徴とする請求項2に記載のスコアデータ表示装置。The adjusting means may determine the earlier of the end of the first sounding period and the end of the second sounding period, among the start of the first sounding period and the start of the second sounding period, The score data display device according to claim 2 , wherein one of the first sound generation period data and the second sound generation period data is changed so as to coincide with a later one.
前記スコアデータに含まれる2以上のノートデータに関し、一のノートデータに含まれる発音期間データにより示される第1の発音期間と、前記一のノートデータとは異なる他のノートデータに含まれる第2の発音期間データにより示される第2の発音期間との間に重複部分があるか否かを判定する判定処理と、
音の高さを示す第1の軸と時間の経過を示す第2の軸を有する座標上に、前記スコアデータに含まれるノートデータの各々について、該ノートデータに含まれる音高データが示す音の高さに対応する前記第1の軸方向の位置に、該ノートデータに含まれる発音期間データが示す発音期間の始期および終期に対応する前記第2の軸方向の位置をそれぞれ一の端点および他の端点とする図形を表示する表示処理と
をコンピュータに実行させ、
前記表示処理においては、前記判定処理において重複部分があると判定された場合、前記一のノートデータに対応する図形と、前記他のノートデータに対応する図形を、他の図形と異なる態様で表示する処理を
前記コンピュータに実行させることを特徴とするプログラム。A storage process for storing (1) pitch data indicating a pitch and (2) score data including a plurality of note data including at least a pronunciation period data indicating a pronunciation period of the sound;
Relates two or more note data included in the score data, the second contained in other different note data and a first sounding period, and the one note data indicated by sounding period data included in one note data A determination process for determining whether or not there is an overlapping portion between the second sound generation period indicated by the sound generation period data;
The sound indicated by the pitch data included in the note data for each of the note data included in the score data on the coordinates having the first axis indicating the pitch and the second axis indicating the passage of time. of the position of the first axis direction corresponding to the height, said second position to one respective axial end points corresponding to the beginning and end of the sounding period indicated by the sound production period data included in the note data and Let the computer execute the display process to display the graphic with the other end point,
In the display process, when it is determined in the determination process that there is an overlapping portion, the graphic corresponding to the one note data and the graphic corresponding to the other note data are displayed in a different form from the other graphic. A program for causing a computer to execute a process to perform.
を前記コンピュータに実行させることを特徴とする請求項4に記載のプログラム。When it is determined in the determination process that there is an overlapping part, the first sounding period data and the second sounding period data and the second sounding period data are set such that there is no overlapping part between the first sounding period and the second sounding period. The program according to claim 4, wherein the computer is caused to execute adjustment processing for changing at least one of the pronunciation period data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003052059A JP3807380B2 (en) | 2003-02-27 | 2003-02-27 | Score data editing device, score data display device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003052059A JP3807380B2 (en) | 2003-02-27 | 2003-02-27 | Score data editing device, score data display device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004258564A JP2004258564A (en) | 2004-09-16 |
JP3807380B2 true JP3807380B2 (en) | 2006-08-09 |
Family
ID=33117017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003052059A Expired - Lifetime JP3807380B2 (en) | 2003-02-27 | 2003-02-27 | Score data editing device, score data display device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3807380B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5217275B2 (en) * | 2007-07-17 | 2013-06-19 | ヤマハ株式会社 | Apparatus and program for producing music |
JP6372076B2 (en) * | 2013-12-20 | 2018-08-15 | ヤマハ株式会社 | Music information display device, music information display method and program |
JP7143863B2 (en) * | 2018-02-14 | 2022-09-29 | ヤマハ株式会社 | Acoustic parameter adjustment device, acoustic parameter adjustment method, and acoustic parameter adjustment program |
JP7260312B2 (en) * | 2019-02-01 | 2023-04-18 | 株式会社河合楽器製作所 | Music data display program and music data display device |
JP7604845B2 (en) | 2020-11-06 | 2024-12-24 | ヤマハ株式会社 | Acoustic processing system, acoustic processing method, and program |
CN112652279A (en) * | 2020-12-17 | 2021-04-13 | 广东爱乐社教育科技有限公司 | Automatic electronic playing method, system, device, equipment and storage medium for music score |
EP4303864A1 (en) * | 2022-07-08 | 2024-01-10 | Soundtrap AB | Editing of audio files |
-
2003
- 2003-02-27 JP JP2003052059A patent/JP3807380B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004258564A (en) | 2004-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3823928B2 (en) | Score data display device and program | |
EP3462443B1 (en) | Singing voice edit assistant method and singing voice edit assistant device | |
JP5949607B2 (en) | Speech synthesizer | |
JP6465136B2 (en) | Electronic musical instrument, method, and program | |
JP2019066648A (en) | Method for assisting in editing singing voice and device for assisting in editing singing voice | |
JP5625321B2 (en) | Speech synthesis apparatus and program | |
JP3807380B2 (en) | Score data editing device, score data display device, and program | |
JP4456088B2 (en) | Score data display device and program | |
JP3709821B2 (en) | Music information editing apparatus and music information editing program | |
JP5838563B2 (en) | Electronic musical instruments and programs | |
JP2001042879A (en) | Karaoke device | |
JP4221757B2 (en) | Music score display apparatus and program for realizing music score display method | |
JP2001013964A (en) | Playing device and recording medium therefor | |
JP3173310B2 (en) | Harmony generator | |
JP6583756B1 (en) | Speech synthesis apparatus and speech synthesis method | |
JP2024057180A (en) | Program, acoustic processing method and acoustic processing system | |
JP3797180B2 (en) | Music score display device and music score display program | |
JP3709820B2 (en) | Music information editing apparatus and music information editing program | |
JP3931727B2 (en) | Performance information editing apparatus and program | |
JP3797181B2 (en) | Music score display device and music score display program | |
JP2006039326A (en) | Automatic performance data characteristic changing device and program therefor | |
JP5509961B2 (en) | Phrase data extraction device and program | |
JPH05333884A (en) | Display device for karaoke device | |
JP2010186029A (en) | Sound editing program, sound editing system, and sound editing method | |
JP2008276101A (en) | Music piece reproduction system and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3807380 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100526 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110526 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130526 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140526 Year of fee payment: 8 |
|
EXPY | Cancellation because of completion of term |