[go: up one dir, main page]

JPH1185154A - インタラクティブ音楽伴奏用の方法及び装置 - Google Patents

インタラクティブ音楽伴奏用の方法及び装置

Info

Publication number
JPH1185154A
JPH1185154A JP9280584A JP28058497A JPH1185154A JP H1185154 A JPH1185154 A JP H1185154A JP 9280584 A JP9280584 A JP 9280584A JP 28058497 A JP28058497 A JP 28058497A JP H1185154 A JPH1185154 A JP H1185154A
Authority
JP
Japan
Prior art keywords
music
beat
singing
music accompaniment
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9280584A
Other languages
English (en)
Inventor
Wen-Yu Su
文 ▲ぎょく▼ 蘇
Ching-Min Chang
靖 敏 張
Liang-Chen Chien
良 臣 簡
Der-Jang Yu
▲徳▼ 彰 余
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JPH1185154A publication Critical patent/JPH1185154A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

(57)【要約】 【課題】 本発明は、歌手の歌い方に順応させるために
記憶された音楽のパラメータを調整するような音楽伴奏
機械を提供することを目的とする。 【解決手段】 音楽伴奏機械は、ユーザによって確立し
たビートと整合させるために音楽伴奏ファイルの記憶さ
れたビートを変更させるよう音楽伴奏ファイルを変更さ
せる。機械は音声アナライザを使用してユーザのビート
を識別する。音声アナライザはユーザの歌唱信号を過剰
な背景ノイズから分離し、歌手によって確立されたビー
トを示す歌唱信号に対してセグメント位置情報を追加す
る。MIDI制御器はユーザの確立されたビートに整合
するよう、音楽伴奏ファイルの音楽ビートを変更する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、概して音楽伴奏シ
ステムに関し、更に特定的には、個々の歌手に応じて音
楽パラメータを調整する音楽伴奏システムに関する。
【0002】
【従来の技術】一般的にカラオケ機械と称される音楽伴
奏装置は、音楽スコア又は曲の音楽伴奏を再生する。こ
れは、ユーザ又は歌手が適当な音楽に対して曲の歌詞を
「歌う」ことを可能にする。典型的には、歌詞及び音楽
伴奏の両方は、同じ媒体に記憶されている。例えば、図
1はレーザディスクプレーヤ102、ビデオ信号発生器
104、ビデオディスプレイ106、音楽伴奏信号発生
器108、スピーカー110、マイクロフォン112及
びミキサ114からなる従来のカラオケ機械100を示
す。カラオケ機械100は、ユーザが、ビデオ又は歌詞
信号(図示せず)及びオーディオ又は伴奏信号(図示せ
ず)を含むレーザディスク116を挿入したときに作動
する。ビデオ信号発生器104は、レーザディスク11
6からビデオ信号を抽出し、抽出されたビデオ信号を曲
の歌詞としてビデオディスプレイ106上に表示する。
音楽伴奏信号発生器108はレーザディスク116から
オーディオ信号を抽出し、それをミキサ114へ送信す
る。略同時に、歌手はビデオディスプレイ106に示さ
れた歌詞をマイクロフォン112に向かって歌い、この
マイクロフォン112は歌唱を、歌唱を示す電子歌唱信
号118へ変形する。電子信号118はミキサ114へ
送られる。ミキサ114はオーディオ信号及び電子歌唱
信号118を結合し、結合された音響信号120を音楽
を生成するスピーカー110へ結合する。
【0003】
【発明が解決しようとする課題】しかしながら、カラオ
ケ機械100は単に、ビートを含む記憶された音楽伴奏
の忠実な再生を生成する。ビートは、歌唱又は音楽伴奏
の第一強勢の規則的な再発によって示される音楽時間と
して定義される。これはユーザ又は歌手に、レーザディ
スク(又は例えばパーソナルコンピュータのメモリとい
った他の許容できる媒体)に記憶された音楽伴奏の一定
の又は予め記憶されたパラメータと調和することを強い
る。歌手が一定のビートと共にペースを維持しなけれ
ば、音楽伴奏と同期しなくなる。従って、歌手は記憶さ
れた音楽の一定のビートに順応するよう自分のビートを
調整せねばならない。従って、歌手の歌い方に順応させ
るために記憶された音楽のパラメータを調整することが
望ましい。
【0004】
【課題を解決するための手段】本発明の利点及び目的
は、説明の部分に示され、また本発明の実施例によって
明らかとなる。本発明の利点及び目的は、添付の請求項
の中で特に示されている要素及び組合せによって実現さ
れ、達成される。利点を達成するため、そして本発明の
目的に従って、以下実施例が示され、広範に開示される
ように、本発明によるシステムは、ユーザによって確立
されたビートに基づいて音楽伴奏ファイルを処理する。
本発明による音楽伴奏ファイルを処理する方法は、プロ
セッサによって実行される、処理のための音楽伴奏を選
択する段階と、特性ビートを有するサウンドをその特性
ビートを示す電子信号に変換する段階とからなる。処理
は、電子信号によって示された特性ビートに整合するよ
う音楽伴奏ファイルの音楽ビートを変更し、電子信号及
び音楽伴奏ファイルを出力する。
【0005】本発明によるメモリに記憶された音楽伴奏
ファイルを処理する装置は、選択に対応する音楽伴奏フ
ァイルをメモリから抽出する第1の制御器と、特性ビー
トを有するサウンドを電子信号へ変換するマイクロフォ
ンとからなる。アナライザは、電子信号をフィルタリン
グし、特性ビートを識別し、それにより第2の制御器は
音楽伴奏ファイルの音楽ビートを特性ビートと整合させ
うる。
【0006】本発明によるコンピュータプログラム生成
物は、楽器用ディジタルインタフェース(MIDI)制
御器の中のデータを処理するため、その中に具体化され
たコンピュータ読み取り可能なコードを有するコンピュ
ータ用媒体を含み、コンピュータ用媒体は、第1の制御
器によって処理されるべきMIDIフォーマットの音楽
伴奏ファイルを選択するよう適合された選択モジュール
と、特性ビートを有する外部サウンドをその特性ビート
を示す電子信号へ変換するよう適合された分析モジュー
ルとからなる。制御処理モジュールは、特性ビートと整
合するよう音楽伴奏ファイルの音楽ビートを加速又は減
速するよう適合されている。
【0007】
【発明の実施の形態】以下、この明細書に組み入れら
れ、その部分を構成する、本発明の望ましい実施例を示
し、本発明の目的、利点及び本質を説明する添付の図面
を使用して本発明を説明する。ここで、添付の図面にそ
の例が示されている本発明の望ましい実施例を詳述す
る。以下の説明に含まれているか、又は添付の図面に示
されている全ての事柄は、実例であり、制限的ではない
と理解されることが意図されている。
【0008】本発明による方法及び装置は、音楽伴奏の
ビートが歌手の自然のビートと整合するよう音楽伴奏の
ビートを変更させることが可能である。変更は主に(例
えば1つの単語を歌うのにかかる時間といった)歌手が
曲の部分を歌うのにかかる時間を検出し、その時間をそ
の部分を歌うのに予めプログラミングされた基準時間と
比較することによって実行される。比較に基づいて、音
楽伴奏機械は、例えば歌手のビートに整合するよう音楽
伴奏のビートを調整する。
【0009】図2は、本発明によって構成された音楽伴
奏システム200を示す。音楽伴奏システム200は、
制御器202、音楽伴奏メモリ204、マイクロフォン
206、音声アナライザ208、リアルタイムダイナミ
ックMIDI制御器210及びスピーカー212を含
む。望ましい実施例では、音楽伴奏メモリ204は、パ
ーソナルコンピュータのROM、パーソナルコンピュー
タのランダムアクセスメモリ(「RAM」)、又は同等
のメモリ媒体の部分の中に属する。制御器202の形状
は、パーソナルコンピュータでありえ、ある程度は音楽
伴奏メモリ204の媒体に依存する。当業者にとって
は、この教えに従った音楽伴奏システム200の装置の
ハードウエアの実施例を構成することが可能である一方
で、望ましい実施例では、装置は、パーソナルコンピュ
ータホスト制御器202にインストールされたソフトウ
エアモジュールによって成し遂げられる。
【0010】図3は、音楽伴奏システム200の動作を
示すフローチャート300である。まず、歌手は曲を選
択する(ステップ302)。この選択に基づいて、制御
器202は、音楽伴奏メモリ204からMIDIフォー
マットで記憶された音楽伴奏情報を含む予め記憶された
ファイルを抽出し、ファイルがMIDI制御器210に
よってアクセス可能なメモリに記憶されるようにする
(ステップ304)。例えば、制御器202は、ホスト
パーソナルコンピュータのROM(音楽伴奏メモリ20
4)に記憶された複数の音楽伴奏情報ファイルから選択
された音楽伴奏情報ファイルを抽出し、音楽伴奏情報を
ホストパーソナルコンピュータのRAM(図示せず)に
記憶する。RAMは、制御器202又はMIDI制御器
210のいずれかと関連しうる。歌手は、選択された音
楽伴奏に関連する歌詞をマイクロフォン206に向かっ
て歌う。マイクロフォン206は、歌唱を音声アナライ
ザ208に供給される電子信号へ変換する(ステップ3
06)。
【0011】マイクロフォン206から出力された電子
信号は、スピーカー212からのノイズといった望まし
くない背景ノイズを含む。望ましくないノイズを除去す
るため、音声アナライザ208は、以下詳述されるよう
に、電子信号をフィルタリングする(ステップ30
8)。更に、音声アナライザ208は、歌手の歌唱のビ
ートを識別するため、電子信号をセグメント化する。M
IDI制御器210は、アクセス可能なメモリから音楽
伴奏情報ファイルを検索する(ステップ310)。ステ
ップ310は、ステップ306及び308と略同時に、
そして並行して起こる。リアルタイムダイナミックMI
DI制御器210は、音楽伴奏信号のパラメータを変更
させるために歌唱の識別されたビートを使用し、それに
より音楽伴奏信号のビートは歌唱信号のビートに整合す
る(ステップ312)。選択された曲の伴奏MIDIフ
ァイルは、例えばホストパーソナルコンピュータのRA
Mの中に完全に予め記憶され、再生の間にリアルタイム
でMIDI制御器210によってアクセス可能である。
このように、ビートの変化は音楽伝送と干渉しない。換
言すれば、ビートの変化は音楽フロー問題を起こさな
い。
【0012】音楽のビートを歌手のビートに整合させる
ため、本発明による装置は、歌手が歌っているビートを
決定するよう機能する。図4は、歌手のビートを決定す
ることができる音声アナライザ208の構造を示す。音
声アナライザ208は曲を歌っている歌手の自然のビー
トを決定するよう機能し、歌手の音声のサウンドを他の
望ましくない背景ノイズから分離するためのノイズ消去
装置402と、歌手が、曲の、例えば単語といった部分
を歌うのにかかる時間を決定するためのセグメント化装
置404とを含む。
【0013】ノイズ消去装置402は、ビートを決定す
るために歌手の歌唱のみが使用されるよう、望ましくな
いサウンドをフィルタリングするために機能する。望ま
しくないサウンドの消去は、例えばマイクロフォン20
6といった受信器が、歌手だけでなく、例えば典型的に
は歌手に近接して配置される音楽伴奏システム200の
左右のチャネルスピーカーといった他のソースによって
発生されるノイズを拾いうるため、必要である。処理の
後、ノイズ消去装置402は、推定された歌唱信号40
8を出力する。推定された歌唱信号408は、歌手の歌
唱のビートを決定するためセグメント化装置404によ
って使用される。セグメント化装置404は、推定され
た歌唱信号408に追加された歌手の歌唱の自然のビー
トを示すセグメント位置情報を出力する。追加されたセ
グメント位置情報を伴う推定された歌唱信号408は、
セグメント位置が推定された歌唱信号410として図4
で確認されている。
【0014】図5はノイズ消去装置402の動作を示す
フローチャート500である。まず、ノイズを含む歌唱
信号406がノイズ消去装置402へ入力される(ステ
ップ502)。ノイズを含む歌唱信号406は、S
A [n]で示される実際の歌唱信号と、左スピーカーチ
ャネルノイズ及び右スピーカーチャネルノイズを含み、
マイクロフォン206によって受信される全体のノイズ
信号は、n0 [n]で示される。ここで[n]は時間軸
に沿った任意の点である。この結合されたサウンドは、
以下の式によって示されうる。
【0015】 S0 [n]=SA [n]+n0 [n] (式1) 次に、ノイズ消去装置402は過剰ノイズを除去する
(ステップ504)。例えば左スピーカーチャネルノイ
ズ及び右スピーカーチャネルノイズとして発せられた望
ましくない信号がn1 [n]として示されうると仮定す
る。n1 [n]は発生点(スピーカー)で生成された実
施のノイズと同等であり、一方n0 [n]信号は、マイ
クロフォンでのスピーカーノイズと等しく、即ちノイズ
はスピーカーとマイクロフォンとの間の路を進行し、そ
れは中でも路の長さに亘るスピーカーノイズの減衰を含
み、するとノイズを含む歌唱信号406の部分である過
剰なサウンドは、i=0乃至N−1であるとすると以下
の式によって示されうる。
【0016】 y[n]=Σh[i]n1 [n−i] (式2) H[z]=Z{h[n]} (式3) 式3は、ノイズ消去装置402の推定されたパラメータ
を示す。関数h[i]は、例えばスピーカーといったノ
イズの発生点から、マイクロフォンまでの路に亘るスピ
ーカーノイズの変化を示す。このように、h[i]は、
路のフィルタリング効果を示す。過剰サウンドがノイズ
消去装置402によって除去された後は、ノイズ消去装
置402は、Se [n]=S0 [n]−y[n]である
とすると、Se [n]によって示され、それは過剰ノイ
ズなしの歌手の歌唱の推定である。実際の歌唱と推定さ
れた歌唱信号408との間の誤りは、e[n]として以
下の通りに定義されている。
【0017】 e2 [n]=(SA [n]−Se [n])2 (式4) ノイズ消去装置402の設計は、実際の歌唱と推定され
た歌唱信号408との間の所望の最小誤りに基づく。誤
りはe[n]として示されている。ノイズ消去装置40
2のパラメータは、i=0乃至N−1及び0<η<2
で、誤りが最小化されるまで以下の式を反復的に解くこ
とによって得られる。
【0018】
【数1】
【0019】項ηは、システム設計者によって予めセッ
トされたシステム学習パラメータである。これは、推定
された歌唱信号408(se [n])がセグメント化装
置へ出力されることを可能にする(ステップ506)。
セグメント化装置404は、時間軸上で歌われた夫々の
歌詞の位置を区別するよう機能する。例えば、図6は、
起こりうる歌唱波の外形600を示す。波の外形600
は歌詞602,604等を含む。例えば歌詞604は、
歌詞602の終端位置に対応する第1の位置606から
始まり、次の歌詞(図示せず)の開始位置に対応する第
2の位置608で終わる。セグメント化装置404は、
幾つかの異なる方法を使用して、時間軸上で、夫々の歌
詞の第1の位置606及び第2の位置608を決定す
る。例えば、エネルギーエンベロープ法及び非線形信号
ベクトル分析を含む2つのそのような既知の方法が使用
されうる。
【0020】図7は、エネルギーエンベロープ法を使用
したセグメント化装置404の機能を示すフローチャー
ト700である。波の外形600が示すように、歌詞6
02,604等は連続的である。これらの単語は、第1
の位置606及び第2の位置608のすぐ前後の領域で
あり、エネルギーレベルの顕著な降下に続いてエネルギ
ーの上昇を有する境界ゾーンによってセグメントに分割
されている。従って、セグメント化位置はエネルギーの
変化を検査することによって決定されうる。波の外形6
00がx[n]で示されうると仮定し、ここでx[n]
はSA [n]と同等であるとすると、セグメント化位置
はフローチャート700で概説される手順によって決定
されうる。まず、推定された歌唱信号408を使用し、
Nはシステム設計者によって予めセットされた時間値で
あるとすると、長さ2N+1のスライド窓W[n]は、
以下のように画成される(ステップ702)。
【0021】
【数2】
【0022】従って、特定の時点におけるエネルギー
は、以下のように定義される。
【0023】
【数3】
【0024】次に、エネルギー信号が所定の閾値以上に
増加するとき、セグメントの第1の位置606が決定さ
れる(ステップ704)。換言すれば、歌詞604は、
式7が所定の閾値よりも大きいとき、時点nから始ま
る。セグメント位置は、T1 ・(E[n+d])がE
[n]よりも小さいか又は等しく、E[n+d]がT2
・(E[n+2d])よりも小さいか又は等しいときに
存在すると決定される。T1及びT2 は0乃至1の定数
であり、dはシステム設計者によって予めセットされた
間隔である。T1 、T2 及びdは、曲に対して所定であ
る。セグメント位置は、リアルタイムダイナミックMI
DI制御器210へ出力される。時間位置情報は、推定
された歌唱信号に追加され、時間位置が推定された歌唱
信号410としてセグメント化装置404から出力され
る(ステップ708)。
【0025】図8は、非線形信号ベクトル分析を使用し
たセグメント位置の決定を示すフローチャート800で
ある。まず、予め記憶された試験歌唱信号x[n]を使
用して、ベクトルは以下のように定義される(ステップ
802)。
【0026】
【数4】
【0027】X[n]は、歌唱信号からなるベクトルで
ある。次に、セグメント化特性は、以下のように定義さ
れる(ステップ804)。 Z[n]=1 セグメント化位置の場合 (式9) =0 非セグメント化位置の場合 次に、
【0028】
【外1】
【0029】がセグメント位置の推定量であり、α T
一定ベクトルであるとすると、推定関数は以下のように
定義される(ステップ806)。
【0030】
【数5】
【0031】費用関数は、Eが関連する括弧の中の関数
の期待値を示すとすると、以下のように定義される。
【0032】
【数6】
【0033】期待値関数に関する更なる情報について
は、A.Papoulisによる「Probability,Random Variables
and Statistical Process」、Mcgraw-Hill 社、198
4年を参照のこと。
【0034】
【外2】
【0035】は、以下のようなウィーナー−ホップの公
式を使用して最小化される。 α=R -1β (式12) R=E{[n]・ T [n]}及びβ={Z[n]・[n]} (式13) ウィーナー−ホップの公式に関する更なる情報について
は、N.Kalouptisidis 他による「Adaptive System Iden
tification and Signal Processing Algorithms」、Pre
ntice-Hall 社、1993年を参照のこと。異なる歌手
が歌う異なる曲は、αβ及びRを獲得するため、トレ
ーニングデータとして録音される。上述の信号に対する
セグメント化位置Z[n]は、まずプログラマによって
決定される。式12及び13は、αを計算するために使
用される。αが獲得された後、式10は、推定関数
【0036】
【外3】
【0037】を計算するために使用される。セグメント
化位置は、εが信頼指数であるとすると、以下のように
定義される(ステップ808)。
【0038】
【数7】
【0039】セグメント化位置は、推定された歌唱信号
に追加され、リアルタイムダイナミックMIDI制御器
210に追加される(ステップ810)。要約するに、
非線形信号ベクトル分析は、ベクトルX[n]を獲得す
るため、式8を使用して配置される複数の予め録音され
た試験歌唱信号を使用する。聞く人は、まず試験信号に
対するセグメント位置を識別し、Z[n]の値を獲得す
る。式12及び式13を使用することにより、αβ
びRが計算される。αβ及びRが計算されると、歌唱
信号のセグメント位置は、式11及び式14を使用して
決定されうる。音声アナライザ208によって識別され
たセグメント位置は、MIDI制御器210によってア
クセス可能なメモリに記憶された伴奏音楽を加速又は減
速させるため、リアルタイムダイナミックMIDI制御
器210によって使用される。
【0040】音楽伴奏情報は、MIDIフォーマットで
音楽伴奏メモリ204に記憶されることが望ましい。し
かしながら、音楽伴奏情報がMIDIフォーマットでな
ければ、音楽伴奏情報をMIDI制御器210によって
アクセス可能なメモリに記憶する前に、音楽伴奏信号を
MIDI互換フォーマットへ変換するため、MIDI変
換器(図示せず)が必要となる。
【0041】リアルタイムダイナミックMIDI制御器
210は、本出願と同じ日に出願され、その開示はここ
では参照として組み入れられている「リアルタイムダイ
ナミックMIDI制御用の方法及び装置」に関するAlvi
n Wen-Yu SU 他による出願中の特許出願に詳述されてい
る。特に、変換されたMIDI信号及び音楽伴奏信号
は、ソフトウエア制御サブルーチンへ入力される。ソフ
トウエア制御サブルーチンは、音楽伴奏信号のビートを
加速又は減速させるため、ファジー論理制御原理を使用
し、それにより、ビートは変換された歌唱信号のビート
に整合する。図9は、いかにしてソフトウエア制御サブ
ルーチンがビートを調整するかを示すフローチャート9
00の前半である。まず、ソフトウエア制御サブルーチ
ンはセグメント位置をプロットする(ステップ90
2)。図11は、セグメント位置P[n]のプロットを
示す。ソフトウエア制御サブルーチンはプロットされた
位置を識別し、P[n]がはるかに遅れているかどうか
を決定する(ステップ904)。P[n]がはるかに遅
れていれば、音楽伴奏信号は高い加速度を受け(ステッ
プ906)、そうでなければ、更に、P[n]がはるか
に進んでいるどうかを決定する(ステップ908)。P
[n]がはるかに進んでいれば、音楽伴奏信号は高い減
速度を受ける(ステップ910)。P[n]がはるかに
遅れていないか、又ははるかに進んでいなければ、Q
[n]はP[n]−P[n−1]として定義され、Q
[n]がプロットされる(ステップ912)。図12
は、Q[n]のプロットを示す。次に、ソフトウエア制
御サブルーチンは、P[n]が遅れているかどうかを決
定し、Q[n]はすばやく前方整合される(ステップ9
14)。P[n]が遅れていて、Q[n]がすばやく前
方整合されると、元の加速度は非常に増加される(ステ
ップ916)。そうでなければ更に、P[n]が遅れて
いるかどうかを決定し、Q[n]はゆっくり前方整合さ
れる(ステップ918)。P[n]が遅れていて、Q
[n]がゆっくり前方整合されると、元の加速度は増加
される(ステップ920)。そうでなければ更に、P
[n]が遅れているかどうかを決定し、Q[n]は変化
されない(ステップ922)。P[n]が遅れていて、
Q[n]が変化されないと、元の加速度はわずかに増加
される(ステップ924)。
【0042】図10は、いかにしてソフトウエア制御サ
ブルーチンがビートを調整するかを示すフローチャート
900の後半である。ステップ924で、そうでなけれ
ば更に、P[n]が遅れているかどうかを決定し、Q
[n]はゆっくり後方整合される(ステップ926)。
P[n]が遅れていて、Q[n]がゆっくり後方整合さ
れると、加速度は変化されない(ステップ928)。そ
うでなければ更に、P[n]が遅れているかどうかを決
定し、Q[n]はすばやく後方整合される(ステップ9
30)。P[n]が遅れていて、Q[n]がすばやく後
方整合されると、元の加速度は非常に減少される(ステ
ップ932)。そうでなければ更に、P[n]が進んで
いるかどうかを決定し、Q[n]はゆっくり前方整合さ
れる(ステップ934)。P[n]が進んでいて、Q
[n]がゆっくり前方整合されると、元の減速度は変化
されない(ステップ936)。そうでなければ更に、P
[n]が進んでいるかどうかを決定し、Q[n]は変化
されない(ステップ938)。P[n]が進んでいて、
Q[n]が変化されないと、元の減速度はわずかに増加
される(ステップ940)。そうでなければ更に、P
[n]が進んでいるかどうかを決定し、Q[n]はゆっ
くり後方整合される(ステップ942)。P[n]が進
んでいて、Q[n]がゆっくり後方整合されると、元の
減速度は増加される(ステップ944)。そうでなけれ
ば更に、P[n]が進んでいるかどうかを決定し、Q
[n]はすばやく後方整合される(ステップ946)。
P[n]が進んでいて、Q[n]がすばやく後方整合さ
れると、元の減速度は非常に増加される(ステップ94
8)。そうでなければ更に、P[n]が進んでいるかど
うかを決定し、Q[n]はすばやく前方整合される(ス
テップ950)。P[n]が進んでいて、Q[n]がす
ばやく前方整合されると、元の減速度は減少される(ス
テップ952)。音楽伴奏信号及び変換されたMIDI
信号に関連するビートが整合すると、信号は音楽を演奏
するスピーカー212へ出力される(ステップ95
4)。
【0043】上述の開示は、歌手のビートに基づいて音
楽伴奏ファイルを変更することに向けられているが、例
えば楽器、話し声及び自然の音といった他のいかなる外
部信号に対しても使用されうる。ただ1つ要求されるこ
とは、外部信号が識別可能なビート又は識別可能なセグ
メント位置のうちいずれかを有することである。当業者
によれば、本発明の方法及び望ましい実施例の構成に対
して、本発明の範囲又は本質から離れることなく、様々
な修正及び変形が作られうることは明らかとなる。当業
者によれば本発明の他の実施例は、明細書及びここに開
示される実施例についての考察から明らかとなる。明細
書及び実施例は良い例としてのみ考慮され、本発明の真
の範囲及び本質は添付の請求項に示されている。
【図面の簡単な説明】
【図1】従来のカラオケ機械を系統的に示す図である。
【図2】本発明による音楽伴奏システムを系統的に示す
図である。
【図3】本発明による伴奏音楽を処理する方法を示すフ
ローチャートを示す図である。
【図4】図2に示される音声アナライザを系統的に示す
図である。
【図5】図4に示されるノイズ消去器によって実行され
るような過剰ノイズを消去する方法を示すフローチャー
トを示す図である。
【図6】音声アナライザに入力されうる典型的な波の外
形をグラフで示す図である。
【図7】本発明による歌唱信号をセグメント化し、推定
する1つの方法を示すフローチャートを示す図である。
【図8】本発明による歌唱信号をセグメント化し、推定
する他の方法を示すフローチャートを示す図である。
【図9】本発明による音楽伴奏信号のビートを修正する
ファジー論理操作を示すフローチャートの前半を示す図
である。
【図10】本発明による音楽伴奏信号のビートを修正す
るファジー論理操作を示すフローチャートの後半を示す
図である。
【図11】図9及び図10による伴奏信号はセグメント
位置と整合するかを決定するためのファジー論理所属関
係関数のグラフのプロットを示す図である。
【図12】加速が充分であるかを決定するためのファジ
ー論理所属関係関数のグラフのプロットを示す図であ
る。
【符号の説明】
102 レーザディスクプレーヤ 104 ビデオ信号発生器 106 ビデオディスプレイ 108 音楽伴奏信号発生器 110 スピーカー 112 マイクロフォン 114 ミキサ 118 電子歌唱信号 120 音響信号 202 制御器 204 音楽伴奏メモリ 206 マイクロフォン 208 音声アナライザ 210 リアルタイムダイナミックMIDI制御器 212 スピーカー 402 ノイズ消去装置 404 セグメント化装置 406 ノイズを含む歌唱信号 408 推定された歌唱信号 410 セグメント位置が推定された歌唱信号
【手続補正書】
【提出日】平成9年12月3日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】請求項11
【補正方法】変更
【補正内容】
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】請求項13
【補正方法】変更
【補正内容】
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0039
【補正方法】変更
【補正内容】
【0039】セグメント化位置は、ステップ809にお
いて入力された推定された歌唱信号に追加され、リアル
タイムダイナミックMIDI制御器210に出力される
(ステップ810)。要約するに、非線形信号ベクトル
分析は、ベクトルX[n]を獲得するため、式8を使用
して配置される複数の予め録音された試験歌唱信号を使
用する。聞く人は、まず試験信号に対するセグメント位
置を識別し、Z[n]の値を獲得する。式12及び式1
3を使用することにより、αβ及びRが計算される。
αβ及びRが計算されると、歌唱信号のセグメント位
置は、式11及び式14を使用して決定されうる。音声
アナライザ208によって識別されたセグメント位置
は、MIDI制御器210によってアクセス可能なメモ
リに記憶された伴奏音楽を加速又は減速させるため、リ
アルタイムダイナミックMIDI制御器210によって
使用される。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0041
【補正方法】変更
【補正内容】
【0041】リアルタイムダイナミックMIDI制御器
210は、本出願と同じ日に出願され、その開示はここ
では参照として組み入れられている「リアルタイムダイ
ナミックMIDI制御用の方法及び装置」に関するAlvi
n Wen-Yu SU 他による出願中の特許出願に詳述されてい
る。特に、変換されたMIDI信号及び音楽伴奏信号
は、ソフトウエア制御サブルーチンへ入力される。ソフ
トウエア制御サブルーチンは、音楽伴奏信号のビートを
加速又は減速させるため、ファジー論理制御原理を使用
し、それにより、ビートは変換された歌唱信号のビート
に整合する。図9は、いかにしてソフトウエア制御サブ
ルーチンがビートを調整するかを示すフローチャート9
00の前半である。P[n]を歌唱信号のビートと伴奏
音楽のビートとの間の差として決定する(ステップ90
2)。図11は、信号P[n]のために設計されたファ
ジーセットを示す。ソフトウエア制御サブルーチンはP
[n]がどのファジーセットに属するかを決定する。例
えば、ソフトウエア制御サブルーチンは、P[n]が整
合されるかどうかを決定し(ステップ960)、P
[n]が整合されていれば、加速度はゼロである(ステ
ップ964)。ソフトウエア制御サブルーチンはプロッ
トされた位置を識別し、P[n]がはるかに遅れている
かどうかを決定する(ステップ904)。P[n]がは
るかに遅れていれば、音楽伴奏信号は高い加速度を受け
(ステップ906)、そうでなければ、更に、P[n]
がはるかに進んでいるどうかを決定する(ステップ90
8)。P[n]がはるかに進んでいれば、音楽伴奏信号
は高い減速度を受ける(ステップ910)。P[n]が
はるかに遅れていないか、又ははるかに進んでいなけれ
ば、Q[n]はP[n]−P[n−1]として定義され
る(ステップ912)。図12は、信号のために設計さ
れたファジーセットを示す。次に、ソフトウエア制御サ
ブルーチンは、P[n]が遅れているかどうかを決定
し、Q[n]はすばやく前方整合される(ステップ91
4)。P[n]が遅れていて、Q[n]がすばやく前方
整合されると、元の加速度は非常に増加される(ステッ
プ916)。そうでなければ更に、P[n]が遅れてい
るかどうかを決定し、Q[n]はゆっくり前方整合され
る(ステップ918)。P[n]が遅れていて、Q
[n]がゆっくり前方整合されると、元の加速度は増加
される(ステップ920)。そうでなければ更に、P
[n]が遅れているかどうかを決定し、Q[n]は変化
されない(ステップ922)。P[n]が遅れていて、
Q[n]が変化されないと、元の加速度はわずかに増加
される(ステップ924)。
【手続補正5】
【補正対象書類名】図面
【補正対象項目名】図8
【補正方法】変更
【補正内容】
【図8】
【手続補正6】
【補正対象書類名】図面
【補正対象項目名】図9
【補正方法】変更
【補正内容】
【図9】
【手続補正7】
【補正対象書類名】図面
【補正対象項目名】図10
【補正方法】変更
【補正内容】
【図10】
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 3/00 G10L 3/00 Q

Claims (21)

    【特許請求の範囲】
  1. 【請求項1】 プロセッサによって実行される、 処理のための音楽伴奏を選択する段階と、 特性ビートを有するサウンドをその特性ビートを示す電
    子信号に変換する段階と、 電子信号によって示された特性ビートに整合するよう音
    楽伴奏ファイルの音楽ビートを変更する段階と、 電子信号及び音楽伴奏ファイルを出力する段階とからな
    る、音楽伴奏ファイルを処理する方法。
  2. 【請求項2】 選択に対応する音楽伴奏ファイルをメモ
    リから抽出する第1の制御器と、 特性ビートを有するサウンドを電子信号へ変換するマイ
    クロフォンと、 電子信号をフィルタリングし、特性ビートを識別するア
    ナライザと、 音楽伴奏ファイルの音楽ビートを特性ビートと整合させ
    る第2の制御器とからなるメモリに記憶された音楽伴奏
    ファイルを処理する装置。
  3. 【請求項3】 楽器用ディジタルインタフェース(MI
    DI)制御器の中のデータを処理するため、その中に具
    体化されたコンピュータ読み取り可能なコードを有する
    コンピュータ用媒体からなるコンピュータプログラム生
    成物であって、 該コンピュータ用媒体は、 第1の制御器によって処理されるべきMIDIフォーマ
    ットの音楽伴奏ファイルを選択するよう適合された選択
    モジュールと、 特性ビートを有する外部サウンドをその特性ビートを示
    す電子信号へ変換するよう適合された分析モジュール
    と、 特性ビートと整合するよう音楽伴奏ファイルの音楽ビー
    トを加速するよう形成された制御処理モジュールとから
    なるコンピュータプログラム生成物。
  4. 【請求項4】 プロセッサによって実行される、 処理のための音楽伴奏ファイルを選択する段階と、 歌手が歌った曲を、歌唱ビートを示す電子歌唱信号に変
    換する段階と、 電子歌唱信号によって示される歌唱ビートに整合するよ
    う音楽伴奏ファイルの音楽ビートを変更する手段と、 電子歌唱信号と、音楽伴奏ファイルとを歌として出力す
    る段階とからなる、音楽伴奏ファイルを処理する方法。
  5. 【請求項5】 変換する段階は、望ましくない背景雑音
    を除去するために電子歌唱信号をフィルタリングし、歌
    唱ビートを識別するためにフィルタリングされた信号を
    セグメント化することからなる請求項4記載の方法。
  6. 【請求項6】 フィルタリングする段階は、 背景雑音の発生及びマイクロフォンの間の背景雑音の路
    に基いて望ましくない背景雑音を除去し、 推定された背景雑音に基いて電子歌唱信号をフィルタリ
    ングし、 フィルタリングされた電子歌唱信号に基いて推定された
    電子歌唱信号を出力することからなる請求項5記載の方
    法。
  7. 【請求項7】 フィルタを発生させる段階は、電子歌唱
    信号の実際の歌唱部分と、推定された歌唱信号との間の
    誤りを最小化させる学習パラメータを確立することを含
    む請求項6記載の方法。
  8. 【請求項8】 セグメント化する段階は、 フィルタリングされた信号のエネルギーを測定し、 測定されたエネルギーが所定の閾値以上に増加する開始
    位置を識別し、 測定されたエネルギーが所定の閾値以下に減少する終端
    位置を識別することからなる請求項5記載の方法。
  9. 【請求項9】 セグメント化する段階は、 試験歌唱信号を予め記憶し、 予め記憶された試験歌唱信号を使用してベクトル推定量
    を発生し、 該試験信号に基づいてベクトルセグメント化位置を決定
    し、 費用関数が最小化するよう、ベクトル推定量及びベクト
    ルセグメント化位置に基づいて推定関数を計算し、 推定関数が信頼指数の範囲内であることに基づいて実際
    のセグメント化位置を決定することからなる請求項5記
    載の方法。
  10. 【請求項10】 音楽ビートを変更させる段階は音楽伴
    奏ファイルのビートを加速することを含む請求項4記載
    の方法。
  11. 【請求項11】 加速する段階は、 歌唱ビートを識別するために電子歌唱信号をセグメント
    位置へとセグメント化し、 セグメント位置をプロットし、 音楽伴奏ファイルがセグメント位置と一致させるために
    必要な加速度を決定することからなる請求項10記載の
    方法。
  12. 【請求項12】 決定する段階は、セグメントされた位
    置が、音楽伴奏ファイルよりはるかに進んでいる、音楽
    伴奏ファイルより進んでいる、音楽伴奏ファイルよりは
    るかに遅れている、音楽伴奏ファイルより遅れている、
    及び音楽伴奏ファイルと整合するという位置のうちの1
    つであるかどうかを決定することを含む請求項11記載
    の方法。
  13. 【請求項13】 セグメント位置決定段階は、 セグメント位置が、音楽伴奏ファイルより進んでいる、
    音楽伴奏ファイルより遅れて、及び音楽伴奏ファイルと
    整合するという位置のうちの1つであると決定されたと
    き、セグメント位置と直前のセグメント位置との間の差
    をプロットすることからなる請求項12記載の方法。
  14. 【請求項14】 ユーザの音楽選択に対応する音楽伴奏
    ファイルをメモリから抽出するための第1の制御器と、 ユーザの歌唱を電子信号に変換するためのマイクロフォ
    ンと、 電子信号をフィルタリングし、歌唱ビートを識別するた
    めの音声アナライザと、 音楽伴奏ファイルの音楽ビートを歌唱ビートと整合させ
    るための第2の制御器とからなるメモリに記憶された音
    楽伴奏ファイルを処理する装置。
  15. 【請求項15】 音楽伴奏ファイルはMIDIフォーマ
    ットである請求項14記載の装置。
  16. 【請求項16】 音声アナライザは、電子信号から望ま
    しくない背景ノイズを除去するためのノイズ消去装置
    と、 歌唱ビートを識別するためのセグメント化装置とからな
    る請求項14記載の装置。
  17. 【請求項17】 音楽伴奏ファイルを選択する手段と、 音楽伴奏ファイルをメモリから抽出する手段と、 ユーザの歌唱を電子信号に変換する手段と、 電子信号の歌唱ビートを識別する手段と、 歌唱ビートに整合するよう音楽伴奏ファイルの音楽ビー
    トを変更する手段とからなる、メモリに記憶された音楽
    伴奏ファイルを処理する装置。
  18. 【請求項18】 音楽伴奏ファイルの音楽ビートを変更
    する手段は、音楽ビートを加速する手段を含む請求項1
    4記載の装置。
  19. 【請求項19】 電子信号をフィルタリングし、歌唱ビ
    ートを識別するための音声アナライザと、 音楽伴奏ファイルの音楽ビートを歌唱ビートと整合させ
    るための制御器とからなる、ユーザの歌唱を示す電子信
    号に基づいてメモリに記憶された音楽伴奏ファイルを処
    理する装置。
  20. 【請求項20】 制御器は、歌唱ビートと整合させるよ
    う音楽ビートを加速させる手段を含む請求項19記載の
    装置。
  21. 【請求項21】 楽器用ディジタルインタフェース(M
    IDI)制御器の中のデータを処理するため、その中に
    具体化されたコンピュータ読み取り可能なコードを有す
    るコンピュータ用媒体からなるコンピュータプログラム
    生成物であって、 該コンピュータ用媒体は、 MIDI制御器によって処理されるべき音楽伴奏ファイ
    ルを選択するよう適合された選択モジュールと、 ユーザによる歌唱を歌唱ビートを示す電子信号へ変換す
    るよう適合された分析モジュールと、 歌唱ビートと整合するよう音楽伴奏ファイルの音楽ビー
    トを加速するよう適合された制御処理モジュールとから
    なるコンピュータプログラム生成物。
JP9280584A 1997-06-25 1997-10-14 インタラクティブ音楽伴奏用の方法及び装置 Pending JPH1185154A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/882,235 US5869783A (en) 1997-06-25 1997-06-25 Method and apparatus for interactive music accompaniment
US882235 1997-06-25

Publications (1)

Publication Number Publication Date
JPH1185154A true JPH1185154A (ja) 1999-03-30

Family

ID=25380178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9280584A Pending JPH1185154A (ja) 1997-06-25 1997-10-14 インタラクティブ音楽伴奏用の方法及び装置

Country Status (2)

Country Link
US (1) US5869783A (ja)
JP (1) JPH1185154A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134231A (ja) * 2008-12-05 2010-06-17 Sony Corp 情報処理装置、音素材の切り出し方法、及びプログラム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052441A (ja) * 1999-08-03 2001-02-23 Pioneer Electronic Corp オーディオ情報再生方法及び装置並びに情報記録媒体
DE10101473B4 (de) * 2001-01-13 2007-03-08 Native Instruments Software Synthesis Gmbh Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
DE10164686B4 (de) 2001-01-13 2007-05-31 Native Instruments Software Synthesis Gmbh Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
KR100418563B1 (ko) * 2001-07-10 2004-02-14 어뮤즈텍(주) 동기정보에 의한 미디음악 재생 방법 및 장치
US8840663B2 (en) * 2003-12-23 2014-09-23 Sadra Medical, Inc. Repositionable heart valve method
JP4568506B2 (ja) * 2004-02-05 2010-10-27 パイオニア株式会社 再生制御装置
US20110072955A1 (en) 2005-10-06 2011-03-31 Turner William D System and method for pacing repetitive motion activities
US7825319B2 (en) 2005-10-06 2010-11-02 Pacing Technologies Llc System and method for pacing repetitive motion activities
US20080121092A1 (en) * 2006-09-15 2008-05-29 Gci Technologies Corp. Digital media DJ mixer
WO2008107994A1 (ja) * 2007-03-08 2008-09-12 Pioneer Corporation 情報再生装置及び方法、並びにコンピュータプログラム
US20090314154A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Game data generation based on user provided song
JP5654897B2 (ja) * 2010-03-02 2015-01-14 本田技研工業株式会社 楽譜位置推定装置、楽譜位置推定方法、及び楽譜位置推定プログラム
US10173169B2 (en) 2010-03-26 2019-01-08 Dioxide Materials, Inc Devices for electrocatalytic conversion of carbon dioxide
EP2567331B1 (en) * 2010-05-04 2018-07-18 Shazam Entertainment Ltd. Methods and systems for synchronizing media
CN102456352A (zh) * 2010-10-26 2012-05-16 深圳Tcl新技术有限公司 一种背景音频处理装置以及处理方法
WO2016007899A1 (en) * 2014-07-10 2016-01-14 Rensselaer Polytechnic Institute Interactive, expressive music accompaniment system
US10774431B2 (en) 2014-10-21 2020-09-15 Dioxide Materials, Inc. Ion-conducting membranes
US9773483B2 (en) 2015-01-20 2017-09-26 Harman International Industries, Incorporated Automatic transcription of musical content and real-time musical accompaniment
US9741327B2 (en) * 2015-01-20 2017-08-22 Harman International Industries, Incorporated Automatic transcription of musical content and real-time musical accompaniment
US10280378B2 (en) 2015-05-05 2019-05-07 Dioxide Materials, Inc System and process for the production of renewable fuels and chemicals
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及系统
US10147974B2 (en) 2017-05-01 2018-12-04 Dioxide Materials, Inc Battery separator membrane and battery employing same
CN110599989B (zh) * 2019-09-30 2022-11-29 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5471008A (en) * 1990-11-19 1995-11-28 Kabushiki Kaisha Kawai Gakki Seisakusho MIDI control apparatus
US5140887A (en) * 1991-09-18 1992-08-25 Chapman Emmett H Stringless fingerboard synthesizer controller
KR950009380B1 (ko) * 1992-02-28 1995-08-21 삼성전자주식회사 레이저 디스크 플레이어 가라오케장치
US5521323A (en) * 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP3527763B2 (ja) * 1993-09-21 2004-05-17 パイオニア株式会社 調性制御装置
US5521324A (en) * 1994-07-20 1996-05-28 Carnegie Mellon University Automated musical accompaniment with multiple input sensors
KR0129964B1 (ko) * 1994-07-26 1998-04-18 김광호 악기선택 가능한 영상노래반주장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134231A (ja) * 2008-12-05 2010-06-17 Sony Corp 情報処理装置、音素材の切り出し方法、及びプログラム

Also Published As

Publication number Publication date
US5869783A (en) 1999-02-09

Similar Documents

Publication Publication Date Title
JPH1185154A (ja) インタラクティブ音楽伴奏用の方法及び装置
US6232540B1 (en) Time-scale modification method and apparatus for rhythm source signals
US5889223A (en) Karaoke apparatus converting gender of singing voice to match octave of song
US5703311A (en) Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques
JP5103974B2 (ja) マスキングサウンド生成装置、マスキングサウンド生成方法およびプログラム
KR101244232B1 (ko) 오디오 신호 분석 및 변경을 위한 시스템 및 방법
JPH0997091A (ja) 予め記録された背景音楽のピッチ変化方法およびカラオケシステム
JP2003255998A (ja) 歌唱合成方法と装置及び記録媒体
JPH0916189A (ja) カラオケ採点方法およびカラオケ装置
EP3723088B1 (en) Audio contribution identification system and method
JP2006145867A (ja) 音声処理装置およびプログラム
US8635077B2 (en) Apparatus and method for expanding/compressing audio signal
JP2002215195A (ja) 音楽信号処理装置
US6629067B1 (en) Range control system
CN1068948C (zh) 交互性的音乐伴奏的方法和设备
JP2001296894A (ja) 音声処理装置および音声処理方法
JP2001292491A (ja) イコライザ装置
JPH11259066A (ja) 音楽音響信号分離方法、その装置およびそのプログラム記録媒体
US20230057082A1 (en) Electronic device, method and computer program
JP6260565B2 (ja) 音声合成装置、及びプログラム
WO2002047067A2 (en) Improved speech transformation system and apparatus
JP7487060B2 (ja) 音響装置および音響制御方法
US20230419929A1 (en) Signal processing system, signal processing method, and program
JP2889841B2 (ja) 電子楽器自動伴奏時のコード変化処理方法
CN112185325B (zh) 音频播放风格调节方法、装置、电子设备及存储介质