JP2013044889A - Music player - Google Patents
Music player Download PDFInfo
- Publication number
- JP2013044889A JP2013044889A JP2011181787A JP2011181787A JP2013044889A JP 2013044889 A JP2013044889 A JP 2013044889A JP 2011181787 A JP2011181787 A JP 2011181787A JP 2011181787 A JP2011181787 A JP 2011181787A JP 2013044889 A JP2013044889 A JP 2013044889A
- Authority
- JP
- Japan
- Prior art keywords
- performance
- performer
- sound generation
- acceleration
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
【課題】演奏に用いる演奏部材に関わりなく、演奏者の身体の動きに応じて楽音を変化させることの可能な演奏装置を提供すること。
【解決手段】演奏装置1は、所定の楽音を発音する発音部30と、演奏者に用いられ、演奏者の所定の演奏動作を検知することにより、発音部30に対して発音指示を与えるスティック部10と、演奏者の所定の身体動作を検知し、発音部30に対して通知するベルト部20と、を備え、発音部30は、スティック部10から発音指示を受け付けることを条件に、ベルト部20から通知された演奏者の身体動作に応じた楽音を発音する。
【選択図】図1To provide a performance device capable of changing a musical sound in accordance with a movement of a performer's body regardless of a performance member used for performance.
A performance device includes a sound generation unit that generates a predetermined musical sound and a stick that is used by a player to give a sound generation instruction to the sound generation unit by detecting a predetermined performance operation of the player. And a belt unit 20 that detects a predetermined physical movement of the performer and notifies the sound generation unit 30, and the sound generation unit 30 is configured to receive a sound generation instruction from the stick unit 10. A musical tone corresponding to the physical movement of the performer notified from the unit 20 is generated.
[Selection] Figure 1
Description
本発明は、演奏装置に関する。 The present invention relates to a performance device.
従来、演奏者の所定の演奏動作を検知すると、その演奏動作に応じた音を発音する演奏装置が提案されている。例えば、スティック状の部材のみからなる構成で打楽器音を発音する演奏装置が知られており、この演奏装置では、スティック状の部材にセンサを設け、演奏者が部材を手で保持して振ることで、センサがその演奏動作を検知して、打楽器音を発音する。
このような仮想的な演奏装置によれば、現実の楽器を必要とせずに当該楽器の楽音を発音することができるため、演奏場所や演奏スペースに制約を受けずに演奏を楽しむことができる。
2. Description of the Related Art Conventionally, there has been proposed a performance device that generates a sound corresponding to a performance operation when the player performs a predetermined performance operation. For example, a performance device that emits percussion instrument sounds with a configuration composed only of stick-shaped members is known. In this performance device, a sensor is provided on a stick-shaped member, and the player holds the member by hand and shakes it. Then, the sensor detects the performance action and generates a percussion instrument sound.
According to such a virtual performance device, the musical sound of the musical instrument can be generated without the need for an actual musical instrument, so that the performance can be enjoyed without being restricted by the performance place or the performance space.
上述のような仮想的演奏装置として、例えば、特許文献1には、スティック状の部材に加速度センサを設け、この部材を振ることにより加速度センサから得られる出力(加速度値)が所定の閾値に達した後、楽音を発音するように構成された演奏装置が開示されている。
As a virtual performance device as described above, for example, in
ところで、このような仮想的な演奏装置では、演奏者の異なる演奏動作毎に夫々異なる楽音が用意されている場合が多い。特許文献1に開示された演奏装置においても、地磁気センサを用いてスティック状の部材の向きを判定し、この向きに応じて異なる音色の楽音を発音できるように構成されている。すなわち、スティック状の部材を振るときの方向で、楽音を変化させることが可能である。
By the way, in such a virtual performance device, there are many cases where different musical tones are prepared for each different performance operation of the performer. The performance device disclosed in
ここで、現実の楽器を必要とせずに演奏を楽しむことのできる仮想的な演奏装置では、現実の楽器に比べて演奏者のパフォーマンスの幅を広げることが可能なため、発音する楽音にはその演奏形態に応じて多様な変化が求められる。この点、特許文献1に開示された演奏装置では、演奏者が演奏に用いるスティック状の部材の演奏形態のみで楽音を変化させいるため、発音する楽音の変化は限定的なものになってしまう。
Here, with a virtual performance device that allows you to enjoy playing without the need for real instruments, it is possible to expand the performance range of the performer compared to real instruments, so that the musical sound that is produced Various changes are required depending on the form of performance. In this regard, in the performance device disclosed in
そこで、本発明は、従来にない態様で楽音を変化させることが可能な演奏装置、より具体的には、演奏に用いる部材に与えられる演奏動作に関わりなく楽音を多様に変化させることの可能な演奏装置を提供することを目的とする。 Therefore, the present invention is a performance device capable of changing musical sounds in an unprecedented manner, more specifically, it is possible to change musical sounds in various ways irrespective of the performance action given to members used for performance. An object is to provide a performance device.
上記目的を達成するため、本発明の一態様の演奏装置は、演奏部材と、所定の楽音を発音する発音手段と、前記演奏部材に対して演奏者が与えた所定の演奏動作を検知することにより、前記発音手段に対して発音指示を与える発音指示手段と、前記演奏者の所定の身体動作を検出し、当該検出結果を前記発音手段に対して通知する検知手段と、を備え、前記発音手段は、前記検出結果に基づき、前記身体動作に対応する楽音を発音する、ことを特徴とする。 In order to achieve the above object, a performance device according to an aspect of the present invention detects a performance member, a sound generation unit that generates a predetermined musical sound, and a predetermined performance action given by a performer to the performance member. A sound generation instruction means for giving a sound generation instruction to the sound generation means; and a detection means for detecting a predetermined physical motion of the player and notifying the sound generation means of the detection result. The means is characterized in that a musical sound corresponding to the body movement is generated based on the detection result.
本発明によれば、演奏に用いる部材に与えられる演奏動作と関わりのない演奏者の身体の動きに応じて発音する楽音を多様に変化させることができる。 According to the present invention, it is possible to variously change the musical sound to be generated according to the movement of the performer's body that is not related to the performance action given to the member used for the performance.
以下、添付図面を参照して、本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.
図1は、本発明の一実施形態の演奏装置1の概要を示す図である。図1(1)に示すように本発明の演奏装置1は、スティック部10、ベルト部20及び発音部30を含んで構成される。
FIG. 1 is a diagram showing an outline of a
スティック部10は、長手方向に延びるスティック状の部材であり、本発明の演奏部材に相当する。演奏者は、スティック部10の一端(根元側)を手に持ち手首などを中心とした振り上げ振り下ろし動作を行うことで、演奏動作を行う。このような演奏者の演奏動作を検知するため、スティック部10の他端(先端側)には、加速度センサ12が設けられている(後述の図3参照)。
ベルト部20は、図示しない装着部を有し演奏者の身体(本実施形態では、演奏者の腰)に装着される。また、ベルト部20は、本発明の検知手段として機能し、演奏者の身体の動きを検知する。
発音部30は、本発明の発音手段として機能し、楽音を発音する。
The
The
The
このような演奏装置1では、スティック部10を用いた演奏動作、すなわち、スティック部10の振り下ろし動作に応じて、発音部30が所定の楽音を発音することで、演奏者による演奏が行われる。
In such a
このとき、本発明の演奏装置1では、図1(2)に示すように、演奏者の身体の動きに応じて多様な楽音を発音することとしている。例えば、本実施形態では、発音部30は、演奏者の前進に応じてより大きな音量の楽音を発音し、演奏者の後退に応じてより小さな音量の楽音を発音する。また、発音部30は、演奏者が跳躍した状態では、着地している状態とは異なる音色の楽音、例えば、異なる楽器の楽音を発音する。なお、演奏者の身体の動きや当該動きに応じた多様な楽音については、適宜設定することができる。すなわち、演奏者の身体を揺らす動作や演奏者の回転動作に応じて異なる楽音を発音することとしてもよい。
At this time, in the
続いて、本発明の演奏装置1を構成するスティック部10、ベルト部20及び発音部30の具体的構成について説明する。
Next, specific configurations of the
初めに、図2を参照して、発音部30の構成について説明する。図2は、発音部30の構成を示すブロック図である。図2に示すように、発音部30は、CPU(Central Processing Unit)31、インタフェース(I/F)32、ROM(Read Only Memory)33、RAM(Random Access Memory)34、表示部35、入力部36及びサウンドシステム37を含んで構成される。
First, the configuration of the
発音部30のI/F32は、スティック部10からのデータ(例えば、ノートオンイベント)やベルト部20からのデータ(例えば、前進フラグ)を受け入れて、RAM34に格納するとともに、CPU31にデータの受け入れを通知する。本実施の形態においては、スティック部10、ベルト部20及び発音部30の夫々に赤外線通信装置17、赤外線通信装置27及び赤外線通信装置38が設けられている。I/F32は、スティック部10の赤外線通信装置17が発した赤外線やベルト部20の赤外線通信装置27が発した赤外線を、赤外線通信装置38で受信することで、スティック部10やベルト部20からデータを受信する。
The I /
CPU31は、演奏装置1全体の制御、特に、発音部30の制御、入力部36を構成するキースイッチ(図示せず)の操作の検出、I/F32を介して受信したスティック部10からのノートオンイベントに基づく楽音の発音など、種々の処理を実行する。
The
ROM33は、演奏装置1全体の制御、特に、発音部30の制御、入力部36を構成するキースイッチ(図示せず)の操作の検出、I/F32を介して受信したノートオンイベントに基づく楽音の発音など、種々の処理プログラムを格納する。また、ROM33は、種々の音色の波形データ、例えば、フルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器、バスドラム、ハイハット、スネア、シンバル、タムなど打楽器の波形データを格納する波形データエリアを含む。
The ROM 33 controls the
RAM34は、ROM33から読み出されたプログラムや、処理の過程で生じたデータやパラメータを記憶する。処理の過程で生じたデータには、入力部36のスイッチの操作状態、I/F32を介して受信したノートオンイベントや演奏者の身体動作の状態(前進フラグや変位量)などが含まれる。
The
表示部35は、例えば、液晶表示装置で構成され、選択された音色や音量、演奏者の身体動作の状態(基準位置からの変位量)などを画像として表示する。また、入力部36は、各種スイッチ(図示せず)を有し、演奏者からの各種情報の入力を受け付ける。
The
サウンドシステム37は、音源部371、オーディオ回路372及びスピーカ373を含む。音源部371は、CPU31からの指示にしたがって、ROM33の波形データエリアから波形データを読み出して、楽音データを生成して出力する。オーディオ回路372は、音源部371から出力された楽音データをアナログ信号に変換するとともに、変換したアナログ信号を増幅してスピーカ373に出力する。これによりスピーカ373から楽音が出力される。
The
続いて、図3を参照して、スティック部10の構成について説明する。図3は、スティック部10の構成を示すブロック図である。図3に示すように、スティック部10は、CPU11、加速度センサ12、インタフェース(I/F)13、ROM14、RAM15及び入力部16を含んで構成される。
Next, the configuration of the
加速度センサ12は、スティック部10の演奏者が保持する根元側と反対側である先端側の内部に配置された静電容量型或いはピエゾ抵抗素子型の3軸センサであり、X、Y、Zの3つの軸方向の夫々に生じた加速度を示す加速度値及び3軸の夫々の成分の加速度値を合成したセンサ合成値を出力する。
図4を参照して、本実施形態では、スティック部10の長手方向の軸と一致する軸をY軸とし、加速度センサ12が配置された基板(図示せず)と平行で、かつ、Y軸と直交する軸をX軸とし、X軸及びY軸と直交する軸をZ軸としている。加速度センサ12は、X軸、Y軸、Z軸の夫々の成分の加速度値を取得するとともに、夫々の加速度値を合成したセンサ合成値を算出する。ここで、演奏者は、スティック部10の一端(根元側)を保持し、手首などを中心とした振り上げ振り下ろし動作を行うことで、スティック部10に対して回転運動を生じさせるところ、スティック部10が静止している場合には、加速度センサ12は、センサ合成値として重力加速度1Gに相当する値を算出し、スティック部10が回転運動をしている場合には、加速度センサ12は、センサ合成値として重力加速度1Gよりも大きな値を算出する。
なお、センサ合成値は、例えば、X軸、Y軸、Z軸の成分の加速度値の夫々の2乗の総和の平方根を算出することで得られる。
The
Referring to FIG. 4, in the present embodiment, the axis that coincides with the longitudinal axis of the
The sensor composite value is obtained, for example, by calculating the square root of the sum of the squares of the acceleration values of the X-axis, Y-axis, and Z-axis components.
図3に戻り、CPU11は、加速度センサ12が出力した加速度値やセンサ合成値の取得、加速度値やセンサ合成値にしたがったノートオンイベントの生成、I/F13及び赤外線通信装置17を介してノートオンイベントを発音部30に送信する処理などを実行する。ここで、ノートオンイベントとは、楽音の発音を音源部371に対して指示するコマンド情報であり、本実施形態においては、発音する楽音の音色や音高の情報に加えて、さらに楽音の音量などの情報を含むものとする。
このようにスティック部10のセンサ合成値に基づいて発音部30にノートオンイベントを送信することで、発音部30は、スティック部10を用いた演奏動作に基づいて所定の楽音を発音することができる。
Returning to FIG. 3, the CPU 11 acquires the acceleration value and the sensor composite value output from the
As described above, by transmitting the note-on event to the
ROM14は、CPU11の実行する各種処理の処理プログラム、すなわち、加速度センサ12が出力した加速度値及びセンサ合成値の取得処理、ノートオンイベントの生成処理、ノートオンイベントの送信処理などの処理プログラムを格納する。RAM15は、加速度値やセンサ合成値など、処理において取得され或いは生成された値を格納する。I/F13は、CPU11からの指示にしたがって赤外線通信装置17にデータを出力する。また、入力部16は、各種スイッチ(図示せず)を有し、演奏者からの各種情報の入力を受け付ける。
The
続いて、図5を参照して、ベルト部20の構成について説明する。図5は、ベルト部20の構成を示すブロック図である。図5に示すように、ベルト部20は、CPU21、加速度センサ22、インタフェース(I/F)23、ROM24、RAM25及び入力部26を含んで構成される。
Then, with reference to FIG. 5, the structure of the
加速度センサ22は、ベルト部20の内部に配置された静電容量型或いはピエゾ抵抗素子型の3軸センサであり、X、Y、Zの3つの軸方向の夫々に生じた加速度を示す加速度値を出力する。ここで、本実施形態では、水平面をX−Y平面とし、当該X−Y平面のうちベルト部20を装着した演奏者の正面方向の軸と一致する軸をY軸、Y軸と直交する軸をX軸とするとともに、X軸及びY軸と直交する軸をZ軸としている。すなわち、加速度センサ22が取得するX軸成分の加速度値は、ベルト部20を装着した演奏者の左右方向の加速度値を示し、Y軸成分の加速度値は、ベルト部20を装着した当該演奏者の前後方向の加速度値を示し、Z軸成分の加速度値は、ベルト部20を装着した演奏者の上下方向の加速度値を示す。
The
CPU21は、加速度センサ22が出力した加速度値の取得、加速度値を用いた演奏者の身体の動きの検知、演奏者の現在位置の算出、I/F23及び赤外線通信装置27を介して演奏者の身体の動きや演奏者の現在位置などの各種データを発音部30に送信する処理などを実行する。
ここで、本実施形態では、CPU21は、演奏者の身体の動きとして、前後方向への移動動作及び跳躍動作を検知する。このとき、後述するように、前後方向への移動動作は、加速度センサ22のY軸成分の加速度値を用いて検知し、跳躍動作は、加速度センサ22のZ軸成分の加速度値を用いて検知する。また、CPU21は、前後方向への移動動作の検知に際し、前後方向への移動量も併せて検知することが好ましい。移動量に応じて異なる楽音を発音することを可能とするためである。
The
Here, in this embodiment, CPU21 detects the movement operation | movement and jumping movement to the front-back direction as a motion of a player's body. At this time, as will be described later, the moving motion in the front-rear direction is detected using the acceleration value of the Y-axis component of the
ROM24は、CPU21の実行する各種処理の処理プログラム、すなわち、加速度センサ22が出力した加速度値の取得処理、加速度値を用いた演奏者の身体の動きの検知処理、演奏者の現在位置の算出処理、演奏者の身体の動きや演奏者の現在位置などの各種データの送信処理などの処理プログラムを格納する。RAM25は、加速度値、前後方向への移動量、基準位置及び現在位置など処理において取得され或いは生成された値を格納する。I/F23は、CPU21からの指示にしたがって赤外線通信装置27にデータを出力する。
The
入力部26は、スイッチ(図示せず)を有し、演奏者からの各種情報の入力を受け付ける。例えば、入力部26は、演奏開始時に演奏者から基準位置の入力を受け付ける。なお、入力部26を介して受け付けた基準位置及び移動量に基づいて、CPU21は、演奏者の現在位置を算出する。
The
続いて、本実施形態の演奏装置1の処理について説明する。初めに、図6を参照して、スティック部10において実行される処理について説明する。
図6に示すように、スティック部10のCPU11は、RAM15のデータのクリアなどを含むイニシャライズ処理を実行する(ステップS1)。イニシャライズ処理(ステップS1)が終了すると、CPU11は、加速度センサ12のセンサ値(加速度値)を取得して、RAM15に格納する(ステップS2)。上述したように、本実施の形態においては、加速度値として、スティック部10の3軸方向の加速度値が採用されている。なお、CPU11は、S2の処理において3軸方向の加速度値を合成したセンサ合成値も併せて取得することが好ましい。このとき、センサ合成値については、CPU11が3軸方向の加速度値から算出することとしてもよく、加速度センサ12が算出することとしてもよい。
The following describes the processing of the
As shown in FIG. 6, the CPU 11 of the
続いて、CPU11は、発音タイミング検出処理を実行する(ステップS3)。詳細については図7で後述するが、発音タイミング検出処理ではCPU11は、センサ合成値の値に基づいて発音タイミングを検出、すなわち、センサ合成値に基づいてノートオンイベントを生成し、発音部30に送信する。発音タイミング検出処理(ステップS3)が終了すると、CPU11は、パラメータ通信処理を実行する(ステップS4)。パラメータ通信処理では、後述する発音部30におけるパラメータ通信処理(図13のステップS65)に応じて発音部30から送信された発音すべき楽音の音色や音高に関するデータを、I/F13を介して受け入れ、RAM15に格納する。CPU11は、この送信されてきた音色や音高に基づいてノートオンイベントを作成する。また、逆に入力部16にて、設定された音色や音量ボリュウム値などのパラメータをI/F13を介して発音部30に送信するようにしてもよい。
Subsequently, the CPU 11 executes a sound generation timing detection process (step S3). Although details will be described later with reference to FIG. 7, in the sound generation timing detection process, the CPU 11 detects a sound generation timing based on the value of the sensor composite value, that is, generates a note-on event based on the sensor composite value, and Send. When the sound generation timing detection process (step S3) ends, the CPU 11 executes a parameter communication process (step S4). In the parameter communication process, data related to the tone color and pitch of the musical tone to be generated, transmitted from the
続いて、図7を参照して、スティック部10における発音タイミング検出処理(図6のステップS3)の詳細について説明する。
図7に示すように、CPU11は、RAM15に格納されているセンサ合成値を読み出す(ステップS11)。次いで、CPU11は、RAM15に格納された加速度フラグが「0」であるかを判断する(ステップS12)。ここで、加速度フラグとは、スティック部10が停止しているか否か判別するための情報であり、加速度フラグ「1」は、スティック部10が動作中であることを示し、加速度フラグ「0」は、スティック部10が停止中(すなわち、センサ合成値が重力加速度1G)であることを示す。
Next, details of the sound generation timing detection process (step S3 in FIG. 6) in the
As shown in FIG. 7, the CPU 11 reads out the sensor composite value stored in the RAM 15 (step S11). Next, the CPU 11 determines whether or not the acceleration flag stored in the
ステップS12でYESと判断された場合には、CPU11は、センサ合成値が(1+a)Gに相当する値より大きいかを判断する(ステップS13)。ここで、aは、正の数である。ステップS13の処理は、ステップS12でYESと判断された場合に行われるため、ステップS13でYESであることは、停止中のスティック部10が演奏者により振られ、センサ合成値が重力加速度1Gより大きくなったことを示している。
If YES is determined in step S12, the CPU 11 determines whether the sensor composite value is larger than a value corresponding to (1 + a) G (step S13). Here, a is a positive number. Since the process of step S13 is performed when YES is determined in step S12, the fact that the answer is YES in step S13 indicates that the stopped
ステップS13でYESと判断された場合には、CPU11は、RAM15の加速度フラグを「1」にセットし(ステップS14)、発音タイミング検出処理を終了する。他方、ステップS13でNOと判断された場合には、CPU11は、発音タイミング検出処理を終了する。
If YES is determined in the step S13, the CPU 11 sets the acceleration flag in the
ステップS12でNOと判断された場合、つまり、加速度フラグが「1」である場合には、CPU21は、センサ合成値が(1+b)Gに相当する値より小さいかを判断する(ステップS15)。ここで、bは、aより小さい微小な正の数である。S15でYESと判断された場合には、CPU11は、ノートオンイベント生成処理を実行する(ステップS16)。詳細については図9で後述するが、ノートオンイベント生成処理では、CPU11は、ノートオンイベントを生成し、発音部30に送信する。このように、本実施形態のスティック部10は、センサ合成値の値に基づいてノートオンイベントを生成する。
If NO is determined in step S12, that is, if the acceleration flag is “1”, the
ここで、演奏者が、スティック部10を振ると、センサ合成値は、次第に大きくなる。演奏者は、スティック部10を振るときに、一般には、ドラムを打つ動作と同様に動作する。したがって、演奏者は、仮想的に設定されたドラムの面にスティックを打ちつける寸前に、スティック部10の動作をとめていく。そのため、ある時刻からセンサ合成値は徐々に減少する。演奏者は、仮想的なドラムの面にスティックを打ちつけた瞬間に楽音が発音することを想定しているため、演奏者が想定するタイミングで楽音を発音できるのが望ましい。
Here, when the performer swings the
そこで、本実施形態では、演奏者が仮想的なドラムの面にスティックを打ちつける瞬間或いはそのわずかに前に楽音を発音すべく、図7に示すロジックを採用している。この点、図8を参照して、具体的に説明する。発音タイミング(ノートオンイベントの生成)は、センサ合成値が減少して、重力加速度1Gよりわずかに大きい(1+b)Gより小さくなったときとする。しかしながら、演奏者が予期していない動作により、センサ合成値が振動して(1+b)Gに達する可能性もある。したがって、予期しない振動を排除するために、いったんセンサ合成値が上昇して(1+a)G(aはbより十分に大きい)を超えることを条件としている。すなわち、センサ合成値がいったん(1+a)Gより大きくなり(時刻t1参照)、その後、センサ合成値が減少して、(1+b)Gより小さくなったとき(時刻t2参照)を発音タイミングとしている。上述したような発音タイミングが到来したと判断されると、スティック部10においてノートオンイベントが生成され、発音部30に送信される。また、これに応答して、発音部30において、発音処理が実行されて、楽音が発音する。
Therefore, in the present embodiment, the logic shown in FIG. 7 is adopted in order to produce a musical sound at the moment when the player strikes the stick on the virtual drum surface or slightly before that. This point will be specifically described with reference to FIG. The sound generation timing (generation of a note-on event) is assumed to be when the sensor composite value decreases and becomes smaller than (1 + b) G that is slightly larger than the
また、図7の発音タイミング検出処理のようにセンサ合成値を利用せずに、発音タイミングを検出(ノートオンイベントを生成)することも可能である。例えば、加速度センサ12のZ軸方向の成分の加速度値に基づき、スティック部10の振り下ろし動作の終了を検出することで、発音タイミングを検出すればよい。
より詳しくは、加速度センサ12のZ軸方向の成分の加速度値は、静止状態では重力加速度によりマイナスの値を示している。スティック部10の振り下ろし動作が始まると、プラス方向に加速度値は変化し、一定のプラスの値を示した後(最高速度になった時点)からマイナス方向に変化する。そして加速度値はそのままマイナス方向に変化し続け、重力加速度の値を超えてより低いマイナスの値を取るようになり、その後再びプラス方向に転じる。この重力加速度の値を超えてより低いマイナスの値になった時点、つまりスティック部10の動作が停止する直前(振り下ろし動作の終了)を発音タイミングとして検出するようにしてもよい。
Further, it is also possible to detect the sound generation timing (generate a note-on event) without using the sensor composite value as in the sound generation timing detection process of FIG. For example, the sound generation timing may be detected by detecting the end of the swing-down operation of the
More specifically, the acceleration value of the component in the Z-axis direction of the
図7に戻り、ノートオンイベント生成処理(ステップS16)が終了すると、又はステップS15でNOと判断された場合、CPU11は、発音タイミング検出処理を終了する。 Returning to FIG. 7, when the note-on event generation process (step S <b> 16) ends, or when it is determined NO in step S <b> 15, the CPU 11 ends the sound generation timing detection process.
続いて、図9を参照して、スティック部10におけるノートオンイベント生成処理(図7のステップS16)の詳細について説明する。図9に示すノートオンイベント生成処理により、ノートオンイベントが発音部30に送信され、その後、発音部30において発音処理(図14参照)が実行されることにより、楽音データが生成され、スピーカ373から楽音が発音される。
Next, the details of the note-on event generation process (step S16 in FIG. 7) in the
図9に示すように、CPU11は、RAM15に格納されたセンサ合成値の最大値を参照して、当該最大値に基づく楽音の音量レベルを決定する(ステップS21)。その後、CPU11は、ステップS21で決定した音量レベルを含むノートオンイベントを生成する(ステップS22)。次いで、CPU11は、生成したノートオンイベントをI/F13及び赤外線通信装置17を介して発音部30に送信する(ステップS23)。その後、CPU11は、RAM15の加速度フラグを「0」にリセットし(ステップS24)、ノートオンイベント生成処理を終了する。
As shown in FIG. 9, the CPU 11 refers to the maximum value of the sensor composite value stored in the
続いて、図10を参照して、ベルト部20において実行される処理について説明する。
図10に示すように、電源投入時において、ベルト部20のCPU21は、RAM25のデータのクリアなどを含むイニシャライズ処理を実行する(ステップS31)。また、イニシャライズ処理では、RAM25の基準位置のデータをクリアし現在位置を基準位置としてセットする。イニシャライズ処理(ステップS31)が終了すると、CPU21は、加速度センサ22のセンサ値(加速度値)を読み出し、RAM25に格納する(ステップS32)。次いで、CPU21は、前進判定処理を実行する(ステップS33)。詳細については図11で後述するが、前進判定処理では、CPU21は、ステップS32でRAM25に格納したY軸方向の加速度値から演奏者の身体の動き(前進や後退)を判定する。
Subsequently, referring to FIG. 10, description is given of processing executed in a
As shown in FIG. 10, when the power is turned on, the
続いて、CPU21は、ジャンプ判定処理を実行する(ステップS34)。詳細については図12で後述するが、ジャンプ判定処理では、CPU21は、ステップS32でRAM25に格納したZ軸方向の加速度値から演奏者の身体の動き(跳躍)を判定する。次いで、CPU21は、パラメータ通信処理を実行する(ステップS35)。パラメータ通信処理では、ステップS31でセットした基準位置やステップS33やステップS34で判定した演奏者の身体の動きを判別するデータ(後述の前進フラグ、後退フラグ、変位量、ジャンプフラグ)を、I/F23及び赤外線通信装置27を介して発音部30に送信する。
Subsequently, the
続いて、図11を参照して、ベルト部20における前進判定処理(図10のステップS33)の詳細について説明する。
図11に示すように、CPU21は、図10のステップS32で読み出したY軸方向の加速度値から変位量を算出する(ステップS41)。ここで、変位量は、加速度値を2回積分することで算出することができる。このとき、CPU21は、Y軸方向の加速度の向きに応じて変位量の正負も併せて算出する。本実施形態では、加速度センサ22は、ベルト部20を装着した演奏者の正面方向を正としてY軸方向の加速度値として出力する。そのため、演奏者の正面方向への変位量は正の値となり、演奏者の背面方向への変位量は負の値となる。
Next, with reference to FIG. 11, details of the forward determination process (step S <b> 33 in FIG. 10) in the
As shown in FIG. 11, the
続いて、CPU21は、ステップS41で算出した変位量が「0」より大きいかを判断する(ステップS42)。ステップS42でYESと判断された場合には、CPU21は、前進フラグに「1」をセットする(ステップS43)。他方、ステップS42でNOと判断された場合には、CPU21は、ステップS42で算出した変位量が「0」より小さいかを判断する(ステップS44)。ステップS44でYESと判断された場合には、CPU21は、後退フラグに「1」をセットする(ステップS45)。ステップS43又はステップS45の処理が終わると、CPU21は、ステップS41で算出した変位量をRAM25にセットし(ステップS46)、前進判定処理を終了する。
Subsequently, the
他方、ステップS44でNOと判断された場合には、CPU21は、前進フラグ及び後退フラグを「0」にリセットし(ステップS47)、前進判定処理を終了する。なお、前進フラグとは、演奏者が前進しているかを判別するための情報であり、前進フラグ「1」は、演奏者が前進中であることを示し、前進フラグ「0」は、演奏者が前進中でないことを示す。同様に、後退フラグとは、演奏者が後退しているかを判別するための情報であり、後退フラグ「1」は、演奏者が後退中であることを示し、後退フラグ「0」は、演奏者が後退中でないことを示す。
On the other hand, when it is determined NO in step S44, the
続いて、図12を参照して、ベルト部20におけるジャンプ判定処理(図10のステップS34)の詳細について説明する。
図12に示すように、CPU21は、RAM25に格納されたジャンプフラグが「1」であるかを判断する(ステップS51)。ここで、ジャンプフラグとは、演奏者が跳躍中であるかを判別するための情報であり、ジャンプフラグ「1」は、演奏者が跳躍中であることを示し、ジャンプフラグ「0」は、演奏者が跳躍中でない(着地中である)ことを示す。
Next, the details of the jump determination process (step S34 in FIG. 10) in the
As shown in FIG. 12, the
ステップS51でNOと判断された場合には、CPU21は、図10のステップS32で読み出したZ軸方向の加速度値がジャンプ判定加速度値αよりも小さいかを判断する(ステップS52)。なお、ジャンプ判定加速度値αは、任意の値に設定することができる。ここで、本実施形態では、ベルト部20の加速度センサ22は、重力方向を正としてZ軸方向の加速度値を出力することとしているため、ジャンプ判定加速度値αを、例えば、「0」に近似する値とすることで、演奏者が跳躍したか否かを判断することができる。そのため、ステップS52でYESと判断された場合には、CPU21は、ジャンプフラグに「1」をセットし(ステップS53)、ジャンプ判定処理を終了する。他方、ステップS52でNOと判断された場合には、CPU21は、ジャンプ判定処理を終了する。
If NO is determined in step S51, the
また、ステップS51でYESと判断された場合には、CPU21は、図10のステップS32で読み出したZ軸方向の加速度値が着地判定加速度値βよりも大きいか否かを判断する(ステップS54)。なお、着地判定加速度値βも、任意の値に設定することができるが、例えば、重力加速度1Gとすることで、着地した際の衝撃を検知することができる。そのため、ステップS54でYESと判断された場合には、CPU21は、ジャンプフラグに「0」をセットし(ステップS55)、ジャンプ判定処理を終了する。他方、ステップS54でNOと判断された場合には、CPU21は、ジャンプ判定処理を終了する。
If YES is determined in the step S51, the
続いて、図13を参照して、発音部30において実行される処理について説明する。
図13に示すように、発音部30のCPU31は、電源投入時において、RAM34のデータのクリア、表示部35の画面に表示された画像のクリア、音源部371のクリアなどを含むイニシャライズ処理を実行する(ステップS61)。次いで、CPU31は、スイッチ処理を実行する(ステップS62)。スイッチ処理では、例えば、入力部36のスイッチ操作にしたがって、演奏者が所望する音量ボリュウム値及び音色を特定し、RAM34に格納する。
Next, with reference to FIG. 13, processing executed in the
As shown in FIG. 13, the
続いて、CPU31は、I/F32が、ノートオンイベントを新たに受信しているかを判断する(ステップS63)。ステップS63でYesと判断された場合には、CPU31は、この受信されたノートオンイベントに基づき、設定された音量ボリュウム値及び設定された音色の楽音の発音を音源部371に指示する処理を実行する(ステップS64)。
Subsequently, the
続いて、CPU31は、パラメータ通信処理を実行する(ステップS65)。詳細については図14で後述するが、パラメータ通信処理では、CPU31は、スティック部10やベルト部20との間での所定のデータの通信を行う。例えば、CPU31は、スイッチ処理(ステップS62)で選択された音高又は音色のデータを、I/F32及び赤外線通信装置38を介して、スティック部10に送信する。また、CPU31は、スティック部10から受信した音色のデータ又は音量ボリュウム値をRAM34に格納する。また、CPU31は、ベルト部20から送信される演奏者の身体の動きを判別するデータなどを、I/F32及び赤外線通信装置38を介して受信し、RAM34に格納する。そしてこれらRAM34に格納されたデータに基づいて、CPU31は、発音する楽音を制御する。パラメータ通信処理(ステップS65)が終了すると、CPU31は、その他の処理、例えば、表示部35の画面上に表示される画像の更新などを実行する(ステップS66)。
Subsequently, the
続いて、図14を参照して、発音部30におけるパラメータ通信処理(図13のステップS65)の詳細について説明する。
図14に示すように、CPU31は、まず、スティック部10又はベルト部20からパラメータを受信したか否かを判断する(ステップS71)。ここでNOと判断された場合は、この処理は終了する。他方、YESと判断された場合は、CPU31は、そのパラメータが、ベルト部20から受信したものであるか否か判断する(ステップS72)。ここでNOと判断された場合、つまりベルト部20ではなくスティック部10からパラメータを受信した場合は、前述のごとく受信したパラメータをRAM34に格納し(ステップS73)、パラメータ通信処理を終了する。
Next, details of the parameter communication process (step S65 in FIG. 13) in the
As shown in FIG. 14, the
他方、YESと判断された場合は、CPU31は、ベルト部20から送信されてきたパラメータの内容を判断する。まず、ベルト部20から受信した前進フラグが「1」であるかを判断する(ステップS74)。ステップS74でYESと判断された場合には、CPU31は、設定されている音量ボリュウム値をプラス補正する(ステップS75)。このとき、CPU31は、ベルト部20から受信した変位量に応じて音量ボリュウム値をプラス補正することが好ましい。なお、変位量に応じたプラス補正とは、変位量が大きいほど音量ボリュウム値をより高く補正することとしてもよく、また、変位量から現在位置を特定し、基準位置と現在位置との距離に応じて、当該距離が長いほど音量ボリュウム値をより高く補正することとしてもよい。
On the other hand, if YES is determined, the
他方、ステップS74でNOと判断された場合には、CPU31は、ベルト部20から受信した後退フラグが「1」であるかを判断する(ステップS76)。ステップS76でYESと判断された場合には、CPU31は、設定されている音量ボリュウム値をマイナス補正する(ステップS77)。このとき、CPU31は、ステップS75と同様に、ベルト部20から受信した変位量に応じて音量ボリュウム値をマイナス補正することが好ましい。
On the other hand, if NO is determined in step S74, the
他方、ステップS76でNOと判断された場合には、CPU31は、ベルト部20から受信したジャンプフラグが「1」であるかを判断する(ステップS78)。ステップS78でYESと判断された場合には、CPU31は、設定された音色を変更、例えば、着地時とは異なる楽器の音色や着地時よりも高音の音色に変更する(ステップS79)。
On the other hand, if NO is determined in step S76, the
ステップS75、ステップS77又はステップS79の処理が終わると、或いはステップS78でNOと判断された場合には、CPU31は、発音制御を行い(ステップS80)、パラメータ通信処理を終了する。なお、発音制御では、CPU31は、発音中の楽音の音量や音色を適宜変更する。すなわち、CPU31は、ステップS75又はステップS77で補正された音量ボリュウム値に基づいて発音している楽音の音量を変更したり、ステップS79で変更された音色に基づいて発音している楽音の音色を変更する。
When the process of step S75, step S77, or step S79 ends, or if NO is determined in step S78, the
以上のような本実施形態の演奏装置1によれば、発音部30は、スティック部10から受信したノートオンイベントにしたがって楽音を発音する。このとき、発音部30は、ベルト部20が検知した演奏者の身体の動きに応じて、音量や音色の異なる楽音を発音する。
これにより、演奏装置1によれば、スティック部10による演奏操作と関わりのない演奏者の身体の動きを発音する楽音の変化に反映させることができ、演奏者は、スティック部を用いた演奏操作に制限を受けることなく、パフォーマンスを発音する楽音に自由に反映させることができる。
According to the
Thereby, according to the
特に、演奏装置1では、演奏者が前進した場合、すなわち、現在位置が基準位置の前方である場合には、現在位置が基準位置である場合に比べて大きな音量の楽音を発音し、演奏者が後退した場合、すなわち、現在位置が基準位置の後方である場合には、現在位置が基準位置である場合に比べて小さな音量の楽音を発音する。
これにより、演奏者と聴衆との距離に応じて音量を変化させることができ、迫力のある演奏を実現することができる。
In particular, in the
Thus, the volume can be changed according to the distance between the performer and the audience, and a powerful performance can be realized.
また、演奏装置1では、演奏者が跳躍中である場合には、演奏者が着地中である場合と異なる音色の楽音を発音する。
これにより、演奏者がアピールしたい演奏箇所で他とは異なる音色の楽音を発音することができ、現実の楽器では不可能な新たなパフォーマンスを実現することができる。
Further, in the
As a result, a musical tone having a tone different from the others can be generated at a performance location that the player wants to appeal, and a new performance that is impossible with an actual musical instrument can be realized.
また、このような演奏装置1は、スティック部10と、ベルト部20と、サウンドシステム37を備えた発音部30と、が夫々赤外線通信により接続されているので、スティック部10にサウンドシステム37を搭載する必要がなくなり、演奏者が保持するスティック部10の小型化を図ることができる。
Further, in such a
以上、本発明の実施形態について説明したが、実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換など種々の変更を行うことができる。これら実施形態やその変形は、本明細書などに記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although embodiment of this invention was described, embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.
例えば、上記実施形態では、図11に示すロジックを用いて前進及び後退を判定することとしているが、これに限られるものではない。例えば、前進判定加速度値や後退判定加速度値などといった閾値を設け、当該閾値を超えた場合に前進又は後退と判定することとしてもよい。また、加速度センサ22が出力した加速度値に対して歩行周波数(約1,9Hz)の周波数のみを取り出すフィルターをかけることで、歩行したか否かを判定し、その際の加速度値の方向から前進又は後退を判定することとしてもよい。
同様に、図12に示すジャンプ判定処理についても例示に過ぎず、その他の方法により、演奏者の跳躍及び着地を判定することとしてもよい。
For example, in the above embodiment, forward and backward are determined using the logic shown in FIG. 11, but the present invention is not limited to this. For example, threshold values such as a forward determination acceleration value and a reverse determination acceleration value may be provided, and when the threshold value is exceeded, it may be determined as forward or reverse. Further, by applying a filter that extracts only the frequency of the walking frequency (about 1, 9 Hz) to the acceleration value output from the
Similarly, the jump determination process shown in FIG. 12 is merely an example, and the player's jump and landing may be determined by other methods.
また、上記実施形態では、ベルト部20に加速度センサ22を設け、演奏者の身体の加速度を検知することとしているが、これに限られるものではない。例えば、演奏者の身体の向きなどを検知することのできる角速度センサや磁気センサなどの様々なセンサを併せて設けることとしてもよい。
これにより、演奏者が右を向いて前進した場合と、演奏者が正面を向いて前進した場合とを区別することができ、演奏者の現在位置と基準位置との差異を適切に把握することができる。
Moreover, in the said embodiment, although the
This makes it possible to distinguish between when the performer moves forward facing right and when the performer moves forward facing forward, and properly grasp the difference between the player's current position and the reference position. Can do.
また、上記実施形態では、ベルト部20を用いて演奏者の身体の動きを検知することとしているが、演奏者の身体の動きを検知する構成は、ベルト部20に限られるものではない。例えば、演奏者を撮像するカメラによる撮像画像(動画)に基づいて、演奏者の身体の動きを検知することとしてもよい。
Moreover, in the said embodiment, although it is supposed that the motion of a player's body is detected using the
また、上記実施形態では、演奏者が用いる演奏部材としてスティック部10を例にとり、エアドラムのような仮想打楽器について説明したが、これに限られるものではない。すなわち、本発明は、エアギターやエアバイオリンなどの様々な仮想楽器に適用可能であり、適用する仮想楽器に応じて演奏部材についても適宜変更可能である。
Moreover, in the said embodiment, although the
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
演奏部材と、
所定の楽音を発音する発音手段と、
前記演奏部材に対して演奏者が与えた所定の演奏動作を検知することにより、前記発音手段に対して発音指示を与える発音指示手段と、
前記演奏者の所定の身体動作を検出し、当該検出結果を前記発音手段に対して通知する検知手段と、
を備え、
前記発音手段は、前記検出結果に基づき、前記身体動作に対応する楽音を発音する、
ことを特徴とする演奏装置。
[付記2]
前記発音手段は、前記身体動作に応じて異なる音色の楽音、又は、異なる音量の楽音を発音する、
ことを特徴とする付記1に記載の演奏装置。
[付記3]
前記検知手段は、前記演奏者に装着される装着部と、当該演奏者の前後方向の加速度値を取得する加速度センサと、を備え、
前記発音手段は、前記加速度値から算出した前記演奏者の前後方向の移動量に応じて異なる音量の楽音を発音する、
ことを特徴とする付記1又は2に記載の演奏装置。
[付記4]
前記検知手段は、前記演奏者に装着される装着部と、演奏者の上下方向の加速度値を取得する加速度センサと、を備え、
前記発音手段は、前記加速度値から検知した前記演奏者の跳躍動作に応じて異なる音色の楽音を発音する、
ことを特徴とする付記1から3の何れかに記載の演奏装置。
[付記5]
前記演奏部材は、長手方向に延びるとともに、その内部に3軸方向の加速度値を取得する加速度センサを備え、
前記発音指示手段は、前記演奏部材の内部に配置された前記加速度センサの加速度値に基づき取得した発音タイミングに基づいて、前記発音手段に対して発音指示を与える、
ことを特徴とする付記1から4の何れかに記載の演奏装置。
[付記6]
前記演奏部材は、前記発音指示手段を備え、
前記発音手段と、前記演奏部材及び前記検知手段とが、通信可能に接続された、
ことを特徴とする付記1から5の何れかに記載の演奏装置。
Hereinafter, note the invention described in the scope of the initial claims application of the present application.
[Appendix 1]
A performance member;
A pronunciation means for generating a predetermined musical sound;
A sounding instruction means for giving a sounding instruction to the sounding means by detecting a predetermined performance action given by a player to the performance member;
Detecting means for detecting a predetermined physical movement of the performer and notifying the sounding means of the detection result;
With
It said sound generating means, based on the detection result, Could tone corresponding to the body movement,
A performance apparatus characterized by that.
[Appendix 2]
The sounding means generates a tone of a different tone according to the body movement, or a tone of a different volume,
Playing device according to
[Appendix 3]
The detection means includes a mounting portion to be mounted on the performer, and an acceleration sensor that acquires an acceleration value in the front-rear direction of the performer,
The sounding means sounds a musical tone having a different volume according to the amount of movement of the performer in the front-rear direction calculated from the acceleration value;
Playing device according to
[Appendix 4]
The detection means includes a mounting portion to be worn by the performer, and an acceleration sensor that acquires an acceleration value in the up and down direction of the performer,
The sounding means sounds a musical tone of a different tone according to the player's jumping motion detected from the acceleration value;
The performance device according to any one of
[Appendix 5]
The performance member extends in the longitudinal direction, and includes an acceleration sensor that acquires acceleration values in three axial directions.
The sound generation instruction means gives a sound generation instruction to the sound generation means based on a sound generation timing acquired based on an acceleration value of the acceleration sensor arranged inside the performance member.
The performance device according to any one of
[Appendix 6]
The performance member includes the pronunciation instruction means,
The sound generation means, the performance member and the detection means are connected to be communicable,
The performance device according to any one of
1・・・演奏装置(演奏装置)、10・・・スティック部(演奏部材、発音指示手段)、11・・・CPU(発音指示手段)、12・・・加速度センサ(加速度センサ)、13・・・インタフェース、14・・・ROM、15・・・RAM、16・・・入力部、17・・・赤外線通信装置、20・・・ベルト部(検知手段)、21・・・CPU(検知手段)、22・・・加速度センサ(加速度センサ)、23・・・インタフェース、24・・・ROM、25・・・RAM、26・・・入力部、27・・・赤外線通信装置、30・・・発音部(発音手段)、31・・・CPU(発音手段)、32・・・インタフェース、33・・・ROM、34・・・RAM、35・・・表示部、36・・・入力部、37・・・サウンドシステム(発音手段)、371・・・音源部(発音手段)、372・・・オーディオ回路(発音手段)、373・・・スピーカ(発音手段)、38・・・赤外線通信装置
DESCRIPTION OF
Claims (6)
所定の楽音を発音する発音手段と、
前記演奏部材に対して演奏者が与えた所定の演奏動作を検知することにより、前記発音手段に対して発音指示を与える発音指示手段と、
前記演奏者の所定の身体動作を検出し、当該検出結果を前記発音手段に対して通知する検知手段と、
を備え、
前記発音手段は、前記検出結果に基づき、前記身体動作に対応する楽音を発音する、
ことを特徴とする演奏装置。 A performance member;
A pronunciation means for generating a predetermined musical sound;
A sounding instruction means for giving a sounding instruction to the sounding means by detecting a predetermined performance action given by a player to the performance member;
Detecting means for detecting a predetermined physical movement of the performer and notifying the sounding means of the detection result;
With
The sound generation means sounds a musical sound corresponding to the body movement based on the detection result;
A performance apparatus characterized by that.
ことを特徴とする請求項1に記載の演奏装置。 The sounding means generates a tone of a different tone according to the body movement, or a tone of a different volume,
The performance device according to claim 1.
前記発音手段は、前記加速度値から算出した前記演奏者の前後方向の移動量に応じて異なる音量の楽音を発音する、
ことを特徴とする請求項1又は2に記載の演奏装置。 The detection means includes a mounting portion to be mounted on the performer, and an acceleration sensor that acquires an acceleration value in the front-rear direction of the performer,
The sounding means sounds a musical tone having a different volume according to the amount of movement of the performer in the front-rear direction calculated from the acceleration value;
Playing device according to claim 1 or 2, characterized in that.
前記発音手段は、前記加速度値から検知した前記演奏者の跳躍動作に応じて異なる音色の楽音を発音する、
ことを特徴とする請求項1から3の何れかに記載の演奏装置。 The detection means includes a mounting portion to be worn by the performer, and an acceleration sensor that acquires an acceleration value in the up and down direction of the performer,
The sounding means sounds a musical tone of a different tone according to the player's jumping motion detected from the acceleration value;
The performance device according to any one of claims 1 to 3, wherein:
前記発音指示手段は、前記演奏部材の内部に配置された前記加速度センサの加速度値に基づき取得した発音タイミングに基づいて、前記発音手段に対して発音指示を与える、
ことを特徴とする請求項1から4の何れかに記載の演奏装置。 The performance member extends in the longitudinal direction, and includes an acceleration sensor that acquires acceleration values in three axial directions.
The sound generation instruction means gives a sound generation instruction to the sound generation means based on a sound generation timing acquired based on an acceleration value of the acceleration sensor arranged inside the performance member.
Playing apparatus according to any one of claims 1 to 4, characterized in that.
前記発音手段と、前記演奏部材及び前記検知手段とが、通信可能に接続された、
ことを特徴とする請求項1から5の何れかに記載の演奏装置。 The performance member includes the pronunciation instruction means,
The sound generation means, the performance member and the detection means are connected to be communicable,
The performance device according to any one of claims 1 to 5, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011181787A JP2013044889A (en) | 2011-08-23 | 2011-08-23 | Music player |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011181787A JP2013044889A (en) | 2011-08-23 | 2011-08-23 | Music player |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013044889A true JP2013044889A (en) | 2013-03-04 |
Family
ID=48008854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011181787A Withdrawn JP2013044889A (en) | 2011-08-23 | 2011-08-23 | Music player |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013044889A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016142893A (en) * | 2015-02-02 | 2016-08-08 | ヤマハ株式会社 | Signal processing apparatus and signal processing system |
US11167206B2 (en) | 2019-05-22 | 2021-11-09 | Casio Computer Co., Ltd. | Portable music playing game device |
-
2011
- 2011-08-23 JP JP2011181787A patent/JP2013044889A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016142893A (en) * | 2015-02-02 | 2016-08-08 | ヤマハ株式会社 | Signal processing apparatus and signal processing system |
US11167206B2 (en) | 2019-05-22 | 2021-11-09 | Casio Computer Co., Ltd. | Portable music playing game device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8609972B2 (en) | Performance apparatus and electronic musical instrument operable in plural operation modes determined based on movement operation of performance apparatus | |
JP5712603B2 (en) | Performance device and electronic musical instrument | |
JP5067458B2 (en) | Performance device and electronic musical instrument | |
JP5966465B2 (en) | Performance device, program, and performance method | |
JP6127367B2 (en) | Performance device and program | |
CN102568453B (en) | Performance apparatus and electronic musical instrument | |
JP5099176B2 (en) | Performance device and electronic musical instrument | |
CN102270446B (en) | Performance apparatus and electronic musical instrument | |
JP2007256736A (en) | Electric musical instrument | |
JP2013195623A (en) | Musical sound production device, musical sound production method, and program | |
JP2013040991A (en) | Operator, operation method, and program | |
JP5088398B2 (en) | Performance device and electronic musical instrument | |
JP2013044889A (en) | Music player | |
JP6111526B2 (en) | Music generator | |
JP5668353B2 (en) | Performance device and electronic musical instrument | |
JP2012013725A (en) | Musical performance system and electronic musical instrument | |
JP6031800B2 (en) | Performance device, method and program | |
JP5974567B2 (en) | Music generator | |
JP5935399B2 (en) | Music generator | |
JP5029729B2 (en) | Performance device and electronic musical instrument | |
JP5942627B2 (en) | Performance device, method and program | |
JP2013044951A (en) | Handler and player | |
JP2011257509A (en) | Performance device and electronic musical instrument | |
JP2012032681A (en) | Performance device and electronic musical instrument | |
JP2013213948A (en) | Musical performance device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |