[go: up one dir, main page]

JP2013044889A - Music player - Google Patents

Music player Download PDF

Info

Publication number
JP2013044889A
JP2013044889A JP2011181787A JP2011181787A JP2013044889A JP 2013044889 A JP2013044889 A JP 2013044889A JP 2011181787 A JP2011181787 A JP 2011181787A JP 2011181787 A JP2011181787 A JP 2011181787A JP 2013044889 A JP2013044889 A JP 2013044889A
Authority
JP
Japan
Prior art keywords
performance
performer
sound generation
acceleration
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011181787A
Other languages
Japanese (ja)
Inventor
Hiroki Takahashi
宏毅 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011181787A priority Critical patent/JP2013044889A/en
Publication of JP2013044889A publication Critical patent/JP2013044889A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】演奏に用いる演奏部材に関わりなく、演奏者の身体の動きに応じて楽音を変化させることの可能な演奏装置を提供すること。
【解決手段】演奏装置1は、所定の楽音を発音する発音部30と、演奏者に用いられ、演奏者の所定の演奏動作を検知することにより、発音部30に対して発音指示を与えるスティック部10と、演奏者の所定の身体動作を検知し、発音部30に対して通知するベルト部20と、を備え、発音部30は、スティック部10から発音指示を受け付けることを条件に、ベルト部20から通知された演奏者の身体動作に応じた楽音を発音する。
【選択図】図1
To provide a performance device capable of changing a musical sound in accordance with a movement of a performer's body regardless of a performance member used for performance.
A performance device includes a sound generation unit that generates a predetermined musical sound and a stick that is used by a player to give a sound generation instruction to the sound generation unit by detecting a predetermined performance operation of the player. And a belt unit 20 that detects a predetermined physical movement of the performer and notifies the sound generation unit 30, and the sound generation unit 30 is configured to receive a sound generation instruction from the stick unit 10. A musical tone corresponding to the physical movement of the performer notified from the unit 20 is generated.
[Selection] Figure 1

Description

本発明は、演奏装置に関する。   The present invention relates to a performance device.

従来、演奏者の所定の演奏動作を検知すると、その演奏動作に応じた音を発音する演奏装置が提案されている。例えば、スティック状の部材のみからなる構成で打楽器音を発音する演奏装置が知られており、この演奏装置では、スティック状の部材にセンサを設け、演奏者が部材を手で保持して振ることで、センサがその演奏動作を検知して、打楽器音を発音する。
このような仮想的な演奏装置によれば、現実の楽器を必要とせずに当該楽器の楽音を発音することができるため、演奏場所や演奏スペースに制約を受けずに演奏を楽しむことができる。
2. Description of the Related Art Conventionally, there has been proposed a performance device that generates a sound corresponding to a performance operation when the player performs a predetermined performance operation. For example, a performance device that emits percussion instrument sounds with a configuration composed only of stick-shaped members is known. In this performance device, a sensor is provided on a stick-shaped member, and the player holds the member by hand and shakes it. Then, the sensor detects the performance action and generates a percussion instrument sound.
According to such a virtual performance device, the musical sound of the musical instrument can be generated without the need for an actual musical instrument, so that the performance can be enjoyed without being restricted by the performance place or the performance space.

上述のような仮想的演奏装置として、例えば、特許文献1には、スティック状の部材に加速度センサを設け、この部材を振ることにより加速度センサから得られる出力(加速度値)が所定の閾値に達した後、楽音を発音するように構成された演奏装置が開示されている。   As a virtual performance device as described above, for example, in Patent Document 1, an acceleration sensor is provided on a stick-shaped member, and an output (acceleration value) obtained from the acceleration sensor by shaking this member reaches a predetermined threshold value. Then, a performance device configured to generate a musical tone is disclosed.

特開2007−256736号公報JP 2007-256736 A

ところで、このような仮想的な演奏装置では、演奏者の異なる演奏動作毎に夫々異なる楽音が用意されている場合が多い。特許文献1に開示された演奏装置においても、地磁気センサを用いてスティック状の部材の向きを判定し、この向きに応じて異なる音色の楽音を発音できるように構成されている。すなわち、スティック状の部材を振るときの方向で、楽音を変化させることが可能である。   By the way, in such a virtual performance device, there are many cases where different musical tones are prepared for each different performance operation of the performer. The performance device disclosed in Patent Document 1 is also configured to determine the direction of a stick-like member using a geomagnetic sensor and to generate a musical tone having a different timbre according to this direction. That is, it is possible to change the musical tone in the direction in which the stick-shaped member is shaken.

ここで、現実の楽器を必要とせずに演奏を楽しむことのできる仮想的な演奏装置では、現実の楽器に比べて演奏者のパフォーマンスの幅を広げることが可能なため、発音する楽音にはその演奏形態に応じて多様な変化が求められる。この点、特許文献1に開示された演奏装置では、演奏者が演奏に用いるスティック状の部材の演奏形態のみで楽音を変化させいるため、発音する楽音の変化は限定的なものになってしまう。   Here, with a virtual performance device that allows you to enjoy playing without the need for real instruments, it is possible to expand the performance range of the performer compared to real instruments, so that the musical sound that is produced Various changes are required depending on the form of performance. In this regard, in the performance device disclosed in Patent Document 1, since the musical tone is changed only by the performance form of the stick-shaped member used by the performer, the change in the musical tone to be generated is limited. .

そこで、本発明は、従来にない態様で楽音を変化させることが可能な演奏装置、より具体的には、演奏に用いる部材に与えられる演奏動作に関わりなく楽音を多様に変化させることの可能な演奏装置を提供することを目的とする。   Therefore, the present invention is a performance device capable of changing musical sounds in an unprecedented manner, more specifically, it is possible to change musical sounds in various ways irrespective of the performance action given to members used for performance. An object is to provide a performance device.

上記目的を達成するため、本発明の一態様の演奏装置は、演奏部材と、所定の楽音を発音する発音手段と、前記演奏部材に対して演奏者が与えた所定の演奏動作を検知することにより、前記発音手段に対して発音指示を与える発音指示手段と、前記演奏者の所定の身体動作を検出し、当該検出結果を前記発音手段に対して通知する検知手段と、を備え、前記発音手段は、前記検出結果に基づき、前記身体動作に対応する楽音を発音する、ことを特徴とする。   In order to achieve the above object, a performance device according to an aspect of the present invention detects a performance member, a sound generation unit that generates a predetermined musical sound, and a predetermined performance action given by a performer to the performance member. A sound generation instruction means for giving a sound generation instruction to the sound generation means; and a detection means for detecting a predetermined physical motion of the player and notifying the sound generation means of the detection result. The means is characterized in that a musical sound corresponding to the body movement is generated based on the detection result.

本発明によれば、演奏に用いる部材に与えられる演奏動作と関わりのない演奏者の身体の動きに応じて発音する楽音を多様に変化させることができる。   According to the present invention, it is possible to variously change the musical sound to be generated according to the movement of the performer's body that is not related to the performance action given to the member used for the performance.

本発明の一実施形態の演奏装置の概要を示す図である。It is a figure which shows the outline | summary of the performance apparatus of one Embodiment of this invention. 演奏装置の発音部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the sound generation part of a performance apparatus. 演奏装置のスティック部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the stick part of a performance apparatus. スティック部の外観を示す図である。It is a figure which shows the external appearance of a stick part. 演奏装置のベルト部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the belt part of a performance apparatus. スティック部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a stick part. スティック部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a stick part. スティック部のセンサ合成値とノートオンイベントの送信タイミングとの関係を示す図である。It is a figure which shows the relationship between the sensor synthetic value of a stick part, and the transmission timing of a note-on event. スティック部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a stick part. ベルト部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a belt part. ベルト部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a belt part. ベルト部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a belt part. 発音部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a sound generation part. 発音部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a sound generation part.

以下、添付図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

図1は、本発明の一実施形態の演奏装置1の概要を示す図である。図1(1)に示すように本発明の演奏装置1は、スティック部10、ベルト部20及び発音部30を含んで構成される。   FIG. 1 is a diagram showing an outline of a performance device 1 according to an embodiment of the present invention. As shown in FIG. 1A, the performance device 1 of the present invention includes a stick unit 10, a belt unit 20, and a sound generation unit 30.

スティック部10は、長手方向に延びるスティック状の部材であり、本発明の演奏部材に相当する。演奏者は、スティック部10の一端(根元側)を手に持ち手首などを中心とした振り上げ振り下ろし動作を行うことで、演奏動作を行う。このような演奏者の演奏動作を検知するため、スティック部10の他端(先端側)には、加速度センサ12が設けられている(後述の図3参照)。
ベルト部20は、図示しない装着部を有し演奏者の身体(本実施形態では、演奏者の腰)に装着される。また、ベルト部20は、本発明の検知手段として機能し、演奏者の身体の動きを検知する。
発音部30は、本発明の発音手段として機能し、楽音を発音する。
The stick portion 10 is a stick-like member extending in the longitudinal direction, and corresponds to a performance member of the present invention. The performer performs a performance operation by holding up one end (base side) of the stick unit 10 and performing a swing-down operation centering on the wrist or the like. In order to detect such a player's performance, an acceleration sensor 12 is provided at the other end (front end side) of the stick unit 10 (see FIG. 3 described later).
The belt unit 20 has a mounting unit (not shown) and is mounted on the performer's body (in this embodiment, the performer's waist). Moreover, the belt part 20 functions as the detection means of the present invention, and detects the movement of the performer's body.
The sound generation unit 30 functions as the sound generation means of the present invention and generates a musical sound.

このような演奏装置1では、スティック部10を用いた演奏動作、すなわち、スティック部10の振り下ろし動作に応じて、発音部30が所定の楽音を発音することで、演奏者による演奏が行われる。   In such a performance device 1, a performance by the performer is performed by the sound generation unit 30 generating a predetermined musical sound in response to a performance operation using the stick unit 10, that is, a swing-down operation of the stick unit 10. .

このとき、本発明の演奏装置1では、図1(2)に示すように、演奏者の身体の動きに応じて多様な楽音を発音することとしている。例えば、本実施形態では、発音部30は、演奏者の前進に応じてより大きな音量の楽音を発音し、演奏者の後退に応じてより小さな音量の楽音を発音する。また、発音部30は、演奏者が跳躍した状態では、着地している状態とは異なる音色の楽音、例えば、異なる楽器の楽音を発音する。なお、演奏者の身体の動きや当該動きに応じた多様な楽音については、適宜設定することができる。すなわち、演奏者の身体を揺らす動作や演奏者の回転動作に応じて異なる楽音を発音することとしてもよい。   At this time, in the performance device 1 of the present invention, as shown in FIG. 1 (2), various musical sounds are generated according to the movement of the performer's body. For example, in the present embodiment, the sound generation unit 30 sounds a musical sound with a higher volume according to the advance of the performer and generates a musical sound with a lower volume according to the backward movement of the performer. In addition, the sound generation unit 30 generates a tone having a tone different from the landing state when the performer jumps, for example, a tone of a different instrument. It should be noted that the player's body movement and various musical sounds corresponding to the movement can be set as appropriate. In other words, different musical sounds may be generated according to the movement of the performer's body or the rotation of the performer.

続いて、本発明の演奏装置1を構成するスティック部10、ベルト部20及び発音部30の具体的構成について説明する。   Next, specific configurations of the stick unit 10, the belt unit 20, and the sound generation unit 30 constituting the performance device 1 of the present invention will be described.

初めに、図2を参照して、発音部30の構成について説明する。図2は、発音部30の構成を示すブロック図である。図2に示すように、発音部30は、CPU(Central Processing Unit)31、インタフェース(I/F)32、ROM(Read Only Memory)33、RAM(Random Access Memory)34、表示部35、入力部36及びサウンドシステム37を含んで構成される。   First, the configuration of the sound generation unit 30 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the sound generation unit 30. As shown in FIG. 2, the sound generator 30 includes a CPU (Central Processing Unit) 31, an interface (I / F) 32, a ROM (Read Only Memory) 33, a RAM (Random Access Memory) 34, a display unit 35, and an input unit. 36 and a sound system 37.

発音部30のI/F32は、スティック部10からのデータ(例えば、ノートオンイベント)やベルト部20からのデータ(例えば、前進フラグ)を受け入れて、RAM34に格納するとともに、CPU31にデータの受け入れを通知する。本実施の形態においては、スティック部10、ベルト部20及び発音部30の夫々に赤外線通信装置17、赤外線通信装置27及び赤外線通信装置38が設けられている。I/F32は、スティック部10の赤外線通信装置17が発した赤外線やベルト部20の赤外線通信装置27が発した赤外線を、赤外線通信装置38で受信することで、スティック部10やベルト部20からデータを受信する。   The I / F 32 of the sound generation unit 30 accepts data from the stick unit 10 (for example, note-on event) and data from the belt unit 20 (for example, advance flag), stores the data in the RAM 34, and accepts data to the CPU 31. To be notified. In the present embodiment, the infrared communication device 17, the infrared communication device 27, and the infrared communication device 38 are provided in each of the stick unit 10, the belt unit 20, and the sound generation unit 30. The I / F 32 receives the infrared rays emitted from the infrared communication device 17 of the stick unit 10 and the infrared rays emitted from the infrared communication device 27 of the belt unit 20 by the infrared communication device 38, so that the stick unit 10 and the belt unit 20 receive the infrared rays. Receive data.

CPU31は、演奏装置1全体の制御、特に、発音部30の制御、入力部36を構成するキースイッチ(図示せず)の操作の検出、I/F32を介して受信したスティック部10からのノートオンイベントに基づく楽音の発音など、種々の処理を実行する。   The CPU 31 controls the performance device 1 as a whole, in particular, controls the sound generator 30, detects operations of key switches (not shown) constituting the input unit 36, and notes from the stick unit 10 received via the I / F 32. Various processing such as sound generation based on on-event is executed.

ROM33は、演奏装置1全体の制御、特に、発音部30の制御、入力部36を構成するキースイッチ(図示せず)の操作の検出、I/F32を介して受信したノートオンイベントに基づく楽音の発音など、種々の処理プログラムを格納する。また、ROM33は、種々の音色の波形データ、例えば、フルート、サックス、トランペットなどの管楽器、ピアノなどの鍵盤楽器、ギターなどの弦楽器、バスドラム、ハイハット、スネア、シンバル、タムなど打楽器の波形データを格納する波形データエリアを含む。   The ROM 33 controls the performance device 1 as a whole, in particular, the sound generation unit 30, the detection of operation of a key switch (not shown) constituting the input unit 36, and a musical tone based on a note-on event received via the I / F 32. Stores various processing programs such as pronunciation. The ROM 33 stores waveform data of various timbres, for example, wind instruments such as flutes, saxophones, and trumpets, keyboard instruments such as pianos, stringed instruments such as guitars, bass drums, hi-hats, snares, cymbals, and toms. Includes waveform data area to store.

RAM34は、ROM33から読み出されたプログラムや、処理の過程で生じたデータやパラメータを記憶する。処理の過程で生じたデータには、入力部36のスイッチの操作状態、I/F32を介して受信したノートオンイベントや演奏者の身体動作の状態(前進フラグや変位量)などが含まれる。   The RAM 34 stores programs read from the ROM 33, data and parameters generated in the course of processing. The data generated in the process includes the operation state of the switch of the input unit 36, the note-on event received via the I / F 32, the state of the player's physical movement (forward flag and displacement), and the like.

表示部35は、例えば、液晶表示装置で構成され、選択された音色や音量、演奏者の身体動作の状態(基準位置からの変位量)などを画像として表示する。また、入力部36は、各種スイッチ(図示せず)を有し、演奏者からの各種情報の入力を受け付ける。   The display unit 35 is composed of, for example, a liquid crystal display device, and displays the selected tone color and volume, the state of the player's body movement (displacement from the reference position), and the like as an image. The input unit 36 has various switches (not shown) and accepts input of various information from the performer.

サウンドシステム37は、音源部371、オーディオ回路372及びスピーカ373を含む。音源部371は、CPU31からの指示にしたがって、ROM33の波形データエリアから波形データを読み出して、楽音データを生成して出力する。オーディオ回路372は、音源部371から出力された楽音データをアナログ信号に変換するとともに、変換したアナログ信号を増幅してスピーカ373に出力する。これによりスピーカ373から楽音が出力される。   The sound system 37 includes a sound source unit 371, an audio circuit 372, and a speaker 373. The sound source unit 371 reads out waveform data from the waveform data area of the ROM 33 in accordance with an instruction from the CPU 31, and generates and outputs musical sound data. The audio circuit 372 converts the musical sound data output from the sound source unit 371 into an analog signal, amplifies the converted analog signal, and outputs the amplified analog signal to the speaker 373. As a result, a musical tone is output from the speaker 373.

続いて、図3を参照して、スティック部10の構成について説明する。図3は、スティック部10の構成を示すブロック図である。図3に示すように、スティック部10は、CPU11、加速度センサ12、インタフェース(I/F)13、ROM14、RAM15及び入力部16を含んで構成される。   Next, the configuration of the stick unit 10 will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the stick unit 10. As shown in FIG. 3, the stick unit 10 includes a CPU 11, an acceleration sensor 12, an interface (I / F) 13, a ROM 14, a RAM 15, and an input unit 16.

加速度センサ12は、スティック部10の演奏者が保持する根元側と反対側である先端側の内部に配置された静電容量型或いはピエゾ抵抗素子型の3軸センサであり、X、Y、Zの3つの軸方向の夫々に生じた加速度を示す加速度値及び3軸の夫々の成分の加速度値を合成したセンサ合成値を出力する。
図4を参照して、本実施形態では、スティック部10の長手方向の軸と一致する軸をY軸とし、加速度センサ12が配置された基板(図示せず)と平行で、かつ、Y軸と直交する軸をX軸とし、X軸及びY軸と直交する軸をZ軸としている。加速度センサ12は、X軸、Y軸、Z軸の夫々の成分の加速度値を取得するとともに、夫々の加速度値を合成したセンサ合成値を算出する。ここで、演奏者は、スティック部10の一端(根元側)を保持し、手首などを中心とした振り上げ振り下ろし動作を行うことで、スティック部10に対して回転運動を生じさせるところ、スティック部10が静止している場合には、加速度センサ12は、センサ合成値として重力加速度1Gに相当する値を算出し、スティック部10が回転運動をしている場合には、加速度センサ12は、センサ合成値として重力加速度1Gよりも大きな値を算出する。
なお、センサ合成値は、例えば、X軸、Y軸、Z軸の成分の加速度値の夫々の2乗の総和の平方根を算出することで得られる。
The acceleration sensor 12 is a capacitive or piezoresistive element type triaxial sensor disposed inside the tip side opposite to the root side held by the player of the stick unit 10, and is an X, Y, Z The sensor combined value obtained by combining the acceleration value indicating the acceleration generated in each of the three axis directions and the acceleration value of each of the three axis components is output.
Referring to FIG. 4, in the present embodiment, the axis that coincides with the longitudinal axis of the stick portion 10 is defined as the Y axis, parallel to the substrate (not shown) on which the acceleration sensor 12 is disposed, and the Y axis. The axis orthogonal to the X axis is the X axis, and the axis orthogonal to the X axis and the Y axis is the Z axis. The acceleration sensor 12 obtains acceleration values of the respective components of the X axis, the Y axis, and the Z axis, and calculates a sensor composite value obtained by combining the respective acceleration values. Here, the player holds one end (base side) of the stick unit 10 and performs a swing-up and swing-down operation around the wrist or the like, thereby causing the stick unit 10 to rotate. When 10 is stationary, the acceleration sensor 12 calculates a value corresponding to the gravitational acceleration 1G as a sensor composite value, and when the stick unit 10 is rotating, the acceleration sensor 12 A value larger than the gravitational acceleration 1G is calculated as a composite value.
The sensor composite value is obtained, for example, by calculating the square root of the sum of the squares of the acceleration values of the X-axis, Y-axis, and Z-axis components.

図3に戻り、CPU11は、加速度センサ12が出力した加速度値やセンサ合成値の取得、加速度値やセンサ合成値にしたがったノートオンイベントの生成、I/F13及び赤外線通信装置17を介してノートオンイベントを発音部30に送信する処理などを実行する。ここで、ノートオンイベントとは、楽音の発音を音源部371に対して指示するコマンド情報であり、本実施形態においては、発音する楽音の音色や音高の情報に加えて、さらに楽音の音量などの情報を含むものとする。
このようにスティック部10のセンサ合成値に基づいて発音部30にノートオンイベントを送信することで、発音部30は、スティック部10を用いた演奏動作に基づいて所定の楽音を発音することができる。
Returning to FIG. 3, the CPU 11 acquires the acceleration value and the sensor composite value output from the acceleration sensor 12, generates a note-on event according to the acceleration value and the sensor composite value, and takes note through the I / F 13 and the infrared communication device 17. A process of transmitting an on event to the sound generator 30 is executed. Here, the note-on event is command information for instructing the tone generator 371 to generate a musical tone. In this embodiment, in addition to the tone color and pitch information of the musical tone to be generated, the musical tone volume is further increased. Such information shall be included.
As described above, by transmitting the note-on event to the sound generation unit 30 based on the sensor composite value of the stick unit 10, the sound generation unit 30 can generate a predetermined musical sound based on the performance operation using the stick unit 10. it can.

ROM14は、CPU11の実行する各種処理の処理プログラム、すなわち、加速度センサ12が出力した加速度値及びセンサ合成値の取得処理、ノートオンイベントの生成処理、ノートオンイベントの送信処理などの処理プログラムを格納する。RAM15は、加速度値やセンサ合成値など、処理において取得され或いは生成された値を格納する。I/F13は、CPU11からの指示にしたがって赤外線通信装置17にデータを出力する。また、入力部16は、各種スイッチ(図示せず)を有し、演奏者からの各種情報の入力を受け付ける。   The ROM 14 stores processing programs for various types of processing executed by the CPU 11, that is, processing programs such as acquisition processing of acceleration values and sensor composite values output from the acceleration sensor 12, generation processing of note-on events, transmission processing of note-on events, and the like. To do. The RAM 15 stores values obtained or generated in the processing such as acceleration values and sensor composite values. The I / F 13 outputs data to the infrared communication device 17 in accordance with an instruction from the CPU 11. The input unit 16 includes various switches (not shown) and receives input of various information from the performer.

続いて、図5を参照して、ベルト部20の構成について説明する。図5は、ベルト部20の構成を示すブロック図である。図5に示すように、ベルト部20は、CPU21、加速度センサ22、インタフェース(I/F)23、ROM24、RAM25及び入力部26を含んで構成される。   Then, with reference to FIG. 5, the structure of the belt part 20 is demonstrated. FIG. 5 is a block diagram illustrating a configuration of the belt unit 20. As shown in FIG. 5, the belt unit 20 includes a CPU 21, an acceleration sensor 22, an interface (I / F) 23, a ROM 24, a RAM 25, and an input unit 26.

加速度センサ22は、ベルト部20の内部に配置された静電容量型或いはピエゾ抵抗素子型の3軸センサであり、X、Y、Zの3つの軸方向の夫々に生じた加速度を示す加速度値を出力する。ここで、本実施形態では、水平面をX−Y平面とし、当該X−Y平面のうちベルト部20を装着した演奏者の正面方向の軸と一致する軸をY軸、Y軸と直交する軸をX軸とするとともに、X軸及びY軸と直交する軸をZ軸としている。すなわち、加速度センサ22が取得するX軸成分の加速度値は、ベルト部20を装着した演奏者の左右方向の加速度値を示し、Y軸成分の加速度値は、ベルト部20を装着した当該演奏者の前後方向の加速度値を示し、Z軸成分の加速度値は、ベルト部20を装着した演奏者の上下方向の加速度値を示す。   The acceleration sensor 22 is a capacitance type or piezoresistive type three-axis sensor disposed inside the belt portion 20, and an acceleration value indicating acceleration generated in each of the three axial directions of X, Y, and Z. Is output. Here, in the present embodiment, the horizontal plane is the XY plane, and the axis that coincides with the front axis of the player wearing the belt unit 20 among the XY plane is the Y axis and the axis that is orthogonal to the Y axis. Is an X axis, and an axis orthogonal to the X axis and the Y axis is a Z axis. That is, the acceleration value of the X-axis component acquired by the acceleration sensor 22 indicates the lateral acceleration value of the player wearing the belt unit 20, and the acceleration value of the Y-axis component is the player wearing the belt unit 20. The acceleration value of the Z-axis component indicates the acceleration value of the player wearing the belt unit 20 in the vertical direction.

CPU21は、加速度センサ22が出力した加速度値の取得、加速度値を用いた演奏者の身体の動きの検知、演奏者の現在位置の算出、I/F23及び赤外線通信装置27を介して演奏者の身体の動きや演奏者の現在位置などの各種データを発音部30に送信する処理などを実行する。
ここで、本実施形態では、CPU21は、演奏者の身体の動きとして、前後方向への移動動作及び跳躍動作を検知する。このとき、後述するように、前後方向への移動動作は、加速度センサ22のY軸成分の加速度値を用いて検知し、跳躍動作は、加速度センサ22のZ軸成分の加速度値を用いて検知する。また、CPU21は、前後方向への移動動作の検知に際し、前後方向への移動量も併せて検知することが好ましい。移動量に応じて異なる楽音を発音することを可能とするためである。
The CPU 21 acquires the acceleration value output from the acceleration sensor 22, detects the player's body movement using the acceleration value, calculates the player's current position, and performs the player's current position via the I / F 23 and the infrared communication device 27. A process of transmitting various data such as the body movement and the current position of the performer to the sound generator 30 is executed.
Here, in this embodiment, CPU21 detects the movement operation | movement and jumping movement to the front-back direction as a motion of a player's body. At this time, as will be described later, the moving motion in the front-rear direction is detected using the acceleration value of the Y-axis component of the acceleration sensor 22, and the jumping motion is detected using the acceleration value of the Z-axis component of the acceleration sensor 22. To do. Further, it is preferable that the CPU 21 also detects the amount of movement in the front-rear direction when detecting the movement operation in the front-rear direction. In order to be able to produce musical sounds different in accordance with the moving amount.

ROM24は、CPU21の実行する各種処理の処理プログラム、すなわち、加速度センサ22が出力した加速度値の取得処理、加速度値を用いた演奏者の身体の動きの検知処理、演奏者の現在位置の算出処理、演奏者の身体の動きや演奏者の現在位置などの各種データの送信処理などの処理プログラムを格納する。RAM25は、加速度値、前後方向への移動量、基準位置及び現在位置など処理において取得され或いは生成された値を格納する。I/F23は、CPU21からの指示にしたがって赤外線通信装置27にデータを出力する。   The ROM 24 is a processing program for various processes executed by the CPU 21, that is, an acceleration value output process output from the acceleration sensor 22, a player's body motion detection process using the acceleration value, and a player's current position calculation process. A processing program for transmitting various data such as the player's body movement and the player's current position is stored. The RAM 25 stores values acquired or generated in processing such as acceleration values, amounts of movement in the front-rear direction, reference positions, and current positions. The I / F 23 outputs data to the infrared communication device 27 in accordance with an instruction from the CPU 21.

入力部26は、スイッチ(図示せず)を有し、演奏者からの各種情報の入力を受け付ける。例えば、入力部26は、演奏開始時に演奏者から基準位置の入力を受け付ける。なお、入力部26を介して受け付けた基準位置及び移動量に基づいて、CPU21は、演奏者の現在位置を算出する。   The input unit 26 includes a switch (not shown) and receives input of various information from the performer. For example, the input unit 26 receives an input of the reference position from the performer at the start of performance. Note that the CPU 21 calculates the current position of the performer based on the reference position and the movement amount received via the input unit 26.

続いて、本実施形態の演奏装置1の処理について説明する。初めに、図6を参照して、スティック部10において実行される処理について説明する。
図6に示すように、スティック部10のCPU11は、RAM15のデータのクリアなどを含むイニシャライズ処理を実行する(ステップS1)。イニシャライズ処理(ステップS1)が終了すると、CPU11は、加速度センサ12のセンサ値(加速度値)を取得して、RAM15に格納する(ステップS2)。上述したように、本実施の形態においては、加速度値として、スティック部10の3軸方向の加速度値が採用されている。なお、CPU11は、S2の処理において3軸方向の加速度値を合成したセンサ合成値も併せて取得することが好ましい。このとき、センサ合成値については、CPU11が3軸方向の加速度値から算出することとしてもよく、加速度センサ12が算出することとしてもよい。
The following describes the processing of the performance apparatus 1 of the present embodiment. First, with reference to FIG. 6, a description will be given of a process executed in the stick 10.
As shown in FIG. 6, the CPU 11 of the stick unit 10 executes an initialization process including clearing of data in the RAM 15 (step S1). When the initialization process (step S1) ends, the CPU 11 acquires the sensor value (acceleration value) of the acceleration sensor 12 and stores it in the RAM 15 (step S2). As described above, in this embodiment, the acceleration value in the triaxial direction of the stick unit 10 is employed as the acceleration value. Note that the CPU 11 preferably also acquires a sensor composite value obtained by combining the acceleration values in the three-axis directions in the process of S2. At this time, the sensor composite value may be calculated by the CPU 11 from the acceleration values in the three-axis directions, or may be calculated by the acceleration sensor 12.

続いて、CPU11は、発音タイミング検出処理を実行する(ステップS3)。詳細については図7で後述するが、発音タイミング検出処理ではCPU11は、センサ合成値の値に基づいて発音タイミングを検出、すなわち、センサ合成値に基づいてノートオンイベントを生成し、発音部30に送信する。発音タイミング検出処理(ステップS3)が終了すると、CPU11は、パラメータ通信処理を実行する(ステップS4)。パラメータ通信処理では、後述する発音部30におけるパラメータ通信処理(図13のステップS65)に応じて発音部30から送信された発音すべき楽音の音色や音高に関するデータを、I/F13を介して受け入れ、RAM15に格納する。CPU11は、この送信されてきた音色や音高に基づいてノートオンイベントを作成する。また、逆に入力部16にて、設定された音色や音量ボリュウム値などのパラメータをI/F13を介して発音部30に送信するようにしてもよい。   Subsequently, the CPU 11 executes a sound generation timing detection process (step S3). Although details will be described later with reference to FIG. 7, in the sound generation timing detection process, the CPU 11 detects a sound generation timing based on the value of the sensor composite value, that is, generates a note-on event based on the sensor composite value, and Send. When the sound generation timing detection process (step S3) ends, the CPU 11 executes a parameter communication process (step S4). In the parameter communication process, data related to the tone color and pitch of the musical tone to be generated, transmitted from the sound generation unit 30 in response to the parameter communication process (step S65 in FIG. 13) in the sound generation unit 30 described later, is transmitted via the I / F 13. Accept and store in RAM 15. The CPU 11 creates a note-on event based on the transmitted tone color and pitch. Conversely, the input unit 16 may transmit parameters such as the set tone color and volume volume value to the sound generation unit 30 via the I / F 13.

続いて、図7を参照して、スティック部10における発音タイミング検出処理(図6のステップS3)の詳細について説明する。
図7に示すように、CPU11は、RAM15に格納されているセンサ合成値を読み出す(ステップS11)。次いで、CPU11は、RAM15に格納された加速度フラグが「0」であるかを判断する(ステップS12)。ここで、加速度フラグとは、スティック部10が停止しているか否か判別するための情報であり、加速度フラグ「1」は、スティック部10が動作中であることを示し、加速度フラグ「0」は、スティック部10が停止中(すなわち、センサ合成値が重力加速度1G)であることを示す。
Next, details of the sound generation timing detection process (step S3 in FIG. 6) in the stick unit 10 will be described with reference to FIG.
As shown in FIG. 7, the CPU 11 reads out the sensor composite value stored in the RAM 15 (step S11). Next, the CPU 11 determines whether or not the acceleration flag stored in the RAM 15 is “0” (step S12). Here, the acceleration flag is information for determining whether or not the stick unit 10 is stopped. The acceleration flag “1” indicates that the stick unit 10 is operating, and the acceleration flag “0”. Indicates that the stick unit 10 is stopped (that is, the sensor composite value is gravitational acceleration 1G).

ステップS12でYESと判断された場合には、CPU11は、センサ合成値が(1+a)Gに相当する値より大きいかを判断する(ステップS13)。ここで、aは、正の数である。ステップS13の処理は、ステップS12でYESと判断された場合に行われるため、ステップS13でYESであることは、停止中のスティック部10が演奏者により振られ、センサ合成値が重力加速度1Gより大きくなったことを示している。   If YES is determined in step S12, the CPU 11 determines whether the sensor composite value is larger than a value corresponding to (1 + a) G (step S13). Here, a is a positive number. Since the process of step S13 is performed when YES is determined in step S12, the fact that the answer is YES in step S13 indicates that the stopped stick unit 10 is shaken by the player, and the sensor composite value is based on the gravitational acceleration 1G. It shows that it has grown.

ステップS13でYESと判断された場合には、CPU11は、RAM15の加速度フラグを「1」にセットし(ステップS14)、発音タイミング検出処理を終了する。他方、ステップS13でNOと判断された場合には、CPU11は、発音タイミング検出処理を終了する。   If YES is determined in the step S13, the CPU 11 sets the acceleration flag in the RAM 15 to “1” (step S14), and ends the sound generation timing detection process. On the other hand, if NO is determined in step S13, the CPU 11 ends the sound generation timing detection process.

ステップS12でNOと判断された場合、つまり、加速度フラグが「1」である場合には、CPU21は、センサ合成値が(1+b)Gに相当する値より小さいかを判断する(ステップS15)。ここで、bは、aより小さい微小な正の数である。S15でYESと判断された場合には、CPU11は、ノートオンイベント生成処理を実行する(ステップS16)。詳細については図9で後述するが、ノートオンイベント生成処理では、CPU11は、ノートオンイベントを生成し、発音部30に送信する。このように、本実施形態のスティック部10は、センサ合成値の値に基づいてノートオンイベントを生成する。   If NO is determined in step S12, that is, if the acceleration flag is “1”, the CPU 21 determines whether the sensor composite value is smaller than a value corresponding to (1 + b) G (step S15). Here, b is a small positive number smaller than a. When it is determined YES in S15, the CPU 11 executes a note-on event generation process (step S16). Although details will be described later with reference to FIG. 9, in the note-on event generation process, the CPU 11 generates a note-on event and transmits it to the sound generation unit 30. Thus, the stick unit 10 of the present embodiment generates a note-on event based on the value of the sensor composite value.

ここで、演奏者が、スティック部10を振ると、センサ合成値は、次第に大きくなる。演奏者は、スティック部10を振るときに、一般には、ドラムを打つ動作と同様に動作する。したがって、演奏者は、仮想的に設定されたドラムの面にスティックを打ちつける寸前に、スティック部10の動作をとめていく。そのため、ある時刻からセンサ合成値は徐々に減少する。演奏者は、仮想的なドラムの面にスティックを打ちつけた瞬間に楽音が発音することを想定しているため、演奏者が想定するタイミングで楽音を発音できるのが望ましい。   Here, when the performer swings the stick unit 10, the sensor composite value gradually increases. When the performer swings the stick unit 10, the player generally operates in the same manner as the operation of hitting the drum. Therefore, the performer stops the operation of the stick unit 10 immediately before hitting the stick on the virtually set drum surface. Therefore, the sensor composite value gradually decreases from a certain time. Since the performer assumes that the musical sound is generated at the moment when the stick is hit on the surface of the virtual drum, it is desirable that the performer can generate the musical sound at the timing assumed by the performer.

そこで、本実施形態では、演奏者が仮想的なドラムの面にスティックを打ちつける瞬間或いはそのわずかに前に楽音を発音すべく、図7に示すロジックを採用している。この点、図8を参照して、具体的に説明する。発音タイミング(ノートオンイベントの生成)は、センサ合成値が減少して、重力加速度1Gよりわずかに大きい(1+b)Gより小さくなったときとする。しかしながら、演奏者が予期していない動作により、センサ合成値が振動して(1+b)Gに達する可能性もある。したがって、予期しない振動を排除するために、いったんセンサ合成値が上昇して(1+a)G(aはbより十分に大きい)を超えることを条件としている。すなわち、センサ合成値がいったん(1+a)Gより大きくなり(時刻t1参照)、その後、センサ合成値が減少して、(1+b)Gより小さくなったとき(時刻t2参照)を発音タイミングとしている。上述したような発音タイミングが到来したと判断されると、スティック部10においてノートオンイベントが生成され、発音部30に送信される。また、これに応答して、発音部30において、発音処理が実行されて、楽音が発音する。   Therefore, in the present embodiment, the logic shown in FIG. 7 is adopted in order to produce a musical sound at the moment when the player strikes the stick on the virtual drum surface or slightly before that. This point will be specifically described with reference to FIG. The sound generation timing (generation of a note-on event) is assumed to be when the sensor composite value decreases and becomes smaller than (1 + b) G that is slightly larger than the gravitational acceleration 1G. However, the sensor composite value may vibrate and reach (1 + b) G due to an action that the player does not expect. Therefore, in order to eliminate unexpected vibrations, it is a condition that the sensor composite value once rises and exceeds (1 + a) G (a is sufficiently larger than b). That is, when the sensor composite value once becomes larger than (1 + a) G (see time t1) and thereafter the sensor composite value decreases and becomes smaller than (1 + b) G (see time t2), the sound generation timing is set. When it is determined that the sound generation timing as described above has arrived, a note-on event is generated in the stick unit 10 and transmitted to the sound generation unit 30. In response to this, the sound generation unit 30 executes sound generation processing to generate a musical sound.

また、図7の発音タイミング検出処理のようにセンサ合成値を利用せずに、発音タイミングを検出(ノートオンイベントを生成)することも可能である。例えば、加速度センサ12のZ軸方向の成分の加速度値に基づき、スティック部10の振り下ろし動作の終了を検出することで、発音タイミングを検出すればよい。
より詳しくは、加速度センサ12のZ軸方向の成分の加速度値は、静止状態では重力加速度によりマイナスの値を示している。スティック部10の振り下ろし動作が始まると、プラス方向に加速度値は変化し、一定のプラスの値を示した後(最高速度になった時点)からマイナス方向に変化する。そして加速度値はそのままマイナス方向に変化し続け、重力加速度の値を超えてより低いマイナスの値を取るようになり、その後再びプラス方向に転じる。この重力加速度の値を超えてより低いマイナスの値になった時点、つまりスティック部10の動作が停止する直前(振り下ろし動作の終了)を発音タイミングとして検出するようにしてもよい。
Further, it is also possible to detect the sound generation timing (generate a note-on event) without using the sensor composite value as in the sound generation timing detection process of FIG. For example, the sound generation timing may be detected by detecting the end of the swing-down operation of the stick unit 10 based on the acceleration value of the component in the Z-axis direction of the acceleration sensor 12.
More specifically, the acceleration value of the component in the Z-axis direction of the acceleration sensor 12 shows a negative value due to gravitational acceleration in a stationary state. When the operation of swinging down the stick unit 10 is started, the acceleration value changes in the plus direction, and after changing to a certain plus value (at the time when the maximum speed is reached), the acceleration value changes in the minus direction. Then, the acceleration value continues to change in the minus direction, takes a lower minus value exceeding the value of the gravitational acceleration, and then turns in the plus direction again. The time point when the gravitational acceleration value is exceeded and becomes a lower negative value, that is, immediately before the operation of the stick unit 10 is stopped (end of the swing-down operation) may be detected as the sound generation timing.

図7に戻り、ノートオンイベント生成処理(ステップS16)が終了すると、又はステップS15でNOと判断された場合、CPU11は、発音タイミング検出処理を終了する。   Returning to FIG. 7, when the note-on event generation process (step S <b> 16) ends, or when it is determined NO in step S <b> 15, the CPU 11 ends the sound generation timing detection process.

続いて、図9を参照して、スティック部10におけるノートオンイベント生成処理(図7のステップS16)の詳細について説明する。図9に示すノートオンイベント生成処理により、ノートオンイベントが発音部30に送信され、その後、発音部30において発音処理(図14参照)が実行されることにより、楽音データが生成され、スピーカ373から楽音が発音される。   Next, the details of the note-on event generation process (step S16 in FIG. 7) in the stick unit 10 will be described with reference to FIG. The note-on event is transmitted to the sound generation unit 30 by the note-on event generation processing shown in FIG. 9, and then the sound generation processing (see FIG. 14) is executed in the sound generation unit 30, thereby generating musical sound data and the speaker 373. The sound is pronounced.

図9に示すように、CPU11は、RAM15に格納されたセンサ合成値の最大値を参照して、当該最大値に基づく楽音の音量レベルを決定する(ステップS21)。その後、CPU11は、ステップS21で決定した音量レベルを含むノートオンイベントを生成する(ステップS22)。次いで、CPU11は、生成したノートオンイベントをI/F13及び赤外線通信装置17を介して発音部30に送信する(ステップS23)。その後、CPU11は、RAM15の加速度フラグを「0」にリセットし(ステップS24)、ノートオンイベント生成処理を終了する。   As shown in FIG. 9, the CPU 11 refers to the maximum value of the sensor composite value stored in the RAM 15 and determines the volume level of the musical sound based on the maximum value (step S21). Thereafter, the CPU 11 generates a note-on event including the volume level determined in step S21 (step S22). Next, the CPU 11 transmits the generated note-on event to the sound generator 30 via the I / F 13 and the infrared communication device 17 (step S23). Thereafter, the CPU 11 resets the acceleration flag in the RAM 15 to “0” (step S24), and ends the note-on event generation process.

続いて、図10を参照して、ベルト部20において実行される処理について説明する。
図10に示すように、電源投入時において、ベルト部20のCPU21は、RAM25のデータのクリアなどを含むイニシャライズ処理を実行する(ステップS31)。また、イニシャライズ処理では、RAM25の基準位置のデータをクリアし現在位置を基準位置としてセットする。イニシャライズ処理(ステップS31)が終了すると、CPU21は、加速度センサ22のセンサ値(加速度値)を読み出し、RAM25に格納する(ステップS32)。次いで、CPU21は、前進判定処理を実行する(ステップS33)。詳細については図11で後述するが、前進判定処理では、CPU21は、ステップS32でRAM25に格納したY軸方向の加速度値から演奏者の身体の動き(前進や後退)を判定する。
Subsequently, referring to FIG. 10, description is given of processing executed in a belt unit 20.
As shown in FIG. 10, when the power is turned on, the CPU 21 of the belt unit 20 performs an initialization process including clearing of data in the RAM 25 (step S31). In the initialization process, the reference position data in the RAM 25 is cleared and the current position is set as the reference position. When the initialization process (step S31) ends, the CPU 21 reads the sensor value (acceleration value) of the acceleration sensor 22 and stores it in the RAM 25 (step S32). Then, CPU 21 executes the forward traveling determination process (step S33). Although details will be described later with reference to FIG. 11, in the forward determination process, the CPU 21 determines the movement (forward or backward) of the performer from the acceleration value in the Y-axis direction stored in the RAM 25 in step S32.

続いて、CPU21は、ジャンプ判定処理を実行する(ステップS34)。詳細については図12で後述するが、ジャンプ判定処理では、CPU21は、ステップS32でRAM25に格納したZ軸方向の加速度値から演奏者の身体の動き(跳躍)を判定する。次いで、CPU21は、パラメータ通信処理を実行する(ステップS35)。パラメータ通信処理では、ステップS31でセットした基準位置やステップS33やステップS34で判定した演奏者の身体の動きを判別するデータ(後述の前進フラグ、後退フラグ、変位量、ジャンプフラグ)を、I/F23及び赤外線通信装置27を介して発音部30に送信する。   Subsequently, the CPU 21 executes a jump determination process (step S34). Although details will be described later with reference to FIG. 12, in the jump determination process, the CPU 21 determines the movement (jumping) of the player's body from the acceleration value in the Z-axis direction stored in the RAM 25 in step S32. Next, the CPU 21 executes parameter communication processing (step S35). In the parameter communication process, the reference position set in step S31 and the data for determining the player's body movement determined in step S33 or step S34 (forward flag, backward flag, displacement amount, jump flag described later) The sound is transmitted to the sound generator 30 via F23 and the infrared communication device 27.

続いて、図11を参照して、ベルト部20における前進判定処理(図10のステップS33)の詳細について説明する。
図11に示すように、CPU21は、図10のステップS32で読み出したY軸方向の加速度値から変位量を算出する(ステップS41)。ここで、変位量は、加速度値を2回積分することで算出することができる。このとき、CPU21は、Y軸方向の加速度の向きに応じて変位量の正負も併せて算出する。本実施形態では、加速度センサ22は、ベルト部20を装着した演奏者の正面方向を正としてY軸方向の加速度値として出力する。そのため、演奏者の正面方向への変位量は正の値となり、演奏者の背面方向への変位量は負の値となる。
Next, with reference to FIG. 11, details of the forward determination process (step S <b> 33 in FIG. 10) in the belt unit 20 will be described.
As shown in FIG. 11, the CPU 21 calculates a displacement amount from the acceleration value in the Y-axis direction read out in step S32 of FIG. 10 (step S41). Here, the amount of displacement can be calculated by integrating the acceleration value twice. At this time, the CPU 21 also calculates the positive / negative displacement amount according to the direction of acceleration in the Y-axis direction. In the present embodiment, the acceleration sensor 22 outputs the acceleration value in the Y-axis direction with the front direction of the player wearing the belt unit 20 being positive. Therefore, the amount of displacement of the performer in the front direction is a positive value, and the amount of displacement of the performer in the back direction is a negative value.

続いて、CPU21は、ステップS41で算出した変位量が「0」より大きいかを判断する(ステップS42)。ステップS42でYESと判断された場合には、CPU21は、前進フラグに「1」をセットする(ステップS43)。他方、ステップS42でNOと判断された場合には、CPU21は、ステップS42で算出した変位量が「0」より小さいかを判断する(ステップS44)。ステップS44でYESと判断された場合には、CPU21は、後退フラグに「1」をセットする(ステップS45)。ステップS43又はステップS45の処理が終わると、CPU21は、ステップS41で算出した変位量をRAM25にセットし(ステップS46)、前進判定処理を終了する。   Subsequently, the CPU 21 determines whether or not the displacement amount calculated in step S41 is larger than “0” (step S42). If YES is determined in the step S42, the CPU 21 sets “1” in the advance flag (step S43). On the other hand, if NO is determined in step S42, the CPU 21 determines whether the displacement calculated in step S42 is smaller than “0” (step S44). If YES is determined in the step S44, the CPU 21 sets “1” in the reverse flag (step S45). When the process of step S43 or step S45 ends, the CPU 21 sets the displacement calculated in step S41 in the RAM 25 (step S46), and ends the forward determination process.

他方、ステップS44でNOと判断された場合には、CPU21は、前進フラグ及び後退フラグを「0」にリセットし(ステップS47)、前進判定処理を終了する。なお、前進フラグとは、演奏者が前進しているかを判別するための情報であり、前進フラグ「1」は、演奏者が前進中であることを示し、前進フラグ「0」は、演奏者が前進中でないことを示す。同様に、後退フラグとは、演奏者が後退しているかを判別するための情報であり、後退フラグ「1」は、演奏者が後退中であることを示し、後退フラグ「0」は、演奏者が後退中でないことを示す。   On the other hand, when it is determined NO in step S44, the CPU 21 resets the forward flag and the backward flag to “0” (step S47), and ends the forward determination process. The advance flag is information for determining whether the player is moving forward, the advance flag “1” indicates that the player is moving forward, and the advance flag “0” is the player. Indicates that is not moving forward. Similarly, the reverse flag is information for determining whether the performer is retreating, the retreat flag “1” indicates that the performer is retreating, and the retreat flag “0” is the performance. Indicates that the person is not retreating.

続いて、図12を参照して、ベルト部20におけるジャンプ判定処理(図10のステップS34)の詳細について説明する。
図12に示すように、CPU21は、RAM25に格納されたジャンプフラグが「1」であるかを判断する(ステップS51)。ここで、ジャンプフラグとは、演奏者が跳躍中であるかを判別するための情報であり、ジャンプフラグ「1」は、演奏者が跳躍中であることを示し、ジャンプフラグ「0」は、演奏者が跳躍中でない(着地中である)ことを示す。
Next, the details of the jump determination process (step S34 in FIG. 10) in the belt unit 20 will be described with reference to FIG.
As shown in FIG. 12, the CPU 21 determines whether or not the jump flag stored in the RAM 25 is “1” (step S51). Here, the jump flag is information for determining whether the performer is jumping, the jump flag “1” indicates that the performer is jumping, and the jump flag “0” indicating that the player is not in jumping (which is in the landing).

ステップS51でNOと判断された場合には、CPU21は、図10のステップS32で読み出したZ軸方向の加速度値がジャンプ判定加速度値αよりも小さいかを判断する(ステップS52)。なお、ジャンプ判定加速度値αは、任意の値に設定することができる。ここで、本実施形態では、ベルト部20の加速度センサ22は、重力方向を正としてZ軸方向の加速度値を出力することとしているため、ジャンプ判定加速度値αを、例えば、「0」に近似する値とすることで、演奏者が跳躍したか否かを判断することができる。そのため、ステップS52でYESと判断された場合には、CPU21は、ジャンプフラグに「1」をセットし(ステップS53)、ジャンプ判定処理を終了する。他方、ステップS52でNOと判断された場合には、CPU21は、ジャンプ判定処理を終了する。   If NO is determined in step S51, the CPU 21 determines whether the acceleration value in the Z-axis direction read in step S32 of FIG. 10 is smaller than the jump determination acceleration value α (step S52). The jump determination acceleration value α can be set to an arbitrary value. Here, in the present embodiment, the acceleration sensor 22 of the belt unit 20 outputs the acceleration value in the Z-axis direction with the gravitational direction being positive, so the jump determination acceleration value α is approximated to, for example, “0”. By determining the value to be used, it can be determined whether or not the performer has jumped. Therefore, when it is determined YES in step S52, the CPU 21 sets “1” in the jump flag (step S53) and ends the jump determination process. On the other hand, if NO is determined in step S52, the CPU 21 ends the jump determination process.

また、ステップS51でYESと判断された場合には、CPU21は、図10のステップS32で読み出したZ軸方向の加速度値が着地判定加速度値βよりも大きいか否かを判断する(ステップS54)。なお、着地判定加速度値βも、任意の値に設定することができるが、例えば、重力加速度1Gとすることで、着地した際の衝撃を検知することができる。そのため、ステップS54でYESと判断された場合には、CPU21は、ジャンプフラグに「0」をセットし(ステップS55)、ジャンプ判定処理を終了する。他方、ステップS54でNOと判断された場合には、CPU21は、ジャンプ判定処理を終了する。   If YES is determined in the step S51, the CPU 21 determines whether or not the acceleration value in the Z-axis direction read in the step S32 in FIG. 10 is larger than the landing determination acceleration value β (step S54). . Note that the landing determination acceleration value β can also be set to an arbitrary value. For example, when the acceleration is 1G, an impact at the time of landing can be detected. For this reason, if it is determined YES in step S54, the CPU 21 sets “0” in the jump flag (step S55), and ends the jump determination process. On the other hand, when it is determined NO in step S54, the CPU 21 ends the jump determination process.

続いて、図13を参照して、発音部30において実行される処理について説明する。
図13に示すように、発音部30のCPU31は、電源投入時において、RAM34のデータのクリア、表示部35の画面に表示された画像のクリア、音源部371のクリアなどを含むイニシャライズ処理を実行する(ステップS61)。次いで、CPU31は、スイッチ処理を実行する(ステップS62)。スイッチ処理では、例えば、入力部36のスイッチ操作にしたがって、演奏者が所望する音量ボリュウム値及び音色を特定し、RAM34に格納する。
Next, with reference to FIG. 13, processing executed in the sound generation unit 30 will be described.
As shown in FIG. 13, the CPU 31 of the sound generation unit 30 executes initialization processing including clearing data in the RAM 34, clearing the image displayed on the screen of the display unit 35, clearing the sound source unit 371, and the like when the power is turned on. (Step S61). Next, the CPU 31 executes a switch process (step S62). In the switch processing, for example, the volume volume value and tone color desired by the performer are specified according to the switch operation of the input unit 36 and stored in the RAM 34.

続いて、CPU31は、I/F32が、ノートオンイベントを新たに受信しているかを判断する(ステップS63)。ステップS63でYesと判断された場合には、CPU31は、この受信されたノートオンイベントに基づき、設定された音量ボリュウム値及び設定された音色の楽音の発音を音源部371に指示する処理を実行する(ステップS64)。   Subsequently, the CPU 31 determines whether the I / F 32 has newly received a note-on event (step S63). If it is determined Yes in step S63, the CPU 31 executes a process of instructing the sound source unit 371 to generate a musical tone having the set volume volume value and the set tone based on the received note-on event. (Step S64).

続いて、CPU31は、パラメータ通信処理を実行する(ステップS65)。詳細については図14で後述するが、パラメータ通信処理では、CPU31は、スティック部10やベルト部20との間での所定のデータの通信を行う。例えば、CPU31は、スイッチ処理(ステップS62)で選択された音高又は音色のデータを、I/F32及び赤外線通信装置38を介して、スティック部10に送信する。また、CPU31は、スティック部10から受信した音色のデータ又は音量ボリュウム値をRAM34に格納する。また、CPU31は、ベルト部20から送信される演奏者の身体の動きを判別するデータなどを、I/F32及び赤外線通信装置38を介して受信し、RAM34に格納する。そしてこれらRAM34に格納されたデータに基づいて、CPU31は、発音する楽音を制御する。パラメータ通信処理(ステップS65)が終了すると、CPU31は、その他の処理、例えば、表示部35の画面上に表示される画像の更新などを実行する(ステップS66)。   Subsequently, the CPU 31 executes parameter communication processing (step S65). Although details will be described later with reference to FIG. 14, in the parameter communication processing, the CPU 31 performs communication of predetermined data with the stick unit 10 and the belt unit 20. For example, the CPU 31 transmits the pitch or timbre data selected in the switch process (step S 62) to the stick unit 10 via the I / F 32 and the infrared communication device 38. Further, the CPU 31 stores the tone color data or volume volume value received from the stick unit 10 in the RAM 34. Further, the CPU 31 receives data for determining the player's body movement transmitted from the belt unit 20 via the I / F 32 and the infrared communication device 38 and stores the data in the RAM 34. Based on the data stored in the RAM 34, the CPU 31 controls the musical sound to be generated. When the parameter communication process (step S65) is completed, the CPU 31 executes other processes, for example, an update of an image displayed on the screen of the display unit 35 (step S66).

続いて、図14を参照して、発音部30におけるパラメータ通信処理(図13のステップS65)の詳細について説明する。
図14に示すように、CPU31は、まず、スティック部10又はベルト部20からパラメータを受信したか否かを判断する(ステップS71)。ここでNOと判断された場合は、この処理は終了する。他方、YESと判断された場合は、CPU31は、そのパラメータが、ベルト部20から受信したものであるか否か判断する(ステップS72)。ここでNOと判断された場合、つまりベルト部20ではなくスティック部10からパラメータを受信した場合は、前述のごとく受信したパラメータをRAM34に格納し(ステップS73)、パラメータ通信処理を終了する。
Next, details of the parameter communication process (step S65 in FIG. 13) in the sound generation unit 30 will be described with reference to FIG.
As shown in FIG. 14, the CPU 31 first determines whether or not a parameter has been received from the stick unit 10 or the belt unit 20 (step S71). If NO is determined here, the process ends. On the other hand, when it is determined YES, the CPU 31 determines whether or not the parameter is received from the belt unit 20 (step S72). If NO is determined here, that is, if a parameter is received from the stick unit 10 instead of the belt unit 20, the received parameter is stored in the RAM 34 as described above (step S73), and the parameter communication process is terminated.

他方、YESと判断された場合は、CPU31は、ベルト部20から送信されてきたパラメータの内容を判断する。まず、ベルト部20から受信した前進フラグが「1」であるかを判断する(ステップS74)。ステップS74でYESと判断された場合には、CPU31は、設定されている音量ボリュウム値をプラス補正する(ステップS75)。このとき、CPU31は、ベルト部20から受信した変位量に応じて音量ボリュウム値をプラス補正することが好ましい。なお、変位量に応じたプラス補正とは、変位量が大きいほど音量ボリュウム値をより高く補正することとしてもよく、また、変位量から現在位置を特定し、基準位置と現在位置との距離に応じて、当該距離が長いほど音量ボリュウム値をより高く補正することとしてもよい。   On the other hand, if YES is determined, the CPU 31 determines the content of the parameter transmitted from the belt unit 20. First, it is determined whether or not the forward flag received from the belt unit 20 is “1” (step S74). If YES is determined in the step S74, the CPU 31 positively corrects the set volume volume value (step S75). At this time, it is preferable that the CPU 31 positively corrects the volume volume value according to the amount of displacement received from the belt unit 20. The positive correction according to the amount of displacement may be that the volume volume value is corrected to be higher as the amount of displacement is larger, and the current position is specified from the amount of displacement, and the distance between the reference position and the current position is determined. Accordingly, the volume volume value may be corrected higher as the distance is longer.

他方、ステップS74でNOと判断された場合には、CPU31は、ベルト部20から受信した後退フラグが「1」であるかを判断する(ステップS76)。ステップS76でYESと判断された場合には、CPU31は、設定されている音量ボリュウム値をマイナス補正する(ステップS77)。このとき、CPU31は、ステップS75と同様に、ベルト部20から受信した変位量に応じて音量ボリュウム値をマイナス補正することが好ましい。   On the other hand, if NO is determined in step S74, the CPU 31 determines whether or not the reverse flag received from the belt unit 20 is “1” (step S76). If YES is determined in the step S76, the CPU 31 negatively corrects the set volume volume value (step S77). At this time, it is preferable that the CPU 31 negatively corrects the volume volume value in accordance with the amount of displacement received from the belt unit 20 as in step S75.

他方、ステップS76でNOと判断された場合には、CPU31は、ベルト部20から受信したジャンプフラグが「1」であるかを判断する(ステップS78)。ステップS78でYESと判断された場合には、CPU31は、設定された音色を変更、例えば、着地時とは異なる楽器の音色や着地時よりも高音の音色に変更する(ステップS79)。   On the other hand, if NO is determined in step S76, the CPU 31 determines whether the jump flag received from the belt unit 20 is “1” (step S78). If YES is determined in the step S78, the CPU 31 changes the set tone color, for example, a tone color of a musical instrument different from that at the time of landing or a tone color higher than that at the time of landing (step S79).

ステップS75、ステップS77又はステップS79の処理が終わると、或いはステップS78でNOと判断された場合には、CPU31は、発音制御を行い(ステップS80)、パラメータ通信処理を終了する。なお、発音制御では、CPU31は、発音中の楽音の音量や音色を適宜変更する。すなわち、CPU31は、ステップS75又はステップS77で補正された音量ボリュウム値に基づいて発音している楽音の音量を変更したり、ステップS79で変更された音色に基づいて発音している楽音の音色を変更する。   When the process of step S75, step S77, or step S79 ends, or if NO is determined in step S78, the CPU 31 performs sound generation control (step S80) and ends the parameter communication process. In the sound generation control, the CPU 31 appropriately changes the volume and tone color of the musical sound being sounded. In other words, the CPU 31 changes the volume of the tone that is sounded based on the volume volume value corrected in step S75 or S77, or changes the tone of the tone that is sounded based on the tone changed in step S79. change.

以上のような本実施形態の演奏装置1によれば、発音部30は、スティック部10から受信したノートオンイベントにしたがって楽音を発音する。このとき、発音部30は、ベルト部20が検知した演奏者の身体の動きに応じて、音量や音色の異なる楽音を発音する。
これにより、演奏装置1によれば、スティック部10による演奏操作と関わりのない演奏者の身体の動きを発音する楽音の変化に反映させることができ、演奏者は、スティック部を用いた演奏操作に制限を受けることなく、パフォーマンスを発音する楽音に自由に反映させることができる。
According to the performance device 1 of the present embodiment as described above, the sound generation unit 30 generates a musical sound according to the note-on event received from the stick unit 10. At this time, the sound generator 30 generates musical sounds having different volumes and timbres according to the body movement of the performer detected by the belt unit 20.
Thereby, according to the performance apparatus 1, it is possible to reflect the movement of the performer's body, which is not related to the performance operation by the stick unit 10, in the change of the musical sound, and the performer performs the performance operation using the stick unit. Without being restricted by this, it is possible to freely reflect the musical sound that produces the performance.

特に、演奏装置1では、演奏者が前進した場合、すなわち、現在位置が基準位置の前方である場合には、現在位置が基準位置である場合に比べて大きな音量の楽音を発音し、演奏者が後退した場合、すなわち、現在位置が基準位置の後方である場合には、現在位置が基準位置である場合に比べて小さな音量の楽音を発音する。
これにより、演奏者と聴衆との距離に応じて音量を変化させることができ、迫力のある演奏を実現することができる。
In particular, in the performance device 1, when the performer moves forward, that is, when the current position is ahead of the reference position, a musical sound having a louder volume than that when the current position is the reference position is pronounced. If the current position is backward, that is, if the current position is behind the reference position, a tone having a lower volume than that when the current position is the reference position is generated.
Thus, the volume can be changed according to the distance between the performer and the audience, and a powerful performance can be realized.

また、演奏装置1では、演奏者が跳躍中である場合には、演奏者が着地中である場合と異なる音色の楽音を発音する。
これにより、演奏者がアピールしたい演奏箇所で他とは異なる音色の楽音を発音することができ、現実の楽器では不可能な新たなパフォーマンスを実現することができる。
Further, in the performance device 1, when the performer is jumping, a musical tone having a tone different from that when the performer is landing is generated.
As a result, a musical tone having a tone different from the others can be generated at a performance location that the player wants to appeal, and a new performance that is impossible with an actual musical instrument can be realized.

また、このような演奏装置1は、スティック部10と、ベルト部20と、サウンドシステム37を備えた発音部30と、が夫々赤外線通信により接続されているので、スティック部10にサウンドシステム37を搭載する必要がなくなり、演奏者が保持するスティック部10の小型化を図ることができる。   Further, in such a performance device 1, since the stick unit 10, the belt unit 20, and the sound generation unit 30 including the sound system 37 are connected by infrared communication, the sound system 37 is connected to the stick unit 10. This eliminates the need for mounting, and the stick unit 10 held by the performer can be downsized.

以上、本発明の実施形態について説明したが、実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換など種々の変更を行うことができる。これら実施形態やその変形は、本明細書などに記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

例えば、上記実施形態では、図11に示すロジックを用いて前進及び後退を判定することとしているが、これに限られるものではない。例えば、前進判定加速度値や後退判定加速度値などといった閾値を設け、当該閾値を超えた場合に前進又は後退と判定することとしてもよい。また、加速度センサ22が出力した加速度値に対して歩行周波数(約1,9Hz)の周波数のみを取り出すフィルターをかけることで、歩行したか否かを判定し、その際の加速度値の方向から前進又は後退を判定することとしてもよい。
同様に、図12に示すジャンプ判定処理についても例示に過ぎず、その他の方法により、演奏者の跳躍及び着地を判定することとしてもよい。
For example, in the above embodiment, forward and backward are determined using the logic shown in FIG. 11, but the present invention is not limited to this. For example, threshold values such as a forward determination acceleration value and a reverse determination acceleration value may be provided, and when the threshold value is exceeded, it may be determined as forward or reverse. Further, by applying a filter that extracts only the frequency of the walking frequency (about 1, 9 Hz) to the acceleration value output from the acceleration sensor 22, it is determined whether or not the user has walked, and the vehicle proceeds forward from the direction of the acceleration value at that time. Or it is good also as judging reverse.
Similarly, the jump determination process shown in FIG. 12 is merely an example, and the player's jump and landing may be determined by other methods.

また、上記実施形態では、ベルト部20に加速度センサ22を設け、演奏者の身体の加速度を検知することとしているが、これに限られるものではない。例えば、演奏者の身体の向きなどを検知することのできる角速度センサや磁気センサなどの様々なセンサを併せて設けることとしてもよい。
これにより、演奏者が右を向いて前進した場合と、演奏者が正面を向いて前進した場合とを区別することができ、演奏者の現在位置と基準位置との差異を適切に把握することができる。
Moreover, in the said embodiment, although the acceleration sensor 22 is provided in the belt part 20 and it is supposed that the player's body acceleration is detected, it is not restricted to this. For example, various sensors such as an angular velocity sensor and a magnetic sensor that can detect the orientation of the performer's body may be provided.
This makes it possible to distinguish between when the performer moves forward facing right and when the performer moves forward facing forward, and properly grasp the difference between the player's current position and the reference position. Can do.

また、上記実施形態では、ベルト部20を用いて演奏者の身体の動きを検知することとしているが、演奏者の身体の動きを検知する構成は、ベルト部20に限られるものではない。例えば、演奏者を撮像するカメラによる撮像画像(動画)に基づいて、演奏者の身体の動きを検知することとしてもよい。   Moreover, in the said embodiment, although it is supposed that the motion of a player's body is detected using the belt part 20, the structure which detects a motion of a player's body is not restricted to the belt part 20. FIG. For example, the movement of the performer's body may be detected based on an image (moving image) captured by a camera that captures the performer.

また、上記実施形態では、演奏者が用いる演奏部材としてスティック部10を例にとり、エアドラムのような仮想打楽器について説明したが、これに限られるものではない。すなわち、本発明は、エアギターやエアバイオリンなどの様々な仮想楽器に適用可能であり、適用する仮想楽器に応じて演奏部材についても適宜変更可能である。   Moreover, in the said embodiment, although the stick part 10 was taken as an example as a performance member used by a player and the virtual percussion instrument like an air drum was demonstrated, it is not restricted to this. That is, the present invention can be applied to various virtual musical instruments such as an air guitar and an air violin, and performance members can be appropriately changed according to the virtual musical instrument to be applied.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
演奏部材と、
所定の楽音を発音する発音手段と、
前記演奏部材に対して演奏者が与えた所定の演奏動作を検知することにより、前記発音手段に対して発音指示を与える発音指示手段と、
前記演奏者の所定の身体動作を検出し、当該検出結果を前記発音手段に対して通知する検知手段と、
を備え、
前記発音手段は、前記検出結果に基づき、前記身体動作に対応する楽音を発音する、
ことを特徴とする演奏装置。
[付記2]
前記発音手段は、前記身体動作に応じて異なる音色の楽音、又は、異なる音量の楽音を発音する、
ことを特徴とする付記1に記載の演奏装置。
[付記3]
前記検知手段は、前記演奏者に装着される装着部と、当該演奏者の前後方向の加速度値を取得する加速度センサと、を備え、
前記発音手段は、前記加速度値から算出した前記演奏者の前後方向の移動量に応じて異なる音量の楽音を発音する、
ことを特徴とする付記1又は2に記載の演奏装置。
[付記4]
前記検知手段は、前記演奏者に装着される装着部と、演奏者の上下方向の加速度値を取得する加速度センサと、を備え、
前記発音手段は、前記加速度値から検知した前記演奏者の跳躍動作に応じて異なる音色の楽音を発音する、
ことを特徴とする付記1から3の何れかに記載の演奏装置。
[付記5]
前記演奏部材は、長手方向に延びるとともに、その内部に3軸方向の加速度値を取得する加速度センサを備え、
前記発音指示手段は、前記演奏部材の内部に配置された前記加速度センサの加速度値に基づき取得した発音タイミングに基づいて、前記発音手段に対して発音指示を与える、
ことを特徴とする付記1から4の何れかに記載の演奏装置。
[付記6]
前記演奏部材は、前記発音指示手段を備え、
前記発音手段と、前記演奏部材及び前記検知手段とが、通信可能に接続された、
ことを特徴とする付記1から5の何れかに記載の演奏装置。
Hereinafter, note the invention described in the scope of the initial claims application of the present application.
[Appendix 1]
A performance member;
A pronunciation means for generating a predetermined musical sound;
A sounding instruction means for giving a sounding instruction to the sounding means by detecting a predetermined performance action given by a player to the performance member;
Detecting means for detecting a predetermined physical movement of the performer and notifying the sounding means of the detection result;
With
It said sound generating means, based on the detection result, Could tone corresponding to the body movement,
A performance apparatus characterized by that.
[Appendix 2]
The sounding means generates a tone of a different tone according to the body movement, or a tone of a different volume,
Playing device according to Note 1, wherein the.
[Appendix 3]
The detection means includes a mounting portion to be mounted on the performer, and an acceleration sensor that acquires an acceleration value in the front-rear direction of the performer,
The sounding means sounds a musical tone having a different volume according to the amount of movement of the performer in the front-rear direction calculated from the acceleration value;
Playing device according to note 1 or 2, characterized in that.
[Appendix 4]
The detection means includes a mounting portion to be worn by the performer, and an acceleration sensor that acquires an acceleration value in the up and down direction of the performer,
The sounding means sounds a musical tone of a different tone according to the player's jumping motion detected from the acceleration value;
The performance device according to any one of appendices 1 to 3, characterized in that:
[Appendix 5]
The performance member extends in the longitudinal direction, and includes an acceleration sensor that acquires acceleration values in three axial directions.
The sound generation instruction means gives a sound generation instruction to the sound generation means based on a sound generation timing acquired based on an acceleration value of the acceleration sensor arranged inside the performance member.
The performance device according to any one of appendices 1 to 4, characterized in that:
[Appendix 6]
The performance member includes the pronunciation instruction means,
The sound generation means, the performance member and the detection means are connected to be communicable,
The performance device according to any one of appendices 1 to 5, characterized in that:

1・・・演奏装置(演奏装置)、10・・・スティック部(演奏部材、発音指示手段)、11・・・CPU(発音指示手段)、12・・・加速度センサ(加速度センサ)、13・・・インタフェース、14・・・ROM、15・・・RAM、16・・・入力部、17・・・赤外線通信装置、20・・・ベルト部(検知手段)、21・・・CPU(検知手段)、22・・・加速度センサ(加速度センサ)、23・・・インタフェース、24・・・ROM、25・・・RAM、26・・・入力部、27・・・赤外線通信装置、30・・・発音部(発音手段)、31・・・CPU(発音手段)、32・・・インタフェース、33・・・ROM、34・・・RAM、35・・・表示部、36・・・入力部、37・・・サウンドシステム(発音手段)、371・・・音源部(発音手段)、372・・・オーディオ回路(発音手段)、373・・・スピーカ(発音手段)、38・・・赤外線通信装置   DESCRIPTION OF SYMBOLS 1 ... Performance apparatus (performance apparatus), 10 ... Stick part (performance member, pronunciation instruction means), 11 ... CPU (sound generation instruction means), 12 ... Accelerometer (acceleration sensor), 13. ..Interface, 14 ... ROM, 15 ... RAM, 16 ... Input unit, 17 ... Infrared communication device, 20 ... Belt part (detection means), 21 ... CPU (detection means) ), 22 ... Acceleration sensor (acceleration sensor), 23 ... Interface, 24 ... ROM, 25 ... RAM, 26 ... Input unit, 27 ... Infrared communication device, 30 ... Sound generator (sound generator), 31 CPU (sound generator), 32 interface, 33 ROM, 34 RAM, 35 display unit, 36 input unit, 37 ... Sound system (pronunciation means) 71 ... tone generator (sound means), 372 ... audio circuit (sound generating means), 373 ... speaker (sound generator), 38 ... infrared communication device

Claims (6)

演奏部材と、
所定の楽音を発音する発音手段と、
前記演奏部材に対して演奏者が与えた所定の演奏動作を検知することにより、前記発音手段に対して発音指示を与える発音指示手段と、
前記演奏者の所定の身体動作を検出し、当該検出結果を前記発音手段に対して通知する検知手段と、
を備え、
前記発音手段は、前記検出結果に基づき、前記身体動作に対応する楽音を発音する、
ことを特徴とする演奏装置。
A performance member;
A pronunciation means for generating a predetermined musical sound;
A sounding instruction means for giving a sounding instruction to the sounding means by detecting a predetermined performance action given by a player to the performance member;
Detecting means for detecting a predetermined physical movement of the performer and notifying the sounding means of the detection result;
With
The sound generation means sounds a musical sound corresponding to the body movement based on the detection result;
A performance apparatus characterized by that.
前記発音手段は、前記身体動作に応じて異なる音色の楽音、又は、異なる音量の楽音を発音する、
ことを特徴とする請求項1に記載の演奏装置。
The sounding means generates a tone of a different tone according to the body movement, or a tone of a different volume,
The performance device according to claim 1.
前記検知手段は、前記演奏者に装着される装着部と、当該演奏者の前後方向の加速度値を取得する加速度センサと、を備え、
前記発音手段は、前記加速度値から算出した前記演奏者の前後方向の移動量に応じて異なる音量の楽音を発音する、
ことを特徴とする請求項1又は2に記載の演奏装置。
The detection means includes a mounting portion to be mounted on the performer, and an acceleration sensor that acquires an acceleration value in the front-rear direction of the performer,
The sounding means sounds a musical tone having a different volume according to the amount of movement of the performer in the front-rear direction calculated from the acceleration value;
Playing device according to claim 1 or 2, characterized in that.
前記検知手段は、前記演奏者に装着される装着部と、演奏者の上下方向の加速度値を取得する加速度センサと、を備え、
前記発音手段は、前記加速度値から検知した前記演奏者の跳躍動作に応じて異なる音色の楽音を発音する、
ことを特徴とする請求項1から3の何れかに記載の演奏装置。
The detection means includes a mounting portion to be worn by the performer, and an acceleration sensor that acquires an acceleration value in the up and down direction of the performer,
The sounding means sounds a musical tone of a different tone according to the player's jumping motion detected from the acceleration value;
The performance device according to any one of claims 1 to 3, wherein:
前記演奏部材は、長手方向に延びるとともに、その内部に3軸方向の加速度値を取得する加速度センサを備え、
前記発音指示手段は、前記演奏部材の内部に配置された前記加速度センサの加速度値に基づき取得した発音タイミングに基づいて、前記発音手段に対して発音指示を与える、
ことを特徴とする請求項1から4の何れかに記載の演奏装置。
The performance member extends in the longitudinal direction, and includes an acceleration sensor that acquires acceleration values in three axial directions.
The sound generation instruction means gives a sound generation instruction to the sound generation means based on a sound generation timing acquired based on an acceleration value of the acceleration sensor arranged inside the performance member.
Playing apparatus according to any one of claims 1 to 4, characterized in that.
前記演奏部材は、前記発音指示手段を備え、
前記発音手段と、前記演奏部材及び前記検知手段とが、通信可能に接続された、
ことを特徴とする請求項1から5の何れかに記載の演奏装置。
The performance member includes the pronunciation instruction means,
The sound generation means, the performance member and the detection means are connected to be communicable,
The performance device according to any one of claims 1 to 5, wherein:
JP2011181787A 2011-08-23 2011-08-23 Music player Withdrawn JP2013044889A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011181787A JP2013044889A (en) 2011-08-23 2011-08-23 Music player

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011181787A JP2013044889A (en) 2011-08-23 2011-08-23 Music player

Publications (1)

Publication Number Publication Date
JP2013044889A true JP2013044889A (en) 2013-03-04

Family

ID=48008854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011181787A Withdrawn JP2013044889A (en) 2011-08-23 2011-08-23 Music player

Country Status (1)

Country Link
JP (1) JP2013044889A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016142893A (en) * 2015-02-02 2016-08-08 ヤマハ株式会社 Signal processing apparatus and signal processing system
US11167206B2 (en) 2019-05-22 2021-11-09 Casio Computer Co., Ltd. Portable music playing game device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016142893A (en) * 2015-02-02 2016-08-08 ヤマハ株式会社 Signal processing apparatus and signal processing system
US11167206B2 (en) 2019-05-22 2021-11-09 Casio Computer Co., Ltd. Portable music playing game device

Similar Documents

Publication Publication Date Title
US8609972B2 (en) Performance apparatus and electronic musical instrument operable in plural operation modes determined based on movement operation of performance apparatus
JP5712603B2 (en) Performance device and electronic musical instrument
JP5067458B2 (en) Performance device and electronic musical instrument
JP5966465B2 (en) Performance device, program, and performance method
JP6127367B2 (en) Performance device and program
CN102568453B (en) Performance apparatus and electronic musical instrument
JP5099176B2 (en) Performance device and electronic musical instrument
CN102270446B (en) Performance apparatus and electronic musical instrument
JP2007256736A (en) Electric musical instrument
JP2013195623A (en) Musical sound production device, musical sound production method, and program
JP2013040991A (en) Operator, operation method, and program
JP5088398B2 (en) Performance device and electronic musical instrument
JP2013044889A (en) Music player
JP6111526B2 (en) Music generator
JP5668353B2 (en) Performance device and electronic musical instrument
JP2012013725A (en) Musical performance system and electronic musical instrument
JP6031800B2 (en) Performance device, method and program
JP5974567B2 (en) Music generator
JP5935399B2 (en) Music generator
JP5029729B2 (en) Performance device and electronic musical instrument
JP5942627B2 (en) Performance device, method and program
JP2013044951A (en) Handler and player
JP2011257509A (en) Performance device and electronic musical instrument
JP2012032681A (en) Performance device and electronic musical instrument
JP2013213948A (en) Musical performance device, method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104