[go: up one dir, main page]

KR20080046212A - 합주 시스템 - Google Patents

합주 시스템 Download PDF

Info

Publication number
KR20080046212A
KR20080046212A KR1020087007402A KR20087007402A KR20080046212A KR 20080046212 A KR20080046212 A KR 20080046212A KR 1020087007402 A KR1020087007402 A KR 1020087007402A KR 20087007402 A KR20087007402 A KR 20087007402A KR 20080046212 A KR20080046212 A KR 20080046212A
Authority
KR
South Korea
Prior art keywords
performance
terminal
instruction
controller
assigned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020087007402A
Other languages
English (en)
Inventor
사또시 우사
도모미쯔 우라이
Original Assignee
야마하 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 야마하 가부시키가이샤 filed Critical 야마하 가부시키가이샤
Publication of KR20080046212A publication Critical patent/KR20080046212A/ko
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

악기의 조작에 익숙하지 않은 사람이어도 용이하게 가이드역의 연주와의 어긋남량을 파악할 수 있는 합주 시스템을 제공하는 데에 있다. 연주 단말기 「Facilitator」에 대응하는 동그라미 표시는, 세로 방향의 라인 중 중심 라인에 고정하여 표시된다. 각 사용자의 연주 단말기(예를 들면 Piano1)에 대응하는 동그라미 표시는, 연주 단말기 「Facilitator」와의 어긋남에 따라서 좌우로 이동한다. 예를 들면 연주 단말기 「Facilitator」보다도 1소절분 타건이 지연되면, 세로 방향의 라인 1개분 좌측 방향으로 동그라미 표시가 이동한다. 반소절분(2박자분) 지연된 경우에는 세로 방향의 중심 라인으로부터 좌측 방향으로 라인 간격의 절반만큼 동그라미 표시가 이동한다. 한편 연주 단말기 「Facilitator」보다도 타건이 빠른 경우에는 우측 방향으로 이동하게 된다.
Figure P1020087007402
연주 단말기, 컨트롤러, 연주 제어 수단, 퍼스널 컴퓨터, 전자 피아노, 전자 건반 악기, 인터페이스 박스, MIDI 케이블

Description

합주 시스템{ENSEMBLE SYSTEM}
본 발명은, 악기의 조작에 익숙하지 않은 사람이어도 용이하게 합주에 참가할 수 있는 합주 시스템에 관한 것으로, 특히 합주에서의 각 참가자의 연주 어긋남을 알기 쉽게 한 합주 시스템에 관한 것이다.
종래부터, 연주자의 조작에 대하여 악음을 발생하는 전자 악기가 알려져 있다. 이러한 전자 악기는, 예를 들면 피아노 등을 모델로 하고 있고, 자연 악기의 피아노와 마찬가지의 연주 조작을 행하는 것이 일반적이었다. 또한, 이러한 전자 악기에서는, 연주의 숙달에 숙련을 필요로 하고, 연주에 능숙해지는데 시간이 걸리는 것이다.
그러나, 최근에는 악기의 조작에 익숙하지 않은 사람이 용이하게 연주를 행하는 것이 요망되고 있으며, 또한, 단지 한 사람의 연주자(악기의 사용자)가 연주를 즐길 뿐만 아니라, 다수의 사용자가 참가하여 합주를 실현하는 것이 요망되고 있다.
악기의 조작에 익숙하지 않은 복수의 사용자가 용이하게 연주에 참가할 수 있는 전자 악기로서, 예를 들면 일본 특개 2000-276141호 공보의 전자 악기가 제안되어 있다. 이 전자 악기는, 복수의 사용자가 간이한 조작(손으로 흔드는 조작)으 로 합주를 행할 수 있다. 그러나, 악기의 조작에 익숙하지 않은 복수의 사용자가 합주를 행하는 경우, 연주의 어긋남이 문제로 된다.
연주 어긋남을 방지하기 위해, 사용자와 악보 데이터의 템포 어긋남을 검출하고, 악보 상에 템포 어긋남을 표시하는 연주 지원 장치(예를 들면 일본 특개 2001-337675호 공보 참조)나, 본보기 연주의 연주 타이밍과 사용자의 연주 타이밍의 이력을 화면 상에 표시하여, 본보기 연주와의 차를 알기 쉽게 한 연주 표시 장치(예를 들면 일본 특개 2002-91290호 공보 참조)가 제안되어 있다.
상기한 연주 지원 장치 및 연주 표시 장치는, 악보 데이터나 본보기 연주(데모 연주)와의 어긋남량을 표시하는 것이다. 따라서, 개개인의 사용자가 연주의 숙달을 위해 이용하는 것이다.
상기 일본 특개 2000-276141호 공보의 전자 악기와 같이, 복수의 사용자(참가자)가 동시에 리하빌리테이션 등의 활동을 행하는 경우, 소정의 인원수(예를 들면 5명 정도)로 1개의 그룹을 형성하고, 퍼실리테이터(가이드역)가 각 참가자를 가이드하는 경우가 많다. 이 경우, 퍼실리테이터의 연주에 맞추어 각 참가자가 연주한다. 상기한 연주 지원 장치 및 연주 표시 장치는, 악보 데이터나 기계에 의한 데모 연주와의 어긋남량을 표시할 수는 있지만, 가이드역 등의 인간의 연주와의 어긋남량을 표시할 수 있는 것은 아니었다.
본 발명의 목적은, 악기의 조작에 익숙하지 않은 사람이어도 용이하게 가이드역의 연주와의 어긋남량을 파악할 수 있는 합주 시스템을 제공하는 데에 있다.
<발명의 개시>
상기 목적을 달성하기 위해, 본 발명의 합주 시스템은, 연주 조작을 행하기 위한 적어도 1개의 연주 조작자를 각각 구비하는 복수의 연주 단말기와, 적어도 1개의 음원과, 상기 복수의 연주 단말기 및 상기 적어도 1개의 음원에 접속되고, 각 연주 단말기를 제어하는 컨트롤러로 이루어지는 합주 시스템으로서, 상기 컨트롤러는, 복수의 연주 파트로 이루어지는 연주곡 데이터를 기억하는 기억 수단과, 연주의 개시, 및 종료를 지시하기 위한 조작 수단과, 상기 복수의 연주 파트를 상기 복수의 연주 단말기에 할당하여, 각 연주 단말기의 연주 조작자의 조작 양태에 따라서, 그 연주 단말기에 할당되어 있는 연주 파트를 읽어내고, 그 읽어낸 연주 파트의 데이터를 상기 음원에 출력하는 연주 제어 수단과, 상기 복수의 연주 단말기 중 가이드역용 연주 단말기가 할당되어 있는 연주 파트의 읽어내기 진도와 그 외의 각 연주 단말기가 할당되어 있는 연주 파트의 읽어내기 진도의 어긋남을 검출하는 어긋남 검출 수단과, 상기 읽어내기 진도의 어긋남을 표시하는 표시 수단을 구비하는 것을 특징으로 한다.
본 발명에서는, 사용자가 컨트롤러의 조작 수단을 이용하여 연주의 개시를 지시하고, 연주 단말기의 연주 조작자로 연주 조작을 행한다. 연주 단말기의 연주 조작자는, 예를 들면 전자 피아노의 건반이다. 어느 하나의 건반을 타건하면 조작 신호가 컨트롤러에 송신된다. 컨트롤러는 수신한 조작 신호에 기초하여 발음 지시를 음원에 송신한다. 음원은 발음 지시에 따라서 악음을 발음한다. 연주 단말기 중, 어느 하나는 퍼실리테이터용으로 된다. 컨트롤러는, 각 연주 단말기로부터 조작 신호가 입력되었을 때, 가이드역용(예를 들면 퍼실리테이터용) 연주 단말기와의 입력 횟수 어긋남(곡머리로부터의 타건 횟수의 차)을 검출한다. 각 연주 단말기의 타건 횟수의 어긋남은 디스플레이 등의 표시부에 표시한다.
바람직하게는, 상기 음원은, 상기 복수의 연주 단말기 각각에 내장되고, 상기 컨트롤러의 연주 제어 수단은, 상기 읽어낸 연주 파트의 데이터를, 그 연주 파트가 할당되어 있는 연주 단말기에 내장된 음원에 출력한다.
이 바람직한 양태에서는, 컨트롤러는 연주 단말기로부터 수신한 조작 신호에 기초하여, 그 연주 단말기에 할당되어 있는 연주 파트를 읽어내고, 그 읽어낸 연주 파트의 데이터를 상기 연주 단말기에 내장된 음원에 송신한다. 연주 단말기의 내장 음원은 수신한 발음 지시에 따라서 악음을 발음한다. 이에 의해, 각 연주 단말기에서, 각자의 연주 파트가 발음되게 된다.
바람직하게는, 상기 컨트롤러는, 적어도 1개의 연주 단말기에 할당되어 있는 연주 파트의 앞으로 감기 지시를 행하기 위한 앞으로 감기 지시 수단을 더 구비하고, 상기 컨트롤러의 연주 제어 수단은, 상기 앞으로 감기 지시 수단에 의해 앞으로 감기 지시가 행해졌을 때에, 상기 연주 단말기에 할당되어 있는 연주 파트의 고속 읽어내기를 실행한다.
이 바람직한 양태에서는, 앞으로 감기 지시가 행해지면, 컨트롤러는 연주 단말기의 연주 파트의 고속 읽어내기를 실행하고, 음원에 읽어내어진 연주 파트의 데이터를 송신한다. 음원은 고속으로 읽어내어진 연주 파트의 데이터에 따라서 악음을 발음하므로, 앞으로 감기되어 발음되게 된다. 이에 의해, 각 사용자의 연주에 대하여, 언제라도 주위의 연주자의 연주를 따라붙을 수 있다. 또한, 가이드역용 연주 단말기를 포함시켜 모든 연주 단말기를 동시에 지정하여 앞으로 감기 지시를 행할 수도 있다.
바람직하게는, 상기 각 연주 단말기는, 자기의 연주 단말기에 할당되어 있는 연주 파트의 앞으로 감기 지시를 행하기 위한 단말기 앞으로 감기 지시 수단을 구비하고, 상기 컨트롤러의 연주 제어 수단은, 상기 단말기 앞으로 감기 지시 수단에 의해 앞으로 감기 지시가 행해졌을 때에, 상기 연주 단말기에 할당되어 있는 연주 파트의 고속 읽어내기를 실행한다.
이 바람직한 양태에서는, 각 연주 단말기에서 자기의 연주 단말기의 앞으로 감기 지시가 행해지면, 컨트롤러는 그 연주 단말기의 연주 파트의 고속 읽어내기를 실행하고, 음원에 읽어내어진 연주 파트의 데이터를 송신한다. 음원은 고속으로 읽어내어진 연주 파트의 데이터에 따라서 악음을 발음하므로, 앞으로 감기되어 발음되게 된다. 이에 의해, 각 사용자는, 언제라도 주위의 연주자의 연주를 따라붙을 수 있다.
바람직하게는, 상기 컨트롤러는, 적어도 1개의 연주 단말기에 할당되어 있는 연주 파트의 되감기 지시를 행하기 위한 되감기 지시 수단을 더 구비하고, 상기 컨트롤러의 연주 제어 수단은, 상기 되감기 지시 수단에 의해 되감기 지시가 행해졌을 때에, 상기 연주 단말기의 과거에 읽어낸 연주 파트를 역순으로 읽어낸다.
이 바람직한 양태에서는, 되감기 지시가 행해지면, 컨트롤러는 연주 단말기의 연주 파트를 시간 역순으로 읽어내고, 음원에 읽어내어진 연주 파트의 데이터를 송신한다. 음원에서는 통상과 역순으로 발음되게 되어, 되감기 재생이 행해진다. 이에 의해, 각 사용자의 연주에 대하여, 주위의 연주자보다도 연주가 지나치게 앞서 있었던 경우에 현재의 타이밍으로 복귀시킬 수 있다.
바람직하게는, 상기 각 연주 단말기는, 자기의 연주 단말기에 할당되어 있는 연주 파트의 되감기 지시를 행하기 위한 단말기 되감기 지시 수단을 구비하고, 상기 컨트롤러의 연주 제어 수단은, 상기 단말기 되감기 지시 수단에 의해 되감기 지시가 행해졌을 때에, 상기 연주 단말기의 과거에 읽어낸 연주 파트를 역순으로 읽어낸다.
이 바람직한 양태에서는, 각 연주 단말기에서 자기의 연주 단말기의 되감기 지시가 행해지면, 컨트롤러는 그 연주 단말기의 연주 파트를 시간 역순으로 읽어내고, 음원에 읽어내어진 연주 파트의 데이터를 송신한다. 음원에서는 통상과 역순으로 발음되게 되고, 되감기 재생이 행해진다. 이에 의해, 각 사용자는, 주위의 연주자보다도 연주가 지나치게 앞서 있었던 경우에 현재의 타이밍으로 복귀할 수 있다.
바람직하게는, 상기 컨트롤러는, 적어도 1개의 연주 단말기와 상기 가이드역용 연주 단말기의 연주 어긋남을 없애는 지시를 행하기 위한 어긋남 수정 지시 수단을 구비하고, 상기 컨트롤러의 연주 제어 수단은, 상기 어긋남 수정 지시 수단에 의해 상기 연주 어긋남을 없애는 지시가 행해졌을 때에, 상기 가이드역용 연주 단말기에 할당되어 있는 연주 파트의 읽어내기 진도와 상기 연주 단말기에 할당되어 있는 연주 파트의 읽어내기 진도가 일치하도록, 상기 연주 단말기에 할당되어 있는 연주 파트를 읽어낸다.
이 바람직한 양태에서는, 컨트롤러에서, 언제라도 사용자(생도역)의 연주 단말기와 가이드역용 연주 단말기의 연주 어긋남을 캔슬할 수 있다.
바람직하게는, 상기 각 연주 단말기는, 자기의 연주 단말기와 상기 가이드역용 연주 단말기의 연주 어긋남을 없애는 지시를 행하기 위한 단말기 어긋남 수정 지시 수단을 구비하고, 상기 컨트롤러의 연주 제어 수단은, 상기 단말기 어긋남 수정 지시 수단에 의해 상기 어긋남을 없애는 지시가 행해졌을 때에, 상기 가이드역용 연주 단말기에 할당되어 있는 연주 파트의 읽어내기 진도와 상기 연주 단말기에 할당되어 있는 연주 파트의 읽어내기 진도가 일치하도록, 상기 연주 단말기에 할당되어 있는 연주 파트를 읽어낸다.
이 바람직한 양태에서는, 각 연주 단말기에서, 언제라도 사용자(생도역)의 연주 단말기와 가이드역용 연주 단말기의 연주 어긋남을 캔슬할 수 있다.
도 1은 연주 시스템의 구성을 도시하는 블록도.
도 2는 컨트롤러의 구성을 도시하는 블록도.
도 3은 연주 단말기의 구성을 도시하는 블록도.
도 4는 악곡 데이터의 일례를 도시하는 도면.
도 5는 파트 할당 테이블의 일례를 도시하는 도면.
도 6은 메인 조작 윈도우를 도시하는 도면.
도 7은 합주 윈도우를 도시하는 도면.
도 8A는 박타(拍打)수의 셋팅을 도시하는 도면, 도 8B는 타건 타이밍으로 되 는 박자(1박자째, 3박자째)와 타건 타이밍으로 되지 않는 박자(2박자째, 4박자째)의 아이콘 표시예를 도시하는 도면.
도 9는 현재의 박타의 추이를 도시하는 도면.
도 10은 연주 단말기 「Facilitator」와의 박타의 어긋남을 설명하는 도면.
도 11은 「수정」 버튼을 포함하는 합주 윈도우를 도시하는 도면.
<발명을 실시하기 위한 최량의 형태>
이하, 본 발명의 실시 형태를 도면을 참조하면서 상세하게 설명한다.
도 1은, 합주 시스템의 구성을 도시하는 블록도이다. 도 1에 도시하는 바와 같이, 이 합주 시스템은, 컨트롤러(1)와, 컨트롤러(1)에 MIDI 인터페이스 박스(3)를 통하여 접속되는 복수(도 1에서는 6대)의 연주 단말기(2A~2F)를 구비하고 있다. 복수의 연주 단말기(2) 중, 연주 단말기(2A)는 퍼실리테이터(가이드역)용 연주 단말기로 되고, 연주 단말기(2B~2F)는 참가자(생도역)용 연주 단말기로 된다. 연주 단말기(2B~2F)를 사용하는 5명의 참가자는, 항상 동일한 연주 단말기(2)를 사용한다. 이에 의해, 퍼실리테이터는 연주 단말기에서 참가자의 식별이 가능하게 된다.
컨트롤러(1)는, 예를 들면 퍼스널 컴퓨터에 의해 구성되고, 이 퍼스널 컴퓨터에 탑재된 소프트웨어에 의해 각 연주 단말기(2)의 제어 및 데이터의 수집을 행한다. 컨트롤러(1)는 복수 파트로 이루어지는 연주곡 데이터를 기억하고 있다. 이들 파트는, 1 또는 복수의 멜로디 파트, 리듬 파트, 및 반주 파트 등으로 이루어져 있다. 컨트롤러(1)는, 각 파트(또는 복수의 파트)의 발음 데이터를 각각의 연주 단말기(2)에 송신하는, 후술하는 통신부(11)를 구비하고 있다.
연주 단말기(2)는, 사용자가 연주 조작을 행함과 함께, 이 사용자의 연주 조작에 따른 악음을 발생하는 것으로서, 예를 들면 전자 피아노 등의 전자 건반 악기에 의해 구성된다. 본 실시 형태에서는, 컨트롤러(1)와 USB로 접속되어 있는 MIDI 인터페이스 박스(3)를 이용하여, 각 연주 단말기(2)를 각각의 MIDI 계통으로 접속하고 있다. 도 1에서는 연주 단말기(2A)를 퍼실리테이터용의 연주 단말기로 한다. 퍼실리테이터용의 연주 단말기의 지정은 컨트롤러(1)에서 행한다. 또한, 연주 단말기(2)는 전자 피아노에 한하지 않고, 전자 기타 등의 다른 형태의 전자 악기이어도 된다. 또한, 외관상은 자연 악기에 한하지 않고 간단히 버튼 등의 조작자를 구비한 단말기이어도 된다.
또한, 연주 단말기(2)가 음원을 내장할 필요는 없으며, 독립된 음원을 컨트롤러(1)에 접속해도 된다. 이 경우, 컨트롤러(1)에 접속하는 음원의 수는 1개이어도 되고, 연주 단말기(2)와 동일한 수이어도 된다. 연주 단말기(2)와 동일한 수의 음원을 접속하는 경우, 컨트롤러(1)는 각각의 음원과 연주 단말기(2)를 대응지어 연주곡 데이터의 각 파트를 할당하도록 하면 된다.
이 합주 시스템은, 컨트롤러(1)가 기억하고 있는 연주곡 데이터의 복수의 연주 파트를, 복수의 연주 단말기(2)에 각각 할당하여, 각 연주 단말기(2)가 독자적으로 할당된 연주 파트의 자동 연주를 진행시켜 간다. 사용자가 연주 단말기(2)를 이용하여 연주 조작(예를 들면 전자 피아노의 건반을 타건)을 행하면, 컨트롤러(1)에 템포와 타이밍의 지시가 송신된다. 컨트롤러(1)는, 입력된 템포와 타이밍의 지시에 기초하여 그 연주 단말기(2)에 할당한 연주 파트의 각 음표의 발음 지시를 연 주 단말기(2)에 송신한다. 연주 단말기(2)는 수신한 발음 지시에 기초하여 자동 연주를 행한다. 각 연주 단말기(2)를 사용하는 생도가 퍼실리테이터에 맞추어 템포를 취함으로써 합주가 성립된다. 이하, 컨트롤러(1)와 연주 단말기(2)의 구성에 대하여 상세하게 설명한다.
도 2는, 컨트롤러(1)의 구성을 도시하는 블록도이다. 도 2에 도시하는 바와 같이, 컨트롤러(1)는, 통신부(11), 제어부(12), HDD(13), RAM(14), 조작부(15), 및 표시부(16)를 구비하고 있다. 제어부(12)에는 통신부(11), HDD(13), RAM(14), 조작부(15) 및 표시부(16)가 접속되어 있다.
통신부(11)는, 연주 단말기(2)와 통신을 행하는 회로부로서, USB 인터페이스(도시 생략)를 갖고 있다. 이 USB 인터페이스에는, MIDI 인터페이스 박스(3)가 접속되고, 통신부(11)는 이 MIDI 인터페이스 박스(3) 및 MIDI 케이블을 통하여 6대의 연주 단말기(2)와 통신한다. HDD(13)는, 컨트롤러(1)의 동작용 프로그램이나, 복수 파트로 이루어지는 연주곡 데이터를 기억하고 있다.
제어부(12)는, HDD(13)에 기억되어 있는 동작용 프로그램을 읽어내어 워크 메모리인 RAM(14)에 전개하고, 파트 할당 처리(50), 시퀀스 처리(51), 및 발음 지시 처리(52) 등을 실행한다. 파트 할당 처리(50)에서는, 제어부(12)는 연주곡 데이터의 각 연주 파트를 복수의 연주 단말기(2)에 할당한다. 시퀀스 처리(51)에서는, 제어부(12)는 각 연주 단말기(2)로부터 수신한 템포, 타이밍의 지시에 따라서 연주곡 데이터의 각 연주 파트를 시퀀스(각 음의 음고, 음장 등의 결정)한다. 발음 지시 처리(52)에서는, 제어부(12)는 시퀀스 처리(51)에서 결정한 각 음의 음고, 음장을 발음 지시 데이터로서 연주 단말기(2)에 송신한다.
또한, 제어부(12)는, 각 연주 단말기의 박타의 어긋남(타건 타이밍)을 검출하는 어긋남 검출부(60)를 구비하고 있다.
조작부(15)는, 사용자(주로 퍼실리테이터)가 이 연주 시스템의 동작 지시를 행하기 위한 것이다. 퍼실리테이터는, 조작부(15)를 조작하고, 예를 들면 연주하는 연주곡 데이터를 지정하거나, 각 연주 단말기(2)의 연주 파트를 할당하거나 한다. 표시부(16)는, 디스플레이(모니터)로서, 퍼실리테이터나 각 참가자는 이 표시부(16)를 보면서 연주 조작을 행한다. 상세한 것은 후술하지만, 표시부(16)에는 합주를 행하기 위한 여러 가지의 정보가 표시된다.
도 3은, 연주 단말기(2)의 구성을 도시하는 블록도이다. 도 3에 도시하는 바와 같이, 연주 단말기(2)는, 통신부(21), 제어부(22), 연주 조작자인 건반(23), 음원(24), 및 스피커(25)를 구비하고 있다. 제어부(22)에는 통신부(21), 건반(23), 및 음원(24)이 접속되어 있다. 또한, 음원(24)에는 스피커(25)가 접속되어 있다.
통신부(21)는, MIDI 인터페이스로서, MIDI 케이블을 통하여 컨트롤러(1)와 통신한다. 제어부(22)는, 연주 단말기(2)를 통괄적으로 제어한다. 건반(23)은, 예를 들면 61키나 88키의 키수를 갖고, 5~7 옥타브의 음역의 연주가 가능하지만, 이 합주 시스템에서는 키를 구별하지 않고 노트 온/노트 오프 메시지 및 타건 강도(Velocity)의 데이터만을 이용한다. 즉 각 키에는, 온/오프를 검출하는 센서와 타건의 강도를 검출하는 센서가 내장되어 있고, 건반(23)은 각 키의 조작 양태(어 느 키가 어떠한 강도로 타건되었는지 등)에 따라서 조작 신호를 제어부(22)에 출력한다. 제어부(22)는, 입력된 조작 신호에 기초하여, 통신부(21)를 통하여 컨트롤러(1)에 노트 온 메시지나 노트 오프 메시지를 송신한다. 음원(24)은, 제어부(22)의 제어에 따라서 악음 파형을 생성하고, 음성 신호로서 스피커(25)에 출력한다. 스피커(25)는, 음원(24)으로부터 입력된 음성 신호를 재생하고, 악음을 발음한다. 또한, 전술한 바와 같이, 음원(24)과 스피커(25)는 연주 단말기(2)에 내장하고 있지 않아도 된다. 음원(24)과 스피커(25)를 컨트롤러(1)에 접속하고, 연주 단말기(2)와 서로 다른 장소로부터 악음이 발음되도록 해도 된다. 각 연주 단말기(2)와 동일한 수의 음원을 컨트롤러(1)에 접속해도 되지만, 단일의 음원을 이용해도 된다.
상기한 동작에서는, 건반(23)을 타건하였을 때, 제어부(22)는 노트 온/노트 오프 메시지를 컨트롤러(1)에 송신(로컬 오프)하고, 건반(23)에 의한 노트 메시지가 아니라, 컨트롤러(1)로부터의 지시에 따라서 악음을 발음하지만, 연주 단말기(2)는 상기한 바와 같은 동작과는 달리, 일반적인 전자 악기로서 사용하는 것도 가능하다. 건반(23)을 타건하였을 때, 제어부(22)는 노트 메시지를 컨트롤러(1)에 송신하지 않고(로컬 온), 해당 노트 메시지에 기초하여 음원(24)에 악음을 발음하도록 지시하는 것도 가능하다. 로컬 온, 로컬 오프는 사용자가 컨트롤러(1)의 조작부(15)를 이용하여 절환해도 되고, 연주 단말기(2)의 단말기 조작부(도시 생략)에서 절환해도 된다. 또한, 일부의 건반만 로컬 오프하고, 다른 건반은 로컬 온으로 되도록 설정하는 것도 가능하다.
다음으로, 상기한 바와 같은 합주 시스템을 이용하여 합주를 행하기 위한 동작에 대하여 설명한다. 사용자(특히 퍼실리테이터)는, 컨트롤러(1)의 조작부(15)를 이용하여 연주곡 데이터를 선택한다. 연주곡 데이터는 MIDI 규격에 기초하여 미리 작성된 데이터(스탠다드 MIDI)로서, 컨트롤러(1)의 HDD(13)에 기억되어 있다. 이 악곡 데이터의 일례를 도 4에 도시한다. 도 4에 도시하는 바와 같이, 연주곡 데이터는, 복수의 연주 파트로 이루어지고, 각 연주 파트를 식별하는 식별 정보와, 각 연주 파트의 연주 정보를 포함하고 있다.
사용자가 연주곡 데이터의 선택을 행하면, 컨트롤러(1)는 접속되어 있는 각 연주 단말기(2)의 각각에 연주 파트를 할당한다. 어느 연주 단말기에 어느 연주 파트를 할당할지는, 미리 테이블을 규정해 둔다. 도 5는, 연주 파트 할당 테이블의 일례를 도시하는 도면이다. 도 5에 도시하는 바와 같이, 연주 파트1에는, MIDI 포트0(퍼실리테이터용 연주 단말기)이 대응하고 있고, 예를 들면 도 1에서는 연주 단말기(2A)에 연주 파트1이 할당된다. MIDI 포트는 MIDI 인터페이스 박스(3)의 포트 번호를 나타내고 있고, 각 연주 단말기(2)는 그 접속되어 있는 MIDI 포트에서 식별되고 있다. 이하 마찬가지로 연주 파트2에는 MIDI 포트1(피아노1)이 대응하고, 예를 들면 도 1에서는 연주 단말기(2B)에 연주 파트2가 할당된다. 이와 같이, 각 연주 단말기(2)에 각각 자동적으로 연주 파트가 할당된다. 이 연주 파트 할당 테이블은 사전에 퍼실리테이터가 컨트롤러(1)의 HDD(13)에 등록한 것이다. 또한, 퍼실리테이터가 컨트롤러(1)의 조작부(15)를 이용하여 메뉴얼 선택하도록 해도 된다.
또한, 각 연주 단말기(2)가 USB 포트에 접속되어 있는 경우에는, 각 연주 단말기(2)를 USB 포트 번호로 식별하도록 하면 된다.
퍼실리테이터가 연주곡 데이터를 선택하고, 컨트롤러(1)에 의해 각 연주 단말기(2)에 연주 파트가 할당되면, 퍼실리테이터에 의해 컨트롤러(1)의 조작부(15)는 연주 개시 스탠바이의 지시를 입력한다. 여기서 말하는 연주 개시 스탠바이란 실제로 악음을 발생하는 의미가 아니라, 컨트롤러(1)가 HDD(13)로부터 RAM(14)에 연주곡 데이터를 읽어내어 연주 동작을 행하기 위한 준비 상태로 하는 것이다.
연주 개시 스탠바이의 지시가 조작부(15)에 입력되고, 컨트롤러(1)가 연주 준비를 행하면, 각 연주 단말기(2)에서는 연주가 가능하게 된다. 이 합주 시스템에서는, 복수의 사용자가 퍼실리테이터(합주 리더)의 연주에 맞추어 연주 조작을 행한다. 즉, 간단히 본보기 연주(기계 데모 연주)에 맞추어 연주하는 것이 아니라, 퍼실리테이터의 연주(인간의 연주)에 맞추어 각 사용자가 연주를 행하므로, 실제로 합주를 하고 있다고 하는 실감을 얻을 수 있다.
합주 중에서의 합주 시스템의 동작에 대하여 설명한다. 각 사용자가 연주 단말기(2)의 조작자(건반)(23)를 손가락으로 누르면, 제어부(22)는 건반(23)을 누른 강도에 따라서 노트 온 메시지를 컨트롤러(1)에 송신한다. 노트 온 메시지에는 타건의 강도(Velocity) 등의 정보가 포함된다. 또한, 건반(23)을 원래 상태로 복귀시키면(손가락을 떼면), 제어부(22)는, 노트 오프 메시지를 컨트롤러(1)에 송신한다. 컨트롤러(1)는, 연주 단말기(2)로부터 수신한 노트 온 메시지 및 노트 오프 메시지에 기초하여, 그 연주 단말기(2)에 할당한 연주 파트 중, 소정 길이분(예를 들면 1박자분)의 연주곡 데이터의 각 음의 음고, 음장을 결정하고, 그 음고, 음장등이 결정된 연주곡 데이터를 발음 지시 데이터로서 연주 단말기(2)에 송신한다. 발음 지시 데이터에는, 발음할 타이밍, 음장, 강도, 음색, 효과, 음고 변화(피치 벤드)나, 템포 등이 포함된다.
컨트롤러(1)는, 노트 온 메시지를 수신하고 나서 노트 오프 메시지를 수신할 때까지의 시간에 기초하여 상기 발음 지시 데이터를 결정한다. 구체적으로는, 노트 온 메시지가 입력되었을 때에, 연주곡 데이터 중 해당하는 연주 파트의 소정 길이분(1박자분 등)의 연주 정보를 읽어내어 발음할 타이밍, 음색, 효과, 음고 변화 등을 결정한다. 또한, 컨트롤러(1)는, 노트 온 메시지의 Velocity 정보로부터 발음 강도를 결정한다. 연주곡 데이터의 연주 정보에는 음량을 나타내는 정보가 포함되어 있고, 이 음량에 Velocity 정보를 승산하여 강도를 결정한다. 즉, 연주곡 데이터에는, 그 곡 중 볼륨 표현(음의 강약)을 고려한 음량 정보가 미리 포함되어 있지만, 각 사용자가 건반을 누른 강도에 따른 강약 표현이 추가되고, 발음 강도가 결정된다.
컨트롤러(1)는, 노트 오프 메시지가 입력되었을 때, 노트 온 메시지가 입력되고 나서의 시간을 측정한다. 노트 오프 메시지가 입력될 때까지는, 최초로 발음한 악음을 그대로 발생하고, 노트 오프 메시지가 입력되었을 때에 그 박자분의 템포, 각음의 음장을 결정하여 다음의 악음을 발음한다.
또한, 노트 온 상태로부터 노트 오프까지의 시간(GateTime으로 함)으로부터 단순하게 템포를 결정해도 되지만, 이하와 같이 하여 템포를 결정해도 된다. 즉, 복수회(바로 가까이부터 수회 전)의 타건에 대하여, GateTime의 이동 평균을 산출하고, 이에 시간에 의한 가중치 부여를 행한다. 바로 가까이의 타건에 대하여 가장 가중치 부여를 크게 하고, 과거의 타건으로 될수록 가중치 부여를 작게 한다. 이와 같이 하여 템포를 결정함으로써, 임의의 타건일 때에만 GateTime가 크게 변화되었다고 해도 돌연 템포가 변화되지 않고, 곡의 흐름에 따라서 위화감없이 템포 변화를 행할 수 있다.
연주 단말기(2)의 제어부(22)는, 상기한 바와 같이 컨트롤러(1)가 결정한 발음 지시 데이터를 수신하고, 음원(24)에 악음 파형의 생성을 지시한다. 음원(24)은, 악음 파형을 생성하고, 스피커(25)로부터 악음을 재생한다. 각 사용자가 건반(23)을 누를 때마다 상기한 처리가 반복되고, 예를 들면 1박자마다 건반(23)을 누름으로써 곡의 연주를 행할 수 있다.
또한, 상기한 바와 같이, 노트 오프 메시지가 입력될 때까지는, 최초로 발음한 악음을 그대로 발생하므로, 사용자가 건반(23)으로부터 손가락을 복귀시킬 때까지는 동일 악음을 계속 울리게 되고, 이 합주 시스템에서는, 음을 연장시키는 연주 표현(페르마타)을 실현할 수 있다.
또한, 상기한 바와 같이 하여 GateTime의 이동 평균에 의해 템포를 결정함으로써, 이하와 같은 연주 표현을 실현할 수도 있다. 예를 들면, 임의의 타건일 때에만 건반(23)이 짧게 톡하고 눌려진 경우, 그 박자분의 각 음의 음장을 짧게 하고, 한편으로 건반(23)이 여유있게 눌려진 경우 그 박자분의 각 음의 음장을 길게 한다. 이에 의해, 템포는 크게 변화되지 않지만 각 음의 명확성을 좋게 하는 연주 표현(스타카토)을 실현하거나, 템포를 크게 변화시키지 않고 음의 길이를 유지하는 연주 표현(테누토)을 실현하거나 할 수 있다.
또한, 본 실시 형태에서는 연주 단말기(2A~2F) 중 어느 쪽의 건반(23)을 타건하였다고 해도 노트 온 메시지, 노트 오프 메시지가 컨트롤러(1)에 송신되지만, 상기한 스타카토나 테누토가 기능을 발휘하는 건반과 기능을 발휘하지 않는 건반을 나누어도 된다. 컨트롤러(1)는, 특정한 건반(예를 들면 E3)으로부터의 노트 온 메시지, 노트 오프 메시지가 입력된 경우에만, 템포를 유지하면서 음장을 변화시키도록 하면 된다.
다음으로, 표시부(16)에 표시되는 유저 인터페이스에 대하여 설명한다. 도 6은, 표시부(16)에 표시되는 메인 조작 윈도우이다. 이 윈도우의 상부 텍스트 필드에는 사용자가 선택한 연주곡 데이터명이 표시된다. 「Setting」 필드 내에는 각각의 연주 단말기(Facilitator, Piano1~5)가 표시되어 있고, 각 연주 단말기마다 출결을 선택하는 풀 다운 메뉴와, 연주 파트를 할당하는 라디오 버튼이 표시되어 있다. 연주 단말기(Facilitator, Piano1~5)는, MIDI 인터페이스 박스(3)의 MIDI 포트에 각각 대응지어져 있다.
출결의 풀 다운 메뉴는 생도의 출결에 따라서 퍼실리테이터가 선택 입력한다. 라디오 버튼은, 연주곡 데이터에서 연주 파트가 할당되어 있는 연주 단말기만 표시된다.
이 도 6에서의 예에서는, 선택한 연주곡 데이터에 연주 파트1, 2, 3, 및 10이 설정되어 있고, 이 연주곡 데이터를 선택하면, 상기 도 5의 테이블에 따라서 순 서대로 연주 단말기 「Facilitator」, 「Piano1」, 「Piano2」, 및 「Piano3」이 연주 파트1, 2, 3, 및 10에 자동적으로 할당된다. 또한, 도 6에서는 선택한 연주곡 데이터에 4개의 연주 파트만이 포함되어 있기 때문에, 연주 단말기 「Facilitator」, 및 「Piano1~3」에만 연주 파트가 할당되어 있지만, 예를 들면 연주곡 데이터에 6개의 연주 파트가 포함되어 있는 경우에는, 연주 단말기 「Facilitator」 및 「Piano1~5」의 각각에 연주 파트가 할당된다. MIDI 포트(연주 단말기)보다도 연주 파트의 수가 많은 경우에는, 연주 단말기 「Facilitator」에 복수의 연주 파트를 할당한다. 여기서, 컨트롤러(1)를 조작하는 사용자(퍼실리테이터)가 라디오 버튼을 선택함으로써 각 연주 파트를 원하는 연주 단말기에 메뉴얼 선택하는 것도 가능하다. 또한, 「Facilitator Only」의 체크 박스를 선택하면 모든 연주 파트가 연주 단말기 「Facilitator」에 할당된다. 또한, 풀 다운 메뉴가 「결석」으로 된 연주 단말기에는 라디오 버튼이 표시되지 않고, 연주 파트가 할당되지 않는다.
또한, 도 5의 테이블에 기초하여 자동으로 연주 파트의 할당을 행하는 경우에도 「출석」「결석」의 풀 다운 메뉴에 대하여, 「결석」이 선택되어 있는 경우, 그 연주 단말기에 할당될 연주 파트는 연주 단말기 「Facilitator」에 할당된다. 또한 이 경우, 「결석」의 연주 파트를 음색이나 역할 관계가 가까운 연주 파트(예를 들면 드럼스에 대하여 베이스, 현악기군 등)가 할당되어 있는 다른 연주 단말기에 대체하여 할당하도록 해도 된다. 관련되는 연주 파트는 미리 테이블에 의해 규정해 두면 된다.
연주 파트의 할당 후에, 윈도우 중앙 좌측부에 표시되어 있는 연주 컨트롤 버튼 중 Start 버튼을 누르면 연주 개시 스탠바이로 되고, 도 7에 도시하는 합주 윈도우가 표시부(16)에 표시된다. 이 윈도우에서도 상부 텍스트 필드에는 선택한 연주곡 데이터명이 표시된다. 윈도우 상부 우측에는 선택하고 있는 연주곡 데이터의 소절수와 현재 연주 중인 소절이 표시되어 있다. 윈도우 중앙 상부에 표시되어 있는 박타수 필드(BeatSetting)에는 1소절 내의 박타수를 설정하는 라디오 버튼이 표시되어 있다. 도 7에서는 1소절이 4박자/4분의 곡 데이터에 대하여 연주를 하므로, 박타수를 4로 설정하면 1박마다 타건하게 된다. 또한, 도 8A에 도시하는 바와 같이, 이 연주곡에서 박타수 2의 라디오 버튼을 선택하면, 1박걸러 타건하게 되고, 1박자째, 3박자째가 타건 타이밍으로 된다. 이 경우, 컨트롤러(1)는, 연주 단말기(2)로부터 노트 온 메시지와 노트 오프 메시지가 송신되면, 2박자분의 발음 지시 데이터를 회신한다. 즉, 1회의 타건으로 2박자분의 연주가 이루어지게 된다.
도 7에서, 합주 윈도우 중앙 좌측에는 각 연주 단말기(Facilitator, Piano1, Piano2, Piano3)마다 현재의 소절수, 소절 내의 박자수(소절 내에서 타건할 횟수), 및 현재의 박타(현재의 타건 타이밍)가 표시된다. 타건할 횟수는 도 7에 도시하는 바와 같이 내부에 숫자가 기입된 사각 형상의 아이콘으로 표시되고, 현재의 박타는 입체 사각 형상의 아이콘으로 표시된다. 표시 방식은, 이 예의 아이콘에 한정되는 것이 아니라, 다른 형상의 아이콘이어도 된다. 또한, 도 8B에 도시하는 바와 같이, 타건 타이밍으로 되지 않는 박자(2박자째, 4박자째)는 동그라미 숫자 등, 다른 형상의 아이콘으로 변경하여 표시한다.
사용자가 타건하면, 현재의 박타는 도 9에 도시하는 바와 같이 1박자씩 추이한다. 즉, 타건마다 1박자째, 2박자째, 3박자째, 4박자째로 입체 사각 형상의 아이콘이 변경된다. 이 예에서의 연주곡 데이터는, 4박자/4분의 곡 데이터이기 때문에, 4박자째의 다음의 타건을 행하면 1박자째로 복귀되고, 1소절 진행하게 된다.
컨트롤러(1)의 제어부(12)는, 각 연주 단말기의 박타의 어긋남(타건 타이밍)을 검출한다. 보다 구체적으로는, 제어부(12)는, 퍼실리테이터의 연주 단말기(2)가 할당되어 있는 연주 파트의 읽어내기 진도와 그 외의 각 연주 단말기가 할당되어 있는 연주 파트의 읽어내기 진도의 어긋남을 검출한다. 이 검출 결과를 이용하여, 도 7의 윈도우가 표시부(16)에 표시된다.
도 7에서, 윈도우 중앙 우측에는 연주 단말기 「Facilitator」와의 박타의 어긋남을 도시하는 필드가 표시되어 있다. 이 필드에는 세로 방향으로 복수의 라인(예를 들면 5개)이 표시되고, 각각의 연주 단말기에 대응하여 가로 방향으로 라인이 표시되어 있다. 또한, 각각의 연주 단말기에 대응하여 동그라미 표시가 표시되어 있다. 이 동그라미 표시가 연주 단말기 「Facilitator」와의 박타의 어긋남을 나타낸다.
도 10은, 연주 단말기 「Facilitator」와의 박타의 어긋남을 설명하는 도면이다. 도 10에 도시하는 바와 같이, 연주 단말기 「Facilitator」에 대응하는 동그라미 표시는, 세로 방향의 라인 중 중심 라인에 고정하여 표시된다. 각 사용자의 연주 단말기(예를 들면 「Piano1」)에 대응하는 동그라미 표시는, 연주 단말기 「Facilitator」와의 박타의 어긋남에 따라서 좌우로 이동한다. 예를 들면 연주 단말기 「Facilitator」보다도 1소절분(이 예에서는 4박자분) 타건이 지연되면, 도 10에 도시하는 바와 같이 세로 방향의 라인 1개분 좌측 방향으로 동그라미 표시가 이동한다. 반소절분(2박자분) 지연된 경우에는 세로 방향의 중심 라인으로부터 좌측 방향으로 라인 간격의 절반만큼 동그라미 표시가 이동한다. 한편으로, 연주 단말기 「Facilitator」보다도 타건이 빠른 경우에는 동그라미 표시가 우측 방향으로 이동하게 된다. 도 10에서는 중심 라인으로부터 좌우에 2라인 표시되어 있으므로, 2소절분의 박타의 어긋남을 표시할 수 있게 된다. 2소절 이상 박타의 어긋남이 발생한 경우에는 좌우단의 라인 상에서 아이콘을 변경한다(예를 들면 사각 형상의 아이콘으로 변경함). 이와 같이 하여, 각 사용자는 퍼실리테이터와의 연주(박타)의 어긋남을 용이하게 인식할 수 있다.
또한, 기준으로 되는 연주 단말기는 연주 단말기 「Facilitator」에 한정되는 것이 아니다. 복수의 연주 단말기(2) 중, 어느 1개를 기준으로 하여 그 연주 단말기(2)와의 박타의 어긋남량을 표시하도록 해도 된다.
또한, 상기 연주 단말기 「Facilitator」와의 박타의 어긋남을 나타내는 필드는, 컨트롤러(1)의 표시부(16)에 표시하는 예에 한하지 않고, 각 연주 단말기(2)에 설치한 연주 단말기용의 표시부(도시 생략)에 표시하도록 해도 된다.
이와 같이, 각 연주 단말기(2)의 박타의 어긋남, 즉 타건 횟수의 어긋남을 한눈에 확인할 수 있으므로, 각 참가자는, 자신이 어느 정도 퍼실리테이터와 연주 어긋남이 있는지 용이하게 확인할 수 있다. 또한, 퍼실리테이터 자신도 각 참가자의 연주 어긋남을 용이하게 파악할 수 있으므로, 각 참가자에게 더 빠르게 할지 느 리게 할지의 지도를 행할 수 있다. 또한, 퍼실리테이터가 각 참가자의 연주 어긋남의 상황에 따라서 연주의 템포를 변화시킬 수도 있다. 이 경우에도, 도 10에 도시하는 연주 단말기 「Facilitator」에 대응하는 동그라미 표시는 중심 라인에 고정하여 표시되며, 각 참가자에 대응하는 동그라미 표시는, 템포 조절된 연주 단말기 「Facilitator」의 연주와의 어긋남에 따라서 좌우로 이동한다. 기준으로 되는 템포가 변동해도, 윈도우 표시상은 연주 단말기 「Facilitator」에 대응하는 동그라미 표시가 중심 위치에 고정되고, 각 참가자의 연주를 나타내는 동그라미 표시가 그 기준에 대한 상대적인 어긋남으로서 표시된다. 따라서, 데모 연주(기계 자동 연주)를 본보기로 한 경우에 비해, 보다 참가자 본위의 합주를 즐기는 것이 가능하게 된다.
도 7에서, 윈도우 중앙 좌측부에 표시되어 있는 연주 컨트롤 버튼 중, Pause 버튼을 누르면 연주가 일시 정지, 즉, 각 연주 단말기(2)에서 타건해도 악음이 발음되지 않는 상태로 된다. 컨트롤러(1)는, Pause 버튼이 눌려져, 일시 정지 상태일 때에는, 각 연주 단말기(2)로부터 노트 온 메시지가 입력된 경우라도 각 연주 단말기(2)에 발음 데이터를 송신하지 않는다. 이 상태에서 Pause 버튼이 재차 눌려지거나, 또는 Start 버튼이 눌려지면, 상기한 일시 정지 상태를 해제하고, 노트 온 메시지가 수신된 경우에는 발음 데이터를 대응하는 연주 단말기(2)에 송신한다.
연주 컨트롤 버튼 중 Stop 버튼을 누르면 연주가 종료하고, 도 6에 도시한 메인 조작 윈도우로 이행한다. 또한, 도 7에 도시하는 윈도우 상측 우측부에 표시되어 있는 Fold 버튼을 누르면, 연주를 종료하지 않고(현재의 박자를 유지한 상태 로) 도 6에 도시한 메인 조작 윈도우로 이행한다. 메인 조작 윈도우에서 Fold 버튼을 재차 누르면 도 7의 합주 윈도우로 복귀하는 것으로 한다.
도 7의 연주 컨트롤 버튼 중, FF 버튼을 누르면 앞으로 감기 상태로 된다. 컨트롤러(1)는, FF 버튼이 눌려져, 앞으로 감기 상태로 된 경우에는, 접속되어 있는 모든 연주 단말기(2)에 할당되어 있는 연주 파트를 통상보다도 고속(예를 들면 4배속)으로 읽어내고, 발음 데이터를 각 연주 단말기(2)에 송신한다. 컨트롤러(1)는, 앞으로 감기 상태로 되어 있는 경우에는 발음 데이터를 계속해서 송신한다. 재차 FF 버튼을 눌러, 앞으로 감기 상태가 해제된 경우에는, 발음 데이터의 송신을 정지한다.
또한, 4배속으로 읽어낸다는 것은, 연주 단말기 「Facilitator」의 연주 속도의 이력(GateTime의 이동 평균)을 참조하여, 그 4배의 속도로 읽어내도록 해도 되고, 연주곡 데이터에 미리 기재된 재생 속도(템포 데이터)에 기초하여, 그 4배의 속도로 읽어내도록 해도 된다.
REW 버튼을 누르면 되감기 상태로 된다. 컨트롤러(1)는, REW 버튼이 눌려져, 되감기 상태로 된 경우에는, 접속되어 있는 모든 연주 단말기(2)에 할당되어 있는 연주 파트의 과거에 읽어낸 데이터를 시간 역순으로 읽어내어, 각 연주 단말기(2)에 송신한다. 즉, 컨트롤러(1)는, MIDI 데이터인 연주곡 데이터 중 노트 오프 이벤트를 노트 온 이벤트로서, 노트 온 이벤트를 노트 오프 이벤트로서 취급한다. 이 때, 통상보다도 고속(예를 들면 4배속)으로 읽어내도 되고, 통상 속도로 읽어내도 된다. 컨트롤러(1)는, 되감기 상태로 되어 있는 경우에는 발음 데이터를 시간 역순으로 계속해서 송신한다. 재차 REW 버튼을 눌러, 되감기 상태가 해제된 경우에는, 발음 데이터의 송신을 정지한다.
또한, 상기한 되감기 상태에서, 노트 온 이벤트를 그대로 이용하여 발음하도록 해도 된다. 고속(4배속)의 되감기 상태에서는, 각 음의 발음을 인식할 수 없을 정도의 재생 속도로 되기 때문에, 시간 역순으로 그대로 재생하였다고 해도 「큐르큐르」와 같은 스캔음 정도로밖에 들리지 않아, 위화감없이 재생할 수 있다.
또한, 연주 단말기(2)의 건반(23)을 이용하여, 각 연주 단말기마다 개별로 앞으로 감기나 되감기도 행할 수 있다. 각 사용자는, 특정한 건반(예를 들면 C2, C3 등)을 타건함으로써 앞으로 감기나 되감기를 지시할 수 있다. 컨트롤러(1)는, 각 연주 단말기(2)로부터 앞으로 감기용 건반의 노트 온 메시지, 노트 오프 메시지가 입력되었을 때, 그 연주 단말기(2)에 할당되어 있는 연주 파트를 통상보다도 고속으로 읽어내고, 발음 데이터를 송신한다. 컨트롤러(1)는, 앞으로 감기 상태로 되어 있는 경우에는 발음 데이터를 계속해서 송신한다. 재차 그 연주 단말기(2)로부터 앞으로 감기용의 건반의 노트 온 메시지, 노트 오프 메시지가 입력되었을 때, 발음 데이터의 송신을 정지한다. 마찬가지로, 컨트롤러(1)는, 각 연주 단말기(2)로부터 되감기용의 건반의 노트 온 메시지, 노트 오프 메시지가 입력되었을 때, 그 연주 단말기(2)에 할당되어 있는 연주 파트를 시간 역순으로 읽어내고, 발음 데이터를 송신한다. 이 때, 통상보다도 고속으로 읽어내도 되고, 통상 속도로 읽어내어도 된다. 컨트롤러(1)는, 되감기 상태로 되어 있는 경우에는 연주 파트를 시간 역순으로 읽어내고, 발음 데이터를 계속해서 송신한다. 재차 그 연주 단말기(2)로 부터 되감기용의 건반의 노트 온 메시지, 노트 오프 메시지가 입력되었을 때, 발음 데이터의 송신을 정지한다.
또한, 컨트롤러(1)는, 앞으로 감기 중 또는 되감기 중에는 연주 악음의 발음 데이터를 송신하지 않고, 의사 스캔음을 발음하는 발음 데이터를 송신하도록 해도 된다. 의사 스캔음은 예를 들면 「큐르큐르」와 같은 음 등이다. 이 경우에도, 타건 타이밍(연주곡 데이터의 읽어내기)은 고속으로 진행, 또는 역행하고 있는 것으로 한다.
또한, 연주 단말기(2)의 타건 타이밍이 퍼실리테이터의 연주 단말기(2)의 현재의 타건 타이밍에 도달한 시점에서 상기한 바와 같은 앞으로 감기, 또는 되감기 상태를 정지하도록 해도 된다. 컨트롤러(1)는, 앞으로 감기 중, 또는 되감기 중의 각 연주 단말기(2)에 대하여, 퍼실리테이터의 연주 단말기(2)의 타건 타이밍(연주곡 데이터의 읽어내기 타이밍)과 동일한 타이밍으로 된 경우에 발음 데이터의 송신을 정지한다.
또한, 상기한 바와 같은 각 연주 단말기(2)마다의 앞으로 감기, 또는 되감기는, 컨트롤러(1)의 조작부(15)를 이용하여 행하는 것도 가능하다. 도시는 하지 않지만, 도 7의 합주 윈도우의 각 연주 단말기에 개별로 FF 버튼, REW 버튼을 표시하면 된다.
또한, 각 연주 단말기(2)마다 앞으로 감기, 또는 되감기를 행하는 경우에는, 각 연주 단말기의 연주 속도 이력(GateTime의 이동 평균)을 참조하여, 그 4배 속도로 연주 파트를 읽어내도록 해도 된다. 또한, 퍼실리테이터의 연주 단말기(2)의 연주 속도의 4배속으로 해도 되고, 연주곡 데이터에 미리 기재된 템포 데이터의 4배속으로 해도 된다.
또한, 본 실시 형태에서의 합주 시스템은, 상기한 앞으로 감기, 또는 되감기와는 서로 다른 특정한 건반(예를 들면 G2 등)을 타건함으로써, 퍼실리테이터의 연주 단말기(2)의 타건 타이밍과 동일한 타건 타이밍에 원터치로 맞추는 것이 가능하다. 컨트롤러(1)는, 연주 단말기(2)로부터 상기 특정의 건반(G2 건반)의 노트 온 메시지, 노트 오프 메시지가 입력되었을 때, 퍼실리테이터의 연주 단말기(2)의 타건 타이밍과 동일한 타건 타이밍으로 포인트 이동하고, 다음회 그 연주 단말기(2)로부터 연주 조작용의 건반(예를 들면 E3)의 노트 온 메시지가 입력되었을 때에는, 퍼실리테이터의 연주 단말기(2)의 현재의 타건 타이밍과 동일한 타건 타이밍의 연주 파트를 읽어내어 발음 데이터를 송신하도록 한다. 따라서, 그 연주 단말기(2)가, 퍼실리테이터의 연주 단말기(2)의 타건 타이밍보다도 느리거나, 또는 지나치게 앞서 있었다고 해도, 원터치로 동일한 타건 타이밍으로 이동할 수 있다.
이 원터치 이동도 컨트롤러(1)의 조작부(15)를 이용하여 행하는 것도 가능하다. 도 11과 같이, 합주 윈도우의 각 연주 단말기마다, 퍼실리테이터의 연주 단말기(2)의 타건 타이밍과 동일한 타건 타이밍에 맞추기 위한 「수정」 버튼을 표시하도록 하면 된다.
이상과 같이 하여, 각 사용자는 손가락 한개로 건반을 누른다고 하는 용이한 조작으로 연주를 행할 수 있어, 표시부(16)에 표시되는 퍼실리테이터의 연주 단말기(2)와의 어긋남을 없애도록 조작을 행함으로써, 여러 사람이 즐기면서 합주를 행 할 수 있다. 상기한 바와 같이, 퍼실리테이터(기준 연주 단말기)의 연주 단말기(2)와의 어긋남은 정밀한 음표 단위가 아니라, 타건 횟수의 어긋남이 표시되므로, 악기의 조작에 익숙하지 않은 사람이어도 용이하게 어긋남량을 파악할 수 있다. 또한, 연주의 어긋남이 커져 퍼실리테이터에 맞추는 것이 곤란하게 된 경우에는, 「앞으로 감기」 버튼, 「되감기」 버튼, 수정 버튼 등으로 용이하게 연주의 어긋남을 수정할 수 있으므로, 합주가 파탄되지 않고 각 사용자가 연주를 즐길 수 있다.
또한, 본 실시 형태에서는, 타건 횟수의 어긋남을 표시하도록 하였지만, 이 이외에도 다이나믹스의 어긋남, 연주 뉘앙스의 어긋남 등을 표시하는 것도 가능하다. 다이나믹스의 어긋남은, 각 연주 단말기(2)로부터 입력되는 Velocity의 값에 기초하여 산출하고, 연주 뉘앙스의 어긋남은, 각 연주 단말기(2)의 GateTime의 값에 기초하여 산출하면 된다.
본 발명에 따르면, 가이드역과의 연주의 어긋남량(타건 횟수 어긋남)을 표시할 수 있어, 악기의 조작에 익숙하지 않은 사람이어도 용이하게 연주의 어긋남량을 파악할 수 있으므로, 자신의 연주를 조정하기 쉬워진다. 또한, 가이드역 자신도 각 연주 참가자의 연주의 어긋남량을 용이하게 파악할 수 있으므로, 각 참가자에 대하여 더 빠르게 할지 느리게 할지 등의 지도를 행할 수 있어, 각 참가자에게 맞추어 자신의 템포를 조정할 수도 있다.

Claims (8)

  1. 연주 조작을 행하기 위한 적어도 1개의 연주 조작자를 각각 구비하는 복수의 연주 단말기와, 적어도 1개의 음원과, 상기 복수의 연주 단말기 및 상기 적어도 1개의 음원에 접속되고, 각 연주 단말기를 제어하는 컨트롤러로 이루어지는 합주 시스템으로서,
    상기 컨트롤러는,
    복수의 연주 파트로 이루어지는 연주곡 데이터를 기억하는 기억 수단과,
    연주의 개시, 및 종료를 지시하기 위한 조작 수단과,
    상기 복수의 연주 파트를 상기 복수의 연주 단말기에 할당하여, 각 연주 단말기의 연주 조작자의 조작 양태에 따라서, 그 연주 단말기에 할당되어 있는 연주 파트를 읽어내고, 그 읽어낸 연주 파트의 데이터를 상기 음원에 출력하는 연주 제어 수단과,
    상기 복수의 연주 단말기 중 가이드역용 연주 단말기가 할당되어 있는 연주 파트의 읽어내기 진도와 그 외의 각 연주 단말기가 할당되어 있는 연주 파트의 읽어내기 진도의 어긋남을 검출하는 어긋남 검출 수단과,
    상기 읽어내기 진도의 어긋남을 표시하는 표시 수단
    을 구비하는 것을 특징으로 하는 합주 시스템.
  2. 제1항에 있어서,
    상기 음원은, 상기 복수의 연주 단말기 각각에 내장되고,
    상기 컨트롤러의 연주 제어 수단은, 상기 읽어낸 연주 파트의 데이터를, 그 연주 파트가 할당되어 있는 연주 단말기에 내장된 음원에 출력하는 것을 특징으로 하는 합주 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 컨트롤러는, 적어도 1개의 연주 단말기에 할당되어 있는 연주 파트의 앞으로 감기 지시를 행하기 위한 앞으로 감기 지시 수단을 더 구비하고,
    상기 컨트롤러의 연주 제어 수단은, 상기 앞으로 감기 지시 수단에 의해 앞으로 감기 지시가 행해졌을 때에, 상기 연주 단말기에 할당되어 있는 연주 파트의 고속 읽어내기를 실행하는 것을 특징으로 하는 합주 시스템.
  4. 제1항 또는 제2항에 있어서,
    상기 각 연주 단말기는, 자기의 연주 단말기에 할당되어 있는 연주 파트의 앞으로 감기 지시를 행하기 위한 단말기 앞으로 감기 지시 수단을 구비하고,
    상기 컨트롤러의 연주 제어 수단은, 상기 단말기 앞으로 감기 지시 수단에 의해 앞으로 감기 지시가 행해졌을 때에, 상기 연주 단말기에 할당되어 있는 연주 파트의 고속 읽어내기를 실행하는 것을 특징으로 하는 합주 시스템.
  5. 제1항 또는 제2항에 있어서,
    상기 컨트롤러는, 적어도 1개의 연주 단말기에 할당되어 있는 연주 파트의 되감기 지시를 행하기 위한 되감기 지시 수단을 더 구비하고,
    상기 컨트롤러의 연주 제어 수단은, 상기 되감기 지시 수단에 의해 되감기 지시가 행해졌을 때에, 상기 연주 단말기의 과거에 읽어낸 연주 파트를 역순으로 읽어내는 것을 특징으로 하는 합주 시스템.
  6. 제1항 또는 제2항에 있어서,
    상기 각 연주 단말기는, 자기의 연주 단말기에 할당되어 있는 연주 파트의 되감기 지시를 행하기 위한 단말기 되감기 지시 수단을 구비하고,
    상기 컨트롤러의 연주 제어 수단은, 상기 단말기 되감기 지시 수단에 의해 되감기 지시가 행해졌을 때에, 상기 연주 단말기의 과거에 읽어낸 연주 파트를 역순으로 읽어내는 것을 특징으로 하는 합주 시스템.
  7. 제1항 또는 제2항에 있어서,
    상기 컨트롤러는, 적어도 1개의 연주 단말기와 상기 가이드역용 연주 단말기와의 연주 어긋남을 없애는 지시를 행하기 위한 어긋남 수정 지시 수단을 구비하고,
    상기 컨트롤러의 연주 제어 수단은, 상기 어긋남 수정 지시 수단에 의해 상기 연주 어긋남을 없애는 지시가 행해졌을 때에, 상기 가이드역용 연주 단말기에 할당되어 있는 연주 파트의 읽어내기 진도와 상기 연주 단말기에 할당되어 있는 연 주 파트의 읽어내기 진도가 일치하도록, 상기 연주 단말기에 할당되어 있는 연주 파트를 읽어내는 것을 특징으로 하는 합주 시스템.
  8. 제1항 또는 제2항에 있어서,
    상기 각 연주 단말기는, 자기의 연주 단말기와 상기 가이드역용 연주 단말기와의 연주 어긋남을 없애는 지시를 행하기 위한 단말기 어긋남 수정 지시 수단을 구비하고,
    상기 컨트롤러의 연주 제어 수단은, 상기 단말기 어긋남 수정 지시 수단에 의해 상기 연주 어긋남을 없애는 지시가 행해졌을 때에, 상기 가이드역용 연주 단말기에 할당되어 있는 연주 파트의 읽어내기 진도와 상기 연주 단말기에 할당되어 있는 연주 파트의 읽어내기 진도가 일치하도록, 상기 연주 단말기에 할당되어 있는 연주 파트를 읽어내는 것을 특징으로 하는 합주 시스템.
KR1020087007402A 2005-09-28 2006-07-24 합주 시스템 Ceased KR20080046212A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005281059A JP4692189B2 (ja) 2005-09-28 2005-09-28 合奏システム
JPJP-P-2005-00281059 2005-09-28

Publications (1)

Publication Number Publication Date
KR20080046212A true KR20080046212A (ko) 2008-05-26

Family

ID=37899502

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087007402A Ceased KR20080046212A (ko) 2005-09-28 2006-07-24 합주 시스템

Country Status (6)

Country Link
US (1) US7888576B2 (ko)
EP (1) EP1930873A4 (ko)
JP (1) JP4692189B2 (ko)
KR (1) KR20080046212A (ko)
CN (1) CN101278335A (ko)
WO (1) WO2007037067A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1975920B1 (en) 2007-03-30 2014-12-17 Yamaha Corporation Musical performance processing apparatus and storage medium therefor
JP5169328B2 (ja) 2007-03-30 2013-03-27 ヤマハ株式会社 演奏処理装置及び演奏処理プログラム
JP2014219558A (ja) * 2013-05-08 2014-11-20 ヤマハ株式会社 音楽セッション管理装置
JP7331366B2 (ja) * 2019-01-22 2023-08-23 ヤマハ株式会社 演奏システム、演奏モード設定方法および演奏モード設定装置
CN110517654A (zh) * 2019-07-19 2019-11-29 森兰信息科技(上海)有限公司 基于钢琴的乐器合奏方法、系统、介质及装置
CN110534074A (zh) * 2019-07-19 2019-12-03 森兰信息科技(上海)有限公司 一种钢琴多端合奏方法及系统、存储介质及主钢琴
JP6915910B2 (ja) * 2020-01-09 2021-08-04 Necプラットフォームズ株式会社 解析装置、演奏支援システム、解析方法及びプログラム

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3808936A (en) * 1970-07-08 1974-05-07 D Shrader Method and apparatus for improving musical ability
US3919913A (en) * 1972-10-03 1975-11-18 David L Shrader Method and apparatus for improving musical ability
US3823637A (en) * 1973-01-19 1974-07-16 Scott J Programmed audio-visual teaching aid
US3895555A (en) * 1973-10-03 1975-07-22 Richard H Peterson Teaching instrument for keyboard music instruction
JPS5692567A (en) * 1979-12-27 1981-07-27 Nippon Musical Instruments Mfg Electronic musical instrument
JPS5871797U (ja) * 1981-11-10 1983-05-16 ヤマハ株式会社 電子楽器
JPS61254991A (ja) * 1985-05-07 1986-11-12 カシオ計算機株式会社 電子楽器
US5002491A (en) * 1989-04-28 1991-03-26 Comtek Electronic classroom system enabling interactive self-paced learning
US5521323A (en) 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP3528230B2 (ja) * 1994-03-18 2004-05-17 ヤマハ株式会社 自動演奏装置
JP3417662B2 (ja) * 1994-06-30 2003-06-16 ローランド株式会社 演奏分析装置
US6448486B1 (en) * 1995-08-28 2002-09-10 Jeff K. Shinsky Electronic musical instrument with a reduced number of input controllers and method of operation
US6441289B1 (en) * 1995-08-28 2002-08-27 Jeff K. Shinsky Fixed-location method of musical performance and a musical instrument
JP3453248B2 (ja) * 1996-05-28 2003-10-06 株式会社第一興商 通信カラオケシステム、カラオケ再生端末
JP3659138B2 (ja) * 1996-06-27 2005-06-15 ヤマハ株式会社 カラオケ装置
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
US7074999B2 (en) * 1996-07-10 2006-07-11 Sitrick David H Electronic image visualization system and management and communication methodologies
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
JP3371791B2 (ja) * 1998-01-29 2003-01-27 ヤマハ株式会社 音楽教習システムおよび音楽教習装置、ならびに、音楽教習用プログラムが記録された記録媒体
JP3277875B2 (ja) 1998-01-29 2002-04-22 ヤマハ株式会社 演奏装置、サーバ装置、演奏方法および演奏制御方法
JP3666291B2 (ja) 1999-03-25 2005-06-29 ヤマハ株式会社 電子楽器
US6348648B1 (en) * 1999-11-23 2002-02-19 Harry Connick, Jr. System and method for coordinating music display among players in an orchestra
JP4117755B2 (ja) * 1999-11-29 2008-07-16 ヤマハ株式会社 演奏情報評価方法、演奏情報評価装置および記録媒体
US6198034B1 (en) * 1999-12-08 2001-03-06 Ronald O. Beach Electronic tone generation system and method
JP3678135B2 (ja) * 1999-12-24 2005-08-03 ヤマハ株式会社 演奏評価装置および演奏評価システム
JP3758450B2 (ja) * 2000-01-10 2006-03-22 ヤマハ株式会社 曲データ作成のためのサーバ装置、クライアント装置及び記録媒体
US6417435B2 (en) * 2000-02-28 2002-07-09 Constantin B. Chantzis Audio-acoustic proficiency testing device
US6751439B2 (en) * 2000-05-23 2004-06-15 Great West Music (1987) Ltd. Method and system for teaching music
JP4399958B2 (ja) 2000-05-25 2010-01-20 ヤマハ株式会社 演奏支援装置および演奏支援方法
WO2001093261A1 (en) 2000-06-01 2001-12-06 Hanseulsoft Co., Ltd. Apparatus and method for providing song accompanying/music playing service using wireless terminal
IL137234A0 (en) * 2000-07-10 2001-07-24 Shahal Elihai Method and system for learning to play a musical instrument
JP3826697B2 (ja) 2000-09-19 2006-09-27 ヤマハ株式会社 演奏表示装置および演奏表示方法
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
JP4166438B2 (ja) * 2001-01-31 2008-10-15 ヤマハ株式会社 音楽ゲーム装置
US6660922B1 (en) * 2001-02-15 2003-12-09 Steve Roeder System and method for creating, revising and providing a music lesson over a communications network
JP3632606B2 (ja) * 2001-03-16 2005-03-23 ヤマハ株式会社 自動演奏装置
US20020165921A1 (en) * 2001-05-02 2002-11-07 Jerzy Sapieyevski Method of multiple computers synchronization and control for guiding spatially dispersed live music/multimedia performances and guiding simultaneous multi-content presentations and system therefor
AU2002305332A1 (en) * 2001-05-04 2002-11-18 Realtime Music Solutions, Llc Music performance system
JP3726712B2 (ja) * 2001-06-13 2005-12-14 ヤマハ株式会社 演奏設定情報の授受が可能な電子音楽装置及びサーバ装置、並びに、演奏設定情報授受方法及びプログラム
US6483019B1 (en) * 2001-07-30 2002-11-19 Freehand Systems, Inc. Music annotation system for performance and composition of musical scores
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003256552A (ja) * 2002-03-05 2003-09-12 Yamaha Corp 演奏者情報提供方法、サーバ、プログラムおよび記録媒体
JP3852348B2 (ja) * 2002-03-06 2006-11-29 ヤマハ株式会社 再生及び送信切替装置及びプログラム
JP3613254B2 (ja) 2002-03-20 2005-01-26 ヤマハ株式会社 楽曲データの圧縮方法
JP3903821B2 (ja) * 2002-03-25 2007-04-11 ヤマハ株式会社 演奏音提供システム
JP3780967B2 (ja) * 2002-03-27 2006-05-31 ヤマハ株式会社 曲データ出力装置及びプログラム
US6768046B2 (en) * 2002-04-09 2004-07-27 International Business Machines Corporation Method of generating a link between a note of a digital score and a realization of the score
JP4144296B2 (ja) * 2002-08-29 2008-09-03 ヤマハ株式会社 データ管理装置、プログラムおよびデータ管理システム
JP3988633B2 (ja) 2002-12-04 2007-10-10 カシオ計算機株式会社 学習結果表示装置、及びプログラム
US6995311B2 (en) * 2003-03-31 2006-02-07 Stevenson Alexander J Automatic pitch processing for electric stringed instruments
JP3894156B2 (ja) * 2003-05-06 2007-03-14 ヤマハ株式会社 楽音信号形成装置
US20040237756A1 (en) * 2003-05-28 2004-12-02 Forbes Angus G. Computer-aided music education
WO2005004030A2 (en) * 2003-06-25 2005-01-13 Yamaha Corporation Method for teaching music
JP2005062697A (ja) * 2003-08-19 2005-03-10 Kawai Musical Instr Mfg Co Ltd テンポ表示装置
JP4314964B2 (ja) * 2003-10-24 2009-08-19 ヤマハ株式会社 合奏システム
JP4305153B2 (ja) 2003-12-04 2009-07-29 ヤマハ株式会社 音楽セッション支援方法、音楽セッション用楽器
JP4363204B2 (ja) * 2004-02-04 2009-11-11 ヤマハ株式会社 通信端末
JP4368222B2 (ja) * 2004-03-03 2009-11-18 株式会社国際電気通信基礎技術研究所 合奏支援システム
US7271329B2 (en) * 2004-05-28 2007-09-18 Electronic Learning Products, Inc. Computer-aided learning system employing a pitch tracking line
US7385125B2 (en) * 2005-03-23 2008-06-10 Marvin Motsenbocker Electric string instruments and string instrument systems
JP4797523B2 (ja) * 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4513713B2 (ja) * 2005-10-21 2010-07-28 カシオ計算機株式会社 演奏教習装置および演奏教習処理のプログラム
US20080134861A1 (en) * 2006-09-29 2008-06-12 Pearson Bruce T Student Musical Instrument Compatibility Test

Also Published As

Publication number Publication date
EP1930873A1 (en) 2008-06-11
JP2007093820A (ja) 2007-04-12
CN101278335A (zh) 2008-10-01
US20090151545A1 (en) 2009-06-18
JP4692189B2 (ja) 2011-06-01
EP1930873A4 (en) 2010-08-11
US7888576B2 (en) 2011-02-15
WO2007037067A1 (ja) 2007-04-05

Similar Documents

Publication Publication Date Title
US7947889B2 (en) Ensemble system
JP4328828B2 (ja) 携帯型和音出力装置、コンピュータプログラムおよび記録媒体
US7939740B2 (en) Ensemble system
JP5257966B2 (ja) 音楽再生制御システム、音楽演奏プログラム、および演奏データの同期再生方法
KR20010039861A (ko) 가창 반주 시스템
JP2008276187A (ja) 演奏処理装置及び演奏処理プログラム
KR20080046212A (ko) 합주 시스템
US7405354B2 (en) Music ensemble system, controller used therefor, and program
JP4131279B2 (ja) 合奏パラメータ表示装置
JP2002006866A (ja) カラオケ装置
US7838754B2 (en) Performance system, controller used therefor, and program
JP3902736B2 (ja) カラオケ装置
KR20090085005A (ko) 자동음정 기타
JP3962114B2 (ja) カラオケ装置
JP3902735B2 (ja) カラオケ装置
JP4211854B2 (ja) 合奏システム、コントローラ、およびプログラム
KR101842282B1 (ko) 기타 연주시스템과 이를 위한 연주용 기타 및 기타 연주정보 표시방법
JP2001070644A (ja) ダンスゲーム装置
JP4218688B2 (ja) 合奏システム、このシステムに用いるコントローラ及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
PA0105 International application

Patent event date: 20080327

Patent event code: PA01051R01D

Comment text: International Patent Application

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20090729

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20091020

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20090729

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I