JP4484570B2 - Acoustic information processing apparatus and acoustic information providing method - Google Patents
Acoustic information processing apparatus and acoustic information providing method Download PDFInfo
- Publication number
- JP4484570B2 JP4484570B2 JP2004119343A JP2004119343A JP4484570B2 JP 4484570 B2 JP4484570 B2 JP 4484570B2 JP 2004119343 A JP2004119343 A JP 2004119343A JP 2004119343 A JP2004119343 A JP 2004119343A JP 4484570 B2 JP4484570 B2 JP 4484570B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- information
- sound source
- acoustic information
- acoustic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 25
- 238000000034 method Methods 0.000 title claims description 14
- 230000015541 sensory perception of touch Effects 0.000 description 11
- 230000035807 sensation Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Details Of Audible-Bandwidth Transducers (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、音響情報の処理装置及び提供方法、特に音響情報をユーザに対して新たな形態にて提供する装置及び方法に関する。 The present invention relates to an apparatus and method for processing acoustic information, and more particularly to an apparatus and method for providing acoustic information to a user in a new form.
従来から楽曲や環境音など様々な音響がコンピュータにより処理され、音出力可能になっている。近年では、複数の音響を合成処理するなどして音響を生成し出力することができる。この従来における音響情報処理の一例を、図5に示した画面表示例を用いて説明する。 Conventionally, various sounds such as music and environmental sounds have been processed by a computer to enable sound output. In recent years, it is possible to generate and output sound by, for example, synthesizing a plurality of sounds. An example of this conventional acoustic information processing will be described using the screen display example shown in FIG.
図5には、画面表示された仮想空間において音響の発信源となる音源2と、各音源2から出力された音響が聞こえる範囲である可聴領域4と、伝達された音響を入力する収録点6とが示されている。図5では、音源2を5箇所に設置している。また、可聴領域4は、各音源2を中心とした円形状で形成されるものとする。
FIG. 5 shows a
図5に示したように、収録点6がいずれの可聴領域4にも含まれていないときには、何も聞こえない。ユーザがマウス操作等によって収録点6を例えば可聴領域4aまで移動させると、その可聴領域4aの中心に位置する音源2aから出力される音響が内蔵スピーカもしくは外付けのスピーカから出力される。また、可聴領域4aと可聴領域4とが重複した領域4cに収録点6を移動させると、その各可聴領域4a,4bの中心に位置する各音源2a,2bから出力される音響が合成されて出力される。このように、従来においては、1乃至複数の音源から出力される音響を聴覚にて確認できるようにユーザに提供している。
As shown in FIG. 5, when the
一方、従来から、情報を触覚にて提供する装置が提案されている。例えば、特許文献1では、音情報に基づき触覚情報を生成することで触覚にて音情報を提供する装置が開示されている。 On the other hand, conventionally, an apparatus that provides information by touch is proposed. For example, Patent Document 1 discloses an apparatus that provides sound information by tactile sensation by generating tactile information based on sound information.
しかしながら、従来における情報処理装置では、音響の変化や合成した音響の状態を聴覚や視覚にて提供することはできても触覚にて提供していなかった。一方、特許文献1では、音声情報に基づき触覚情報を生成してユーザに情報提供することはできるが、音源と収録点との位置関係に基づき触覚情報を生成することに関しては言及していない。 However, in the conventional information processing apparatus, the change in sound and the state of the synthesized sound can be provided by hearing or vision, but not by tactile sense. On the other hand, Patent Document 1 can generate tactile information based on audio information and provide the information to the user, but does not refer to generating tactile information based on the positional relationship between the sound source and the recording points.
本発明は、以上のような課題を解決するためになされたものであり、その目的は、音響の状態を触覚によりユーザに提供できる音響情報処理装置及び音響情報提供方法を提供することにある。 SUMMARY An advantage of some aspects of the invention is to provide an acoustic information processing apparatus and an acoustic information providing method capable of providing a user with an acoustic state by touch.
以上のような目的を達成するために、本発明に係る音響情報処理装置は、ユーザにより触れられ、2次元又は3次元方向に移動可能な呈示部位と、仮想空間における1又は複数の音源と収録点との距離に基づく、各音源から出力される音響情報が収録点に伝達されたときの音圧に関する情報を含む音響情報を生成する伝達音響情報生成処理手段と、前記音響情報に含まれる音圧に関する情報に応じた駆動力で、前記収録点に対する前記音源の方向に基づく方向に、前記呈示部位を駆動させる駆動手段とを有することを特徴とする。 In order to achieve the above-described object, the acoustic information processing apparatus according to the present invention includes a presentation part that is touched by a user and is movable in a two-dimensional or three-dimensional direction, and one or more sound sources in a virtual space. distance between the point in rather based, and transmitting audio information generating means for generating audio information including information on the sound pressure when the audio information is transmitted to the recording point outputted from the respective sound sources, included in the audio information Drive means for driving the presenting part in a direction based on the direction of the sound source with respect to the recording point with a driving force according to information relating to the sound pressure to be recorded .
また、仮想空間における各音源と収録点との位置関係を画面表示する表示処理手段を有することを特徴とする。 The image processing apparatus further includes display processing means for displaying a positional relationship between each sound source and recording points in the virtual space.
また、前記表示処理手段は、各音源から出力される音響情報を、各音源から波紋が放射状に拡がるように画面表示することを特徴とする。 Further, the display processing means displays the acoustic information output from each sound source on a screen so that ripples spread radially from each sound source .
また、前記表示処理手段は、音響情報に従い各音源から音響が発せられたタイミングで、各音源からの波紋を画面表示し、前記駆動手段は、各音源からの音響が発せられてから各音源と収録点との距離に応じた遅れをもって前記呈示部位を駆動することを特徴とする。 Further, the display processing means displays a ripple from each sound source on the screen at a timing when the sound is emitted from each sound source according to the sound information, and the drive means is connected to each sound source after the sound from each sound source is emitted. The presenting part is driven with a delay corresponding to the distance from the recording point .
また、画面表示された仮想空間における音源又は収録点の位置を変更する操作手段を有することを特徴とする。 In addition, it has an operation means for changing the position of the sound source or the recording point in the virtual space displayed on the screen.
また、前記駆動手段は、音源又は収録点の位置の変更を反映させて前記呈示部位を駆動することを特徴とする。 Further, the driving means drives the presenting part by reflecting the change of the position of the sound source or the recording point .
本発明に係る音響情報提供方法は、ユーザにより触れられ、2次元又は3次元方向に移動可能な呈示部位を有する触覚情報呈示装置が接続された情報処理装置において実施され、音響情報をユーザに提供する音響情報提供方法において、仮想空間における1又は複数の音源と収録点との距離に基づく、各音源から出力される音響情報が収録点に伝達されたときの音圧に関する情報を含む音響情報を生成する伝達音響情報生成ステップと、前記音響情報に含まれる音圧に関する情報に応じた駆動力で、前記収録点に対する前記音源の方向に基づく方向に、前記呈示部位を駆動させる駆動ステップとを含むことを特徴とする。 Acoustic information providing method according to the present invention, more touched to the user is carried out in an information processing apparatus tactile information presentation devices are connected with the possible presentation site moves in a two-dimensional or three-dimensional direction, the user audio information in acoustic information providing method for providing, including information regarding sound pressure when rather based on the distance between the recording points and the one or more sound sources in the virtual space, sound information output from the sound source is transmitted to the recording point A transmission acoustic information generation step for generating acoustic information, and a driving step for driving the presenting part in a direction based on the direction of the sound source with respect to the recording point with a driving force according to information on sound pressure included in the acoustic information. It is characterized by including.
本発明によれば、音響情報をユーザ対して触覚により呈示することができる。これにより、音響の楽しみ方の幅を拡げさせることができる。 According to the present invention, acoustic information can be presented to a user by touch. Thereby, the range of how to enjoy sound can be expanded.
以下、図面に基づいて、本発明の好適な実施の形態について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
図1は、本発明に係る音響情報処理装置の一実施の形態を示したハードウェア構成図である。本実施の形態における音響情報処理装置10は、図1に示したように、ノート型パーソナルコンピュータ等表示画面12を有する汎用的なコンピュータで実現でき、このコンピュータに触覚情報呈示装置14を接続して構成される。触覚情報呈示装置14は、例えば上記特許文献1に開示された触覚情報呈示装置と同じ構成で実現できる。触覚情報呈示装置14は、端的に言うと既存のマウスに2次元若しくは3次元方向に移動可能な呈示部位16を搭載した構造を有しており、指が触れられた状態の触呈示部位16を駆動させることで音響情報等をユーザに対して触覚により提供することができる。
FIG. 1 is a hardware configuration diagram showing an embodiment of an acoustic information processing apparatus according to the present invention. As shown in FIG. 1, the acoustic
図2は、本実施の形態における音響情報処理装置10のブロック構成図である。音響情報処理装置10は、音響情報生成処理部20、触覚情報生成処理部22、呈示部位駆動部24、操作受付部26、位置検出部28、仮想空間情報管理部30、音出力処理部32及び表示処理部34を有している。また、本実施の形態では、ソース音源記憶部40及び仮想空間情報記憶部42を設けており、ソース音源記憶部40には音響情報が、仮想空間情報記憶部42には仮想空間に関する情報が予め登録されている。ソース音源記憶部40に登録される音響情報というのは、仮想空間上における各音源から出力される音響情報である。本実施の形態では、音響情報生成処理部20が生成する音響情報と区別するために「ソース音源」と称することにする。図5に示した表示画面例を用いて説明すると、仮想空間情報記憶部42に登録される仮想空間に関する情報には、座標データによって表現される仮想空間と、その仮想空間上に移動可能に設置される各音源2及び収録点6の各位置情報とが含まれている。ソース音源記憶部40及び仮想空間情報記憶部42は、ハードディスクドライブ装置等の外部記憶装置で実現する。但し、仮想空間情報のうち音源2及び収録点6の各位置情報は、移動によって適宜更新されると共に高速に実施されるべき触覚情報生成処理等に利用されるため、位置情報を含む一部又は全部の情報は、メモリ等に記憶することが望ましい。また、音響情報及び触覚情報は、音源2及び収録点6の移動に伴い逐次更新されると共に高速に実施されるべき音出力処理等に利用されるため、後述する各記憶部44,46は、高速処理に適したメモリ等の記憶装置で実現することが望ましい。
FIG. 2 is a block configuration diagram of the acoustic
音響情報生成処理部20は、仮想空間情報記憶部42に記憶された仮想空間情報に基づいて、仮想空間における各音源から出力される音響情報が収録点に伝達されたときの音響情報を生成して音響情報記憶部44に保存する。触覚情報生成処理部22は、ソース音源記憶部40に登録された音響情報と仮想空間情報記憶部42に記憶された仮想空間情報とに基づいて触覚情報を生成して触覚情報記憶部46に保存する。呈示部位駆動部24は、触覚情報記憶部46に保存された触覚情報に基づき呈示部位16を駆動させる。この呈示部位16の駆動パターンを異ならせることで種々の音響情報を異なる触覚にてユーザに呈示できるようになる。ユーザは、操作手段として設けられたマウス兼用の触覚情報呈示装置14若しくはキーボードを操作することで表示画面上の収録点6、あるいは音源2を移動させることができるが、操作受付部26は、このユーザ操作の内容を受け付ける。操作内容というのは、主に仮想空間上における収録点6あるいは音源2の位置の変更であり、位置検出部28は、ユーザ操作に応じて移動した仮想空間上における収録点6あるいは音源2の位置を検出する。仮想空間情報管理部30は、位置検出部28が検出した収録点6あるいは音源2の位置に基づき仮想空間情報記憶部42に設定されている当該移動点の位置情報を更新する。音出力処理部32は、装置内蔵のスピーカ、あるいは外部接続されたスピーカから音響情報を出力する。表示処理部34は、ソース音源や音響情報、更に仮想空間情報それぞれから視覚可能な情報を生成して表示画面12に表示する。なお、図1に示した表示画面12には、仮想空間情報に基づく表示例を示している。
The acoustic information
本実施の形態は、ソース音源を収録点6で聞いたときの音響を生成し、その音響を触覚にてユーザに提供することを特徴としている。以下、この特徴的な触覚による呈示処理について図3に示したフローチャートを用いて説明する。本実施の形態では、図5と同様の仮想空間を用いて説明する。
The present embodiment is characterized in that the sound when the source sound source is heard at the
ユーザは、所定の操作を行うことで仮想空間を表示画面12に表示する。仮想空間に表示された音源2からは、所定のソース音源が出力されている。図1に示したように、収録点6がいずれの可聴領域4にも含まれていないときにはソース音源は届かないため何も聞こえない。ここで、ユーザがマウス操作等によって収録点6を移動させて、いずれかの可聴領域内、例えば可聴領域4aに進入させたとする(ステップ101,102)。このときの音源2aと可聴領域4aと収録点6の位置関係を図4(a)に示す。音響情報生成処理部20は、音源2aから出力される音響情報をソース音源記憶部40から取得し、更に仮想空間情報、具体的には仮想空間における音源2aと収録点6の各位置情報を仮想空間情報記憶部42から取得する(ステップ103)。そして、音響情報生成処理部20は、音源2aと収録点6の各位置情報に基づいて音源2aから収録点6までの距離及び方向を求める。なお、ここでの仮想空間は、室内などの狭い空間であって音源2aと収録点6との距離は近く、音源2から発せられたソース音源が収録点6に届くタイムラグは無視できるものとする。従って、音響情報生成処理部20は、ソース音源に、ソース音源が伝達されてきた時の音圧等の受信状態に関する情報を付加して音響情報として生成する(ステップ104)。そして、生成した音響情報を音響情報記憶部44に登録する。
The user displays the virtual space on the
触覚情報生成処理部22でも同様に音源2aから出力される音響情報をソース音源記憶部40から取得し、仮想空間における音源2aと収録点6の各位置情報を仮想空間情報記憶部42から取得する(ステップ103)。そして、触覚情報生成処理部22は、取得した情報に基づき触覚情報を生成するが(ステップ106)、この生成処理について説明する前に、生成された触覚情報に基づき呈示部位駆動部24により駆動される呈示部位16の動作について説明する。
Similarly, the tactile information generation processing unit 22 acquires acoustic information output from the
図4(a)に示したように、収録点6には、図面右上方向に位置する音源2aから矢印A方向の音響が伝達されてくる。従って、呈示部位駆動部24は、図4(b)に示したように触覚情報呈示装置14に設けられた呈示部位16を、ニュートラル位置から矢印Aと同一方向の矢印B方向に駆動する。この駆動するタイミングを例えばリズムに合わせて矢印B方向に駆動する。なお、駆動しないタイミングでは、呈示部位16はニュートラルの位置に戻るように動作する。呈示部位16への駆動力は音圧によって決める。すなわち、呈示部位16は、伝達されてきた音圧が強いと強い駆動力で駆動され、音圧が弱いと弱い駆動力で駆動される。このようにして、音圧の強弱を表現する。これにより、ユーザは、音源2から音響が伝達されてくるような触覚を得ることになる。なお、この呈示部位16の駆動に関する内部処理については、追って説明する。
As shown in FIG. 4A, the sound in the arrow A direction is transmitted to the
以上のように、触覚情報生成処理部22は、仮想空間情報から得られる音源2aの方向と音響情報から得られる音圧に基づいて触覚情報を生成し、生成した触覚情報を触覚情報記憶部46に登録する。そして、前述したように、呈示部位駆動部24は、生成された触覚情報に基づき呈示部位16を駆動することで音響情報を触覚にてユーザに提供する(ステップ107)。
As described above, the haptic information generation processing unit 22 generates haptic information based on the direction of the
また、音響情報に基づいて呈示部位16を駆動することに同時並行して聴覚により音響情報を提供する。すなわち、音出力処理部32は、音響情報記憶部44に登録された音響情報に基づいて音響をスピーカから出力する(ステップ105)。音出力処理部32における音出力処理自体は従来と同じでよい。更に、可聴領域4への進入後、音響情報に基づき音源2から波紋が放射状に広がるように表示処理部34に画面表示させるようにすれば、音響が伝達する様子を視覚にて確認させることができる。波紋が広がるスピードや波の位相の大きさや間隔は、音圧や音響の周波数や振幅等の音響情報又は音響情報の変化に応じて変化させる。
In addition, the acoustic information is provided by hearing simultaneously with the driving of the
以上のようにして、音響情報処理装置10は、音響情報をユーザに対して触覚により呈示することができる。ユーザは、音響を触覚により感じることができるが、音響を触覚と聴覚の両方で受けることでより楽しむことができる。更に音響に合わせて画面表示を変化させることで視覚を通じて音響を楽しませることができるのでより効果的である。
As described above, the acoustic
以上の処理(ステップ101〜107)を繰り返し実行することで、音響情報処理装置10は、音響情報を触覚により継続して提供することになるが、例えば収録点6が音源2aに近づく方向に移動されると、音源2と収録点6の距離が近づくため呈示部位16が駆動される方向は同じB方向でも音圧が高くなる分その強く駆動される。これにより、ユーザは、収録点6が音源2aに近づくという「移動」、換言すると「位置関係の変化」を触覚により得ることになる。
By repeatedly executing the above processing (steps 101 to 107), the acoustic
また、例えば収録点6が可聴領域4bの方向に動かされて可聴領域4aと可聴領域4bとが重なり合った領域4cに移動されたとすると、音響情報生成処理部20は、音源2a,2bから出力される各音響情報と、音源2a,2bと収録点6の各位置情報を仮想空間情報記憶部42から取得し(ステップ103)、音源2aに関する音響情報と、音源2bに関する音響情報とを生成する。単一の可聴領域4のみに含まれている場合には、上記説明したようにソース音源をそのまま音響情報に含めればよいが、複数の可聴領域4に含まれている場合には、各音響情報を合成することで、領域4cに位置する収録点6における音響情報を生成する(ステップ104)。合わせて触覚情報生成処理部22でも各音源からの音響情報及び音響情報を出力した音源と収録点との位置関係に基づき触覚情報を生成するため、呈示部位駆動部24は、収録点6に対して画面右下方向に位置する音源2aからのソース音源により生成された触覚と、画面左上方向に位置する音源2bからのソース音源により生成された触覚とが合成された触覚をユーザに対して提供することになる。また、音出力処理部32は、音源2a,2bからの各音響の合成音響をユーザに提供することになる。
For example, if the
ここで、触覚情報生成処理部22における生成処理について説明する。触覚情報生成処理部22は、入力した音響情報及び仮想空間情報に基づいて触覚情報を生成するが、まず、音響情報を音響情報記憶部44から取り出して、その音響情報に含まれる音響データを周波数分割する。そして、特定周波数帯域の時間変化分を常時検出するようにし、検出された時間変化に応じて呈示部位16が駆動されるように触覚情報を生成する。駆動するタイミング(駆動パターン)は、時間変化量によって決定する。前述した特定周波数帯域は、予め設定しておくことになるが、例えば、リズムベース音に反応させて呈示部位16を駆動させたいときには、そのリズムベース音の周波数をサンプリングできるように設定しておく。もちろん、どの帯域を特定周波数帯域とするかは、変更できるようにしておいてもよい。なお、駆動力は、前述したように音響情報に含まれる音圧データによって決定する。
Here, the generation processing in the tactile information generation processing unit 22 will be described. The tactile information generation processing unit 22 generates tactile information based on the input acoustic information and virtual space information. First, the acoustic information is extracted from the acoustic
以上のようにして音響情報に基づき呈示部位16の駆動パターン及び駆動力を決定することになるが、本実施の形態では、更に音源2と収録点6との距離に応じて駆動力を調整する。すなわち、触覚情報生成処理部22は、入力した仮想空間情報から収録点6が含まれている可聴領域4を形成する音源2と収録点6との位置情報を取り出して、音源2と収録点6との距離を求める。そして、その距離に応じて上記決定した駆動力を増減する。より具体的に言うと、音源2と収録点6との距離に応じて音源2からの出力されるソース音源の減衰率を決定し、その減衰率に基づき駆動力を決定する。
As described above, the driving pattern and driving force of the
次に、本実施の形態では、音源2と収録点6との位置関係によって呈示部位16を駆動させる方向を決定する必要がある。すなわち、触覚情報生成処理部22は、取り出した音源2と収録点6の各位置情報に基づき音源2から発せられる音響の収録点6への伝達方向を求める。この方向が呈示部位16の駆動方向である。なお、複数の可聴領域4に含まれている場合には、前述したように各方向を合成した方向が駆動方向となる。
Next, in this embodiment, it is necessary to determine the direction in which the
ところで、上記説明では、仮想空間を室内などの狭い空間と仮定したことによって音源2から発せられたソース音源が収録点6に届く際のタイムラグを無視した。ここでは、このタイムラグを考慮した場合について説明する。
By the way, in the above description, since the virtual space is assumed to be a narrow space such as a room, the time lag when the source sound source emitted from the
例えば、どこかの屋外の広い場所でコンサートが行われた場合を想定してみる。この場合の仮想空間は、屋外の広い場所であり、音源2から発せられた音響が多少遅れて収録点6に到達するものとする。この場合、音響情報生成処理部20は、仮想空間情報に基づいて音源2と収録点6との距離を求め、その距離に応じた遅れをもって音響情報を生成する。この結果、駆動部呈示部位16は、ソース音源の出力から遅れをもって呈示部位16を駆動させる。これにより、ソース音源から音響が発せられたときから遅れて、呈示部位駆動部24は呈示部位16を駆動し、音出力処理部32はスピーカから音響を出力する。
For example, consider a case where a concert is held in a wide outdoor area. The virtual space in this case is a wide outdoor place, and the sound emitted from the
但し、ソース音源から音響が発せられたタイミングをユーザが把握できなければ、タイムラグが発生している状態をユーザに認識させることはできない。そのために、表示処理部34は、音源2からのソース音源の出力タイミングがわかるように画面表示する。これにより、ユーザは、視覚により音源からの音響出力タイミングを認識することができるので、触覚及び聴覚によりタイムラグの発生を認識することができる。
However, if the user cannot grasp the timing when the sound is emitted from the source sound source, the user cannot recognize the time lag. Therefore, the
なお、タイムラグを考慮した場合と考慮しないで無視した場合とに分けて説明をしたが、処理自体は分ける必要はなく、音源2と収録点6との距離を常に考慮して触覚情報を生成するようにすればよい。仮想空間が室内などの狭い空間の場合には、タイムラグが触覚情報に反映されていても、そのタイムラグは極めて小さいため、ユーザはそのタイムラグを感じ取れないに過ぎない。
In addition, although the explanation was divided into the case where time lag was considered and the case where it was ignored without being considered, the processing itself does not need to be separated, and tactile information is generated by always considering the distance between the
本実施の形態によれば、音響を聴覚及び視覚のみならず、触覚により提示することができるので、音響の楽しみ方の幅を拡大することができる。 According to the present embodiment, since sound can be presented not only by hearing and vision but also by tactile sense, the range of how to enjoy sound can be expanded.
本実施の形態は、以上説明したように、基本的には音源2から出力されるソース音源が収録点6にどのような音圧でどのような方向から伝達されているかと言う音響の状態を触覚により提供するものであるが、音響の状態のみならず仮想空間における各音源と収録点との位置関係に基づく情報も提供するようにしてもよい。例えば、上記においては、収録点6が音源2aに近づくという「移動」(「位置関係の変化」)を触覚により提供すると説明した。つまり、収録点6の移動に伴う音圧の変化を触覚に反映させることにしたが、仮に音源2との距離を維持したまま音源2の周囲を移動した場合には、移動により位置が変化しているという情報を触覚により提供するようにしてもよい。また、収録点6の移動に限定することなく、音源2を移動させたときでも音源2と収録点6との相対的な位置関係は変化するので、この場合も何らかの駆動パターンによって呈示部位16を駆動させるようにしてもよい。
In the present embodiment, as described above, basically, the sound state that the source sound source output from the
10 音響情報処理装置、12 表示画面、14 触覚情報呈示装置、16 呈示部位、20 音響情報生成処理部、22 触覚情報生成処理部、24 呈示部位駆動部、26 操作受付部、28 位置検出部、30 仮想空間情報管理部、32 音出力処理部、34 表示処理部、36 音響情報記憶部、40 ソース音源記憶部、42 仮想空間情報記憶部、44 音響情報記憶部、46 触覚情報記憶部。
DESCRIPTION OF
Claims (7)
仮想空間における1又は複数の音源と収録点との距離に基づく、各音源から出力される音響情報が収録点に伝達されたときの音圧に関する情報を含む音響情報を生成する伝達音響情報生成処理手段と、
前記音響情報に含まれる音圧に関する情報に応じた駆動力で、前記収録点に対する前記音源の方向に基づく方向に、前記呈示部位を駆動させる駆動手段と、
を有することを特徴とする音響情報処理装置。 A presentation part touched by a user and movable in a two-dimensional or three-dimensional direction ;
Based rather on the distance between the recording points and the one or more sound sources in the virtual space, transfer audio information for generating audio information including information on the sound pressure when the audio information output from the sound sources is transmitted to the recording point Generation processing means ;
Driving means for driving the presenting part in a direction based on the direction of the sound source with respect to the recording point with a driving force according to information on sound pressure included in the acoustic information ;
An acoustic information processing apparatus comprising:
仮想空間における各音源と収録点との位置関係を画面表示する表示処理手段を有することを特徴とする音響情報処理装置。 The acoustic information processing apparatus according to claim 1,
An acoustic information processing apparatus comprising display processing means for displaying on screen a positional relationship between each sound source and recording points in a virtual space.
前記表示処理手段は、各音源から出力される音響情報を、各音源から波紋が放射状に拡がるように画面表示することを特徴とする音響情報処理装置。 In the acoustic processing device according to claim 2,
The display processing means displays acoustic information output from each sound source on the screen so that ripples spread radially from each sound source .
前記表示処理手段は、音響情報に従い各音源から音響が発せられたタイミングで、各音源からの波紋を画面表示し、
前記駆動手段は、各音源からの音響が発せられてから各音源と収録点との距離に応じた遅れをもって前記呈示部位を駆動することを特徴とする音響情報処理装置。 The acoustic information processing apparatus according to claim 2 ,
The display processing means displays a ripple from each sound source on the screen at a timing when sound is emitted from each sound source according to the sound information,
The acoustic information processing apparatus , wherein the driving means drives the presentation site with a delay corresponding to the distance between each sound source and a recording point after sound from each sound source is emitted .
画面表示された仮想空間における音源又は収録点の位置を変更する操作手段を有することを特徴とする音響情報処理装置。 The acoustic information processing apparatus according to claim 1,
An acoustic information processing apparatus having an operation means for changing a position of a sound source or a recording point in a virtual space displayed on a screen.
前記駆動手段は、音源又は収録点の位置の変更を反映させて前記呈示部位を駆動することを特徴とする音響情報処理装置。 The acoustic information processing apparatus according to claim 5,
The acoustic information processing apparatus , wherein the driving means drives the presentation site by reflecting a change in a position of a sound source or a recording point .
仮想空間における1又は複数の音源と収録点との距離に基づく、各音源から出力される音響情報が収録点に伝達されたときの音圧に関する情報を含む音響情報を生成する伝達音響情報生成ステップと、
前記音響情報に含まれる音圧に関する情報に応じた駆動力で、前記収録点に対する前記音源の方向に基づく方向に、前記呈示部位を駆動させる駆動ステップと、
を含むことを特徴とする音響情報提供方法。 More touched to the user is carried out in an information processing apparatus tactile information presentation devices are connected with a movable presentation site in a two-dimensional or three-dimensional directions, the acoustic information providing method for providing sound information to the user,
Based rather on the distance between the recording points and the one or more sound sources in the virtual space, transfer audio information for generating audio information including information on the sound pressure when the audio information output from the sound sources is transmitted to the recording point Generation step ;
A driving step of driving the presenting part in a direction based on a direction of the sound source with respect to the recording point with a driving force according to information on sound pressure included in the acoustic information ;
A method for providing acoustic information, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004119343A JP4484570B2 (en) | 2004-04-14 | 2004-04-14 | Acoustic information processing apparatus and acoustic information providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004119343A JP4484570B2 (en) | 2004-04-14 | 2004-04-14 | Acoustic information processing apparatus and acoustic information providing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005301827A JP2005301827A (en) | 2005-10-27 |
JP4484570B2 true JP4484570B2 (en) | 2010-06-16 |
Family
ID=35333255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004119343A Expired - Fee Related JP4484570B2 (en) | 2004-04-14 | 2004-04-14 | Acoustic information processing apparatus and acoustic information providing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4484570B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5703807B2 (en) * | 2011-02-08 | 2015-04-22 | ヤマハ株式会社 | Signal processing device |
DE112012005561T5 (en) * | 2012-01-03 | 2014-11-06 | Intel Corporation | Touch screen interaction methods and devices |
US10331214B2 (en) * | 2015-09-08 | 2019-06-25 | Sony Corporation | Information processing device, method, and computer program |
US11399980B2 (en) * | 2017-07-27 | 2022-08-02 | Alcon Inc. | Controlling a laser surgical device with a sensation generator |
JP6927029B2 (en) * | 2017-12-28 | 2021-08-25 | 株式会社Jvcケンウッド | Vibration experience device |
CN117441150A (en) * | 2021-06-15 | 2024-01-23 | 索尼集团公司 | Haptic signal generation device, haptic signal generation method, and program |
-
2004
- 2004-04-14 JP JP2004119343A patent/JP4484570B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005301827A (en) | 2005-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10915177B2 (en) | Three-dimensional perceptions in haptic systems | |
EP2965793B1 (en) | Vibration generation system, vibration generation apparatus, vibration signal generation program, and vibration generation method | |
US9645648B2 (en) | Audio computer system for interacting within a virtual reality environment | |
JP6504809B2 (en) | System and method for haptically enabled projected user interface | |
JPH05233188A (en) | Method and device for graphically selecting display element for blind or visually handicapped computer user | |
JP2018507485A (en) | Perception in the tactile system | |
JP2015185137A (en) | information processing apparatus, information processing method, and program | |
JP2015143987A (en) | In-vehicle gesture interaction space audio system | |
JP2008071354A (en) | Audible computer user interface method and apparatus | |
CN104081334A (en) | Apparatus and method for audio reactive UI information and display | |
WO2019038888A1 (en) | Vibration control device | |
JP3740518B2 (en) | GAME DEVICE, COMPUTER CONTROL METHOD, AND PROGRAM | |
JP4484570B2 (en) | Acoustic information processing apparatus and acoustic information providing method | |
KR20150117797A (en) | Method and Apparatus for Providing 3D Stereophonic Sound | |
JP6882785B2 (en) | Spatial sound generator, space sound generation system, space sound generation method, and space sound generation program | |
Grani et al. | Spatial sound and multimodal interaction in immersive environments | |
CN109062536A (en) | Screen sounding method and device, electronic device and storage medium | |
JP2005115291A (en) | Audio equipment layout support apparatus, program, and acoustic system | |
US20240205637A1 (en) | Visual Platforms for Configuring Audio Processing Operations | |
WO2022209317A1 (en) | Information processing device, information processing system, information processing method, and program | |
JPH09190544A (en) | Sound presentation method for image data | |
JP2006109295A (en) | Audio playback apparatus, audio playback program, and program recording medium | |
WO2021002162A1 (en) | Audio controller, program, directive speaker, and method for controlling directive speaker | |
JP4264042B2 (en) | Tactile information transmission device and tactile information transmission program | |
JP2002140337A (en) | Method and device for voice data retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4484570 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140402 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |