JPH08335161A - Authoring method and sound processor - Google Patents
Authoring method and sound processorInfo
- Publication number
- JPH08335161A JPH08335161A JP7139769A JP13976995A JPH08335161A JP H08335161 A JPH08335161 A JP H08335161A JP 7139769 A JP7139769 A JP 7139769A JP 13976995 A JP13976995 A JP 13976995A JP H08335161 A JPH08335161 A JP H08335161A
- Authority
- JP
- Japan
- Prior art keywords
- icon
- sound
- icons
- time
- sound object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は文書、動画及び音声等を
オーサリングする機能を備えたマルチメディア処理装置
に係わり、特に音声を編集するためのオーサリング方法
及びこの方法を用いたサウンド処理装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multimedia processing apparatus having a function of authoring a document, a moving image, a sound and the like, and more particularly to an authoring method for editing a sound and a sound processing apparatus using this method.
【0002】[0002]
【従来の技術】従来この種のサウンド処理装置上で、利
用者が音声(サウンド)のオブジェクトをオーサリング
するには、前記装置によりサウンドを音声波形図として
視覚化し、この音声波形図を見てオーサリング作業を行
っていた。又、利用者はオブジェクトの内容を音として
再生することにより確認していた。2. Description of the Related Art Conventionally, in order to author a voice (sound) object on a sound processing device of this type, a user visualizes a sound as a voice waveform diagram by the device, and authoring is performed by viewing this voice waveform diagram. I was working. Also, the user confirms by reproducing the content of the object as a sound.
【0003】しかし、サウンドは視覚化されにくく、上
記した音声波形図では音声オブジェクトの構造や時間的
流れを視覚化することができなかった。従って、いずれ
の音声波形図にどのような内容のサウンドが保存されて
いて、それがどのような時系列で再生されるのかという
ことを利用者自信が把握するには、対象の音声波形図に
対応するサウンドをいちいち再生してみなければなら
ず、かなりの時間と労力を要していた。このため、よほ
ど習熟した利用者でない限り、音声波形図を用いた従来
のオーサリング方法では手間ばかり掛かって希望通りの
編集を行うことが難しかった。However, the sound is hard to be visualized, and the structure and the temporal flow of the voice object cannot be visualized in the above-mentioned voice waveform diagram. Therefore, in order for the user self-confidence to know what kind of sound is stored in which audio waveform diagram and what time series it is played in, It took a considerable amount of time and effort to play the corresponding sounds one by one. Therefore, unless the user is very well-versed, it is difficult for the conventional authoring method using the audio waveform diagram to perform the desired editing with much effort.
【0004】[0004]
【発明が解決しようとする課題】上記のような音声オブ
ジェクトを音声波形図に視覚化して行う従来のオーサリ
ング方法では、音声波形図からそのサウンドの内容や再
生状態を直接知ることができないため、一般の利用者は
手間及び時間が掛かるばかりで、希望通りのオーサリン
グを行うことは困難であった。In the conventional authoring method of visualizing a voice object as described above in a voice waveform diagram, the contents and reproduction state of the sound cannot be directly known from the voice waveform diagram, and therefore, in general, It took a lot of time and effort for the users of, and it was difficult to perform the desired authoring.
【0005】そこで本発明は上記の事情に鑑み、視覚化
した音声オブジェクトを用いて一般の利用者にも容易に
希望通りのオーサリングを行うことができるオーサリン
グ方法及びこの方法を用いたサウンド処理装置を提供す
ることを目的としている。In view of the above-mentioned circumstances, the present invention provides an authoring method and a sound processing apparatus using this method that allow a general user to easily perform desired authoring using a visualized voice object. It is intended to be provided.
【0006】[0006]
【課題を解決するための手段】請求項1の発明は、各種
の音声データから成る複数のサウンドオブジェクトをオ
ーサリングするサウンド処理装置におけるオーサリング
方法にあって、前記サウンドオブジェクトに任意のアイ
コンを1対1に複数定義し、定義されたアイコンの一部
又は全部を画面上で並べてグループ化することにより再
生するサウンドオブジェクトを選択し、グループ化され
たアイコンの配列順序に従って対応するサウンドオブジ
ェクトを再生する方法を採用している。According to a first aspect of the present invention, there is provided an authoring method in a sound processing device for authoring a plurality of sound objects composed of various audio data, wherein an arbitrary icon is set to the sound object in a one-to-one correspondence. A sound object to be played back by grouping a part or all of the defined icons side by side on the screen, and playing back the corresponding sound object according to the arrangement order of the grouped icons. It is adopted.
【0007】請求項2の発明は、前記サウンドオブジェ
クトである音声データをその長さに応じた棒グラフによ
り視覚化し、この棒グラフに近接して前記任意のアイコ
ンを作成することにより、前記サウンドオブジェクトに
任意のアイコンを対応付けて定義する方法を採用してい
る。According to the second aspect of the present invention, the sound data that is the sound object is visualized by a bar graph according to its length, and the arbitrary icon is created in the vicinity of this bar graph, so that the sound object is arbitrarily selected. The method of defining by associating the icon of is adopted.
【0008】請求項3の発明は、前記棒グラフの長さを
調整したり、その前後を入れ替えたり、その1部分をカ
ットしたりすることが前記棒グラフに対応する音声デー
タの長さの調整やその前後の入れ替えや、その1部分の
カットに対応する方法を採用している。According to a third aspect of the present invention, the length of the bar graph can be adjusted, the front and rear of the bar graph can be changed, or one part of the bar graph can be cut to adjust the length of the voice data corresponding to the bar graph or the adjustment. It employs a method that corresponds to the replacement of the front and back and the cutting of that part.
【0009】請求項4の発明は、前記グループ化された
アイコンを、各アイコンに対応するサウンドオブジェク
トの再生開始時刻が明示される位置の時間軸上に配置
し、各アイコンの時間軸上の位置に基づいて対応するサ
ウンドオブジェクトの再生時刻を管理する方法を採用し
ている。According to a fourth aspect of the present invention, the grouped icons are arranged on the time axis at the position where the reproduction start time of the sound object corresponding to each icon is clearly indicated, and the position of each icon on the time axis is arranged. The method of managing the playback time of the corresponding sound object is adopted based on.
【0010】請求項5の発明は、前記アイコンと対応す
るオブジェクトをリンクして登録し、必要に応じて呼び
出す方法を採用している。請求項6の発明は、無音を示
すアイコンを定義し、このアイコンの部分は何の音声デ
ータも再生しない方法を採用している。The invention of claim 5 employs a method of linking and registering an object corresponding to the icon and calling it as needed. The invention of claim 6 defines an icon indicating silence, and employs a method in which no audio data is reproduced in this icon portion.
【0011】請求項7の発明は、前記無音を示すアイコ
ンの無音時間を利用者が任意の時間に設定する方法を採
用している。請求項8の発明は、前記グループ化された
アイコンを全て表象する上位のアイコンを複数定義し、
これら上位のアイコンを画面上で並べて更にグループ化
することにより再生するサウンドオブジェクトを選択す
る方法を採用している。The invention of claim 7 employs a method in which the user sets the silent period of the icon indicating the silent period to an arbitrary period. The invention according to claim 8 defines a plurality of upper icons representing all the grouped icons,
A method of selecting a sound object to be reproduced by arranging these upper icons on the screen and further grouping them is adopted.
【0012】請求項9の発明は、前記上位のアイコンを
時間軸上に配置し、各上位のアイコンの時間軸上の位置
に基づいて対応するグループ化された各アイコンに対応
するサウンドオブジェクトの再生時刻を管理する方法を
採用している。According to a ninth aspect of the present invention, the upper icons are arranged on the time axis, and the sound object corresponding to each grouped icon corresponding to the position of each upper icon on the time axis is reproduced. The method of managing the time is adopted.
【0013】請求項10の発明は、前記上位のアイコン
に対応するグループ化したアイコン群をリンクして登録
し、必要に応じて呼び出す方法を採用している。請求項
11の発明は、各種の音声データから成る複数のサウン
ドオブジェクトを画面上でオーサリングするサウンド処
理装置において、音声データをサウンドオブジェクトと
して入力する入力手段と、前記画面上で任意のアイコン
を作成するアイコン作成手段と、前記入力手段から入力
された前記サウンドオブジェクトに前記アイコン作成手
段により作成したアイコンを1対1に複数定義するアイ
コン定義手段と、このアイコン定義手段により定義され
たアイコンを画面上で並べてグループ化することにより
再生するサウンドオブジェクトを選択する編集手段と、
この編集手段によりグループ化されたアイコンの配列順
序に従って対応するサウンドオブジェクトを再生する再
生手段とを具備した構成を有している。The invention of claim 10 employs a method of linking and registering a grouped icon group corresponding to the higher-order icon and calling it as needed. According to an eleventh aspect of the present invention, in a sound processing device that authors a plurality of sound objects composed of various audio data on a screen, an input means for inputting the audio data as a sound object and an arbitrary icon is created on the screen. Icon creating means, icon defining means for defining a plurality of icons created by the icon creating means in the sound object input from the input means in a one-to-one correspondence, and icons defined by the icon defining means on the screen. Editing means for selecting sound objects to be played by grouping them side by side,
The editing means includes a reproducing means for reproducing the corresponding sound object in accordance with the arrangement order of the icons grouped by the editing means.
【0014】請求項12の発明は、前記入力手段は入力
した音声データであるサウンドオブジェクトをその長さ
に応じた棒グラフで前記画面上に視覚化する視覚化手段
を有し、前記アイコン定義手段は前記視覚化手段により
作成された棒グラフに近接してアイコンを表示すること
によりサウンドオブジェクトにアイコンを1対1に定義
する構成を有している。According to a twelfth aspect of the present invention, the input means has a visualization means for visualizing a sound object, which is input voice data, on the screen with a bar graph according to the length thereof, and the icon definition means is provided. The sound object is configured to define the icon on a one-to-one basis by displaying the icon close to the bar graph created by the visualization means.
【0015】請求項13の発明は、前記視覚化手段によ
り作成された前記棒グラフの長さを調整したり、その前
後を入れ替えたり、その1部分をカットしたりする棒グ
ラフ編集手段と、この棒グラフ編集手段により棒グラフ
が加工されると対応する音声データの長さの調整やその
前後の入れ替えやその1部分のカットを行う音声データ
編集手段を設けた構成を有している。According to a thirteenth aspect of the present invention, a bar graph editing means for adjusting the length of the bar graph created by the visualizing means, replacing the front and back of the bar graph, and cutting a part thereof, and the bar graph editing means. When the bar graph is processed by the means, the audio data editing means is provided for adjusting the length of the corresponding audio data, replacing the audio data before and after, and cutting a part of the audio data.
【0016】請求項14の発明は、時間軸を前記画面上
に表示する時間軸表示手段と、前記編集手段によりグル
ープ化されたアイコンを、前記時間軸表示手段により表
示された時間軸上の任意の時刻を示す位置に配置する配
置手段と、この配置手段により配置された各アイコンの
時間軸上の位置に基づいて対応するサウンドオブジェク
トの再生時刻を管理する時間管理手段とを具備した構成
を有している。According to a fourteenth aspect of the present invention, the time axis display means for displaying the time axis on the screen and the icons grouped by the editing means can be arbitrarily displayed on the time axis displayed by the time axis display means. And a time managing means for managing the reproduction time of the corresponding sound object based on the position on the time axis of each icon arranged by this arranging means. are doing.
【0017】請求項15の発明は、前記アイコン定義手
段により定義されたアイコンと対応するオブジェクトを
リンクして登録する登録手段と、この登録手段により登
録されたアイコンを必要に応じて呼び出す呼出手段とを
設けた構成を有している。According to a fifteenth aspect of the present invention, there is provided registration means for linking and registering an object corresponding to the icon defined by the icon definition means, and calling means for calling the icon registered by the registration means as needed. Is provided.
【0018】請求項16の発明は、前記アイコン定義手
段は無音を示すアイコンを定義し、前記再生手段はこの
アイコンのところで音声データを何も再生しない構成を
有している。According to a sixteenth aspect of the present invention, the icon defining means defines an icon indicating silence, and the reproducing means does not reproduce any audio data at the icon.
【0019】請求項17の発明は、前記アイコン定義手
段により定義された無音を示すアイコンの無音時間を利
用者が任意の時間に設定する設定手段を設けた構成を有
している。According to a seventeenth aspect of the present invention, there is provided a setting means for allowing the user to set the silent time of the icon indicating the silent sound defined by the icon defining means to an arbitrary time.
【0020】請求項18の発明は、前記アイコン定義手
段はグループ化されたアイコンを全て表象する上位のア
イコンを複数定義し、前記編集手段はこれら上位のアイ
コンを画面上で並べて更にグループ化することにより再
生するサウンドオブジェクトを選択する構成を有してい
る。According to the eighteenth aspect of the present invention, the icon defining means defines a plurality of upper icons representing all the grouped icons, and the editing means further arranges these upper icons on the screen to further group them. Has a configuration for selecting a sound object to be played.
【0021】請求項19の発明は、請求項14記載の配
置手段は前記アイコン定義手段により定義された上位の
アイコンを、請求項14記載の時間軸表示手段により表
示された時間軸上に配置し、請求項14記載の時間管理
手段は前記配置手段により配置された前記上位のアイコ
ンの時間軸上の位置に基づいてこの上位のアイコンに対
応するグループ化されたアイコンに対応するサウンドオ
ブジェクトの再生時刻を管理する構成を有している。According to a nineteenth aspect of the present invention, the arrangement means according to the fourteenth aspect arranges the higher order icons defined by the icon definition means on the time axis displayed by the time axis display means according to the fourteenth aspect. 15. The time management means according to claim 14, wherein the reproduction time of the sound object corresponding to the grouped icon corresponding to the higher-order icon based on the position on the time axis of the higher-order icon arranged by the arranging means. Has a configuration for managing.
【0022】請求項20の発明は、請求項15記載の登
録手段は前記アイコン定義手段により定義された上位の
アイコンと対応するグループ化したアイコン群をリンク
して登録し、請求項15記載の呼出手段は前記登録手段
により登録された上位のアイコンを必要に応じて呼び出
す構成を有している。According to a twentieth aspect of the present invention, the registration means according to the fifteenth aspect links and registers a grouped icon group corresponding to the higher-order icon defined by the icon definition means, and the calling according to the fifteenth aspect. The means has a configuration for calling the upper icon registered by the registration means as needed.
【0023】[0023]
【作用】請求項1の発明のオーサリング方法にあって
は、前記サウンドオブジェクトに任意のアイコンを1対
1に複数定義し、定義されたアイコンの一部又は全部を
画面上で並べてグループ化することにより再生するサウ
ンドオブジェクトを選択し、グループ化されたアイコン
の配列順序に従って対応するサウンドオブジェクトを再
生する。According to the authoring method of the present invention, a plurality of arbitrary icons are defined in the sound object in a one-to-one correspondence, and some or all of the defined icons are grouped side by side on the screen. Select a sound object to be played by and play the corresponding sound object according to the arrangement order of the grouped icons.
【0024】請求項2の発明のオーサリング方法にあっ
ては、前記サウンドオブジェクトである音声データをそ
の長さに応じた棒グラフにより視覚化し、この棒グラフ
に近接して前記任意のアイコンを作成することにより、
前記サウンドオブジェクトに任意のアイコンを対応付け
て定義する。In the authoring method according to the second aspect of the present invention, the sound data that is the sound object is visualized by a bar graph according to its length, and the arbitrary icon is created close to this bar graph. ,
An arbitrary icon is associated with the sound object and defined.
【0025】請求項3の発明のオーサリング方法にあっ
ては、前記棒グラフの長さを調整したり、その前後を入
れ替えたり、その1部分をカットしたりすると、前記棒
グラフに対応する音声データの長さを調整したり、その
前後を入れ替えたり、その1部分をカットする。In the authoring method of the third aspect of the present invention, when the length of the bar graph is adjusted, the front and rear of the bar graph are changed, or one part of the bar graph is cut, the length of the voice data corresponding to the bar graph is changed. Adjust the height, change the front and back, and cut one part.
【0026】請求項4の発明のオーサリング方法にあっ
ては、前記グループ化されたアイコンを、各アイコンに
対応するサウンドオブジェクトの再生開始時刻が明示さ
れる位置の時間軸上に配置する。各アイコンの前記時間
軸上の位置に基づいて対応するサウンドオブジェクトの
再生時刻を管理する。In the authoring method of the fourth aspect of the present invention, the grouped icons are arranged on the time axis at the position where the reproduction start time of the sound object corresponding to each icon is clearly indicated. The reproduction time of the corresponding sound object is managed based on the position of each icon on the time axis.
【0027】請求項5の発明のオーサリング方法にあっ
ては、前記アイコンと対応するオブジェクトをリンクし
て登録し、必要に応じて呼び出す。請求項6の発明のオ
ーサリング方法にあっては、無音を示すアイコンを定義
し、このアイコンの部分では何の音声データも再生しな
い。In the authoring method according to the fifth aspect of the invention, the object corresponding to the icon is linked and registered, and is called as needed. In the authoring method of the invention of claim 6, an icon indicating silence is defined, and no audio data is reproduced in the part of this icon.
【0028】請求項7の発明のオーサリング方法にあっ
ては、利用者は前記無音を示すアイコンの無音時間を任
意の時間に設定する。請求項8の発明のオーサリング方
法にあっては、前記グループ化されたアイコンを全て表
象する上位のアイコンを複数定義し、これら上位のアイ
コンを画面上で並べて更にグループ化することにより再
生するサウンドオブジェクトを選択する。In the authoring method of the invention of claim 7, the user sets the silent time of the icon indicating the silent to an arbitrary time. In the authoring method according to the invention of claim 8, a sound object which is reproduced by defining a plurality of upper icons representing all the grouped icons and arranging the upper icons on the screen to further group them. Select.
【0029】請求項9の発明のオーサリング方法にあっ
ては、前記上位のアイコンを時間軸上に配置する。各上
位のアイコンの前記時間軸上の位置に基づいて対応する
グループ化された各アイコンに対応するサウンドオブジ
ェクトの再生時刻を管理する。In the authoring method of the ninth aspect of the present invention, the upper icon is arranged on the time axis. The playback time of the sound object corresponding to each grouped icon is managed based on the position of each higher-order icon on the time axis.
【0030】請求項10の発明のオーサリング方法にあ
っては、前記上位のアイコンに対応するグループ化した
アイコン群をリンクして登録し、必要に応じて呼び出
す。請求項11の発明のサウンド処理装置においては、
入力手段は音声データをサウンドオブジェクトとして入
力する。アイコン作成手段は前記画面上で任意のアイコ
ンを作成する。アイコン定義手段は前記入力手段から入
力された前記サウンドオブジェクトに前記アイコン作成
手段により作成したアイコンを1対1に複数定義する。
編集手段は前記アイコン定義手段により定義されたアイ
コンを画面上で並べてグループ化することにより再生す
るサウンドオブジェクトを選択する。再生手段は前記編
集手段によりグループ化されたアイコンの配列順序に従
って対応するサウンドオブジェクトを再生する。In the authoring method of the tenth aspect of the present invention, the grouped icon groups corresponding to the higher order icons are linked and registered, and are called as necessary. In the sound processor of the invention of claim 11,
The input means inputs voice data as a sound object. The icon creating means creates an arbitrary icon on the screen. The icon defining means defines a plurality of one-to-one icons created by the icon creating means in the sound object input from the input means.
The editing means selects a sound object to be reproduced by arranging and grouping the icons defined by the icon defining means on the screen. The reproducing means reproduces the corresponding sound object according to the arrangement order of the icons grouped by the editing means.
【0031】請求項12の発明のサウンド処理装置にお
いては、前記入力手段の視覚化手段は入力した音声デー
タであるサウンドオブジェクトをその長さに応じた棒グ
ラフで前記画面上に視覚化する。前記アイコン定義手段
は前記視覚化手段により作成された棒グラフに近接して
アイコンを表示することによりサウンドオブジェクトに
アイコンを1対1に定義する。In the sound processing apparatus according to the twelfth aspect of the invention, the visualization means of the input means visualizes the sound object, which is the input voice data, on the screen as a bar graph according to its length. The icon defining means defines the icon on the sound object in a one-to-one relationship by displaying the icon close to the bar graph created by the visualization means.
【0032】請求項13の発明のサウンド処理装置にお
いては、棒グラフ編集手段は前記視覚化手段により作成
された前記棒グラフの長さを調整したり、その前後を入
れ替えたり、その1部分をカットしたりする。音声デー
タ編集手段は前記棒グラフ編集手段により棒グラフが加
工されると対応する音声データの長さの調整やその前後
の入れ替えやその1部分のカットを行う。In the sound processor of the thirteenth aspect of the present invention, the bar graph editing means adjusts the length of the bar graph created by the visualization means, replaces the front and back of the bar graph, or cuts one part thereof. To do. When the bar graph is edited by the bar graph editing means, the voice data editing means adjusts the length of the corresponding voice data, replaces it before and after, and cuts a part thereof.
【0033】請求項14の発明のサウンド処理装置にお
いては、時間軸表示手段は時間軸を前記画面上に表示す
る。配置手段は前記編集手段によりグループ化されたア
イコンを、前記時間軸表示手段により表示された時間軸
上の任意の時刻を示す位置に配置する。時間管理手段は
前記配置手段により配置された各アイコンの時間軸上の
位置に基づいて対応するサウンドオブジェクトの再生時
刻を管理する。In the sound processor of the fourteenth aspect of the invention, the time axis display means displays the time axis on the screen. The arranging unit arranges the icons grouped by the editing unit at a position indicating an arbitrary time on the time axis displayed by the time axis displaying unit. The time management means manages the reproduction time of the corresponding sound object based on the position on the time axis of each icon arranged by the arrangement means.
【0034】請求項15の発明のサウンド処理装置にお
いては、登録手段は前記アイコン定義手段により定義さ
れたアイコンと対応するオブジェクトをリンクして登録
する。呼出手段は前記登録手段により登録されたアイコ
ンを必要に応じて呼び出す。In the sound processor of the fifteenth aspect of the invention, the registration means links and registers the object corresponding to the icon defined by the icon definition means. The calling means calls the icon registered by the registration means as needed.
【0035】請求項16の発明のサウンド処理装置にお
いては、前記アイコン定義手段は無音を示すアイコンを
定義し、前記再生手段はこのアイコンのところで音声デ
ータを何も再生しない。In the sound processor of the sixteenth aspect of the present invention, the icon defining means defines an icon indicating silence, and the reproducing means does not reproduce any audio data at this icon.
【0036】請求項17の発明のサウンド処理装置にお
いては、設定手段は前記アイコン定義手段により定義さ
れた無音を示すアイコンの無音時間を利用者の指定した
任意の時間に設定する。In the sound processor of the seventeenth aspect of the invention, the setting means sets the silent time of the icon indicating the silent sound defined by the icon defining means to an arbitrary time designated by the user.
【0037】請求項18の発明のサウンド処理装置にお
いては、前記アイコン定義手段はグループ化されたアイ
コンを全て表象する上位のアイコンを複数定義し、前記
編集手段はこれら上位のアイコンを画面上で並べて更に
グループ化することにより再生するサウンドオブジェク
トを選択する。In the sound processing apparatus according to the eighteenth aspect of the invention, the icon defining means defines a plurality of upper icons representing all the grouped icons, and the editing means arranges these upper icons on the screen. A sound object to be played back is selected by further grouping.
【0038】請求項19の発明のサウンド処理装置にお
いては、請求項14記載の配置手段は前記アイコン定義
手段により定義された上位のアイコンを、請求項14記
載の時間軸表示手段により表示された時間軸上に配置
し、請求項14記載の時間管理手段は前記配置手段によ
り配置された前記上位のアイコンの時間軸上の位置に基
づいてこの上位のアイコンに対応するグループ化された
各アイコンに対応するサウンドオブジェクトの再生時刻
を管理する。In the sound processing apparatus according to the invention of claim 19, the arrangement means according to claim 14 displays the time when the higher level icon defined by the icon defining means is displayed by the time axis display means according to claim 14. The time management means according to claim 14 is arranged on an axis, and the time management means according to claim 14 corresponds to each grouped icon corresponding to the higher order icon based on the position on the time axis of the higher order icon arranged by the arranging means. Manage the playback time of the sound object.
【0039】請求項20の発明のサウンド処理装置にお
いては、請求項15記載の登録手段は前記アイコン定義
手段により定義された上位のアイコンと対応するグルー
プ化したアイコン群をリンクして登録し、請求項15記
載の呼出手段は前記登録手段により登録された上位のア
イコンを必要に応じて呼び出す。In the sound processing device of the invention of claim 20, the registration means according to claim 15 links and registers a grouped icon group corresponding to the higher order icon defined by the icon definition means, The calling unit according to Item 15 calls the upper icon registered by the registration unit as necessary.
【0040】[0040]
【実施例】以下、本発明の一実施例を図面を参照して説
明する。図1は本発明のオーサリング方法を用いた本発
明のサウンド処理装置の一実施例を示したブロック図で
ある。1はユーザがサウンドを編集する画面の表示、サ
ウンドのオブジェクトの階層構造や時間的な流れの表
示、システムのメッセージ等の各種情報の表示を行う表
示装置、2はサウンドの作成や編集を行う際の入力や指
定を行うキーボードやマウス等の入力装置、3はユーザ
が作成したり、編集したサウンドのオブジェクトを音と
して再生して出力するスピーカ等の外部出力装置、4は
ユーザが編集したい音声データの入力を行う、具体的に
はマイクや録音装置等の音声入力装置、5はサウンドの
編集画面やサウンドのオブジェクトを認識するプログラ
ム等が納められているROM、6は入力された文字情報
やユーザの指定した画面、プログラム実行中のデータ等
を記憶するRAM、7はユーザが作成したサウンドのオ
ブジェクト等をフロッピーディスクやハードディスク等
で記憶する外部記憶装置、8は全体の制御を司ってオー
サリングを行うと共に、図形編集作成制御や文書作成編
集制御を行うCPUである。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of the sound processing apparatus of the present invention using the authoring method of the present invention. 1 is a display device for displaying a screen on which a user edits a sound, displaying a hierarchical structure of sound objects and a temporal flow, and displaying various information such as system messages, and 2 is for creating or editing a sound. Input device such as a keyboard and mouse for inputting and designating a device, 3 is an external output device such as a speaker that reproduces and outputs an object of a sound created or edited by the user as sound, and 4 is audio data that the user wants to edit , Specifically, a voice input device such as a microphone and a recording device, 5 is a ROM in which a program for recognizing a sound editing screen or a sound object is stored, and 6 is input character information or a user. RAM for storing the specified screen, data during program execution, etc., 7 is a floppy disk for sound objects created by the user. An external storage device for storing at disk, a hard disk, or the like, 8 performs authoring responsible for the overall control, a CPU for performing graphic editing creation control and document creation and editing control.
【0041】まず、本実施例が動作する上で必要な要素
的なサウンドオブジェクトについて説明する。図2に示
すように、(おはよう)という視覚的なアイコン表示
と、この(おはよう)というアイコンで表象されるサウ
ンドオブジェクト(音声データ)があり、これが1対1
で対応して外部記憶装置7に保持されている。他の(こ
んにちは)、(音楽)等で表象されるアイコンも同様
で、それぞれ固有のサウンドオブジェクト(音声デー
タ)と対応関係にある。これら(おはよう)、(こんに
ちは)、(音楽)というアイコンで表象される(アイコ
ン化された)サウンドオブジェクトを要素的なサウンド
オブジェクトと称している。First, the elemental sound objects necessary for the operation of this embodiment will be described. As shown in FIG. 2, there is a visual icon display of (Good morning) and a sound object (voice data) represented by the icon of (Good morning).
Correspondingly stored in the external storage device 7. Other (Hi), is (music) icon to be representational also the same in such a correspondence relationship each specific sound objects (audio data). These (good morning), (Hello), is called to be representation by an icon that (music) (iconified) elemental sound object a sound object.
【0042】ここで、上記のような要素的なサウンドオ
ブジェクトの中で、例えば、(おはよう)と(音楽)と
いうアイコンで表象されるサウンドオブジェクトを選択
してグループ化し、これに、(朝のあいさつ)というア
イコンを新たに対応づけると、(朝のあいさつ)という
アイコンで表象される新たなサウンドオブジェクトを作
成することができる。このサウンドオブジェクトは(お
はよう)と(音楽)に対応するサウンドオブジェクトを
グループ化したもので成り立っている。Here, of the above-described elemental sound objects, for example, the sound objects represented by the icons (good morning) and (music) are selected and grouped, and the sound objects (morning greetings) ), A new sound object represented by the (morning greeting) icon can be created. This sound object consists of grouped sound objects corresponding to (good morning) and (music).
【0043】ところで、本例ではサウンドオブジェクト
を(おはよう)とか(音楽)等のアイコンで表象して視
覚化しているため、以降、(おはよう)とか(音楽)等
のアイコンをサウンドオブジェクトと称して説明する。By the way, in this example, a sound object is represented by an icon such as (good morning) or (music) for visualization, and henceforth, an icon such as (good morning) or (music) will be referred to as a sound object. To do.
【0044】ここで、要素的なサウンドオブジェクトを
組み合わせて新たなサウンドオブジェクトを作成して、
これを音として再生する場合、組み合わされたサウンド
オブジェクト間に図3に示すような従属関係が生じる。Here, a new sound object is created by combining the elemental sound objects,
When this is reproduced as a sound, a dependency relationship as shown in FIG. 3 occurs between the combined sound objects.
【0045】即ち、(朝のあいさつ)を再生する場合、
まず(音楽)を再生した後、(おはよう)を再生する
と、(音楽)と(おはよう)の間に図3(A)に示すよ
うな従属関係が生じる。ここで、(音楽)を再生すると
は、(音楽)というアイコンで表象されるサウンドオブ
ジェクトを実際に音として再生することである。That is, when reproducing (morning greeting),
When (music) is first reproduced and then (good morning) is reproduced, a subordination relationship as shown in FIG. 3A is generated between (music) and (good morning). Here, to play back (music) is to actually play back a sound object represented by the icon (music) as a sound.
【0046】又、(朝のあいさつ)を再生する場合、
(音楽)と(おはよう)を同時に再生すると、図3
(B)に示すような従属関係が生じる。更に本例では、
図4に示すように音声データが無いことを示すアイコン
(無音)で表象されるサウンドオブジエクトを定義して
ある。When playing (morning greeting),
If you play (music) and (good morning) at the same time,
The dependency shown in FIG. Furthermore, in this example,
As shown in FIG. 4, a sound object represented by an icon (silence) indicating that there is no audio data is defined.
【0047】これを使用すると、図4に示すように(お
はよう)を2度再生する際にその間に(無音)を挿入す
ることにより、最初に再生される(おはよう)とその後
に再生される(おはよう)との間に無音のポーズが入る
構成を容易に視覚的に設定することがてきる。尚、本例
では最初に再生される(おはよう)と同時に(音楽)が
再生されるようになっている。When this is used, as shown in FIG. 4, by inserting (silence) between (Ohayou) when the (Ohayou) is reproduced twice, the first reproduction (Ohayo) and the subsequent reproduction (Ohayou) Good morning), it is possible to easily set visually the composition that a silent pause is inserted between. In this example, (music) is reproduced at the same time as the first reproduction (good morning).
【0048】尚、上記したアイコン(無音)の無音時間
を利用者がCPU8に別途設定しておけばCPU8はこ
のアイコンのところで前記設定した時間分だけ無音とす
る。次に本実施例の動作について図5に示したフローチ
ャートを参照して説明する。利用者はステップ501に
て、入力装置2を操作して外部記憶装置7内のアイコン
化されたサウンドオブジェクトを表示装置1の画面上に
呼び出す指令をCPU8に与える。It should be noted that if the user separately sets the silent time of the above-mentioned icon (silent) in the CPU 8, the CPU 8 silences the icon for the set time. Next, the operation of this embodiment will be described with reference to the flowchart shown in FIG. In step 501, the user operates the input device 2 to give the CPU 8 a command to call the iconified sound object in the external storage device 7 on the screen of the display device 1.
【0049】これにより、CPU8は外部記憶装置7に
アクセスして、外部記憶装置7内に要素となるアイコン
化されたサウンドオブジェクトがあるかどうかを判定
し、ある場合はステップ504に進む。しかし、要素と
なるアイコン化されたサウンドオブジェクトがないと判
定した場合、この旨を表示装置1に表示した後、ステッ
プ502に進む。As a result, the CPU 8 accesses the external storage device 7 and determines whether or not there is an iconified sound object in the external storage device 7, and if there is, it proceeds to step 504. However, if it is determined that there is no iconified sound object as an element, this is displayed on the display device 1, and then the process proceeds to step 502.
【0050】利用者はステップ502にて入力装置2を
操作して音声データ入力モードをCPU8にセットする
ことにより、外部入力装置4から音楽やメッセージ等の
音声データ(サウンドオブジェクト)を入力して外部記
憶装置7に格納する。In step 502, the user operates the input device 2 to set the voice data input mode to the CPU 8 to input the voice data (sound object) such as music or message from the external input device 4 to the outside. It is stored in the storage device 7.
【0051】その後、利用者はステップ503にて入力
装置2を操作してCPU8をアイコン化したサウンドオ
ブジェクトの作成、編集、登録モードとして、外部記憶
装置7に格納した各種音声データに対して前述したよう
な要素となるアイコン化したサウンドオブジェクトを定
義し、定義されたアイコン化されたサウンドオブジェク
トをグループ化して編集することにより、新たなサウン
ドオブジェクトを作成したり、これらアイコン化された
サウンドオブジェクトを外部入力装置7に登録する。After that, the user operates the input device 2 in step 503 to set the various sound data stored in the external storage device 7 as a mode for creating, editing and registering the sound object in which the CPU 8 is iconized. You can create new sound objects or edit these iconified sound objects by defining and defining iconified sound objects that are like elements, and editing by grouping the defined iconified sound objects. Register in the input device 7.
【0052】ここで、上記した音声データの入力、アイ
コン化したサウンドオブジェクトの作成、編集、登録に
ついて述べておく。CPU8は例えばマイク(外部入力
装置4)から「おはよう」と音声データが入力される
と、表示装置1の画面に図6(A)の50で示すように
「おはよう」という音声データが入力されたことを斜線
の棒グラフ61で表示する。Here, the above-mentioned input of voice data, creation, editing, and registration of an iconified sound object will be described. When the voice data “Ohayo” is input to the CPU 8 from the microphone (external input device 4), the voice data “Ohayo” is input to the screen of the display device 1 as indicated by 50 in FIG. 6 (A). This is indicated by a diagonal bar graph 61.
【0053】利用者はこの「おはよう」というサウンド
オブジェクト(音声データ)に(おはよう)というアイ
コンを作成してリンクする(関連付ける)ことにより、
前記サウンドオブジェクトをアイコン化したい場合、図
6(B)に示すように前記棒グラフ61の隣におはよう
という文字を入力装置2から打ち込むだけで、CPU8
は「おはよう」というサウンドオブジェクトと(おはよ
う)というアイコンをリンクし、その後、利用者からの
登録指示で、(おはよう)というアイコンを「おはよ
う」というサウンドオブジェクト(音声データ)にリン
クして外部記憶装置7に格納する。The user creates and links (associates) an icon (good morning) with this sound object (sound data) called "good morning", and links it.
When the sound object is to be converted into an icon, as shown in FIG. 6B, the character "Good morning" is input from the input device 2 next to the bar graph 61.
Links the sound object "Good morning" and the icon "Good morning", and then links the icon "Good morning" to the sound object (Voice data) "Good morning" by the user's registration instruction. Store in 7.
【0054】尚、図6(A)に示すような入力音声デー
タの長さは棒グラフの長さで示され、又、入力音声デー
タの前後もこの棒グラフの前後で示されているため、こ
の棒グラフの長さや前後を図6(B)に示すように変更
することにより、入力音声データを視覚的に編集するこ
とができる。The length of the input voice data as shown in FIG. 6A is shown by the length of the bar graph, and the front and rear of the input voice data are also shown before and after this bar graph. The input voice data can be visually edited by changing the length and front and rear of the input voice as shown in FIG. 6 (B).
【0055】即ち、利用者が入力装置2を操作して表示
装置1に表示されている棒グラフ61に加工を加える
と、この加工に応じて、CPU8は外部記憶装置7内の
対応する音声データ(サウンドオブジェクト)に加工を
加えて、音声データの長さや前後を変更したり、その一
部分を消去するなどの動作を行う。That is, when the user operates the input device 2 to modify the bar graph 61 displayed on the display device 1, the CPU 8 responds to the modification by corresponding audio data (in the external storage device 7). Sound object) is modified to change the length, front and back of audio data, or to erase a part of it.
【0056】又、利用者は入力装置2を操作して外部記
憶装置7から表示装置1の画面上にアイコン化されたサ
ウンドオブジェクトを呼び出し、呼び出したアイコンを
2個以上選択して、新たなアイコン化されたサウンドオ
ブジェクトを作成したり、アイコンを画面上で図3に示
すように再生順に配置することにより、対応するサウン
ドオブジェクトの編集等を行う。Further, the user operates the input device 2 to call the iconified sound object on the screen of the display device 1 from the external storage device 7, selects two or more of the called icons, and selects a new icon. A corresponding sound object is edited by creating an emulated sound object or by arranging icons on the screen in the order of reproduction as shown in FIG.
【0057】この際、図4に示すように(無音)という
アイコン化されたサウンドオブジェクトを用いて、複数
のサウンドオブジェクトの再生間隔なども視覚的に編集
する。こうして、新たに作成されたアイコン化されたオ
ブジェクトは利用者により外部入力装置7に登録され
る。At this time, as shown in FIG. 4, using the iconized sound object (silence), the reproduction intervals of a plurality of sound objects are visually edited. In this way, the newly created iconified object is registered in the external input device 7 by the user.
【0058】次に利用者はステップ504にて、外部入
力装置7から上記したアイコン化したサウンドオブジェ
クトを表示装置1の画面上に呼び出し、呼び出したアイ
コンを用いてサウンドオブジェクトのグループ化を行
う。Next, in step 504, the user calls the iconified sound object from the external input device 7 on the screen of the display device 1 and groups the sound objects using the called icon.
【0059】即ち、利用者は画面上に呼び出したアイコ
ンを図7(A)に示すように例えば(朝のあいさつ)と
いうアイコンの下に、(おはよう)、(音楽A)、(無
音)という要素的なサウンドオブジェクトに対応するア
イコンを再生の順番どおりに配置することによりグルー
プ化する。図7(B)についても同様である。That is, as shown in FIG. 7 (A), the user calls the icon called on the screen, and under the icon of (morning greeting), the elements of (good morning), (music A), and (silence) are added. Groups by arranging the icons corresponding to specific sound objects in the order in which they are played. The same applies to FIG. 7 (B).
【0060】図8は図7でグループ化されたサウンドオ
ブジェクトを表象するアイコンを更にグループ化した例
であり、(朝のあいさつ)と(昼のあいさつ)という上
位のアイコンが再生順に配置されて、更に大きくグルー
プ化にされている。FIG. 8 shows an example in which the icons representing the sound objects grouped in FIG. 7 are further grouped, and upper icons (morning greeting) and (day greeting) are arranged in the order of reproduction, It is further divided into groups.
【0061】利用者はステップ505にて時間軸(タイ
ムライン)上でグループ化したアイコンを図9に示すよ
うな時間軸上に配置することにより、グループ化したア
イコンに対応するサウンドオブジェクトの再生時刻等の
時間管理を行う。The user arranges the icons grouped on the time axis (timeline) in step 505 on the time axis as shown in FIG. 9 so that the reproduction time of the sound object corresponding to the grouped icon is reproduced. Time management such as.
【0062】図9の例では、上記した(朝のあいさつ)
と(昼のあいさつ)をそれぞれの再生時刻位置の時間軸
上に配置し、更に(昼のあいさつ)を構成しているサウ
ンドオブジェクトである(こんにちは)と(音楽B)を
それぞれの再生時刻位置の時間軸上に配置している。In the example of FIG. 9, the above (morning greeting)
And (daytime greeting) was placed on the time axis of each of the reproduction time position, even more sound object constituting the (day greetings) (Hi) and (music B) of each of the reproduction time position It is placed on the time axis.
【0063】尚、(朝のあいさつ)についても図示して
いないが同様にこれを構成している各アイコンが再生時
間位置に配置されている。この例では、(朝のあいさ
つ)と(昼のあいさつ)の時間管理を第1レベルとする
と、(朝のあいさつ)と(昼のあいさつ)それぞれを構
成するアイコン化されたサウンドオブジェクトの時間管
理は第2レベルとなり、サウンドオブジェクトの時間管
理を階層構造を有している。Although not shown in the drawing (morning greeting), similarly, each icon constituting the same is arranged at the reproduction time position. In this example, if the time management of (morning greetings) and (daytime greetings) is the first level, the time management of the iconified sound objects that make up (morning greetings) and (daytime greetings) respectively The second level has a hierarchical structure for time management of sound objects.
【0064】図10は上記したサウンドオブジェクトの
階層構造的時間管理とこれに基づいた編集を説明する図
である。例えば図10(A)に示すようなタイムライン
がああって、(朝のあいさつ)と(昼のあいさつ)の時
間管理がなされている。FIG. 10 is a diagram for explaining the hierarchical time management of the sound object and the editing based on the time management. For example, the timeline as shown in FIG. 10A is set, and the time management of (morning greeting) and (daytime greeting) is performed.
【0065】更に、図10(B)は上記した(朝のあい
さつ)を構成する(おはよう)と(音楽A)のタイムラ
インである。同様に図10(C)は上記した(昼のあい
さつ)を構成する(音楽B)と(こんにちは)のタイム
ラインである。Further, FIG. 10B is a timeline of (good morning) and (music A) which compose the (morning greeting) described above. Like FIG. 10 (C) is a timeline of constituting the above (daytime greeting) and (music B) (Hi).
【0066】従って、図10(A)のタイムラインは
(朝のあいさつ)と(昼のあいさつ)の時間管理を行う
一方、図10(B)と図10(C)のタイムラインの時
間管理をも行っている。Therefore, while the timeline of FIG. 10 (A) manages the time of (morning greeting) and (daytime greeting), the time management of the timeline of FIG. 10 (B) and FIG. 10 (C) is performed. Is also going.
【0067】利用者は上記したようなタイムラインを見
て、(音楽A)と(音楽B)をタイムライン上で交換す
ることにより、時間的な流れに沿って、それぞれのアイ
コンに対応するサウンドオブジェクトを編集する。The user looks at the timeline as described above and exchanges (music A) and (music B) on the timeline, so that the sounds corresponding to the respective icons are chronologically flowed. Edit the object.
【0068】その後、利用者はステップ506にて入力
装置2を操作して、CPU8に図9に示したような時間
管理されたアイコン化されたサウンドオブジェクトの再
生を指示すると、CPU8は時刻を監視し、各アイコン
で表象されるサウンドオブジェクトの再生時刻がくる
と、このサウンドオブジェクトに対応する音声データを
外部記憶装置7から取り出して、外部出力装置3に送る
ことにより、再生する。Thereafter, the user operates the input device 2 in step 506 to instruct the CPU 8 to reproduce the time-controlled iconified sound object as shown in FIG. 9, and the CPU 8 monitors the time. When the reproduction time of the sound object represented by each icon comes, the audio data corresponding to this sound object is taken out from the external storage device 7 and sent to the external output device 3 to be reproduced.
【0069】例えば図9の例において、時刻t0が来る
と、アイコン(朝のあいさつ)を構成するアイコン(お
はよう)とアイコン(音楽A)に対応するサウンドオブ
ジェクト(音声データ)を再生し、その後、時刻t1が
来ると、(昼のあいさつ)を構成するアイコン(こんに
ちは)とアイコン(音楽B)に対応するサウンドオブジ
ェクト(音声データ)を再生し、更に時刻t2が来ると
アイコン(こんにちは)に対応するサウンドオブジェク
ト(音声データ)を再度再生する。For example, in the example of FIG. 9, when the time t0 comes, a sound object (sound data) corresponding to the icon (good morning) and the icon (music A) forming the icon (morning greeting) is reproduced, and then, When the time t1 comes, corresponding to play a sound object corresponding to the icon that make up the (daytime greeting) (Hello) and the icon (music B) (voice data), further time t2 comes when the icon (Hello) Play the sound object (sound data) again.
【0070】本実施例によれば、入力した音声データの
内容単位に視覚的な複数のアイコン化したサウンドオブ
ジェクトを定義しておき、これらサウンドオブジェクト
を表象するアイコンを表示装置1の画面上で、再生時系
列に沿ってタイムライン上に配置することにより、音声
データを極めて容易且つ簡単に編集することができる。According to this embodiment, a plurality of visual iconified sound objects are defined for each content unit of the input audio data, and icons representing these sound objects are displayed on the screen of the display device 1. By arranging on the timeline along the reproduction time series, the audio data can be edited very easily and easily.
【0071】又、前記アイコン化したサウンドオブジェ
クトを2つ以上選択してグループ化し、これに新たな上
位のアイコンを対応付けることにより、サウンドオブジ
ェクトの編集を容易に行うことができる。Further, it is possible to easily edit the sound object by selecting two or more of the iconified sound objects, grouping them, and associating them with a new upper icon.
【0072】更に、上記のように配置されたアイコンの
位置関係や構造を見るだけで、再生音声データの内容や
再生時の時間的流れを容易に理解することができ、アイ
コンの入れ替えによるサウンドオブジェクトの入れ替え
や、新たなアイコンの挿入による新たなサウンドオブジ
ェクトの挿入等により、容易に希望どおりの音声データ
の編集を行うことができる。Furthermore, it is possible to easily understand the content of the reproduced voice data and the temporal flow at the time of reproduction by simply looking at the positional relationship and structure of the icons arranged as described above. , Or by inserting a new sound object by inserting a new icon, it is possible to easily edit the audio data as desired.
【0073】[0073]
【発明の効果】以上記述した如く請求項1、5、8、1
1、15、18の発明によれば、アイコン化したオブジ
ェクトを用いて一般の利用者にも容易に希望通りのオー
サリングを実行することができる。As described above, claims 1, 5, 8, 1 are provided.
According to the inventions 1, 15 and 18, general users can easily perform desired authoring by using the iconified objects.
【0074】請求項2又は12の発明によれば、簡単に
サウンドオブジックトをアイコン化することができる。
請求項3又は13の発明によれば、音声データの加工を
視覚的に容易に行うことができる。According to the second or twelfth aspect of the invention, the sound object can be easily iconized.
According to the invention of claim 3 or 13, the processing of the audio data can be easily performed visually.
【0075】請求項4、9、10、14、19、20の
発明によれば、アイコンを用いてサウンドオブジックト
の再生時間を容易に管理することができる。請求項6、
7、16、17の発明によれば、無音部分も容易に視覚
的に扱うことができる。According to the inventions of claims 4, 9, 10, 14, 19, and 20, it is possible to easily manage the reproduction time of the sound object using the icon. Claim 6,
According to the inventions 7, 16, and 17, the silent portion can be easily handled visually.
【図面の簡単な説明】[Brief description of drawings]
【図1】本発明のサウンド処理装置の一実施例を示した
ブロック図。FIG. 1 is a block diagram showing an embodiment of a sound processing device of the present invention.
【図2】図1の装置によりサウンドオブジェクトを作成
した例を示した説明図。FIG. 2 is an explanatory view showing an example in which a sound object is created by the device of FIG.
【図3】図1の装置によりサウンドオブジェクトを編集
した例を示した説明図。3 is an explanatory diagram showing an example in which a sound object is edited by the device of FIG.
【図4】無音というサウンドオブジェクトの用途を示し
た説明図。FIG. 4 is an explanatory diagram showing a use of a sound object called silence.
【図5】図1に示した装置の動作手順を示したフローチ
ャート。5 is a flowchart showing an operation procedure of the apparatus shown in FIG.
【図6】図1に示した装置に音声データを入力してサウ
ンドオブジェクトを定義する過程を示した説明図。FIG. 6 is an explanatory diagram showing a process of inputting audio data to the device shown in FIG. 1 and defining a sound object.
【図7】図1の装置によりサウンドオブジェクトをグル
ープ化した例を示した説明図。FIG. 7 is an explanatory diagram showing an example in which sound objects are grouped by the device of FIG. 1.
【図8】図1の装置によりサウンドオブジェクトをグル
ープ化した他の例を示した説明図。FIG. 8 is an explanatory view showing another example in which sound objects are grouped by the device of FIG. 1.
【図9】図1の装置によりサウンドオブジェクトをタイ
ムライン上に配置した例を示した説明図。9 is an explanatory diagram showing an example in which sound objects are arranged on the timeline by the device of FIG.
【図10】図1の装置によりサウンドオブジェクトの時
間管理を階層的に行っている場合の例を示した説明図。10 is an explanatory diagram showing an example in which time management of sound objects is hierarchically performed by the device of FIG.
1…表示装置 2…入力装置 3…外部出力装置 4…外部入力装
置 5…ROM 6…RAM 7…外部記憶装置 8…CPUDESCRIPTION OF SYMBOLS 1 ... Display device 2 ... Input device 3 ... External output device 4 ... External input device 5 ... ROM 6 ... RAM 7 ... External storage device 8 ... CPU
Claims (20)
ドオブジェクトをオーサリングするサウンド処理装置に
おけるオーサリング方法にあって、前記サウンドオブジ
ェクトに任意のアイコンを1対1に複数定義し、定義さ
れたアイコンの一部又は全部を画面上で並べてグループ
化することにより再生するサウンドオブジェクトを選択
し、グループ化されたアイコンの配列順序に従って対応
するサウンドオブジェクトを再生することを特徴とする
オーサリング方法。1. A method of authoring in a sound processing device for authoring a plurality of sound objects composed of various audio data, wherein a plurality of arbitrary icons are defined in the sound object in a one-to-one correspondence. A method for authoring, characterized in that a sound object to be played back is selected by arranging all or all of them on the screen and grouping them, and the corresponding sound object is played back according to the arrangement order of the grouped icons.
ータをその長さに応じた棒グラフにより視覚化し、この
棒グラフに近接して前記任意のアイコンを作成すること
により、前記サウンドオブジェクトに任意のアイコンを
対応付けて定義することを特徴とする請求項1記載のオ
ーサリング方法。2. The sound object, which is the sound data, is visualized by a bar graph according to its length, and the arbitrary icon is created in the vicinity of the bar graph to associate the arbitrary icon with the sound object. The authoring method according to claim 1, wherein the authoring method is defined as follows.
前後を入れ替えたり、その1部分をカットしたりするこ
とが前記棒グラフに対応する音声データの長さの調整や
その前後の入れ替えや、その1部分のカットに対応する
ことを特徴とする請求項2記載のオーサリング方法。3. Adjusting the length of the bar graph, exchanging the front and rear of the bar graph, and cutting one part thereof adjusts the length of the audio data corresponding to the bar graph and replaces it before and after, 3. The authoring method according to claim 2, which corresponds to the cut of the one part.
イコンに対応するサウンドオブジェクトの再生開始時刻
が明示される位置の時間軸上に配置し、各アイコンの時
間軸上の位置に基づいて対応するサウンドオブジェクト
の再生時刻を管理することを特徴とする請求項1記載の
オーサリング方法。4. The grouped icons are arranged on a time axis at a position where a reproduction start time of a sound object corresponding to each icon is clearly indicated, and are corresponded based on a position on the time axis of each icon. 2. The authoring method according to claim 1, wherein the reproduction time of the sound object is managed.
リンクして登録し、必要に応じて呼び出すことを特徴と
する請求項1記載のオーサリング方法。5. The authoring method according to claim 1, wherein the object corresponding to the icon is linked and registered, and is called as needed.
コンの部分は何の音声データも再生しないことを特徴と
する請求項1記載のオーサリング方法。6. The authoring method according to claim 1, wherein an icon indicating silence is defined, and no audio data is reproduced in the icon portion.
用者が任意の時間に設定することを特徴とする請求項1
記載のオーサリング方法。7. The user sets a silent period of the icon indicating the silent period to an arbitrary period of time.
Authoring method described.
象する上位のアイコンを複数定義し、これら上位のアイ
コンを画面上で並べて更にグループ化することにより再
生するサウンドオブジェクトを選択することを特徴とす
る請求項1記載のオーサリング方法。8. A sound object to be played back is selected by defining a plurality of upper icons that represent all the grouped icons and arranging these upper icons on the screen and further grouping them. The authoring method according to claim 1.
し、各上位のアイコンの時間軸上の位置に基づいて対応
するグループ化された各アイコンに対応するサウンドオ
ブジェクトの再生時刻を管理することを特徴とする請求
項8記載のオーサリング方法。9. The upper icons are arranged on a time axis, and the reproduction time of a sound object corresponding to each grouped icon corresponding to each upper icon on the time axis is managed. 9. The authoring method according to claim 8.
プ化したアイコン群をリンクして登録し、必要に応じて
呼び出すことを特徴とする請求項9記載のオーサリング
方法。10. The authoring method according to claim 9, wherein a grouped icon group corresponding to the higher-order icon is linked and registered, and is called when necessary.
ンドオブジェクトを画面上でオーサリングするサウンド
処理装置において、音声データをサウンドオブジェクト
として入力する入力手段と、前記画面上で任意のアイコ
ンを作成するアイコン作成手段と、前記入力手段から入
力された前記サウンドオブジェクトに前記アイコン作成
手段により作成したアイコンを1対1に複数定義するア
イコン定義手段と、このアイコン定義手段により定義さ
れたアイコンを画面上で並べてグループ化することによ
り再生するサウンドオブジェクトを選択する編集手段
と、この編集手段によりグループ化されたアイコンの配
列順序に従って対応するサウンドオブジェクトを再生す
る再生手段とを具備したことを特徴とするサウンド処理
装置。11. A sound processing device for authoring a plurality of sound objects composed of various kinds of sound data on a screen, input means for inputting sound data as a sound object, and icon creation for creating an arbitrary icon on the screen. Means, an icon defining means for defining a plurality of the icons created by the icon creating means in the sound object input from the input means in a one-to-one correspondence, and a group of icons defined by the icon defining means arranged side by side on the screen. A sound processing apparatus comprising: an edit means for selecting a sound object to be played back by converting the sound object into a sound, and a playback means for playing a corresponding sound object according to the arrangement order of the icons grouped by the edit means.
あるサウンドオブジェクトをその長さに応じた棒グラフ
で前記画面上に視覚化する視覚化手段を有し、前記アイ
コン定義手段は前記視覚化手段により作成された棒グラ
フに近接してアイコンを表示することによりサウンドオ
ブジェクトにアイコンを1対1に定義することを特徴と
する請求項11記載のサウンド処理装置。12. The input means has a visualization means for visualizing a sound object, which is input voice data, on the screen with a bar graph according to its length, and the icon definition means is provided by the visualization means. 12. The sound processing device according to claim 11, wherein the icon is defined in the sound object in a one-to-one relationship by displaying the icon close to the created bar graph.
棒グラフの長さを調整したり、その前後を入れ替えた
り、その1部分をカットしたりする棒グラフ編集手段
と、この棒グラフ編集手段により棒グラフが加工される
と対応する音声データの長さの調整やその前後の入れ替
えやその1部分のカットを行う音声データ編集手段を設
けたことを特徴とする請求項12記載のサウンド処理装
置。13. A bar graph editing unit that adjusts the length of the bar graph created by the visualization unit, replaces the front and back of the bar graph, and cuts a portion thereof, and a bar graph editing unit that processes the bar graph. 13. The sound processing apparatus according to claim 12, further comprising an audio data editing unit that adjusts the length of the corresponding audio data, replaces the audio data before and after, and cuts a part of the audio data.
表示手段と、前記編集手段によりグループ化されたアイ
コンを、前記時間軸表示手段により表示された時間軸上
の任意の時刻を示す位置に配置する配置手段と、この配
置手段により配置された各アイコンの時間軸上の位置に
基づいて対応するサウンドオブジェクトの再生時刻を管
理する時間管理手段とを具備したことを特徴とする請求
項11記載のサウンド処理装置。14. A time axis display means for displaying a time axis on the screen, and an icon grouped by the editing means, a position indicating an arbitrary time on the time axis displayed by the time axis display means. 12. Arrangement means for arranging the sound objects and time management means for managing the reproduction time of the corresponding sound object based on the position on the time axis of each icon arranged by the arranging means. The described sound processing device.
たアイコンと対応するオブジェクトをリンクして登録す
る登録手段と、この登録手段により登録されたアイコン
を必要に応じて呼び出す呼出手段とを設けたことを特徴
とする請求項11記載のサウンド処理装置。15. A registration means for linking and registering an object corresponding to the icon defined by the icon definition means, and a calling means for calling the icon registered by the registration means as needed are provided. The sound processing device according to claim 11, wherein the sound processing device is a sound processing device.
イコンを定義し、前記再生手段はこのアイコンのところ
で音声データを何も再生しないことを特徴とする請求項
11記載のサウンド処理装置。16. The sound processing apparatus according to claim 11, wherein the icon defining means defines an icon indicating silence, and the reproducing means reproduces no audio data at the icon.
た無音を示すアイコンの無音時間を利用者が任意の時間
に設定する設定手段を設けたことを特徴とする請求項1
6記載のサウンド処理装置。17. A setting means is provided for allowing a user to set a silent time of an icon indicating silence defined by the icon defining means to an arbitrary time.
6. The sound processing device according to 6.
れたアイコンを全て表象する上位のアイコンを複数定義
し、前記編集手段はこれら上位のアイコンを画面上で並
べて更にグループ化することにより再生するサウンドオ
ブジェクトを選択することを特徴とする請求項11記載
のサウンド処理装置。18. A sound object which is reproduced by the icon defining means defining a plurality of upper icons representing all the grouped icons, and the editing means arranging the upper icons on the screen and further grouping them. 12. The sound processing device according to claim 11, wherein the sound processing device is selected.
コン定義手段により定義された上位のアイコンを、請求
項14記載の時間軸表示手段により表示された時間軸上
に配置し、請求項14記載の時間管理手段は前記配置手
段により配置された前記上位のアイコンの時間軸上の位
置に基づいてこの上位のアイコンに対応するグループ化
されたアイコンに対応するサウンドオブジェクトの再生
時刻を管理することを特徴とする請求項18記載のサウ
ンド処理装置。19. The arranging means according to claim 14 arranges the higher-order icon defined by the icon defining means on the time axis displayed by the time axis display means according to claim 14. The time management means for managing the reproduction time of the sound object corresponding to the grouped icon corresponding to the upper icon based on the position on the time axis of the upper icon arranged by the arrangement means. The sound processing apparatus according to claim 18, wherein the sound processing apparatus is a sound processing apparatus.
コン定義手段により定義された上位のアイコンと対応す
るグループ化したアイコン群をリンクして登録し、請求
項15記載の呼出手段は前記登録手段により登録された
上位のアイコンを必要に応じて呼び出すことを特徴とす
る請求項19記載のサウンド処理装置。20. The registration means according to claim 15 links and registers a grouped icon group corresponding to a higher-order icon defined by the icon definition means, and the calling means according to claim 15 uses the registration means. 20. The sound processing device according to claim 19, wherein a higher-order icon registered by is called as needed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7139769A JPH08335161A (en) | 1995-06-07 | 1995-06-07 | Authoring method and sound processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7139769A JPH08335161A (en) | 1995-06-07 | 1995-06-07 | Authoring method and sound processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08335161A true JPH08335161A (en) | 1996-12-17 |
Family
ID=15252979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7139769A Pending JPH08335161A (en) | 1995-06-07 | 1995-06-07 | Authoring method and sound processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08335161A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016004189A (en) * | 2014-06-18 | 2016-01-12 | ヤマハ株式会社 | Synthetic information management device |
-
1995
- 1995-06-07 JP JP7139769A patent/JPH08335161A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016004189A (en) * | 2014-06-18 | 2016-01-12 | ヤマハ株式会社 | Synthetic information management device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5713021A (en) | Multimedia data search system that searches for a portion of multimedia data using objects corresponding to the portion of multimedia data | |
JP3153166B2 (en) | Multimedia attribute change device | |
US6078005A (en) | Apparatus for editing and reproducing visual events along musical events | |
JP4064489B2 (en) | Method and system for multimedia application development sequence editor using time event specification function | |
JP3507176B2 (en) | Multimedia system dynamic interlocking method | |
JP2002505788A (en) | System and method for accessing and manipulating time-based data | |
JP2994164B2 (en) | Scenario editing device | |
JP2004007407A (en) | Template file editing apparatus and editor program | |
JP2003037806A (en) | Nonlinear editing method, device thereof program and storing medium recording the same | |
JPH08335161A (en) | Authoring method and sound processor | |
JPH01102791A (en) | Data editing device | |
US7376332B2 (en) | Information processing method and information processing apparatus | |
JP3558052B2 (en) | Multimedia execution system, multimedia file execution method, and multimedia file structure readable by sequencer | |
JP4420454B2 (en) | Multimedia editing apparatus, multimedia editing method, program, and recording medium | |
JP2005249872A (en) | Device and method for setting music reproduction parameter | |
KR100442417B1 (en) | Educational digital contents in accordance with the objects divided by concept unit and a processing method via the contents | |
JP4046615B2 (en) | Waveform display program | |
JP3938022B2 (en) | Tone setting device and program | |
JP2000172859A (en) | Multimedia title editing device, multimedia title editing method, and storage medium recording multimedia title editing program | |
JPH09114632A (en) | Information editing device and information reproducing device | |
JP2005020202A (en) | Reproduction apparatus, reproduction method, and recording medium and program for them | |
JP2014216778A (en) | Information processing apparatus and information editing program | |
JPH08272989A (en) | Material generation support system using video | |
JP2002041034A (en) | Display position information preparing method | |
JPH08166987A (en) | Scenario editing device |