JP7023786B2 - Audio output device, audio output method and audio output program - Google Patents
Audio output device, audio output method and audio output program Download PDFInfo
- Publication number
- JP7023786B2 JP7023786B2 JP2018093285A JP2018093285A JP7023786B2 JP 7023786 B2 JP7023786 B2 JP 7023786B2 JP 2018093285 A JP2018093285 A JP 2018093285A JP 2018093285 A JP2018093285 A JP 2018093285A JP 7023786 B2 JP7023786 B2 JP 7023786B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- output device
- audio output
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
特許法第30条第2項適用 平成30年2月25日から平成30年2月27日までヤフー株式会社17階にて「テクノロジー×アート×データ」と称する展示にて発表Application of Article 30, Paragraph 2 of the Patent Act From February 25, 2018 to February 27, 2018, announced at an exhibition called "Technology x Art x Data" on the 17th floor of Yahoo Japan Corporation.
本発明は、音声出力装置、音声出力方法及び音声出力プログラムに関する。 The present invention relates to an audio output device, an audio output method, and an audio output program.
インターネット等のネットワークを介した通信が盛んに行われることに伴い、ネットワークへのアクセス状況を検知する様々な手法が提案されている。 With the active communication via networks such as the Internet, various methods for detecting the access status to the network have been proposed.
例えば、アクセスログの記録内容に応じた音源データを再生することにより、少ない作業負担で各アクセスに関するアクセス内容の特徴を瞬時に把握することができる技術が提案されている。 For example, a technique has been proposed in which the characteristics of the access contents related to each access can be instantly grasped with a small work load by reproducing the sound source data according to the recorded contents of the access log.
しかしながら、上記の従来技術には、さらに改良の余地がある。例えば、ユーザには、音声情報を利用して任意の情報を把握しようとする場合、より多くの種別の情報をより正確に把握したいというニーズがある。 However, there is room for further improvement in the above-mentioned prior art. For example, a user has a need to more accurately grasp more types of information when trying to grasp arbitrary information by using voice information.
本願は、上記に鑑みてなされたものであって、音声を用いて様々な種別の情報をユーザに把握させることができる音声出力装置、音声出力方法及び音声出力プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide a voice output device, a voice output method, and a voice output program capable of causing a user to grasp various types of information by using voice. ..
本願に係る音声出力装置は、種別が対応付けられた所定の情報を取得する取得部と、前記取得部によって取得された所定の情報の種別ごとに、対応する音声情報と、当該音声情報が出力される際の方向に関する情報とを選択する選択部と、前記選択部によって選択された方向に関する情報に基づいて、当該音声情報を定常的に出力装置から出力するよう制御するとともに、前記所定の情報における所定時間ごとの変化に応じて、当該音声情報を構成する要素を変更する音声出力部と、を備えることを特徴とする。 The voice output device according to the present application outputs the corresponding voice information and the voice information for each type of the acquisition unit that acquires the predetermined information associated with the types and the predetermined information acquired by the acquisition unit. Based on the selection unit that selects the information regarding the direction to be performed and the information regarding the direction selected by the selection unit, the voice information is controlled to be constantly output from the output device, and the predetermined information is specified. It is characterized in that it includes an audio output unit that changes an element constituting the audio information according to a change at predetermined time intervals.
実施形態の一態様によれば、音声を用いて様々な種別の情報をユーザに把握させることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that various types of information can be grasped by the user by using voice.
以下に、本願に係る音声出力装置、音声出力方法及び音声出力プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る音声出力装置、音声出力方法及び音声出力プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, a mode for implementing the voice output device, the voice output method, and the voice output program according to the present application (hereinafter, referred to as “the embodiment”) will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the audio output device, audio output method, and audio output program according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description will be omitted.
〔1.音声出力処理の一例〕
まず、図1を用いて、実施形態に係る音声出力装置100が実行する音声出力処理の一例について説明する。図1は、実施形態に係る音声出力装置100が実行する処理の一例を示す図である。
[1. An example of audio output processing]
First, an example of audio output processing executed by the
図1に示す音声出力装置100は、取得した所定の情報に対応する音声情報を生成し、生成した音声情報を出力装置(スピーカー等)から音声として出力するよう制御する情報処理装置である。
The
情報提供サーバ40は、実施形態に係る音声出力処理の対象となる所定の情報を音声出力装置100に提供するサーバ装置である。情報提供サーバ40は、インターネット等の所定のネットワークを介して、所定の情報を収集し、収集した情報を蓄積する。例えば、情報提供サーバ40は、種々のウェブコンテンツを提供するウェブサーバを管理することで、ウェブサーバにアクセスした端末装置に関する情報や、ウェブコンテンツへのアクセス情報を取得する。
The
スピーカー201~204は、音声情報に基づいて音声を出力する音声出力装置である。例えば、スピーカー201~204は、音声出力装置100から音声情報を受信し、音声情報に対応する音声を出力する。実施形態において、スピーカー201~204は、音の可聴範囲を比較的狭い角度に限定することが可能な、いわゆる指向性スピーカーである。なお、以下の説明において、スピーカー201~204を区別する必要のない場合には、「スピーカー20」と総称する。
ユーザU1及びユーザU2は、音声出力装置100がスピーカー20から出力させた音声を聴取するユーザである。なお、図1の例では、ユーザU1は、4台のスピーカー201~204が取り囲む空間70において、スピーカー201~204の各々が出力する音声を聴取可能な位置(空間70の中心近傍)に所在する。一方、ユーザU2は、スピーカー203が出力する音声を聴取可能な位置であって、スピーカー201や、スピーカー202や、スピーカー204が出力する音声を聴取できない位置に所在する。なお、以下の説明において、ユーザU1又はユーザU2を区別する必要のない場合には、「ユーザ」と総称する。
The user U1 and the user U2 are users who listen to the voice output from the
図1に示す例では、音声出力装置100は、所定の情報として、ネットワーク上におけるニュース記事のインプレッション数(視聴数)と、ニュース記事を閲覧したユーザがその記事を拡散させた数(シェア数)とを取得する。また、音声出力装置100は、所定の情報を区別するための種別として、ニュース記事に設定されたカテゴリを取得する。すなわち、図1の例では、音声出力装置100は、どのようなカテゴリのニュース記事がどのくらいユーザに視聴されたか、また、ニュース記事がどのくらいユーザ間でシェアされたか、といった情報を音声情報に変換する。言い換えれば、音声出力装置100は、取ニュース記事へのアクセス情報(アクセスログ)に基づいて音声情報を生成する。例えば、音声出力装置100は、インプレッション数の増減(変化)に対応させて、出力させる音声の音量が増減するよう、音声情報を変更する。あるいは、音声出力装置100は、シェア数の増減に対応させて、出力させる音声の周波数が変化するよう、音声情報を変更する。これにより、ユーザは、音声情報の元となる情報の変化を把握することができる。
In the example shown in FIG. 1, the
また、音声出力装置100は、音声情報の生成に際して、出力される音声の方向に関する情報を選択する。例えば、音声出力装置100は、ユーザに対して、取得した情報の種別ごとに異なる方向から音声が出力されるよう、音の方向に関する情報を割り当てる。具体的には、音声出力装置100は、種別に対応する各々の音声を出力する出力チャンネルを選択し、選択した出力チャンネルを別々のスピーカー20に割り当てることで、ユーザに対して異なる方向から音が出力されるよう制御する。かかる処理により、ユーザは、音量や周波数の変化のみならず、どの方向から音声が聞こえてくるかといった情報に基づいて、所定の情報の変化を検知することができる。このような音声出力処理について、図1を用いて、処理の流れに沿って説明する。
Further, the
まず、音声出力装置100は、情報提供サーバ40から音声情報に対応させる情報を取得する(ステップS01)。図1の例では、音声出力装置100は、音声情報に対応させる情報として、ウェブ上のニュース記事に対するアクセス情報を取得する。例えば、音声出力装置100は、アクセス情報として、ユーザがアクセスしたニュース記事のカテゴリや、集計期間ごと(例えば15秒ごとなど)のインプレッション数やシェア数等を取得する。
First, the
図1に示す表60は、音声出力装置100が取得した情報を示す。すなわち、音声出力装置100は、記事カテゴリとして、「経済」や「スポーツ」や「ファッション」や「芸能」等が設定されたニュース記事のアクセス情報を取得する。また、音声出力装置100は、所定の集計期間ごとのインプレッション数やシェア数を取得する。なお、表60では、集計期間を「T01」のような概念で示しているが、実際には、集計期間の項目には、具体的な日付や時間に関する情報が記憶される。また、表60では、インプレッション数やシェア数を「X01」や「Y01」のような概念で示しているが、実際には、これらの項目には、具体的な数値が記憶される。
Table 60 shown in FIG. 1 shows the information acquired by the
続いて、音声出力装置100は、取得した情報と音声情報とを対応付ける(ステップS02)。例えば、音声出力装置100は、音声出力装置100の管理者等によって予め作成された、音声情報の対応付けのための定義ファイル等に基づいて、取得した情報と音声情報とを対応付ける。
Subsequently, the
具体的には、音声出力装置100は、音声情報を構成する要素と、取得した情報の変数とを対応付ける定義ファイルに基づいて、取得した情報と音声情報とを対応付ける。一例として、音声出力装置100は、取得した情報の種別(図1の例では、ニュース記事のカテゴリ)に音色を、取得した情報の第1変数(図1の例では、インプレッション数)に音量を、取得した情報の第2変数(図1の例では、シェア数)に旋律を、それぞれ対応付ける。
Specifically, the
例えば、音声出力装置100は、記事カテゴリが「経済」である情報に対してバイオリンの音色の音声情報を対応付けたり、記事カテゴリが「スポーツ」である情報に対してピアノの音色の音声情報を対応付けたりする。
For example, the
図1の例では、表61に示すように、記事カテゴリ「経済」に対して音声情報「A01」が対応付けられるものとする。なお、表61では、音声情報を「A01」のような概念で示しているが、実際には、音声情報の項目には、出力時の音量や周波数を指定するための情報や、旋律や音色等を指定する情報が記憶される。なお、音声情報は、予め作成された音声ファイルであってもよいし、音の発する長さや高さを指定したデジタルデータ等であってもよい。音声情報がデジタルデータである場合、音声出力装置100もしくはスピーカー20は、指定された音を実際に再生させるための復号機能や音源データ等を有していてもよい。
In the example of FIG. 1, as shown in Table 61, it is assumed that the voice information “A01” is associated with the article category “economy”. In Table 61, the voice information is shown by a concept such as "A01", but in reality, the voice information items include information for designating the volume and frequency at the time of output, tunes, and timbres. Information that specifies, etc. is stored. The voice information may be a voice file created in advance, or may be digital data or the like in which the length or pitch at which the sound is emitted is specified. When the audio information is digital data, the
さらに、音声出力装置100は、記事カテゴリごとに音声情報の一要素(例えば音色)を選択するとともに、音声情報ごとに、音の方向に関する情報(音声の出力方向)を選択する(ステップS03)。
Further, the
例えば、音声出力装置100は、表61に示すように、音声情報「A01」に対して、方向(出力先)として、「スピーカー201」を選択する。同様に、音声出力装置100は、音声情報「A02」に対して方向(出力先)として、「スピーカー202」を選択し、音声情報「A03」に対して方向(出力先)として、「スピーカー203」を選択し、音声情報「A04」に対して方向(出力先)として、「スピーカー204」を選択する。なお、図1の例では説明を簡単にするために、音声情報とスピーカー20とが対応付けられる例を示したが、実際には、音声出力装置100は、音声情報に対して出力チャンネルを選択するのみであってもよい。この場合には、音声出力装置100は、出力チャンネルと出力先(スピーカー20)を対応付けた定義ファイルをさらに有する。
For example, as shown in Table 61, the voice output device 100 selects “
そして、音声出力装置100は、情報提供サーバ40から取得した情報に対応付けた音声情報に基づいて、音声の出力を制御する(ステップS04)。具体的には、音声出力装置100は、取得した情報に対応付けた音声情報をスピーカー201~204に送信し、スピーカー201~204を駆動させ、音声を出力させる。
Then, the
上記のように、スピーカー201~204は指向性スピーカーであり、出力する音声は、比較的狭い角度に放射されるため、スピーカー201~204の各々から出力された音声は、混合することなくユーザU1又はユーザU2に到達する。例えば、図1の例では、空間70において、ユーザU1は、スピーカー201~204の各々から出力される音声を聴取する。また、ユーザU2は、スピーカー203のみから出力される音声を聴取する。
As described above, the speakers 201 to 204 are directional speakers, and the output sound is radiated at a relatively narrow angle. Therefore, the sound output from each of the speakers 201 to 204 is mixed. It reaches the user U1 or the user U2 without any trouble. For example, in the example of FIG. 1 , in the
実施形態において、音声出力装置100は、定常的に音声を出力可能なように音声情報を生成するものとする。例えば、音声出力装置100は、一定のフレーズ(旋律)がループする音声情報を生成し、生成した音声情報をスピーカー20に送信する。
In the embodiment, the
また、音声出力装置100は、情報提供サーバ40から、継続して情報を取得し続ける。そして、音声出力装置100は、情報の変化に合わせて音声が変化するよう制御する(ステップS05)。
Further, the
例えば、音声出力装置100は、集計期間ごとのインプレッション数やシェア数の変化に合わせて、音声が変化するよう制御する。例えば、音声出力装置100は、集計期間T01の直後の集計期間T02において、記事カテゴリ「経済」のインプレッション数やシェア数が増加したことを示す情報を取得する。より具体的には、音声出力装置100は、集計期間T01から集計期間T02の間に、記事カテゴリ「経済」のインプレッション数やシェア数が所定の閾値を超えて増加したことを示す情報を取得する。
For example, the
この場合、音声出力装置100は、集計期間T01に対応した音声情報A01の一要素である音量(言い換えれば音声の出力値)に対して、集計期間T02に対応した音声情報A01においては相対的に音量を増加させる。例えば、集計期間と音声の出力時間とが同期している場合、音声出力装置100は、集計期間T01に対応した時間(例えば15秒間)は所定の音量でスピーカー201から音声が出力されるよう制御し、次の集計期間T02に対応した時間(集計期間T01の直後の15秒間)は、相対的に大きな音量でスピーカー201から音声が出力されるよう制御する。このとき、音声出力装置100は、インプレッション数の増加数(増加割合)に応じて、変化させる音量の値を決定してもよい。なお、音声出力装置100は、集計期間T01から集計期間T02の切り替わり時に瞬間的に音量を変更するのではなく、所定の時間に渡って、徐々に音量を変更してもよい。また、音声出力装置100は、音量を変化させるのではなく、定常的に出力される音声の周波数の高低を変更(例えば全体の音程を上げる等)してもよい。
In this case, the
同様に、音声出力装置100は、集計期間T01に対応した時間では所定の旋律でスピーカー201から音声が出力されるよう制御し、次の集計期間T02に対応した時間では、異なる旋律でスピーカー201から音声が出力されるよう制御してもよい。このとき、音声出力装置100は、シェア数の増加数(増加割合)に応じて、変化させる旋律の種類を決定してもよい。
Similarly, the
この場合、ユーザU1は、スピーカー201~204から出力される音声のうち、スピーカー201の音声のみが変化したことを知覚する。言い換えれば、ユーザU1は、音声に対応する4つの種別の情報のうち、記事カテゴリ「経済」のニュース記事のみに、所定の閾値を超えて変化が生じたことを知覚できる。また、ユーザU1は、音声に対応する4つの種別の情報のうち、記事カテゴリ「スポーツ」や「ファッション」や「芸能」のアクセス情報については、集計期間T01から集計期間T02の間に大きな変化がなかったことを知覚できる。すなわち、音声出力装置100は、発する音声に方向性を設定することで、4つの異なる情報を音声としてユーザU1に届けつつ、そのうち1つの情報の変化を知覚させることができる。
In this case, the user U1 perceives that only the voice of the
また、図1の例では、ユーザU2は、スピーカー201の音声に変化があったとしても、その音声を聞くことのできる範囲に所在しないため、音声の変化を知覚しない。すなわち、音声出力装置100は、発する音声に方向性を設定することで、知覚する必要のない音声をユーザU2に届けさせず、ユーザU2が所望する情報の変化のみを知覚させることができる。
Further, in the example of FIG. 1 , even if there is a change in the voice of the
このように、実施形態に係る音声出力装置100は、種別が対応付けられた所定の情報を取得し、取得した所定の情報の種別ごとに、対応する音声情報と、音声情報が出力される際の方向に関する情報とを選択する。さらに、音声出力装置100は、選択した方向に関する情報に基づいて、音声情報を定常的にスピーカー20から出力するよう制御するとともに、所定の情報における所定時間ごとの変化に応じて、音声情報を構成する要素を変更する。
As described above, when the
すなわち、音声出力装置100は、情報の変化を音量や周波数で表現するのみならず、出力する音声に方向という性質を付加することで、ある空間内に所在するユーザに情報の変化を知覚させることができる。言い換えれば、音声出力装置100は、取得した情報の種別ごとに出力先を選択することで、音情報を空間にマッピングする。これにより、ユーザは、音量等が変化せずとも、どの方向から音が到達するかといった情報に基づいて、情報の種別を判断することができる。また、音声出力装置100によれば、音の可聴領域に所在しないユーザ(図1の例ではユーザU2)には余計な音声を届けないようにすることができるので、情報を必要とするユーザのみに、必要な情報のみを届けるような処理を行うことができる。
That is, the
また、音声出力装置100は、定常的な音声を出力し、出力中の定常的な音声の音量等を変化させることによって、情報の連続的な変化をユーザに知覚させる。これにより、ユーザは、視覚によらず聴覚のみで、把握したいデータの変化を正確に把握することができる。例えば、ユーザは、把握したいデータが所定の値に到達したといった瞬間の情報ではなく、データがどのような傾向を示しているか(例えば、所定日時においてどのようなカテゴリのニュースがネットワーク上で頻繁に閲覧されているか)を把握することができる。
Further, the
以下、上記のような音声出力処理を行う音声出力装置100、及び、音声出力装置100を含む音声出力システム1について詳細に説明する。
Hereinafter, the
〔2.音声出力システムの構成〕
図2を用いて、実施形態に係る音声出力装置100が含まれる音声出力システム1の構成について説明する。図2は、実施形態に係る音声出力システム1の構成例を示す図である。図2に例示するように、実施形態に係る音声出力システム1には、スピーカー20と、情報提供サーバ40と、音声出力装置100とが含まれる。これらの各種装置は、ネットワークN(例えば、インターネット)を介して、有線又は無線により通信可能に接続される。なお、図2に示した音声出力システム1には、複数台のスピーカー20や、複数台の情報提供サーバ40が含まれてもよい。
[2. Audio output system configuration]
The configuration of the audio output system 1 including the
スピーカー20は、音声を出力する機能を有する出力装置の一例である。図1で示した例のように、音声を届ける対象が定まる場合(空間上に音情報をマッピングする場合)、スピーカー20は、例えば指向性スピーカーのような、音声の放射角度が定まっている装置が望ましい。また、スピーカー20は、音声出力装置100が生成した音声情報から音声を復号する機能を有していてもよい。
The
なお、スピーカー20は、指向性スピーカーに限らず、音声を出力する機能を有する装置であれば、いずれの装置であってもよい。例えば、スピーカー20は、スマートフォンや、デスクトップ型PCや、ノート型PCや、タブレット型端末や、携帯電話機、PDA(Personal Digital Assistant)、ウェアラブルデバイス(Wearable Device)等の情報処理装置が備えるスピーカーであってもよい。
The
情報提供サーバ40は、種々のサービスを提供するウェブサーバ等を管理し、各ウェブサーバから情報を取得し、取得した情報を蓄積するサーバ装置である。また、情報提供サーバ40は、蓄積した情報を音声出力装置100に提供する。
The
例えば、情報提供サーバ40は、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、SNS(Social Networking Service)サービスサイト、ウェブブログなどに関連する各種情報を含むウェブページを提供するウェブサーバから、ユーザのアクセス情報を取得する。
For example, the
音声出力装置100は、情報提供サーバ40から取得した情報を音声情報に変換し、音声情報を生成するとともに、音声情報に基づいて音声を出力するサーバ装置である。音声出力装置100は、情報提供サーバ40から取得した情報の種別ごとに、音声情報が出力される際の方向に関する情報を選択することにより、方向性を有する音声情報を生成する。これにより、音声出力装置100は、音量や周波数のみならず、音が放射される方向に基づいて、所定の情報をユーザに知覚させることができる。
The
〔3.音声出力装置の構成〕
次に、図3を用いて、実施形態に係る音声出力装置100の構成について説明する。図3は、実施形態に係る音声出力装置100の構成例を示す図である。図3に示すように、音声出力装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、音声出力装置100は、音声出力装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Configuration of audio output device]
Next, the configuration of the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、スピーカー20や情報提供サーバ40との間で情報の送受信を行う。
(About communication unit 110)
The
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、アクセスログ記憶部121と、音声選択記憶部122と、出力先記憶部123と、変更情報記憶部124とを有する。
(About the storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 120 includes an access
(アクセスログ記憶部121について)
アクセスログ記憶部121は、音声情報に変換される情報の一例であるアクセス情報を記憶する。ここで、図4に、実施形態に係るアクセスログ記憶部121の一例を示す。図4は、実施形態に係るアクセスログ記憶部121の一例を示す図である。図4に示した例では、アクセスログ記憶部121は、「コンテンツID」、「記事カテゴリ」、「集計期間」、「インプレッション数」、「シェア数」といった項目を有する。
(About access log storage unit 121)
The access
「コンテンツID」は、ニュース記事等のコンテンツを識別する識別情報を示す。なお、明細書中では、コンテンツIDのような識別情報を参照符号として用いる場合がある。例えば、コンテンツIDが「C01」であるコンテンツを、「コンテンツC01」と表記する場合がある。 The "content ID" indicates identification information that identifies content such as a news article. In the specification, identification information such as content ID may be used as a reference code. For example, the content whose content ID is "C01" may be described as "content C01".
「記事カテゴリ」は、ニュース記事に予め設定されたカテゴリを示す。「集計期間」は、インプレッション数やシェア数が集計される期間を示す。図4に示す例では「T01」といった概念的な値を記載したが、実際には、集計期間の項目には、具体的な日時を示す情報が記憶される。また、集計期間の長さは、例えば音声出力装置100の管理者等によって任意に設定されてもよい。
"Article category" indicates a preset category for news articles. "Aggregation period" indicates the period during which the number of impressions and the number of shares are aggregated. In the example shown in FIG. 4, a conceptual value such as "T01" is described, but in reality, information indicating a specific date and time is stored in the item of the aggregation period. Further, the length of the aggregation period may be arbitrarily set by, for example, the administrator of the
「インプレッション数」は、集計期間においてコンテンツが閲覧された閲覧数(PV数)を示す。「シェア数」は、コンテンツを閲覧したユーザが情報を拡散した数を示す。例えば、シェア数は、例えば、ウェブページやアプリ等を介して配信されたニュース記事等に表示される「この記事をシェアする」といった表示領域等をユーザが選択した回数によって算出される。図4に示す例では「X11」や「Y11」といった概念的な値を記載したが、実際には、インプレッション数やシェア数の項目には、具体的な数値を示す情報が記憶される。なお、インプレッション数やシェア数は、ある基準となる数値からの増減数(差分)によって示されてもよい。 The “number of impressions” indicates the number of views (number of PVs) at which the content was viewed during the aggregation period. The "number of shares" indicates the number of times the information is spread by the user who browses the content. For example, the number of shares is calculated by the number of times the user selects a display area such as "share this article" displayed in a news article or the like distributed via a web page or an application. In the example shown in FIG. 4, conceptual values such as "X11" and "Y11" are described, but in reality, information indicating specific numerical values is stored in the items of the number of impressions and the number of shares. The number of impressions and the number of shares may be indicated by the number of increases / decreases (differences) from a certain reference numerical value.
すなわち、図4では、アクセスログ記憶部121に格納される情報の一例として、コンテンツID「C01」によって識別されるコンテンツC01は、記事カテゴリが「経済」であることを示している。また、コンテンツC01は、集計期間「T01」においては、インプレッション数が「X11」であり、シェア数が「Y11」であることを示している。また、コンテンツC01は、集計期間「T02」においては、インプレッション数が「X12」であり、シェア数が「Y12」であることを示している。
That is, in FIG. 4, as an example of the information stored in the access
(音声選択記憶部122について)
音声選択記憶部122は、音声出力装置100が取得した情報に割り当てられる音声情報に関する情報を記憶する。ここで、図5に、実施形態に係る音声選択記憶部122の一例を示す。図5は、実施形態に係る音声選択記憶部122の一例を示す図である。図5に示した例では、音声選択記憶部122は、「音声情報ID」、「音源」、「対応情報」、「変数」、「要素」といった項目を有する。
(About voice selection storage unit 122)
The voice
「音声情報ID」は、音声情報を識別する識別情報を示す。「音源」は、音声情報に割り当てられる音源を示す。なお、音源とは、音声情報に対して選択される音色に関する情報であり、例えば、楽器名等によって示される。図4に示す例では「B01」といった概念的な値を記載したが、実際には、音源の項目には、楽器名や音源名を指定する具体的なデータが記憶される。 "Voice information ID" indicates identification information for identifying voice information. “Sound source” indicates a sound source assigned to voice information. The sound source is information related to a timbre selected for voice information, and is indicated by, for example, a musical instrument name or the like. In the example shown in FIG. 4, a conceptual value such as "B01" is described, but in reality, the item of the sound source stores specific data for designating the musical instrument name and the sound source name.
「対応情報」は、音声情報に対応する情報の種別を示す。対応情報は、例えば音声出力装置100の管理者等によって、音声情報で表現する情報の種別ごとに予め定義される。「変数」は、音声情報の要素を変更するために用いられる変数を示す。変数は、例えば音声出力装置100の管理者等によって、音声情報に対応する要素や情報の変更を判定する閾値等とともに予め定義される。「要素」は、変数の変化に応じて、音声情報において変更される要素を示す。
"Correspondence information" indicates the type of information corresponding to voice information. Correspondence information is defined in advance for each type of information expressed by voice information, for example, by the administrator of the
すなわち、図5では、音声選択記憶部122に格納される情報の一例として、音声情報ID「A01」によって識別される音声情報A01は、音源が「B01」であり、対応情報が「経済」であることを示している。また、音声情報A01は、変数が「インプレッション数」及び「シェア数」であり、インプレッション数に対応する音声情報の要素が「音量」もしくは「周波数」であり、「シェア数」に対応する要素が「旋律追加」であることを示している。
That is, in FIG. 5, as an example of the information stored in the voice
なお、音声選択記憶部122には、図5に示した情報とともに、所定の音声を出力させるための音声ファイル(例えばwav形式やmpg形式)等が記憶されてもよい。
In addition to the information shown in FIG. 5, the voice
(出力先記憶部123について)
出力先記憶部123は、音声情報に対応した音声が出力される出力先を記憶する。ここで、図6に、実施形態に係る出力先記憶部123の一例を示す。図6は、実施形態に係る出力先記憶部123の一例を示す図である。図6に示した例では、出力先記憶部123は、「出力先設定」、「音声情報ID」、「出力先」といった項目を有する。
(About the output destination storage unit 123)
The output
「出力先設定」は、出力先として設定される情報を示す。例えば、出力先は、音声情報と対応付けられる識別情報(実施形態では「チャンネル」と称する)で示される。「音声情報ID」は、図5で示した同一の項目に対応する。「出力先」は、具体的に音声を出力する出力先(出力装置)の名称を示す。 "Output destination setting" indicates information set as an output destination. For example, the output destination is indicated by identification information (referred to as "channel" in the embodiment) associated with voice information. The "voice information ID" corresponds to the same item shown in FIG. “Output destination” specifically indicates the name of an output destination (output device) that outputs audio.
すなわち、図6では、出力先記憶部123に格納される情報の一例として、出力先設定「チャンネル1」には、音声情報ID「A01」によって識別される音声情報A01が割り当てられており、チャンネル1の出力先が「スピーカー201」であること示している。
That is, in FIG. 6, as an example of the information stored in the output
(変更情報記憶部124について)
変更情報記憶部124は、音声情報の変更に関する情報を記憶する。ここで、図7に、実施形態に係る変更情報記憶部124の一例を示す。図7は、実施形態に係る変更情報記憶部124の一例を示す図である。図7に示した例では、変更情報記憶部124は、「定義ID」、「変数」、「変更要素」、「定義」といった項目を有する。
(About change information storage unit 124)
The change
「定義ID」は、音声情報の変更に関する定義を識別する識別情報を示す。「変数」は、音声情報を変更させる契機となる変数を示す。「変更要素」は、音声情報において変更される要素を示す。「定義」は、音声情報の変更が行われる事象を定義した具体的な内容を示す。 The "definition ID" indicates identification information that identifies a definition relating to a change in voice information. “Variable” indicates a variable that triggers a change in voice information. "Change element" indicates an element to be changed in voice information. "Definition" indicates a specific content that defines an event in which voice information is changed.
すなわち、図7では、変更情報記憶部124に格納される情報の一例として、定義ID「E01」によって識別される定義E01は、変数「変数1(実施形態では、インプレッション数)」が変化した場合に、変更要素「音量」を変化させることを示している。また、「直前の集計期間(における変数の値)と比較して閾値を超える増減」が観測された場合に、音声情報における音量が変化することを示している。
That is, in FIG. 7, as an example of the information stored in the change
なお、図7での図示は省略したが、変更情報記憶部124は、要素の変更について、より詳細な定義情報を記憶してもおいてもよい。例えば、変更情報記憶部124は、増減させる音量(出力値)の具体的な数値や、高低させる周波数の具体的な数値等を示した定義を記憶してもよい。また、変更情報記憶部124は、変数が増加した場合に音声情報に組み込む旋律や、変数が減少した場合に音声情報に組み込む旋律を示した定義を記憶してもよい。なお、旋律とは、必ずしも一連の音程の変化を示すものに限らず、特定の和音を奏でたり、所定の効果音等を鳴らしたりする指示であってもよい。
Although not shown in FIG. 7, the change
(制御部130について)
制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、音声出力装置100内部の記憶装置に記憶されている各種プログラム(音声出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 130)
The
図3に示すように、制御部130は、取得部131と、選択部132と、音声出力部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 3, the
(取得部131について)
取得部131は、各種情報を取得する。例えば、取得部131は、種別が対応付けられた所定の情報を取得する。所定の情報とは、後述する音声出力部133によって音声情報に対応付けられる情報であり、例えば、任意の情報の種別と、かかる情報に対応した数値である。例えば、所定の情報が「ニュース記事へのアクセスログ」である場合、所定の情報の種別はニュース記事に設定された「カテゴリ」であり、数値は「インプレッション数」や「シェア数」である。
(About acquisition unit 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires predetermined information with which the types are associated. The predetermined information is information associated with the voice information by the
取得部131は、種別の異なる複数の所定の情報を取得する。例えば、図4に示したように、取得部131は、「経済」や「スポーツ」等、複数の種別のアクセスログを取得する。これら複数の種別の情報が異なる方向から出力されることで、ユーザは、情報の変化を聴覚によって認識することができる。 The acquisition unit 131 acquires a plurality of predetermined information of different types. For example, as shown in FIG. 4, the acquisition unit 131 acquires a plurality of types of access logs such as “economy” and “sports”. By outputting these plurality of types of information from different directions, the user can perceive changes in the information by hearing.
なお、取得部131は、所定の情報として、所定時間ごとに観測される数値を取得する。例えば、取得部131は、予め設定される集計期間ごとに観測される数値を取得し、集計期間ごとの数値を記憶部120(例えばアクセスログ記憶部121)に格納する。これにより、取得部131は、集計期間ごとの数値の変化量(差分)に関する情報を取得することができる。 The acquisition unit 131 acquires the numerical values observed at predetermined time intervals as predetermined information. For example, the acquisition unit 131 acquires the numerical value observed for each aggregation period set in advance, and stores the numerical value for each aggregation period in the storage unit 120 (for example, the access log storage unit 121). As a result, the acquisition unit 131 can acquire information regarding the amount of change (difference) in the numerical value for each aggregation period.
上述のように、取得部131は、所定の情報として、予め設定されたカテゴリが対応付けられたコンテンツの閲覧数もしくは拡散数の少なくともいずれかを取得する。上記の例では、ニュース記事をコンテンツの一例として挙げたが、取得部131は、ニュース記事以外のコンテンツの閲覧数等を取得してもよい。例えば、取得部131は、カテゴリが設定されたウェブページごとの閲覧数を取得してもよい。具体的には、取得部131は、「旅行サイト」に分類されるウェブページの閲覧数の合計数と、「飲食店予約サイト」に分類されるウェブページの閲覧数の合計数等を取得してもよい。すなわち、取得部131が取得する情報は、ネットワーク上で取得されるあらゆる情報であってもよい。 As described above, the acquisition unit 131 acquires at least one of the number of views or the number of diffusions of the content associated with the preset category as predetermined information. In the above example, the news article is taken as an example of the content, but the acquisition unit 131 may acquire the number of views of the content other than the news article. For example, the acquisition unit 131 may acquire the number of views for each web page in which the category is set. Specifically, the acquisition unit 131 acquires the total number of views of web pages classified as "travel sites" and the total number of views of web pages classified as "restaurant reservation sites". You may. That is, the information acquired by the acquisition unit 131 may be any information acquired on the network.
例えば、取得部131は、所定の情報として、予め設定された銘柄が対応付けられた株価もしくは取引数の少なくともいずれかを取得してもよい。この場合、取得部131は、銘柄ごとに対応する音源が設定された定義ファイルを取得してもよい。取得部131によって取得された情報が音声として出力された場合、ユーザは、どの銘柄が値上がりしたか、あるいは、どの銘柄が頻繁に取引されているかといった情報を、定常的に発せられる連続的な音声によって知覚することができる。 For example, the acquisition unit 131 may acquire at least one of a stock price or a number of transactions associated with a preset issue as predetermined information. In this case, the acquisition unit 131 may acquire a definition file in which the corresponding sound source is set for each brand. When the information acquired by the acquisition unit 131 is output as voice, the user constantly emits information such as which brand has increased in price or which brand is frequently traded. Can be perceived by.
また、取得部131は、所定の情報として、所定の情報として、ネットワークを介して販売される商品の販売数、拡散数もしくはブックマーク数の少なくともいずれか一つを取得してもよい。この場合、取得部131は、商品に対応するカテゴリ(例えば、家電やファッションなどの分類情報)が設定された定義ファイルや、各カテゴリに割り当てる音源が指定された定義ファイル等を取得してもよい。取得部131によって取得された情報が音声として出力された場合、ユーザは、どのようなカテゴリの商品が頻繁に売買されているか、あるいは、どのような商品が頻繁にシェアされているかといった情報を、定常的に発せられる連続的な音声によって知覚することができる。 Further, the acquisition unit 131 may acquire at least one of the number of products sold, the number of spreads, and the number of bookmarks of products sold via the network as predetermined information. In this case, the acquisition unit 131 may acquire a definition file in which a category corresponding to the product (for example, classification information such as home appliances and fashion) is set, a definition file in which a sound source to be assigned to each category is specified, and the like. .. When the information acquired by the acquisition unit 131 is output as voice, the user can obtain information such as what category of products are frequently bought and sold or what products are frequently shared. It can be perceived by a continuous voice that is emitted constantly.
(選択部132について)
選択部132は、取得部131によって取得された所定の情報の種別ごとに、対応する音声情報と、音声情報が出力される際の方向に関する情報とを選択する。
(About selection unit 132)
The
具体的には、選択部132は、音声情報が出力される際の方向に関する情報として、音声情報が出力される出力装置の識別情報を選択する。例えば、選択部132は、図5で示したように、所定の情報の種別ごとに出力先のチャンネルを選択し、チャンネルの選択に伴い、出力装置(スピーカー20)の識別情報を選択してもよい。言い換えれば、選択部132は、出力先を選択することにより、音声を出力させる方向を指定(選択)する。
Specifically, the
例えば、選択部132は、取得部131によって種別の異なる複数の所定の情報が取得された場合、複数の種別ごとに異なる出力装置の識別情報を選択する。これにより、選択部132は、複数の種別に対応する音声が同時に出力されても、異なる方向からユーザに音声を届けることができるので、ユーザの知覚を妨げることがない。言い換えれば、選択部132は、出力装置の識別情報を選択することで、ユーザが音を聞く空間に音情報をマッピングすることができる。
For example, when a plurality of predetermined information of different types is acquired by the acquisition unit 131, the
また、選択部132は、所定の情報の種別ごとに対応する音声情報を選択する際に、音声情報の音源を選択する。具体的には、選択部132は、種別ごとに異なる音色を選択する。選択部132によれば、同時に異なる種別に対応する音声が出力される場合であっても、各々の音声には異なる音色が選択されているため、ユーザが情報を混同することを防止できる。なお、音声情報の選択とは、種別ごとに異なる音源(音色)を用いて音声情報を生成することと読み替えてもよい。
Further, the
(音声出力部133について)
音声出力部133は、選択部132によって選択された方向に関する情報に基づいて、音声情報を定常的に出力装置から出力するよう制御するとともに、所定の情報における所定時間ごとの変化に応じて、音声情報を構成する要素を変更する。
(About audio output unit 133)
The
例えば、音声出力部133は、複数の種別ごとに異なる出力装置から音声情報を出力するよう制御する。これにより、音声出力部133は、1種類の種別の情報でなく、複数の種別の情報に対応する音声をユーザに届けることができる。
For example, the
また、音声出力部133は、所定の情報における所定時間ごとの変化に応じて、音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する。例えば、音声出力部133は、変更情報記憶部124に記憶された定義を参照し、所定の情報の変数の変化に応じて、音量、周波数もしくは音色を変更する。
Further, the
また、音声出力部133は、所定の情報における所定時間ごとの変化に応じて、変化に対応付けられた旋律を含む音声情報を出力してもよい。この場合、音声出力部133は、変更情報記憶部124に記憶された定義を参照し、所定の情報の変数の変化に応じた旋律を決定し、定常的に発している音声に旋律を組み込む処理を行う。
Further, the
なお、音声出力部133は、上記した音量や周波数等以外の要素についても、適宜変更してもよい。すなわち、音声出力部133は、音声を聞いているユーザが何らかの変化を認識できるよう、音声情報の種々の要素を変更してもよい。例えば、音声出力部133は、定常的に出力させている音声における旋律の時間長やエンベロープを変更してもよい。また、音声出力部133は、出力している音声の周波数をスイープさせるよう、周波数を時間に応じて変更してもよい。また、音声出力部133は、生成する音声情報の波形(正弦波、三角波、矩形波等)を適宜変更して、定常的に出力されている音声に変化を与えてもよい。なお、音声出力部133は、これら音声情報の生成や変更について、種々の既知の技術(例えば、人にとって自然に聞こえるフレーズの自動生成技術等)を利用してもよい。
The
なお、音声出力部133は、旋律や和音を具体的に指定した定義情報を参照して音声情報を変更してもよいし、直前に出力されている音高や音長に合わせて自然に音声を変化させる定義情報を参照して音声情報を変更してもよい。例えば、音声出力部133は、現在出力されている音に対して、「3度、5度、7度の音程を有する音」で定義される旋律を組み込む、といった定義情報を参照して、音声情報を変更してもよい。これにより、音声出力部133は、単に情報の変化をユーザに提示するのみならず、音楽的にも自然に聞くことのできる音声をユーザに提供することができる。
The
なお、音声出力部133は、取得した情報の絶対的な数値ではなく、所定時間(集計期間)ごとの差分に基づいて音声情報を変更してもよい。すなわち、音声出力部133は、所定の情報における所定時間ごとの数値の変化量に応じて、音声情報を構成する要素を変更してもよい。
The
具体的には、音声出力部133は、所定の情報における所定時間ごとの数値の変化量に応じて、音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更してもよい。また、音声出力部133は、定常的に発せられる音声のテンポ(速度)を変更したり、音声を転調させたり、音の長さを変更したりしてもよい。
Specifically, the
〔4.処理手順〕
次に、図8を用いて、実施形態に係る音声出力装置100による処理の手順について説明する。図8は、実施形態に係る処理手順を示すフローチャートである。
[4. Processing procedure]
Next, the procedure of processing by the
図8に示すように、音声出力装置100は、分析対象とする情報(実施形態では、ニュース記事に対するアクセスログ)を取得したか否かを判定する(ステップS101)。分析対象とする情報を取得していない場合(ステップS101;No)、音声出力装置100は、取得するまで待機する。
As shown in FIG. 8, the
一方、分析対象とする情報を取得した場合(ステップS101;Yes)、音声出力装置100は、取得した情報の種別ごとに音声情報を選択する(ステップS102)。また、音声出力装置100は、情報の種別ごとに、音声が出力される際の方向に関する情報(出力先)を選択する(ステップS103)。
On the other hand, when the information to be analyzed is acquired (step S101; Yes), the
その後、音声出力装置100は、音声出力の終了をユーザや管理者等から受け付けたか否かを判定する(ステップS104)。音声出力の終了を受け付けていない場合(ステップS104;No)、音声出力装置100は、音声情報に基づいて、音声を出力先から出力する(ステップS105)。
After that, the
そして、音声出力装置100は、音声の出力中に、音声情報に対応する情報が変化したか否かを判定する(ステップS106)。例えば、音声出力装置100は、連続した集計期間において、所定の閾値を超えて数値が変化したか否かを判定する。
Then, the
情報が変化していない場合(ステップS106;No)、音声出力装置100は、音声情報(すなわち、出力中の音声)を変更せずに、処理をステップS104に戻す。一方、情報が変化した場合(ステップS106;Yes)、音声出力装置100は、例えば変更情報記憶部124に格納されている定義に従い、出力する音声を変更する(ステップS107)。
If the information has not changed (step S106; No), the
なお、音声出力装置100は、ステップS104において音声出力の終了を受け付けた場合(ステップS104;Yes)、音声の出力を終了させ(ステップS108)、実施形態に係る音声出力処理を終了する。
When the
〔5.変形例〕
上述した音声出力装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、音声出力装置100の他の実施形態について説明する。
[5. Modification example]
The
〔5-1.指示に対応する音声〕
上記実施形態では、音声出力装置100が、情報の変化に応じて音声情報を構成する要素を変更する例を示した。ここで、音声出力装置100は、情報の変化に加えて、所定の指示を受け付けて、音声情報を変更してもよい。
[5-1. Voice corresponding to the instruction]
In the above embodiment, an example is shown in which the
例えば、音声出力装置100は、予め定義された指示と、指示を受け付けた際の音声情報の変更とを定義付けた情報を取得する。指示とは、例えば、店舗等で利用される業務指示であり、その指示に対応した音声を聞いた者に何らかの指令を与える情報である。指示の一例は、店舗において店員を所定位置に集合させる業務命令である。
For example, the
そして、音声出力装置100は、任意のタイミングで、指示を行うための契機となる情報を取得する。例えば、音声出力装置100は、店舗の責任者等が利用する端末装置から、指示を発することを示す命令(スクリプト等)を取得する。そして、音声出力装置100は、当該指示を取得した場合、取得した情報と対応付けられた旋律を含む音声情報をスピーカー20に出力する。
Then, the
すなわち、音声出力装置100は、定常的に発せられる音声に混じるように、何らかの指示に対応付けられた旋律をスピーカー20から出力させる。これにより、店舗側は、業務命令等の内容を店員がアナウンス等することなく、指示を店員に伝達させることができる。また、音声出力装置100は、図1に示すような指向性スピーカーを用いることで、指示を伝える店員と、指示を伝えなくてもよい店員とを選択して指示を出すことができる。
That is, the
このように、音声出力装置100は、予め定義された指示に関する情報を取得し、取得した情報と対応付けられた旋律を含む音声情報を出力するようにしてもよい。これにより、音声出力装置100は、情報の数値的な変化のみならず、任意の指示を対象とする人物に伝達することができる。
In this way, the
〔5-2.出力先の選択〕
上記実施形態では、音声出力装置100が、指向性スピーカー等、音が放射される角度を調整可能な出力装置で音声を出力するよう制御する例を示した。しかし、音声出力装置100は、指向性スピーカー以外の出力装置を選択して音声を出力してもよい。
[5-2. Select output destination]
In the above embodiment, an example is shown in which the
例えば、音声出力装置100は、ステレオスピーカーやヘッドホンやイヤホン等のLRチャンネルを選択して音声を出力してもよい。この場合、音声出力装置100は、L側に一つの種別の情報を出力先として対応付け、R側に他の種別の情報を出力先として対応付ける。かかる手法によっても、音声出力装置100は、別の方向から音声をユーザに届けることができるため、少なくとも2種類の種別の情報の変化をユーザに検知させることができる。
For example, the
また、音声出力装置100は、スピーカー20等の配置情報を含む定義情報を予め取得しておいてもよい。例えば、音声出力装置100は、ある閉じられた空間において、ユーザの北側から音を出力するスピーカー201と、ユーザの西側から音を出力するスピーカー202と、ユーザの南側から音を出力するスピーカー203と、ユーザの東側から音を出力するスピーカー204と、の配置情報を予め取得する。なお、配置情報には、各々のスピーカー20が配置される位置情報や、互いの距離情報や、音が出力される角度等を含んでもよい。そして、音声出力装置100は、取得した情報の種別ごとに、互いに干渉が最も少ないと判定されるスピーカー20を選択して、音声情報を出力するようにしてもよい。
Further, the
〔5-3.出力装置〕
音声出力装置100は、出力する音声を指示するための音声情報として、例えばHTML(HyperText Markup Language)ファイルを利用してもよい。この場合、出力装置は、HTMLファイルを読み込み可能なウェブブラウザを介して、音声出力装置100から取得した音声情報に対応する音声を出力する。すなわち、実施形態に係る音声出力処理は、音声出力装置100にアクセス可能な複数台のノートパソコンやスマートフォン等を出力装置として実現することができる。
[5-3. Output device]
The
〔5-4.音声情報の変更〕
音声出力装置100は、取得した情報の変化に度合いに応じて、音声情報の変更を種々に決定してもよい。例えば、音声出力装置100は、取得した情報の変化が相対的に大きい場合、比較的激しい旋律(例えば不協和音を多用するなど)が出力されるように、出力される旋律を決定してもよい。また、音声出力装置100は、取得した情報の変化が相対的に小さい場合、比較的穏やかな旋律(例えば音程の移動が少ないなど)が出力されるよう、出力される旋律を決定してもよい。
[5-4. Change of voice information]
The
〔5-5.情報の種別〕
音声情報に割り当てる情報の種別は、様々に定義されてよい。例えば、音声出力装置100は、あるニュース記事を閲覧したユーザの所在地を情報の種別としてもよい。具体的には、音声出力装置100は、あるニュース記事を閲覧したユーザが所在する地域(例えば、関東地方や関西地方、あるいは、都道府県など)を、情報の種別としてもよい。この場合、音声出力装置100は、ユーザが所在する地域ごとに、出力先を選択することになる。これにより、音声出力装置100から出力される音声を聞くユーザは、例えば、あるニュース記事が主に関東地方で視聴されているとか、主に関西地方でシェアされているといった情報を音声から知得することができる。また、情報が商品の販売数であれば、ユーザは、ある商品が関東地方でよく売れているとか、関西地方ではあまり売れていないといった情報を音声から知得することができる。
[5-5. Information type]
The types of information assigned to voice information may be defined in various ways. For example, the
〔6.ハードウェア構成〕
上述してきた実施形態に係る音声出力装置100や情報提供サーバ40は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、音声出力装置100を例に挙げて説明する。図9は、音声出力装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
The
CPU1100は、ROM1300又はHDD1400に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を記憶する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(図2に示したネットワークNに対応)を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網500を介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に記憶されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る音声出力装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが記憶される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。
For example, when the
〔7.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した取得部131と選択部132とは統合されてもよい。また、例えば、記憶部120に記憶される情報は、ネットワークNを介して、外部に備えられた所定の記憶装置に記憶されてもよい。
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured. For example, the acquisition unit 131 and the
また、上記実施形態では、音声出力装置100が、所定の情報を取得する取得処理と、取得した情報の種別ごとに方向に関する情報を選択する選択処理と、音声の出力を制御する音声出力処理とを行う例を示した。しかし、上述した音声出力装置100は、取得処理を実行するする取得サーバと、選択処理を実行する選択サーバと、音声出力処理を実行する音声出力サーバ等が連携して動作することにより、実現されてもよい。この場合、上記の音声出力装置100による処理は、各サーバを含む音声出力システム1によって実現される。あるいは、音声出力装置100は、情報提供サーバ40やスピーカー20の機能を自装置に備えていてもよい。
Further, in the above embodiment, the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
〔8.効果〕
上述してきたように、実施形態に係る音声出力装置100は、取得部131と、選択部132と、音声出力部133とを有する。取得部131は、種別が対応付けられた所定の情報を取得する。選択部132は、取得部131によって取得された所定の情報の種別ごとに、対応する音声情報と、音声情報が出力される際の方向に関する情報とを選択する。音声出力部133は、選択部132によって選択された方向に関する情報に基づいて、音声情報を定常的に出力装置から出力するよう制御するとともに、所定の情報における所定時間ごとの変化に応じて、音声情報を構成する要素を変更する。
[8. effect〕
As described above, the
このように、実施形態に係る音声出力装置100は、情報の種別に対応した音声情報を選択するとともに、音声情報が出力される際の方向に関する情報を選択する。そして、音声出力装置100は、選択した方向に関する情報に基づいて音声を出力させることで、視覚によらず、聴覚のみで情報の種別をユーザに判別させることできる。すなわち、音声出力装置100は、音声を構成する音量や周波数等によらず、音に方向性を持たせることによって、音声を用いて様々な種別の情報をユーザに把握させることができる。
As described above, the
また、選択部132は、音声情報が出力される際の方向に関する情報として、音声情報が出力される出力装置の識別情報を選択する。
Further, the
このように、実施形態に係る音声出力装置100は、音声の出力先となる出力装置を指定することにより、音が出力される方向を選択することができる。これにより、音声出力装置100は、音声を用いて様々な種別の情報をユーザに把握させることができる。
As described above, the
また、取得部131は、種別の異なる複数の所定の情報を取得する。選択部132は、複数の種別ごとに異なる識別情報を選択する。音声出力部133は、複数の種別ごとに異なる出力装置から音声情報を出力するよう制御する。
Further, the acquisition unit 131 acquires a plurality of predetermined information of different types. The
このように、実施形態に係る音声出力装置100は、複数の種別の情報が異なる出力装置から出力されるよう、方向に関する情報を選択することによって、種々の種別の情報が一度にユーザに到達する場合でも、ユーザが情報を把握しやすいような音環境を実現することができる。また、音声出力装置100によれば、種別ごとに出力装置を選択することで、1種類の情報でなく、複数の種別の情報に対応した音声を同時にユーザに知覚させることができる。
As described above, in the
また、音声出力部133は、所定の情報における所定時間ごとの変化に応じて、音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する。
Further, the
このように、実施形態に係る音声出力装置100は、音声情報の元となる情報の変化に応じて音量等を変更することで、ユーザがディスプレイ等を見なくても、聴覚のみによって、ユーザに情報の変化を把握させることができる。
As described above, the
また、音声出力部133は、所定の情報における所定時間ごとの変化に応じて、変化に対応付けられた旋律を含む音声情報を出力する。
Further, the
このように、実施形態に係る音声出力装置100は、旋律の変化によって情報の変化をユーザに把握させてもよい。これにより、音声出力装置100は、無機質なアラート音等ではなく、音楽的に有意な表現によってユーザに情報を把握させることができる。
As described above, the
また、取得部131は、所定の情報として、所定時間ごとに観測される数値を取得する。音声出力部133は、所定の情報における所定時間ごとの数値の変化量に応じて、音声情報を構成する要素を変更する。
Further, the acquisition unit 131 acquires the numerical value observed at predetermined time intervals as predetermined information. The
このように、実施形態に係る音声出力装置100は、情報の変化の差分に基づいて音声情報を変更してもよい。これにより、音声出力装置100は、ある情報がどのように変化しているかといった傾向を示す情報をユーザに把握させることができる。
As described above, the
また、音声出力部133は、所定の情報における所定時間ごとの数値の変化量に応じて、音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する。
Further, the
このように、実施形態に係る音声出力装置100は、情報の変化の差分に基づいて音量等の要素を変更することで、ある情報がどのように変化しているかといった傾向を示す情報をユーザに把握させることができる。
As described above, the
また、取得部131は、所定の情報として、予め設定されたカテゴリが対応付けられたコンテンツの閲覧数もしくは拡散数の少なくともいずれかを取得する。 In addition, the acquisition unit 131 acquires at least one of the number of views and the number of diffusions of the content associated with the preset category as predetermined information.
このように、実施形態に係る音声出力装置100は、コンテンツの閲覧数や拡散数に基づいて音声情報を生成することにより、どのようなカテゴリのコンテンツが頻繁に閲覧されているかといった情報を、音声を用いてユーザに把握させることができる。
As described above, the
また、取得部131は、所定の情報として、予め設定された銘柄が対応付けられた株価もしくは取引数の少なくともいずれかを取得する。 Further, the acquisition unit 131 acquires at least one of the stock price or the number of transactions associated with the preset issue as predetermined information.
このように、実施形態に係る音声出力装置100は、銘柄ごとの株価や取引数に基づいて音声情報を生成することにより、ユーザがディスプレイ等を確認しなくても、音声によって株価の値動き等の情報をユーザに把握させることができる。さらに、音声出力装置100は、例えば値動きが大きいときには激しい旋律が再生されるように定義することで、ユーザに株価の値動きの詳細な情報を伝達することもできる。言い換えれば、音声出力装置100によれば、ユーザは株価の動きを一連の音楽のフレーズに沿って知覚することができる。
As described above, the
また、取得部131は、所定の情報として、ネットワークを介して販売される商品の販売数、拡散数もしくはブックマーク数の少なくともいずれか一つを取得する。 Further, the acquisition unit 131 acquires at least one of the number of products sold, the number of spreads, and the number of bookmarks of the products sold via the network as predetermined information.
このように、実施形態に係る音声出力装置100は、商品の閲覧数等に基づいて音声情報を生成することにより、どのような商品が頻繁に購買されているかといった情報を、音声を用いてユーザに把握させることができる。
As described above, the
また、取得部131は、予め定義された指示に関する情報を取得する。音声出力部133は、取得部131によって取得された情報と対応付けられた旋律を含む音声情報を出力する。
In addition, the acquisition unit 131 acquires information regarding a predefined instruction. The
このように、実施形態に係る音声出力装置100は、所定の指示を示した旋律(フレーズ)を再生中の音声に組み込むような音声情報を生成することによって、音声を聞く者に指示を与えることができる。すなわち、音声出力装置100は、音声を利用して、情報の変化を把握させるのみならず、ユーザ間のコミュニケーションを実現することができる。
As described above, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.
1 音声出力システム
20 スピーカー
40 情報提供サーバ
100 音声出力装置
110 通信部
120 記憶部
121 アクセスログ記憶部
122 音声選択記憶部
123 出力先記憶部
124 変更情報記憶部
130 制御部
131 取得部
132 選択部
133 音声出力部
1
Claims (13)
前記取得部によって取得された所定の情報の種別ごとに、対応する音声情報と、前記音声情報が出力される際の方向に関する情報とを選択する選択部と、
前記選択部によって選択された方向に関する情報に基づいて、前記音声情報を定常的に出力装置から出力するよう制御するとともに、前記所定の情報における所定時間ごとの変化に応じて、前記音声情報を構成する要素を変更する音声出力部と、
を備え、
前記選択部は、所定の空間内に所在する複数のユーザのうち所定のユーザに対応する音声情報が出力される際の方向に関する情報として、当該所定のユーザのみが視聴可能な方向に関する情報を選択する
ことを特徴とする音声出力装置。 An acquisition unit that acquires predetermined information with which types are associated, and
A selection unit for selecting the corresponding voice information and information regarding the direction in which the voice information is output for each type of predetermined information acquired by the acquisition unit.
Based on the information about the direction selected by the selection unit, the voice information is controlled to be constantly output from the output device, and the voice information is configured according to the change of the predetermined information at predetermined time intervals. The audio output section that changes the elements to be used, and
Equipped with
The selection unit selects information regarding a direction that can be viewed only by the predetermined user as information regarding the direction in which audio information corresponding to the predetermined user is output among a plurality of users located in the predetermined space. An audio output device characterized by
前記音声情報が出力される際の方向に関する情報として、当該音声情報が出力される出力装置の識別情報を選択する、
ことを特徴とする請求項1に記載の音声出力装置。 The selection unit is
As the information regarding the direction when the voice information is output, the identification information of the output device from which the voice information is output is selected.
The audio output device according to claim 1.
種別の異なる複数の前記所定の情報を取得し、
前記選択部は、
複数の前記種別ごとに異なる前記識別情報を選択し、
前記音声出力部は、
複数の前記種別ごとに異なる出力装置から音声情報を出力するよう制御する、
ことを特徴とする請求項2に記載の音声出力装置。 The acquisition unit
Acquire a plurality of the predetermined information of different types, and
The selection unit is
Select different identification information for each of the plurality of types,
The audio output unit is
Control to output audio information from a plurality of different output devices for each of the above types.
The audio output device according to claim 2.
前記所定の情報における所定時間ごとの変化に応じて、前記音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する、
ことを特徴とする請求項1~3のいずれか一つに記載の音声出力装置。 The audio output unit is
At least one of the volume, frequency, and timbre of the voice information is changed according to the change of the predetermined information at predetermined time intervals.
The audio output device according to any one of claims 1 to 3, wherein the audio output device is characterized by the above.
前記所定の情報における所定時間ごとの変化に応じて、当該変化に対応付けられた旋律を含む前記音声情報を出力する、
ことを特徴とする請求項1~4のいずれか一つに記載の音声出力装置。 The audio output unit is
In response to a change in the predetermined information at predetermined time intervals, the voice information including the tune associated with the change is output.
The audio output device according to any one of claims 1 to 4, wherein the audio output device is characterized.
前記所定の情報として、所定時間ごとに観測される数値を取得し、
前記音声出力部は、
前記所定の情報における所定時間ごとの数値の変化量に応じて、当該音声情報を構成する要素を変更する、
ことを特徴とする請求項1~5のいずれか一つに記載の音声出力装置。 The acquisition unit
As the predetermined information, the numerical value observed at a predetermined time is acquired, and the value is obtained.
The audio output unit is
The elements constituting the voice information are changed according to the amount of change in the numerical value for each predetermined time in the predetermined information.
The audio output device according to any one of claims 1 to 5, wherein the audio output device is characterized.
前記所定の情報における所定時間ごとの数値の変化量に応じて、前記音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する、
ことを特徴とする請求項6に記載の音声出力装置。 The audio output unit is
At least one of the volume, frequency, and timbre of the voice information is changed according to the amount of change in the numerical value of the predetermined information at predetermined time intervals.
The audio output device according to claim 6.
前記所定の情報として、予め設定されたカテゴリが対応付けられたコンテンツの閲覧数もしくは拡散数の少なくともいずれかを取得する、
ことを特徴とする請求項6又は7に記載の音声出力装置。 The acquisition unit
As the predetermined information, at least one of the number of views or the number of diffusions of the content associated with the preset category is acquired.
The audio output device according to claim 6 or 7.
前記所定の情報として、予め設定された銘柄が対応付けられた株価もしくは取引数の少なくともいずれかを取得する、
ことを特徴とする請求項6又は7に記載の音声出力装置。 The acquisition unit
As the predetermined information, at least one of the stock price or the number of transactions associated with the preset stock is acquired.
The audio output device according to claim 6 or 7.
前記所定の情報として、ネットワークを介して販売される商品の販売数、拡散数もしくはブックマーク数の少なくともいずれか一つを取得する、
ことを特徴とする請求項6又は7に記載の音声出力装置。 The acquisition unit
As the predetermined information, at least one of the number of products sold, the number of spreads, and the number of bookmarks of products sold via the network is acquired.
The audio output device according to claim 6 or 7.
予め定義された指示に関する情報を取得し、
前記音声出力部は、
前記取得部によって取得された情報と対応付けられた旋律を含む前記音声情報を出力する、
ことを特徴とする請求項1~10のいずれか一つに記載の音声出力装置。 The acquisition unit
Get information about predefined instructions and
The audio output unit is
Outputs the voice information including the tune associated with the information acquired by the acquisition unit.
The audio output device according to any one of claims 1 to 10.
種別が対応付けられた所定の情報を取得する取得工程と、
前記取得工程によって取得された所定の情報の種別ごとに、対応する音声情報と、前記音声情報が出力される際の方向に関する情報とを選択する選択工程と、
前記選択工程によって選択された方向に関する情報に基づいて、前記音声情報を定常的に出力装置から出力するよう制御するとともに、前記所定の情報における所定時間ごとの変化に応じて、前記音声情報を構成する要素を変更する音声出力工程と、
を備え、
前記選択工程は、所定の空間内に所在する複数のユーザのうち所定のユーザに対応する音声情報が出力される際の方向に関する情報として、当該所定のユーザのみが視聴可能な方向に関する情報を選択する
ことを含んだことを特徴とする音声出力方法。 It is an audio output method executed by a computer.
The acquisition process to acquire the predetermined information associated with the type, and
A selection step of selecting the corresponding voice information and information regarding the direction in which the voice information is output for each type of predetermined information acquired by the acquisition step.
Based on the information about the direction selected by the selection step, the voice information is controlled to be constantly output from the output device, and the voice information is configured according to the change of the predetermined information at predetermined time intervals. The audio output process that changes the elements to be used, and
Equipped with
In the selection step, information regarding a direction that can be viewed only by the predetermined user is selected as information regarding the direction in which the audio information corresponding to the predetermined user is output among the plurality of users located in the predetermined space. An audio output method characterized by including
前記取得手順によって取得された所定の情報の種別ごとに、対応する音声情報と、前記音声情報が出力される際の方向に関する情報とを選択する選択手順と、
前記選択手順によって選択された方向に関する情報に基づいて、前記音声情報を定常的に出力装置から出力するよう制御するとともに、前記所定の情報における所定時間ごとの変化に応じて、前記音声情報を構成する要素を変更する音声出力手順と、
を備え、
前記選択手順は、所定の空間内に所在する複数のユーザのうち所定のユーザに対応する音声情報が出力される際の方向に関する情報として、当該所定のユーザのみが視聴可能な方向に関する情報を選択する
ことをコンピュータに実行させることを特徴とする音声出力プログラム。 The acquisition procedure to acquire the predetermined information associated with the type, and
A selection procedure for selecting the corresponding voice information and information regarding the direction in which the voice information is output for each type of predetermined information acquired by the acquisition procedure, and a selection procedure.
Based on the information about the direction selected by the selection procedure, the voice information is controlled to be constantly output from the output device, and the voice information is configured according to the change of the predetermined information at predetermined time intervals. Audio output procedure to change the element to be
Equipped with
In the selection procedure, information regarding a direction that can be viewed only by the predetermined user is selected as information regarding the direction in which audio information corresponding to the predetermined user is output among a plurality of users located in the predetermined space. An audio output program characterized by having a computer do what it does.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018093285A JP7023786B2 (en) | 2018-05-14 | 2018-05-14 | Audio output device, audio output method and audio output program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018093285A JP7023786B2 (en) | 2018-05-14 | 2018-05-14 | Audio output device, audio output method and audio output program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019200486A JP2019200486A (en) | 2019-11-21 |
JP7023786B2 true JP7023786B2 (en) | 2022-02-22 |
Family
ID=68612148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018093285A Active JP7023786B2 (en) | 2018-05-14 | 2018-05-14 | Audio output device, audio output method and audio output program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7023786B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113531755A (en) * | 2021-06-24 | 2021-10-22 | 惠州华京电子科技有限公司 | Ozone disinfection control method and purifier |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000020606A (en) | 1998-06-26 | 2000-01-21 | Kenichi Uchida | System and device for store front information distribution in distribution business |
JP2000098950A (en) | 1998-09-21 | 2000-04-07 | Toshiba Tec Corp | Background music system |
JP2016018300A (en) | 2014-07-07 | 2016-02-01 | ヤフー株式会社 | Information aggregation device, information aggregation method, and information aggregation program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05128121A (en) * | 1991-10-30 | 1993-05-25 | Kokusai Electric Co Ltd | Stock price information notifying device |
JP3739185B2 (en) * | 1996-08-28 | 2006-01-25 | 富士通株式会社 | Access amount expression method and apparatus, and recording medium |
-
2018
- 2018-05-14 JP JP2018093285A patent/JP7023786B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000020606A (en) | 1998-06-26 | 2000-01-21 | Kenichi Uchida | System and device for store front information distribution in distribution business |
JP2000098950A (en) | 1998-09-21 | 2000-04-07 | Toshiba Tec Corp | Background music system |
JP2016018300A (en) | 2014-07-07 | 2016-02-01 | ヤフー株式会社 | Information aggregation device, information aggregation method, and information aggregation program |
Also Published As
Publication number | Publication date |
---|---|
JP2019200486A (en) | 2019-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20190008546A (en) | Method and apparatus for playing videos for music segment | |
JP2016024636A (en) | Control apparatus, control method, and control program | |
JP7023786B2 (en) | Audio output device, audio output method and audio output program | |
EP4174841A1 (en) | Systems and methods for generating a mixed audio file in a digital audio workstation | |
Shorey et al. | Talker adaptation or “talker” adaptation? Musical instrument variability impedes pitch perception | |
KR102620198B1 (en) | Television board equipped with wireless input module and television device using the same | |
JP5814197B2 (en) | Cooperation when outputting video and audio advertisements with digital signage near karaoke equipment | |
Sadeghnia | Data-driven IoT-platform for optimizing variable acoustics in multifunctional performance spaces | |
Keil et al. | Polyphonic pitch perception in rooms using deep learning networks with data rendered in auditory virtual environments | |
JP5133398B2 (en) | Paper book / digital content correspondence generation apparatus and method | |
Blauert et al. | Auditory perception in rooms | |
JP6559290B1 (en) | Information providing apparatus, information providing method, and information providing program | |
Yang | Prediction model of soundscape assessment based on semantic and acoustic/psychoacoustic factors | |
Lalonde | Predicting children's audiovisual speech recognition thresholds based on unimodal performance | |
D'Antonio et al. | The evolution of Blackbird Studio C | |
Braasch | Bill Hartmann's contribution to understanding and modeling the perception of reflections in real rooms | |
US20210358474A1 (en) | Systems and methods for generating audible versions of text sentences from audio snippets | |
JP5814196B2 (en) | Cooperation when outputting video and audio advertisements with digital signage near karaoke equipment | |
Kreiman et al. | Difference limens for vocal aperiodicities | |
Blair | When the difference between “good” and “great” is 0.5 dB—Ponderings of a “Tuning Conductor.” | |
Bader | Correlation between perception and acoustical parameters in five musical genres | |
Bresin | An artificial neural network model for analysis and synthesis of pianists’ performance styles | |
McAtee et al. | Measurements of room effects on digital simulations of a concert hall sound field | |
Schwartz et al. | Statistical evidence that musical universals derive from the acoustic characteristics of human speech | |
Kohlrausch | Schroeder’s phase in psychoacoustics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180601 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7023786 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |