[go: up one dir, main page]

JP7023786B2 - Audio output device, audio output method and audio output program - Google Patents

Audio output device, audio output method and audio output program Download PDF

Info

Publication number
JP7023786B2
JP7023786B2 JP2018093285A JP2018093285A JP7023786B2 JP 7023786 B2 JP7023786 B2 JP 7023786B2 JP 2018093285 A JP2018093285 A JP 2018093285A JP 2018093285 A JP2018093285 A JP 2018093285A JP 7023786 B2 JP7023786 B2 JP 7023786B2
Authority
JP
Japan
Prior art keywords
information
voice
output device
audio output
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018093285A
Other languages
Japanese (ja)
Other versions
JP2019200486A (en
Inventor
大己 駒宮
誉 粟村
直樹 武藤
重紀 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018093285A priority Critical patent/JP7023786B2/en
Publication of JP2019200486A publication Critical patent/JP2019200486A/en
Application granted granted Critical
Publication of JP7023786B2 publication Critical patent/JP7023786B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

特許法第30条第2項適用 平成30年2月25日から平成30年2月27日までヤフー株式会社17階にて「テクノロジー×アート×データ」と称する展示にて発表Application of Article 30, Paragraph 2 of the Patent Act From February 25, 2018 to February 27, 2018, announced at an exhibition called "Technology x Art x Data" on the 17th floor of Yahoo Japan Corporation.

本発明は、音声出力装置、音声出力方法及び音声出力プログラムに関する。 The present invention relates to an audio output device, an audio output method, and an audio output program.

インターネット等のネットワークを介した通信が盛んに行われることに伴い、ネットワークへのアクセス状況を検知する様々な手法が提案されている。 With the active communication via networks such as the Internet, various methods for detecting the access status to the network have been proposed.

例えば、アクセスログの記録内容に応じた音源データを再生することにより、少ない作業負担で各アクセスに関するアクセス内容の特徴を瞬時に把握することができる技術が提案されている。 For example, a technique has been proposed in which the characteristics of the access contents related to each access can be instantly grasped with a small work load by reproducing the sound source data according to the recorded contents of the access log.

特許第6226847号公報Japanese Patent No. 6226847

しかしながら、上記の従来技術には、さらに改良の余地がある。例えば、ユーザには、音声情報を利用して任意の情報を把握しようとする場合、より多くの種別の情報をより正確に把握したいというニーズがある。 However, there is room for further improvement in the above-mentioned prior art. For example, a user has a need to more accurately grasp more types of information when trying to grasp arbitrary information by using voice information.

本願は、上記に鑑みてなされたものであって、音声を用いて様々な種別の情報をユーザに把握させることができる音声出力装置、音声出力方法及び音声出力プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide a voice output device, a voice output method, and a voice output program capable of causing a user to grasp various types of information by using voice. ..

本願に係る音声出力装置は、種別が対応付けられた所定の情報を取得する取得部と、前記取得部によって取得された所定の情報の種別ごとに、対応する音声情報と、当該音声情報が出力される際の方向に関する情報とを選択する選択部と、前記選択部によって選択された方向に関する情報に基づいて、当該音声情報を定常的に出力装置から出力するよう制御するとともに、前記所定の情報における所定時間ごとの変化に応じて、当該音声情報を構成する要素を変更する音声出力部と、を備えることを特徴とする。 The voice output device according to the present application outputs the corresponding voice information and the voice information for each type of the acquisition unit that acquires the predetermined information associated with the types and the predetermined information acquired by the acquisition unit. Based on the selection unit that selects the information regarding the direction to be performed and the information regarding the direction selected by the selection unit, the voice information is controlled to be constantly output from the output device, and the predetermined information is specified. It is characterized in that it includes an audio output unit that changes an element constituting the audio information according to a change at predetermined time intervals.

実施形態の一態様によれば、音声を用いて様々な種別の情報をユーザに把握させることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that various types of information can be grasped by the user by using voice.

図1は、実施形態に係る音声出力処理の一例を示す図である。FIG. 1 is a diagram showing an example of audio output processing according to an embodiment. 図2は、実施形態に係る音声出力システムの構成例を示す図である。FIG. 2 is a diagram showing a configuration example of the audio output system according to the embodiment. 図3は、実施形態に係る音声出力装置の構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the audio output device according to the embodiment. 図4は、実施形態に係るアクセスログ記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of an access log storage unit according to an embodiment. 図5は、実施形態に係る音声選択記憶部の一例を示す図である。FIG. 5 is a diagram showing an example of a voice selection storage unit according to an embodiment. 図6は、実施形態に係る出力先記憶部の一例を示す図である。FIG. 6 is a diagram showing an example of an output destination storage unit according to the embodiment. 図7は、実施形態に係る変更情報記憶部の一例を示す図である。FIG. 7 is a diagram showing an example of a change information storage unit according to an embodiment. 図8は、実施形態に係る処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure according to the embodiment. 図9は、音声出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 9 is a hardware configuration diagram showing an example of a computer that realizes the function of the audio output device.

以下に、本願に係る音声出力装置、音声出力方法及び音声出力プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る音声出力装置、音声出力方法及び音声出力プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, a mode for implementing the voice output device, the voice output method, and the voice output program according to the present application (hereinafter, referred to as “the embodiment”) will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the audio output device, audio output method, and audio output program according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description will be omitted.

〔1.音声出力処理の一例〕
まず、図1を用いて、実施形態に係る音声出力装置100が実行する音声出力処理の一例について説明する。図1は、実施形態に係る音声出力装置100が実行する処理の一例を示す図である。
[1. An example of audio output processing]
First, an example of audio output processing executed by the audio output device 100 according to the embodiment will be described with reference to FIG. 1. FIG. 1 is a diagram showing an example of processing executed by the voice output device 100 according to the embodiment.

図1に示す音声出力装置100は、取得した所定の情報に対応する音声情報を生成し、生成した音声情報を出力装置(スピーカー等)から音声として出力するよう制御する情報処理装置である。 The voice output device 100 shown in FIG. 1 is an information processing device that generates voice information corresponding to the acquired predetermined information and controls the generated voice information to be output as voice from an output device (speaker or the like).

情報提供サーバ40は、実施形態に係る音声出力処理の対象となる所定の情報を音声出力装置100に提供するサーバ装置である。情報提供サーバ40は、インターネット等の所定のネットワークを介して、所定の情報を収集し、収集した情報を蓄積する。例えば、情報提供サーバ40は、種々のウェブコンテンツを提供するウェブサーバを管理することで、ウェブサーバにアクセスした端末装置に関する情報や、ウェブコンテンツへのアクセス情報を取得する。 The information providing server 40 is a server device that provides the voice output device 100 with predetermined information that is the target of the voice output processing according to the embodiment. The information providing server 40 collects predetermined information via a predetermined network such as the Internet, and accumulates the collected information. For example, the information providing server 40 manages a web server that provides various web contents, and acquires information about a terminal device that has accessed the web server and access information to the web contents.

スピーカー20~20は、音声情報に基づいて音声を出力する音声出力装置である。例えば、スピーカー20~20は、音声出力装置100から音声情報を受信し、音声情報に対応する音声を出力する。実施形態において、スピーカー20~20は、音の可聴範囲を比較的狭い角度に限定することが可能な、いわゆる指向性スピーカーである。なお、以下の説明において、スピーカー20~20を区別する必要のない場合には、「スピーカー20」と総称する。 Speakers 20 1 to 204 are audio output devices that output audio based on audio information. For example, the speakers 20 1 to 204 receive voice information from the voice output device 100 and output voice corresponding to the voice information. In the embodiment, the speakers 201 to 204 are so - called directional speakers capable of limiting the audible range of sound to a relatively narrow angle. In the following description, when it is not necessary to distinguish the speakers 201 to 204, they are collectively referred to as “speaker 20 ”.

ユーザU1及びユーザU2は、音声出力装置100がスピーカー20から出力させた音声を聴取するユーザである。なお、図1の例では、ユーザU1は、4台のスピーカー20~20が取り囲む空間70において、スピーカー20~20の各々が出力する音声を聴取可能な位置(空間70の中心近傍)に所在する。一方、ユーザU2は、スピーカー20が出力する音声を聴取可能な位置であって、スピーカー20や、スピーカー20や、スピーカー20が出力する音声を聴取できない位置に所在する。なお、以下の説明において、ユーザU1又はユーザU2を区別する必要のない場合には、「ユーザ」と総称する。 The user U1 and the user U2 are users who listen to the voice output from the speaker 20 by the voice output device 100. In the example of FIG. 1, the user U1 is in a position (near the center of the space 70) where the voice output by each of the speakers 201 to 204 can be heard in the space 70 surrounded by the four speakers 201 to 204. ). On the other hand, the user U 2 is located at a position where the sound output by the speaker 20 3 can be heard, and the sound output by the speaker 201, the speaker 202, and the speaker 20 4 can not be heard. In the following description, when it is not necessary to distinguish between the user U1 and the user U2, they are collectively referred to as "user".

図1に示す例では、音声出力装置100は、所定の情報として、ネットワーク上におけるニュース記事のインプレッション数(視聴数)と、ニュース記事を閲覧したユーザがその記事を拡散させた数(シェア数)とを取得する。また、音声出力装置100は、所定の情報を区別するための種別として、ニュース記事に設定されたカテゴリを取得する。すなわち、図1の例では、音声出力装置100は、どのようなカテゴリのニュース記事がどのくらいユーザに視聴されたか、また、ニュース記事がどのくらいユーザ間でシェアされたか、といった情報を音声情報に変換する。言い換えれば、音声出力装置100は、取ニュース記事へのアクセス情報(アクセスログ)に基づいて音声情報を生成する。例えば、音声出力装置100は、インプレッション数の増減(変化)に対応させて、出力させる音声の音量が増減するよう、音声情報を変更する。あるいは、音声出力装置100は、シェア数の増減に対応させて、出力させる音声の周波数が変化するよう、音声情報を変更する。これにより、ユーザは、音声情報の元となる情報の変化を把握することができる。 In the example shown in FIG. 1, the audio output device 100 has, as predetermined information, the number of impressions (views) of news articles on the network and the number of users who have viewed the news articles spread the articles (shares). And get. Further, the voice output device 100 acquires a category set for a news article as a type for distinguishing predetermined information. That is, in the example of FIG. 1, the audio output device 100 converts information such as what category of news articles are viewed by users and how much news articles are shared among users into audio information. .. In other words, the voice output device 100 generates voice information based on the access information (access log) to the news article. For example, the voice output device 100 changes the voice information so that the volume of the voice to be output increases or decreases in accordance with the increase or decrease (change) in the number of impressions. Alternatively, the voice output device 100 changes the voice information so that the frequency of the voice to be output changes according to the increase or decrease in the number of shares. As a result, the user can grasp the change in the information that is the source of the voice information.

また、音声出力装置100は、音声情報の生成に際して、出力される音声の方向に関する情報を選択する。例えば、音声出力装置100は、ユーザに対して、取得した情報の種別ごとに異なる方向から音声が出力されるよう、音の方向に関する情報を割り当てる。具体的には、音声出力装置100は、種別に対応する各々の音声を出力する出力チャンネルを選択し、選択した出力チャンネルを別々のスピーカー20に割り当てることで、ユーザに対して異なる方向から音が出力されるよう制御する。かかる処理により、ユーザは、音量や周波数の変化のみならず、どの方向から音声が聞こえてくるかといった情報に基づいて、所定の情報の変化を検知することができる。このような音声出力処理について、図1を用いて、処理の流れに沿って説明する。 Further, the voice output device 100 selects information regarding the direction of the output voice when generating the voice information. For example, the voice output device 100 assigns information regarding the direction of sound to the user so that the voice is output from a different direction for each type of acquired information. Specifically, the audio output device 100 selects an output channel that outputs each audio corresponding to the type, and assigns the selected output channel to different speakers 20, so that sound can be output from different directions to the user. Control to output. By such processing, the user can detect a change in predetermined information based on not only a change in volume and frequency but also information such as from which direction the voice is heard. Such audio output processing will be described with reference to FIG. 1 along the flow of the processing.

まず、音声出力装置100は、情報提供サーバ40から音声情報に対応させる情報を取得する(ステップS01)。図1の例では、音声出力装置100は、音声情報に対応させる情報として、ウェブ上のニュース記事に対するアクセス情報を取得する。例えば、音声出力装置100は、アクセス情報として、ユーザがアクセスしたニュース記事のカテゴリや、集計期間ごと(例えば15秒ごとなど)のインプレッション数やシェア数等を取得する。 First, the voice output device 100 acquires information corresponding to the voice information from the information providing server 40 (step S01). In the example of FIG. 1, the voice output device 100 acquires access information for a news article on the web as information corresponding to the voice information. For example, the voice output device 100 acquires the category of news articles accessed by the user, the number of impressions for each aggregation period (for example, every 15 seconds, etc.), the number of shares, and the like as access information.

図1に示す表60は、音声出力装置100が取得した情報を示す。すなわち、音声出力装置100は、記事カテゴリとして、「経済」や「スポーツ」や「ファッション」や「芸能」等が設定されたニュース記事のアクセス情報を取得する。また、音声出力装置100は、所定の集計期間ごとのインプレッション数やシェア数を取得する。なお、表60では、集計期間を「T01」のような概念で示しているが、実際には、集計期間の項目には、具体的な日付や時間に関する情報が記憶される。また、表60では、インプレッション数やシェア数を「X01」や「Y01」のような概念で示しているが、実際には、これらの項目には、具体的な数値が記憶される。 Table 60 shown in FIG. 1 shows the information acquired by the audio output device 100. That is, the voice output device 100 acquires access information for news articles in which "economy", "sports", "fashion", "entertainment", etc. are set as article categories. Further, the voice output device 100 acquires the number of impressions and the number of shares for each predetermined aggregation period. In Table 60, the aggregation period is shown by a concept such as "T01", but in reality, information regarding a specific date and time is stored in the item of the aggregation period. Further, in Table 60, the number of impressions and the number of shares are shown by concepts such as "X01" and "Y01", but in reality, specific numerical values are stored in these items.

続いて、音声出力装置100は、取得した情報と音声情報とを対応付ける(ステップS02)。例えば、音声出力装置100は、音声出力装置100の管理者等によって予め作成された、音声情報の対応付けのための定義ファイル等に基づいて、取得した情報と音声情報とを対応付ける。 Subsequently, the voice output device 100 associates the acquired information with the voice information (step S02). For example, the voice output device 100 associates the acquired information with the voice information based on a definition file or the like for associating voice information created in advance by the administrator of the voice output device 100 or the like.

具体的には、音声出力装置100は、音声情報を構成する要素と、取得した情報の変数とを対応付ける定義ファイルに基づいて、取得した情報と音声情報とを対応付ける。一例として、音声出力装置100は、取得した情報の種別(図1の例では、ニュース記事のカテゴリ)に音色を、取得した情報の第1変数(図1の例では、インプレッション数)に音量を、取得した情報の第2変数(図1の例では、シェア数)に旋律を、それぞれ対応付ける。 Specifically, the voice output device 100 associates the acquired information with the voice information based on the definition file for associating the elements constituting the voice information with the variables of the acquired information. As an example, the audio output device 100 sets the tone color in the type of acquired information (the category of news articles in the example of FIG. 1) and the volume in the first variable (the number of impressions in the example of FIG. 1) of the acquired information. , The timbre is associated with the second variable (the number of shares in the example of FIG. 1) of the acquired information.

例えば、音声出力装置100は、記事カテゴリが「経済」である情報に対してバイオリンの音色の音声情報を対応付けたり、記事カテゴリが「スポーツ」である情報に対してピアノの音色の音声情報を対応付けたりする。 For example, the voice output device 100 associates the voice information of the violin tone with the information whose article category is "economy", or converts the voice information of the piano tone to the information whose article category is "sports". Correspond to each other.

図1の例では、表61に示すように、記事カテゴリ「経済」に対して音声情報「A01」が対応付けられるものとする。なお、表61では、音声情報を「A01」のような概念で示しているが、実際には、音声情報の項目には、出力時の音量や周波数を指定するための情報や、旋律や音色等を指定する情報が記憶される。なお、音声情報は、予め作成された音声ファイルであってもよいし、音の発する長さや高さを指定したデジタルデータ等であってもよい。音声情報がデジタルデータである場合、音声出力装置100もしくはスピーカー20は、指定された音を実際に再生させるための復号機能や音源データ等を有していてもよい。 In the example of FIG. 1, as shown in Table 61, it is assumed that the voice information “A01” is associated with the article category “economy”. In Table 61, the voice information is shown by a concept such as "A01", but in reality, the voice information items include information for designating the volume and frequency at the time of output, tunes, and timbres. Information that specifies, etc. is stored. The voice information may be a voice file created in advance, or may be digital data or the like in which the length or pitch at which the sound is emitted is specified. When the audio information is digital data, the audio output device 100 or the speaker 20 may have a decoding function, sound source data, or the like for actually reproducing the designated sound.

さらに、音声出力装置100は、記事カテゴリごとに音声情報の一要素(例えば音色)を選択するとともに、音声情報ごとに、音の方向に関する情報(音声の出力方向)を選択する(ステップS03)。 Further, the voice output device 100 selects one element of voice information (for example, tone color) for each article category, and selects information regarding the direction of sound (sound output direction) for each voice information (step S03).

例えば、音声出力装置100は、表61に示すように、音声情報「A01」に対して、方向(出力先)として、「スピーカー20」を選択する。同様に、音声出力装置100は、音声情報「A02」に対して方向(出力先)として、「スピーカー20」を選択し、音声情報「A03」に対して方向(出力先)として、「スピーカー20」を選択し、音声情報「A04」に対して方向(出力先)として、「スピーカー20」を選択する。なお、図1の例では説明を簡単にするために、音声情報とスピーカー20とが対応付けられる例を示したが、実際には、音声出力装置100は、音声情報に対して出力チャンネルを選択するのみであってもよい。この場合には、音声出力装置100は、出力チャンネルと出力先(スピーカー20)を対応付けた定義ファイルをさらに有する。 For example, as shown in Table 61, the voice output device 100 selects “speaker 201” as the direction (output destination) with respect to the voice information “A01”. Similarly, the voice output device 100 selects "speaker 202" as the direction (output destination) with respect to the voice information "A02", and selects "speaker 202 " as the direction (output destination) with respect to the voice information "A03". Select "203" and select "Speaker 204 " as the direction ( output destination) with respect to the voice information "A04". In the example of FIG. 1, for the sake of simplicity, an example in which the voice information and the speaker 20 are associated with each other is shown, but in reality, the voice output device 100 selects an output channel for the voice information. You may just do it. In this case, the audio output device 100 further has a definition file in which the output channel and the output destination (speaker 20) are associated with each other.

そして、音声出力装置100は、情報提供サーバ40から取得した情報に対応付けた音声情報に基づいて、音声の出力を制御する(ステップS04)。具体的には、音声出力装置100は、取得した情報に対応付けた音声情報をスピーカー20~20に送信し、スピーカー20~20を駆動させ、音声を出力させる。 Then, the voice output device 100 controls the voice output based on the voice information associated with the information acquired from the information providing server 40 (step S04). Specifically, the voice output device 100 transmits voice information associated with the acquired information to the speakers 201 to 204 , drives the speakers 201 to 204, and outputs voice.

上記のように、スピーカー20~20は指向性スピーカーであり、出力する音声は、比較的狭い角度に放射されるため、スピーカー20~20の各々から出力された音声は、混合することなくユーザU1又はユーザU2に到達する。例えば、図1の例では、空間70において、ユーザU1は、スピーカー20~20の各々から出力される音声を聴取する。また、ユーザU2は、スピーカー20のみから出力される音声を聴取する。 As described above, the speakers 201 to 204 are directional speakers, and the output sound is radiated at a relatively narrow angle. Therefore, the sound output from each of the speakers 201 to 204 is mixed. It reaches the user U1 or the user U2 without any trouble. For example, in the example of FIG. 1 , in the space 70, the user U1 listens to the sound output from each of the speakers 201 to 204. Further, the user U2 listens to the sound output only from the speaker 203 .

実施形態において、音声出力装置100は、定常的に音声を出力可能なように音声情報を生成するものとする。例えば、音声出力装置100は、一定のフレーズ(旋律)がループする音声情報を生成し、生成した音声情報をスピーカー20に送信する。 In the embodiment, the voice output device 100 shall generate voice information so that voice can be output constantly. For example, the voice output device 100 generates voice information in which a certain phrase (tune) loops, and transmits the generated voice information to the speaker 20.

また、音声出力装置100は、情報提供サーバ40から、継続して情報を取得し続ける。そして、音声出力装置100は、情報の変化に合わせて音声が変化するよう制御する(ステップS05)。 Further, the voice output device 100 continuously acquires information from the information providing server 40. Then, the voice output device 100 controls so that the voice changes according to the change of the information (step S05).

例えば、音声出力装置100は、集計期間ごとのインプレッション数やシェア数の変化に合わせて、音声が変化するよう制御する。例えば、音声出力装置100は、集計期間T01の直後の集計期間T02において、記事カテゴリ「経済」のインプレッション数やシェア数が増加したことを示す情報を取得する。より具体的には、音声出力装置100は、集計期間T01から集計期間T02の間に、記事カテゴリ「経済」のインプレッション数やシェア数が所定の閾値を超えて増加したことを示す情報を取得する。 For example, the voice output device 100 controls the voice to change according to the change in the number of impressions and the number of shares for each aggregation period. For example, the voice output device 100 acquires information indicating that the number of impressions and the number of shares of the article category “economy” have increased in the aggregation period T02 immediately after the aggregation period T01. More specifically, the voice output device 100 acquires information indicating that the number of impressions and the number of shares of the article category "economy" have increased beyond a predetermined threshold value between the aggregation period T01 and the aggregation period T02. ..

この場合、音声出力装置100は、集計期間T01に対応した音声情報A01の一要素である音量(言い換えれば音声の出力値)に対して、集計期間T02に対応した音声情報A01においては相対的に音量を増加させる。例えば、集計期間と音声の出力時間とが同期している場合、音声出力装置100は、集計期間T01に対応した時間(例えば15秒間)は所定の音量でスピーカー20から音声が出力されるよう制御し、次の集計期間T02に対応した時間(集計期間T01の直後の15秒間)は、相対的に大きな音量でスピーカー20から音声が出力されるよう制御する。このとき、音声出力装置100は、インプレッション数の増加数(増加割合)に応じて、変化させる音量の値を決定してもよい。なお、音声出力装置100は、集計期間T01から集計期間T02の切り替わり時に瞬間的に音量を変更するのではなく、所定の時間に渡って、徐々に音量を変更してもよい。また、音声出力装置100は、音量を変化させるのではなく、定常的に出力される音声の周波数の高低を変更(例えば全体の音程を上げる等)してもよい。 In this case, the voice output device 100 is relative to the volume (in other words, the voice output value) which is one element of the voice information A01 corresponding to the aggregation period T01 in the voice information A01 corresponding to the aggregation period T02. Increase the volume. For example, when the aggregation period and the audio output time are synchronized, the audio output device 100 outputs audio from the speaker 201 at a predetermined volume for the time corresponding to the aggregation period T01 (for example, 15 seconds). It is controlled so that the sound is output from the speaker 201 at a relatively loud volume during the time corresponding to the next aggregation period T02 (15 seconds immediately after the aggregation period T01). At this time, the voice output device 100 may determine the value of the volume to be changed according to the increase number (increase rate) of the number of impressions. The audio output device 100 may gradually change the volume over a predetermined time, instead of changing the volume momentarily when the aggregation period T01 is switched to the aggregation period T02. Further, the voice output device 100 may change the frequency of the voice that is constantly output (for example, raise the overall pitch) instead of changing the volume.

同様に、音声出力装置100は、集計期間T01に対応した時間では所定の旋律でスピーカー20から音声が出力されるよう制御し、次の集計期間T02に対応した時間では、異なる旋律でスピーカー20から音声が出力されるよう制御してもよい。このとき、音声出力装置100は、シェア数の増加数(増加割合)に応じて、変化させる旋律の種類を決定してもよい。 Similarly, the voice output device 100 controls so that the voice is output from the speaker 201 in a predetermined tune during the time corresponding to the aggregation period T01, and the speaker 20 has a different melody in the time corresponding to the next aggregation period T02. You may control so that the sound is output from 1 . At this time, the audio output device 100 may determine the type of tune to be changed according to the increase number (increase rate) of the number of shares.

この場合、ユーザU1は、スピーカー20~20から出力される音声のうち、スピーカー20の音声のみが変化したことを知覚する。言い換えれば、ユーザU1は、音声に対応する4つの種別の情報のうち、記事カテゴリ「経済」のニュース記事のみに、所定の閾値を超えて変化が生じたことを知覚できる。また、ユーザU1は、音声に対応する4つの種別の情報のうち、記事カテゴリ「スポーツ」や「ファッション」や「芸能」のアクセス情報については、集計期間T01から集計期間T02の間に大きな変化がなかったことを知覚できる。すなわち、音声出力装置100は、発する音声に方向性を設定することで、4つの異なる情報を音声としてユーザU1に届けつつ、そのうち1つの情報の変化を知覚させることができる。 In this case, the user U1 perceives that only the voice of the speaker 201 has changed among the voices output from the speakers 201 to 204. In other words, the user U1 can perceive that only the news article of the article category "economy" among the four types of information corresponding to the voice has changed beyond a predetermined threshold. In addition, among the four types of information corresponding to voice, the user U1 has a large change in the access information of the article categories "sports", "fashion", and "entertainment" between the aggregation period T01 and the aggregation period T02. You can perceive that it wasn't. That is, by setting the direction of the emitted voice, the voice output device 100 can deliver four different information as voice to the user U1 and perceive a change in one of the information.

また、図1の例では、ユーザU2は、スピーカー20の音声に変化があったとしても、その音声を聞くことのできる範囲に所在しないため、音声の変化を知覚しない。すなわち、音声出力装置100は、発する音声に方向性を設定することで、知覚する必要のない音声をユーザU2に届けさせず、ユーザU2が所望する情報の変化のみを知覚させることができる。 Further, in the example of FIG. 1 , even if there is a change in the voice of the speaker 201, the user U2 does not perceive the change in the voice because it is not located in the range where the voice can be heard. That is, by setting the direction of the emitted voice, the voice output device 100 does not deliver the voice that does not need to be perceived to the user U2, and can perceive only the change in the information desired by the user U2.

このように、実施形態に係る音声出力装置100は、種別が対応付けられた所定の情報を取得し、取得した所定の情報の種別ごとに、対応する音声情報と、音声情報が出力される際の方向に関する情報とを選択する。さらに、音声出力装置100は、選択した方向に関する情報に基づいて、音声情報を定常的にスピーカー20から出力するよう制御するとともに、所定の情報における所定時間ごとの変化に応じて、音声情報を構成する要素を変更する。 As described above, when the voice output device 100 according to the embodiment acquires predetermined information associated with the types and outputs the corresponding voice information and the voice information for each type of the acquired predetermined information. Select with information about the direction of. Further, the voice output device 100 controls to constantly output the voice information from the speaker 20 based on the information regarding the selected direction, and configures the voice information according to the change in the predetermined information at predetermined time intervals. Change the element to be used.

すなわち、音声出力装置100は、情報の変化を音量や周波数で表現するのみならず、出力する音声に方向という性質を付加することで、ある空間内に所在するユーザに情報の変化を知覚させることができる。言い換えれば、音声出力装置100は、取得した情報の種別ごとに出力先を選択することで、音情報を空間にマッピングする。これにより、ユーザは、音量等が変化せずとも、どの方向から音が到達するかといった情報に基づいて、情報の種別を判断することができる。また、音声出力装置100によれば、音の可聴領域に所在しないユーザ(図1の例ではユーザU2)には余計な音声を届けないようにすることができるので、情報を必要とするユーザのみに、必要な情報のみを届けるような処理を行うことができる。 That is, the voice output device 100 not only expresses the change in information in terms of volume and frequency, but also adds the property of direction to the voice to be output so that the user located in a certain space can perceive the change in information. Can be done. In other words, the voice output device 100 maps sound information to space by selecting an output destination for each type of acquired information. This allows the user to determine the type of information based on information such as from which direction the sound arrives, even if the volume or the like does not change. Further, according to the voice output device 100, it is possible to prevent the extra voice from being delivered to the user (user U2 in the example of FIG. 1) who is not located in the audible region of the sound, so that only the user who needs the information In addition, it is possible to perform processing that delivers only the necessary information.

また、音声出力装置100は、定常的な音声を出力し、出力中の定常的な音声の音量等を変化させることによって、情報の連続的な変化をユーザに知覚させる。これにより、ユーザは、視覚によらず聴覚のみで、把握したいデータの変化を正確に把握することができる。例えば、ユーザは、把握したいデータが所定の値に到達したといった瞬間の情報ではなく、データがどのような傾向を示しているか(例えば、所定日時においてどのようなカテゴリのニュースがネットワーク上で頻繁に閲覧されているか)を把握することができる。 Further, the voice output device 100 outputs a steady voice and changes the volume of the steady voice being output to make the user perceive a continuous change in information. As a result, the user can accurately grasp the change of the data to be grasped only by hearing, not by sight. For example, users often see what kind of news is on the network at a given date and time, rather than the momentary information that the data they want to know reaches a given value. You can know if it is being viewed).

以下、上記のような音声出力処理を行う音声出力装置100、及び、音声出力装置100を含む音声出力システム1について詳細に説明する。 Hereinafter, the audio output device 100 that performs the audio output processing as described above, and the audio output system 1 including the audio output device 100 will be described in detail.

〔2.音声出力システムの構成〕
図2を用いて、実施形態に係る音声出力装置100が含まれる音声出力システム1の構成について説明する。図2は、実施形態に係る音声出力システム1の構成例を示す図である。図2に例示するように、実施形態に係る音声出力システム1には、スピーカー20と、情報提供サーバ40と、音声出力装置100とが含まれる。これらの各種装置は、ネットワークN(例えば、インターネット)を介して、有線又は無線により通信可能に接続される。なお、図2に示した音声出力システム1には、複数台のスピーカー20や、複数台の情報提供サーバ40が含まれてもよい。
[2. Audio output system configuration]
The configuration of the audio output system 1 including the audio output device 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the audio output system 1 according to the embodiment. As illustrated in FIG. 2, the voice output system 1 according to the embodiment includes a speaker 20, an information providing server 40, and a voice output device 100. These various devices are connected so as to be communicable by wire or wirelessly via a network N (for example, the Internet). The audio output system 1 shown in FIG. 2 may include a plurality of speakers 20 and a plurality of information providing servers 40.

スピーカー20は、音声を出力する機能を有する出力装置の一例である。図1で示した例のように、音声を届ける対象が定まる場合(空間上に音情報をマッピングする場合)、スピーカー20は、例えば指向性スピーカーのような、音声の放射角度が定まっている装置が望ましい。また、スピーカー20は、音声出力装置100が生成した音声情報から音声を復号する機能を有していてもよい。 The speaker 20 is an example of an output device having a function of outputting sound. As in the example shown in FIG. 1, when the target to which the sound is delivered is determined (when sound information is mapped in space), the speaker 20 is a device such as a directional speaker in which the radiation angle of the sound is determined. Is desirable. Further, the speaker 20 may have a function of decoding voice from the voice information generated by the voice output device 100.

なお、スピーカー20は、指向性スピーカーに限らず、音声を出力する機能を有する装置であれば、いずれの装置であってもよい。例えば、スピーカー20は、スマートフォンや、デスクトップ型PCや、ノート型PCや、タブレット型端末や、携帯電話機、PDA(Personal Digital Assistant)、ウェアラブルデバイス(Wearable Device)等の情報処理装置が備えるスピーカーであってもよい。 The speaker 20 is not limited to the directional speaker, and may be any device as long as it has a function of outputting sound. For example, the speaker 20 is a speaker provided in an information processing device such as a smartphone, a desktop PC, a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), or a wearable device. You may.

情報提供サーバ40は、種々のサービスを提供するウェブサーバ等を管理し、各ウェブサーバから情報を取得し、取得した情報を蓄積するサーバ装置である。また、情報提供サーバ40は、蓄積した情報を音声出力装置100に提供する。 The information providing server 40 is a server device that manages a web server or the like that provides various services, acquires information from each web server, and stores the acquired information. Further, the information providing server 40 provides the accumulated information to the voice output device 100.

例えば、情報提供サーバ40は、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、SNS(Social Networking Service)サービスサイト、ウェブブログなどに関連する各種情報を含むウェブページを提供するウェブサーバから、ユーザのアクセス情報を取得する。 For example, the information providing server 40 includes a portal site, a news site, an auction site, a weather forecast site, a shopping site, a finance (stock price) site, a route search site, a map providing site, a travel site, a restaurant introduction site, and an SNS (Social Networking). Service) Acquires user access information from a web server that provides a web page containing various information related to service sites, web blogs, and the like.

音声出力装置100は、情報提供サーバ40から取得した情報を音声情報に変換し、音声情報を生成するとともに、音声情報に基づいて音声を出力するサーバ装置である。音声出力装置100は、情報提供サーバ40から取得した情報の種別ごとに、音声情報が出力される際の方向に関する情報を選択することにより、方向性を有する音声情報を生成する。これにより、音声出力装置100は、音量や周波数のみならず、音が放射される方向に基づいて、所定の情報をユーザに知覚させることができる。 The voice output device 100 is a server device that converts information acquired from the information providing server 40 into voice information, generates voice information, and outputs voice based on the voice information. The voice output device 100 generates directional voice information by selecting information regarding the direction in which the voice information is output for each type of information acquired from the information providing server 40. As a result, the voice output device 100 can make the user perceive predetermined information based not only on the volume and frequency but also on the direction in which the sound is radiated.

〔3.音声出力装置の構成〕
次に、図3を用いて、実施形態に係る音声出力装置100の構成について説明する。図3は、実施形態に係る音声出力装置100の構成例を示す図である。図3に示すように、音声出力装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、音声出力装置100は、音声出力装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Configuration of audio output device]
Next, the configuration of the audio output device 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the audio output device 100 according to the embodiment. As shown in FIG. 3, the voice output device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The audio output device 100 includes an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from an administrator or the like who uses the audio output device 100, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. ) May have.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、スピーカー20や情報提供サーバ40との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits / receives information to / from the speaker 20 and the information providing server 40 via the network N.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、アクセスログ記憶部121と、音声選択記憶部122と、出力先記憶部123と、変更情報記憶部124とを有する。
(About the storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 120 includes an access log storage unit 121, a voice selection storage unit 122, an output destination storage unit 123, and a change information storage unit 124.

(アクセスログ記憶部121について)
アクセスログ記憶部121は、音声情報に変換される情報の一例であるアクセス情報を記憶する。ここで、図4に、実施形態に係るアクセスログ記憶部121の一例を示す。図4は、実施形態に係るアクセスログ記憶部121の一例を示す図である。図4に示した例では、アクセスログ記憶部121は、「コンテンツID」、「記事カテゴリ」、「集計期間」、「インプレッション数」、「シェア数」といった項目を有する。
(About access log storage unit 121)
The access log storage unit 121 stores access information which is an example of information converted into voice information. Here, FIG. 4 shows an example of the access log storage unit 121 according to the embodiment. FIG. 4 is a diagram showing an example of the access log storage unit 121 according to the embodiment. In the example shown in FIG. 4, the access log storage unit 121 has items such as "content ID", "article category", "aggregation period", "number of impressions", and "number of shares".

「コンテンツID」は、ニュース記事等のコンテンツを識別する識別情報を示す。なお、明細書中では、コンテンツIDのような識別情報を参照符号として用いる場合がある。例えば、コンテンツIDが「C01」であるコンテンツを、「コンテンツC01」と表記する場合がある。 The "content ID" indicates identification information that identifies content such as a news article. In the specification, identification information such as content ID may be used as a reference code. For example, the content whose content ID is "C01" may be described as "content C01".

「記事カテゴリ」は、ニュース記事に予め設定されたカテゴリを示す。「集計期間」は、インプレッション数やシェア数が集計される期間を示す。図4に示す例では「T01」といった概念的な値を記載したが、実際には、集計期間の項目には、具体的な日時を示す情報が記憶される。また、集計期間の長さは、例えば音声出力装置100の管理者等によって任意に設定されてもよい。 "Article category" indicates a preset category for news articles. "Aggregation period" indicates the period during which the number of impressions and the number of shares are aggregated. In the example shown in FIG. 4, a conceptual value such as "T01" is described, but in reality, information indicating a specific date and time is stored in the item of the aggregation period. Further, the length of the aggregation period may be arbitrarily set by, for example, the administrator of the audio output device 100.

「インプレッション数」は、集計期間においてコンテンツが閲覧された閲覧数(PV数)を示す。「シェア数」は、コンテンツを閲覧したユーザが情報を拡散した数を示す。例えば、シェア数は、例えば、ウェブページやアプリ等を介して配信されたニュース記事等に表示される「この記事をシェアする」といった表示領域等をユーザが選択した回数によって算出される。図4に示す例では「X11」や「Y11」といった概念的な値を記載したが、実際には、インプレッション数やシェア数の項目には、具体的な数値を示す情報が記憶される。なお、インプレッション数やシェア数は、ある基準となる数値からの増減数(差分)によって示されてもよい。 The “number of impressions” indicates the number of views (number of PVs) at which the content was viewed during the aggregation period. The "number of shares" indicates the number of times the information is spread by the user who browses the content. For example, the number of shares is calculated by the number of times the user selects a display area such as "share this article" displayed in a news article or the like distributed via a web page or an application. In the example shown in FIG. 4, conceptual values such as "X11" and "Y11" are described, but in reality, information indicating specific numerical values is stored in the items of the number of impressions and the number of shares. The number of impressions and the number of shares may be indicated by the number of increases / decreases (differences) from a certain reference numerical value.

すなわち、図4では、アクセスログ記憶部121に格納される情報の一例として、コンテンツID「C01」によって識別されるコンテンツC01は、記事カテゴリが「経済」であることを示している。また、コンテンツC01は、集計期間「T01」においては、インプレッション数が「X11」であり、シェア数が「Y11」であることを示している。また、コンテンツC01は、集計期間「T02」においては、インプレッション数が「X12」であり、シェア数が「Y12」であることを示している。 That is, in FIG. 4, as an example of the information stored in the access log storage unit 121, the content C01 identified by the content ID “C01” indicates that the article category is “economy”. Further, the content C01 indicates that the number of impressions is "X11" and the number of shares is "Y11" in the aggregation period "T01". Further, the content C01 indicates that the number of impressions is "X12" and the number of shares is "Y12" in the aggregation period "T02".

(音声選択記憶部122について)
音声選択記憶部122は、音声出力装置100が取得した情報に割り当てられる音声情報に関する情報を記憶する。ここで、図5に、実施形態に係る音声選択記憶部122の一例を示す。図5は、実施形態に係る音声選択記憶部122の一例を示す図である。図5に示した例では、音声選択記憶部122は、「音声情報ID」、「音源」、「対応情報」、「変数」、「要素」といった項目を有する。
(About voice selection storage unit 122)
The voice selection storage unit 122 stores information related to voice information assigned to the information acquired by the voice output device 100. Here, FIG. 5 shows an example of the voice selection storage unit 122 according to the embodiment. FIG. 5 is a diagram showing an example of the voice selection storage unit 122 according to the embodiment. In the example shown in FIG. 5, the voice selection storage unit 122 has items such as “voice information ID”, “sound source”, “correspondence information”, “variable”, and “element”.

「音声情報ID」は、音声情報を識別する識別情報を示す。「音源」は、音声情報に割り当てられる音源を示す。なお、音源とは、音声情報に対して選択される音色に関する情報であり、例えば、楽器名等によって示される。図4に示す例では「B01」といった概念的な値を記載したが、実際には、音源の項目には、楽器名や音源名を指定する具体的なデータが記憶される。 "Voice information ID" indicates identification information for identifying voice information. “Sound source” indicates a sound source assigned to voice information. The sound source is information related to a timbre selected for voice information, and is indicated by, for example, a musical instrument name or the like. In the example shown in FIG. 4, a conceptual value such as "B01" is described, but in reality, the item of the sound source stores specific data for designating the musical instrument name and the sound source name.

「対応情報」は、音声情報に対応する情報の種別を示す。対応情報は、例えば音声出力装置100の管理者等によって、音声情報で表現する情報の種別ごとに予め定義される。「変数」は、音声情報の要素を変更するために用いられる変数を示す。変数は、例えば音声出力装置100の管理者等によって、音声情報に対応する要素や情報の変更を判定する閾値等とともに予め定義される。「要素」は、変数の変化に応じて、音声情報において変更される要素を示す。 "Correspondence information" indicates the type of information corresponding to voice information. Correspondence information is defined in advance for each type of information expressed by voice information, for example, by the administrator of the voice output device 100 or the like. "Variable" indicates a variable used to change an element of audio information. The variables are defined in advance by, for example, the administrator of the voice output device 100, together with the elements corresponding to the voice information, the threshold value for determining the change of the information, and the like. "Element" indicates an element that is changed in the voice information according to the change of the variable.

すなわち、図5では、音声選択記憶部122に格納される情報の一例として、音声情報ID「A01」によって識別される音声情報A01は、音源が「B01」であり、対応情報が「経済」であることを示している。また、音声情報A01は、変数が「インプレッション数」及び「シェア数」であり、インプレッション数に対応する音声情報の要素が「音量」もしくは「周波数」であり、「シェア数」に対応する要素が「旋律追加」であることを示している。 That is, in FIG. 5, as an example of the information stored in the voice selection storage unit 122, the voice information A01 identified by the voice information ID “A01” has a sound source of “B01” and a corresponding information of “economy”. It shows that there is. Further, in the voice information A01, the variables are the "number of impressions" and the "number of shares", the element of the voice information corresponding to the number of impressions is "volume" or "frequency", and the element corresponding to the "number of shares" is. It shows that it is "addition of melody".

なお、音声選択記憶部122には、図5に示した情報とともに、所定の音声を出力させるための音声ファイル(例えばwav形式やmpg形式)等が記憶されてもよい。 In addition to the information shown in FIG. 5, the voice selection storage unit 122 may store a voice file (for example, a wav format or an mpg format) for outputting a predetermined voice.

(出力先記憶部123について)
出力先記憶部123は、音声情報に対応した音声が出力される出力先を記憶する。ここで、図6に、実施形態に係る出力先記憶部123の一例を示す。図6は、実施形態に係る出力先記憶部123の一例を示す図である。図6に示した例では、出力先記憶部123は、「出力先設定」、「音声情報ID」、「出力先」といった項目を有する。
(About the output destination storage unit 123)
The output destination storage unit 123 stores an output destination to which the voice corresponding to the voice information is output. Here, FIG. 6 shows an example of the output destination storage unit 123 according to the embodiment. FIG. 6 is a diagram showing an example of the output destination storage unit 123 according to the embodiment. In the example shown in FIG. 6, the output destination storage unit 123 has items such as “output destination setting”, “voice information ID”, and “output destination”.

「出力先設定」は、出力先として設定される情報を示す。例えば、出力先は、音声情報と対応付けられる識別情報(実施形態では「チャンネル」と称する)で示される。「音声情報ID」は、図5で示した同一の項目に対応する。「出力先」は、具体的に音声を出力する出力先(出力装置)の名称を示す。 "Output destination setting" indicates information set as an output destination. For example, the output destination is indicated by identification information (referred to as "channel" in the embodiment) associated with voice information. The "voice information ID" corresponds to the same item shown in FIG. “Output destination” specifically indicates the name of an output destination (output device) that outputs audio.

すなわち、図6では、出力先記憶部123に格納される情報の一例として、出力先設定「チャンネル1」には、音声情報ID「A01」によって識別される音声情報A01が割り当てられており、チャンネル1の出力先が「スピーカー20」であること示している。 That is, in FIG. 6, as an example of the information stored in the output destination storage unit 123, the voice information A01 identified by the voice information ID “A01” is assigned to the output destination setting “channel 1”, and the channel is assigned. It is shown that the output destination of 1 is "speaker 201".

(変更情報記憶部124について)
変更情報記憶部124は、音声情報の変更に関する情報を記憶する。ここで、図7に、実施形態に係る変更情報記憶部124の一例を示す。図7は、実施形態に係る変更情報記憶部124の一例を示す図である。図7に示した例では、変更情報記憶部124は、「定義ID」、「変数」、「変更要素」、「定義」といった項目を有する。
(About change information storage unit 124)
The change information storage unit 124 stores information regarding changes in voice information. Here, FIG. 7 shows an example of the change information storage unit 124 according to the embodiment. FIG. 7 is a diagram showing an example of the change information storage unit 124 according to the embodiment. In the example shown in FIG. 7, the change information storage unit 124 has items such as "definition ID", "variable", "change element", and "definition".

「定義ID」は、音声情報の変更に関する定義を識別する識別情報を示す。「変数」は、音声情報を変更させる契機となる変数を示す。「変更要素」は、音声情報において変更される要素を示す。「定義」は、音声情報の変更が行われる事象を定義した具体的な内容を示す。 The "definition ID" indicates identification information that identifies a definition relating to a change in voice information. “Variable” indicates a variable that triggers a change in voice information. "Change element" indicates an element to be changed in voice information. "Definition" indicates a specific content that defines an event in which voice information is changed.

すなわち、図7では、変更情報記憶部124に格納される情報の一例として、定義ID「E01」によって識別される定義E01は、変数「変数1(実施形態では、インプレッション数)」が変化した場合に、変更要素「音量」を変化させることを示している。また、「直前の集計期間(における変数の値)と比較して閾値を超える増減」が観測された場合に、音声情報における音量が変化することを示している。 That is, in FIG. 7, as an example of the information stored in the change information storage unit 124, the definition E01 identified by the definition ID “E01” is the case where the variable “variable 1 (in the embodiment, the number of impressions)” changes. Shows that the change element "volume" is changed. In addition, it is shown that the volume in the voice information changes when "increase / decrease exceeding the threshold value compared with the immediately preceding aggregation period (value of the variable in)" is observed.

なお、図7での図示は省略したが、変更情報記憶部124は、要素の変更について、より詳細な定義情報を記憶してもおいてもよい。例えば、変更情報記憶部124は、増減させる音量(出力値)の具体的な数値や、高低させる周波数の具体的な数値等を示した定義を記憶してもよい。また、変更情報記憶部124は、変数が増加した場合に音声情報に組み込む旋律や、変数が減少した場合に音声情報に組み込む旋律を示した定義を記憶してもよい。なお、旋律とは、必ずしも一連の音程の変化を示すものに限らず、特定の和音を奏でたり、所定の効果音等を鳴らしたりする指示であってもよい。 Although not shown in FIG. 7, the change information storage unit 124 may store more detailed definition information about the change of the element. For example, the change information storage unit 124 may store a definition showing a specific numerical value of the volume (output value) to be increased or decreased, a specific numerical value of the frequency to be increased or decreased, and the like. Further, the change information storage unit 124 may store a definition indicating a tune to be incorporated into the voice information when the variable increases or a tune to be incorporated into the voice information when the variable decreases. The tune is not necessarily limited to a sequence of changes in pitch, and may be an instruction to play a specific chord or a predetermined sound effect.

(制御部130について)
制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、音声出力装置100内部の記憶装置に記憶されている各種プログラム(音声出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 130)
The control unit 130 is a controller, and for example, various programs (of the audio output program) stored in the storage device inside the audio output device 100 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. (Corresponding to one example) is realized by executing the RAM as a work area. Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図3に示すように、制御部130は、取得部131と、選択部132と、音声出力部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 3, the control unit 130 includes an acquisition unit 131, a selection unit 132, and a voice output unit 133, and realizes or executes an information processing function or operation described below. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be any other configuration as long as it is configured to perform information processing described later. Further, the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 3, and may be another connection relationship.

(取得部131について)
取得部131は、各種情報を取得する。例えば、取得部131は、種別が対応付けられた所定の情報を取得する。所定の情報とは、後述する音声出力部133によって音声情報に対応付けられる情報であり、例えば、任意の情報の種別と、かかる情報に対応した数値である。例えば、所定の情報が「ニュース記事へのアクセスログ」である場合、所定の情報の種別はニュース記事に設定された「カテゴリ」であり、数値は「インプレッション数」や「シェア数」である。
(About acquisition unit 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires predetermined information with which the types are associated. The predetermined information is information associated with the voice information by the voice output unit 133, which will be described later, and is, for example, an arbitrary type of information and a numerical value corresponding to the information. For example, when the predetermined information is the "access log to the news article", the type of the predetermined information is the "category" set in the news article, and the numerical value is "the number of impressions" or "the number of shares".

取得部131は、種別の異なる複数の所定の情報を取得する。例えば、図4に示したように、取得部131は、「経済」や「スポーツ」等、複数の種別のアクセスログを取得する。これら複数の種別の情報が異なる方向から出力されることで、ユーザは、情報の変化を聴覚によって認識することができる。 The acquisition unit 131 acquires a plurality of predetermined information of different types. For example, as shown in FIG. 4, the acquisition unit 131 acquires a plurality of types of access logs such as “economy” and “sports”. By outputting these plurality of types of information from different directions, the user can perceive changes in the information by hearing.

なお、取得部131は、所定の情報として、所定時間ごとに観測される数値を取得する。例えば、取得部131は、予め設定される集計期間ごとに観測される数値を取得し、集計期間ごとの数値を記憶部120(例えばアクセスログ記憶部121)に格納する。これにより、取得部131は、集計期間ごとの数値の変化量(差分)に関する情報を取得することができる。 The acquisition unit 131 acquires the numerical values observed at predetermined time intervals as predetermined information. For example, the acquisition unit 131 acquires the numerical value observed for each aggregation period set in advance, and stores the numerical value for each aggregation period in the storage unit 120 (for example, the access log storage unit 121). As a result, the acquisition unit 131 can acquire information regarding the amount of change (difference) in the numerical value for each aggregation period.

上述のように、取得部131は、所定の情報として、予め設定されたカテゴリが対応付けられたコンテンツの閲覧数もしくは拡散数の少なくともいずれかを取得する。上記の例では、ニュース記事をコンテンツの一例として挙げたが、取得部131は、ニュース記事以外のコンテンツの閲覧数等を取得してもよい。例えば、取得部131は、カテゴリが設定されたウェブページごとの閲覧数を取得してもよい。具体的には、取得部131は、「旅行サイト」に分類されるウェブページの閲覧数の合計数と、「飲食店予約サイト」に分類されるウェブページの閲覧数の合計数等を取得してもよい。すなわち、取得部131が取得する情報は、ネットワーク上で取得されるあらゆる情報であってもよい。 As described above, the acquisition unit 131 acquires at least one of the number of views or the number of diffusions of the content associated with the preset category as predetermined information. In the above example, the news article is taken as an example of the content, but the acquisition unit 131 may acquire the number of views of the content other than the news article. For example, the acquisition unit 131 may acquire the number of views for each web page in which the category is set. Specifically, the acquisition unit 131 acquires the total number of views of web pages classified as "travel sites" and the total number of views of web pages classified as "restaurant reservation sites". You may. That is, the information acquired by the acquisition unit 131 may be any information acquired on the network.

例えば、取得部131は、所定の情報として、予め設定された銘柄が対応付けられた株価もしくは取引数の少なくともいずれかを取得してもよい。この場合、取得部131は、銘柄ごとに対応する音源が設定された定義ファイルを取得してもよい。取得部131によって取得された情報が音声として出力された場合、ユーザは、どの銘柄が値上がりしたか、あるいは、どの銘柄が頻繁に取引されているかといった情報を、定常的に発せられる連続的な音声によって知覚することができる。 For example, the acquisition unit 131 may acquire at least one of a stock price or a number of transactions associated with a preset issue as predetermined information. In this case, the acquisition unit 131 may acquire a definition file in which the corresponding sound source is set for each brand. When the information acquired by the acquisition unit 131 is output as voice, the user constantly emits information such as which brand has increased in price or which brand is frequently traded. Can be perceived by.

また、取得部131は、所定の情報として、所定の情報として、ネットワークを介して販売される商品の販売数、拡散数もしくはブックマーク数の少なくともいずれか一つを取得してもよい。この場合、取得部131は、商品に対応するカテゴリ(例えば、家電やファッションなどの分類情報)が設定された定義ファイルや、各カテゴリに割り当てる音源が指定された定義ファイル等を取得してもよい。取得部131によって取得された情報が音声として出力された場合、ユーザは、どのようなカテゴリの商品が頻繁に売買されているか、あるいは、どのような商品が頻繁にシェアされているかといった情報を、定常的に発せられる連続的な音声によって知覚することができる。 Further, the acquisition unit 131 may acquire at least one of the number of products sold, the number of spreads, and the number of bookmarks of products sold via the network as predetermined information. In this case, the acquisition unit 131 may acquire a definition file in which a category corresponding to the product (for example, classification information such as home appliances and fashion) is set, a definition file in which a sound source to be assigned to each category is specified, and the like. .. When the information acquired by the acquisition unit 131 is output as voice, the user can obtain information such as what category of products are frequently bought and sold or what products are frequently shared. It can be perceived by a continuous voice that is emitted constantly.

(選択部132について)
選択部132は、取得部131によって取得された所定の情報の種別ごとに、対応する音声情報と、音声情報が出力される際の方向に関する情報とを選択する。
(About selection unit 132)
The selection unit 132 selects the corresponding voice information and the information regarding the direction in which the voice information is output for each type of predetermined information acquired by the acquisition unit 131.

具体的には、選択部132は、音声情報が出力される際の方向に関する情報として、音声情報が出力される出力装置の識別情報を選択する。例えば、選択部132は、図5で示したように、所定の情報の種別ごとに出力先のチャンネルを選択し、チャンネルの選択に伴い、出力装置(スピーカー20)の識別情報を選択してもよい。言い換えれば、選択部132は、出力先を選択することにより、音声を出力させる方向を指定(選択)する。 Specifically, the selection unit 132 selects the identification information of the output device to which the voice information is output as the information regarding the direction when the voice information is output. For example, as shown in FIG. 5, the selection unit 132 may select an output destination channel for each type of predetermined information, and select the identification information of the output device (speaker 20) along with the channel selection. good. In other words, the selection unit 132 specifies (selects) the direction in which the sound is output by selecting the output destination.

例えば、選択部132は、取得部131によって種別の異なる複数の所定の情報が取得された場合、複数の種別ごとに異なる出力装置の識別情報を選択する。これにより、選択部132は、複数の種別に対応する音声が同時に出力されても、異なる方向からユーザに音声を届けることができるので、ユーザの知覚を妨げることがない。言い換えれば、選択部132は、出力装置の識別情報を選択することで、ユーザが音を聞く空間に音情報をマッピングすることができる。 For example, when a plurality of predetermined information of different types is acquired by the acquisition unit 131, the selection unit 132 selects different output device identification information for each of the plurality of types. As a result, the selection unit 132 can deliver the voice to the user from different directions even if the voice corresponding to a plurality of types is output at the same time, so that the user's perception is not hindered. In other words, the selection unit 132 can map the sound information to the space where the user hears the sound by selecting the identification information of the output device.

また、選択部132は、所定の情報の種別ごとに対応する音声情報を選択する際に、音声情報の音源を選択する。具体的には、選択部132は、種別ごとに異なる音色を選択する。選択部132によれば、同時に異なる種別に対応する音声が出力される場合であっても、各々の音声には異なる音色が選択されているため、ユーザが情報を混同することを防止できる。なお、音声情報の選択とは、種別ごとに異なる音源(音色)を用いて音声情報を生成することと読み替えてもよい。 Further, the selection unit 132 selects the sound source of the voice information when selecting the corresponding voice information for each type of predetermined information. Specifically, the selection unit 132 selects a different tone color for each type. According to the selection unit 132, even when voices corresponding to different types are output at the same time, different tones are selected for each voice, so that it is possible to prevent the user from confusing the information. It should be noted that the selection of voice information may be read as the generation of voice information using a sound source (timbre) different for each type.

(音声出力部133について)
音声出力部133は、選択部132によって選択された方向に関する情報に基づいて、音声情報を定常的に出力装置から出力するよう制御するとともに、所定の情報における所定時間ごとの変化に応じて、音声情報を構成する要素を変更する。
(About audio output unit 133)
The voice output unit 133 controls to constantly output voice information from the output device based on the information regarding the direction selected by the selection unit 132, and the voice output unit 133 responds to changes in the predetermined information at predetermined time intervals. Change the elements that make up the information.

例えば、音声出力部133は、複数の種別ごとに異なる出力装置から音声情報を出力するよう制御する。これにより、音声出力部133は、1種類の種別の情報でなく、複数の種別の情報に対応する音声をユーザに届けることができる。 For example, the voice output unit 133 controls to output voice information from different output devices for each of a plurality of types. As a result, the voice output unit 133 can deliver the voice corresponding to a plurality of types of information to the user instead of the information of one type.

また、音声出力部133は、所定の情報における所定時間ごとの変化に応じて、音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する。例えば、音声出力部133は、変更情報記憶部124に記憶された定義を参照し、所定の情報の変数の変化に応じて、音量、周波数もしくは音色を変更する。 Further, the voice output unit 133 changes at least one of the volume, frequency, and timbre of the voice information according to the change in the predetermined information at predetermined time intervals. For example, the audio output unit 133 refers to the definition stored in the change information storage unit 124, and changes the volume, frequency, or timbre according to a change in a variable of predetermined information.

また、音声出力部133は、所定の情報における所定時間ごとの変化に応じて、変化に対応付けられた旋律を含む音声情報を出力してもよい。この場合、音声出力部133は、変更情報記憶部124に記憶された定義を参照し、所定の情報の変数の変化に応じた旋律を決定し、定常的に発している音声に旋律を組み込む処理を行う。 Further, the voice output unit 133 may output voice information including a melody associated with the change according to the change in the predetermined information at predetermined time intervals. In this case, the voice output unit 133 refers to the definition stored in the change information storage unit 124, determines the tune according to the change of the variable of the predetermined information, and incorporates the tune into the constantly emitted voice. I do.

なお、音声出力部133は、上記した音量や周波数等以外の要素についても、適宜変更してもよい。すなわち、音声出力部133は、音声を聞いているユーザが何らかの変化を認識できるよう、音声情報の種々の要素を変更してもよい。例えば、音声出力部133は、定常的に出力させている音声における旋律の時間長やエンベロープを変更してもよい。また、音声出力部133は、出力している音声の周波数をスイープさせるよう、周波数を時間に応じて変更してもよい。また、音声出力部133は、生成する音声情報の波形(正弦波、三角波、矩形波等)を適宜変更して、定常的に出力されている音声に変化を与えてもよい。なお、音声出力部133は、これら音声情報の生成や変更について、種々の既知の技術(例えば、人にとって自然に聞こえるフレーズの自動生成技術等)を利用してもよい。 The audio output unit 133 may appropriately change elements other than the above-mentioned volume, frequency, and the like. That is, the voice output unit 133 may change various elements of the voice information so that the user listening to the voice can recognize some change. For example, the voice output unit 133 may change the time length or envelope of the tune in the voice that is constantly being output. Further, the audio output unit 133 may change the frequency according to the time so as to sweep the frequency of the output audio. Further, the audio output unit 133 may appropriately change the waveform (sine wave, triangular wave, rectangular wave, etc.) of the generated audio information to change the constantly output audio. The voice output unit 133 may use various known techniques (for example, an automatic phrase generation technique that sounds natural to humans) for generating or changing these voice information.

なお、音声出力部133は、旋律や和音を具体的に指定した定義情報を参照して音声情報を変更してもよいし、直前に出力されている音高や音長に合わせて自然に音声を変化させる定義情報を参照して音声情報を変更してもよい。例えば、音声出力部133は、現在出力されている音に対して、「3度、5度、7度の音程を有する音」で定義される旋律を組み込む、といった定義情報を参照して、音声情報を変更してもよい。これにより、音声出力部133は、単に情報の変化をユーザに提示するのみならず、音楽的にも自然に聞くことのできる音声をユーザに提供することができる。 The voice output unit 133 may change the voice information by referring to the definition information in which the tune or chord is specifically specified, or the voice is naturally voiced according to the pitch or the sound length output immediately before. You may change the voice information by referring to the definition information that changes. For example, the voice output unit 133 refers to the definition information such as incorporating a tune defined by "a sound having a pitch of 3 degrees, 5 degrees, and 7 degrees" into the sound currently being output, and makes a voice. You may change the information. As a result, the voice output unit 133 can not only present the change of information to the user but also provide the user with voice that can be heard naturally musically.

なお、音声出力部133は、取得した情報の絶対的な数値ではなく、所定時間(集計期間)ごとの差分に基づいて音声情報を変更してもよい。すなわち、音声出力部133は、所定の情報における所定時間ごとの数値の変化量に応じて、音声情報を構成する要素を変更してもよい。 The voice output unit 133 may change the voice information based on the difference for each predetermined time (aggregation period) instead of the absolute numerical value of the acquired information. That is, the voice output unit 133 may change the elements constituting the voice information according to the amount of change in the numerical value for each predetermined time in the predetermined information.

具体的には、音声出力部133は、所定の情報における所定時間ごとの数値の変化量に応じて、音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更してもよい。また、音声出力部133は、定常的に発せられる音声のテンポ(速度)を変更したり、音声を転調させたり、音の長さを変更したりしてもよい。 Specifically, the voice output unit 133 may change at least one of the volume, frequency, and timbre of the voice information according to the amount of change of the numerical value in the predetermined information for each predetermined time. Further, the voice output unit 133 may change the tempo (speed) of the voice that is constantly emitted, transpose the voice, or change the length of the sound.

〔4.処理手順〕
次に、図8を用いて、実施形態に係る音声出力装置100による処理の手順について説明する。図8は、実施形態に係る処理手順を示すフローチャートである。
[4. Processing procedure]
Next, the procedure of processing by the voice output device 100 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a processing procedure according to the embodiment.

図8に示すように、音声出力装置100は、分析対象とする情報(実施形態では、ニュース記事に対するアクセスログ)を取得したか否かを判定する(ステップS101)。分析対象とする情報を取得していない場合(ステップS101;No)、音声出力装置100は、取得するまで待機する。 As shown in FIG. 8, the voice output device 100 determines whether or not the information to be analyzed (in the embodiment, the access log for the news article) has been acquired (step S101). If the information to be analyzed has not been acquired (step S101; No), the audio output device 100 waits until it is acquired.

一方、分析対象とする情報を取得した場合(ステップS101;Yes)、音声出力装置100は、取得した情報の種別ごとに音声情報を選択する(ステップS102)。また、音声出力装置100は、情報の種別ごとに、音声が出力される際の方向に関する情報(出力先)を選択する(ステップS103)。 On the other hand, when the information to be analyzed is acquired (step S101; Yes), the audio output device 100 selects audio information for each type of acquired information (step S102). Further, the voice output device 100 selects information (output destination) regarding the direction in which the voice is output for each type of information (step S103).

その後、音声出力装置100は、音声出力の終了をユーザや管理者等から受け付けたか否かを判定する(ステップS104)。音声出力の終了を受け付けていない場合(ステップS104;No)、音声出力装置100は、音声情報に基づいて、音声を出力先から出力する(ステップS105)。 After that, the voice output device 100 determines whether or not the end of the voice output has been accepted from the user, the administrator, or the like (step S104). When the end of the voice output is not accepted (step S104; No), the voice output device 100 outputs the voice from the output destination based on the voice information (step S105).

そして、音声出力装置100は、音声の出力中に、音声情報に対応する情報が変化したか否かを判定する(ステップS106)。例えば、音声出力装置100は、連続した集計期間において、所定の閾値を超えて数値が変化したか否かを判定する。 Then, the voice output device 100 determines whether or not the information corresponding to the voice information has changed during the output of the voice (step S106). For example, the voice output device 100 determines whether or not the numerical value has changed beyond a predetermined threshold value in the continuous aggregation period.

情報が変化していない場合(ステップS106;No)、音声出力装置100は、音声情報(すなわち、出力中の音声)を変更せずに、処理をステップS104に戻す。一方、情報が変化した場合(ステップS106;Yes)、音声出力装置100は、例えば変更情報記憶部124に格納されている定義に従い、出力する音声を変更する(ステップS107)。 If the information has not changed (step S106; No), the audio output device 100 returns the process to step S104 without changing the audio information (that is, the audio being output). On the other hand, when the information changes (step S106; Yes), the voice output device 100 changes the voice to be output according to the definition stored in, for example, the change information storage unit 124 (step S107).

なお、音声出力装置100は、ステップS104において音声出力の終了を受け付けた場合(ステップS104;Yes)、音声の出力を終了させ(ステップS108)、実施形態に係る音声出力処理を終了する。 When the audio output device 100 receives the end of the audio output in step S104 (step S104; Yes), the audio output device 100 ends the audio output (step S108), and ends the audio output process according to the embodiment.

〔5.変形例〕
上述した音声出力装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、音声出力装置100の他の実施形態について説明する。
[5. Modification example]
The audio output device 100 described above may be implemented in various different forms other than the above embodiment. Therefore, another embodiment of the audio output device 100 will be described below.

〔5-1.指示に対応する音声〕
上記実施形態では、音声出力装置100が、情報の変化に応じて音声情報を構成する要素を変更する例を示した。ここで、音声出力装置100は、情報の変化に加えて、所定の指示を受け付けて、音声情報を変更してもよい。
[5-1. Voice corresponding to the instruction]
In the above embodiment, an example is shown in which the voice output device 100 changes the elements constituting the voice information according to the change of the information. Here, the voice output device 100 may change the voice information by receiving a predetermined instruction in addition to the change of the information.

例えば、音声出力装置100は、予め定義された指示と、指示を受け付けた際の音声情報の変更とを定義付けた情報を取得する。指示とは、例えば、店舗等で利用される業務指示であり、その指示に対応した音声を聞いた者に何らかの指令を与える情報である。指示の一例は、店舗において店員を所定位置に集合させる業務命令である。 For example, the voice output device 100 acquires information defining a predefined instruction and a change in voice information when the instruction is received. The instruction is, for example, a business instruction used in a store or the like, and is information that gives some command to a person who hears a voice corresponding to the instruction. An example of an instruction is a business order to gather a clerk at a predetermined position in a store.

そして、音声出力装置100は、任意のタイミングで、指示を行うための契機となる情報を取得する。例えば、音声出力装置100は、店舗の責任者等が利用する端末装置から、指示を発することを示す命令(スクリプト等)を取得する。そして、音声出力装置100は、当該指示を取得した場合、取得した情報と対応付けられた旋律を含む音声情報をスピーカー20に出力する。 Then, the voice output device 100 acquires information that triggers an instruction at an arbitrary timing. For example, the voice output device 100 acquires a command (script or the like) indicating that an instruction is issued from a terminal device used by a store manager or the like. Then, when the instruction is acquired, the voice output device 100 outputs the voice information including the melody associated with the acquired information to the speaker 20.

すなわち、音声出力装置100は、定常的に発せられる音声に混じるように、何らかの指示に対応付けられた旋律をスピーカー20から出力させる。これにより、店舗側は、業務命令等の内容を店員がアナウンス等することなく、指示を店員に伝達させることができる。また、音声出力装置100は、図1に示すような指向性スピーカーを用いることで、指示を伝える店員と、指示を伝えなくてもよい店員とを選択して指示を出すことができる。 That is, the voice output device 100 outputs a melody associated with some instruction from the speaker 20 so as to be mixed with the voice constantly emitted. As a result, the store side can transmit the instruction to the store clerk without the store clerk announcing the contents of the business order or the like. Further, by using the directional speaker as shown in FIG. 1, the voice output device 100 can select and issue an instruction between a clerk who conveys an instruction and a clerk who does not need to convey the instruction.

このように、音声出力装置100は、予め定義された指示に関する情報を取得し、取得した情報と対応付けられた旋律を含む音声情報を出力するようにしてもよい。これにより、音声出力装置100は、情報の数値的な変化のみならず、任意の指示を対象とする人物に伝達することができる。 In this way, the voice output device 100 may acquire information regarding a predefined instruction and output voice information including a tune associated with the acquired information. As a result, the voice output device 100 can transmit not only the numerical change of the information but also an arbitrary instruction to the target person.

〔5-2.出力先の選択〕
上記実施形態では、音声出力装置100が、指向性スピーカー等、音が放射される角度を調整可能な出力装置で音声を出力するよう制御する例を示した。しかし、音声出力装置100は、指向性スピーカー以外の出力装置を選択して音声を出力してもよい。
[5-2. Select output destination]
In the above embodiment, an example is shown in which the sound output device 100 is controlled to output sound by an output device such as a directional speaker whose angle at which sound is radiated can be adjusted. However, the audio output device 100 may output audio by selecting an output device other than the directional speaker.

例えば、音声出力装置100は、ステレオスピーカーやヘッドホンやイヤホン等のLRチャンネルを選択して音声を出力してもよい。この場合、音声出力装置100は、L側に一つの種別の情報を出力先として対応付け、R側に他の種別の情報を出力先として対応付ける。かかる手法によっても、音声出力装置100は、別の方向から音声をユーザに届けることができるため、少なくとも2種類の種別の情報の変化をユーザに検知させることができる。 For example, the audio output device 100 may output audio by selecting an LR channel such as a stereo speaker, headphones, or earphones. In this case, the audio output device 100 associates one type of information with the L side as an output destination, and associates the other type of information with the R side as an output destination. Even with this method, the voice output device 100 can deliver the voice to the user from another direction, so that the user can detect changes in at least two types of information.

また、音声出力装置100は、スピーカー20等の配置情報を含む定義情報を予め取得しておいてもよい。例えば、音声出力装置100は、ある閉じられた空間において、ユーザの北側から音を出力するスピーカー20と、ユーザの西側から音を出力するスピーカー20と、ユーザの南側から音を出力するスピーカー20と、ユーザの東側から音を出力するスピーカー20と、の配置情報を予め取得する。なお、配置情報には、各々のスピーカー20が配置される位置情報や、互いの距離情報や、音が出力される角度等を含んでもよい。そして、音声出力装置100は、取得した情報の種別ごとに、互いに干渉が最も少ないと判定されるスピーカー20を選択して、音声情報を出力するようにしてもよい。 Further, the audio output device 100 may acquire definition information including the arrangement information of the speaker 20 and the like in advance. For example, the audio output device 100 has a speaker 201 that outputs sound from the north side of the user, a speaker 202 that outputs sound from the west side of the user, and a speaker that outputs sound from the south side of the user in a closed space. The arrangement information of 203 and the speaker 204 that outputs sound from the east side of the user is acquired in advance. The arrangement information may include position information on which each speaker 20 is arranged, distance information from each other, an angle at which sound is output, and the like. Then, the voice output device 100 may select the speaker 20 which is determined to have the least interference with each other for each type of acquired information, and output the voice information.

〔5-3.出力装置〕
音声出力装置100は、出力する音声を指示するための音声情報として、例えばHTML(HyperText Markup Language)ファイルを利用してもよい。この場合、出力装置は、HTMLファイルを読み込み可能なウェブブラウザを介して、音声出力装置100から取得した音声情報に対応する音声を出力する。すなわち、実施形態に係る音声出力処理は、音声出力装置100にアクセス可能な複数台のノートパソコンやスマートフォン等を出力装置として実現することができる。
[5-3. Output device]
The voice output device 100 may use, for example, an HTML (HyperText Markup Language) file as voice information for instructing the voice to be output. In this case, the output device outputs the voice corresponding to the voice information acquired from the voice output device 100 via a web browser capable of reading the HTML file. That is, the audio output processing according to the embodiment can be realized by using a plurality of notebook computers, smartphones, or the like that can access the audio output device 100 as the output device.

〔5-4.音声情報の変更〕
音声出力装置100は、取得した情報の変化に度合いに応じて、音声情報の変更を種々に決定してもよい。例えば、音声出力装置100は、取得した情報の変化が相対的に大きい場合、比較的激しい旋律(例えば不協和音を多用するなど)が出力されるように、出力される旋律を決定してもよい。また、音声出力装置100は、取得した情報の変化が相対的に小さい場合、比較的穏やかな旋律(例えば音程の移動が少ないなど)が出力されるよう、出力される旋律を決定してもよい。
[5-4. Change of voice information]
The voice output device 100 may make various decisions on the change of the voice information according to the degree of the change of the acquired information. For example, the voice output device 100 may determine the tune to be output so that a relatively intense tune (for example, a lot of dissonance is used) is output when the change of the acquired information is relatively large. Further, the voice output device 100 may determine the output tune so that a relatively gentle tune (for example, a small pitch movement) is output when the change in the acquired information is relatively small. ..

〔5-5.情報の種別〕
音声情報に割り当てる情報の種別は、様々に定義されてよい。例えば、音声出力装置100は、あるニュース記事を閲覧したユーザの所在地を情報の種別としてもよい。具体的には、音声出力装置100は、あるニュース記事を閲覧したユーザが所在する地域(例えば、関東地方や関西地方、あるいは、都道府県など)を、情報の種別としてもよい。この場合、音声出力装置100は、ユーザが所在する地域ごとに、出力先を選択することになる。これにより、音声出力装置100から出力される音声を聞くユーザは、例えば、あるニュース記事が主に関東地方で視聴されているとか、主に関西地方でシェアされているといった情報を音声から知得することができる。また、情報が商品の販売数であれば、ユーザは、ある商品が関東地方でよく売れているとか、関西地方ではあまり売れていないといった情報を音声から知得することができる。
[5-5. Information type]
The types of information assigned to voice information may be defined in various ways. For example, the voice output device 100 may use the location of a user who has viewed a certain news article as the type of information. Specifically, the voice output device 100 may use the area where the user who browses a certain news article is located (for example, the Kanto region, the Kansai region, or a prefecture) as the type of information. In this case, the audio output device 100 selects an output destination for each area where the user is located. As a result, the user who listens to the voice output from the voice output device 100 can obtain information from the voice, for example, that a certain news article is mainly viewed in the Kanto region or is shared mainly in the Kansai region. be able to. Further, if the information is the number of products sold, the user can obtain information from the voice that a certain product is selling well in the Kanto region or not so much in the Kansai region.

〔6.ハードウェア構成〕
上述してきた実施形態に係る音声出力装置100や情報提供サーバ40は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、音声出力装置100を例に挙げて説明する。図9は、音声出力装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
The audio output device 100 and the information providing server 40 according to the above-described embodiment are realized by, for example, a computer 1000 having a configuration as shown in FIG. Hereinafter, the audio output device 100 will be described as an example. FIG. 9 is a hardware configuration diagram showing an example of a computer 1000 that realizes the functions of the audio output device 100. The computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300又はHDD1400に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を記憶する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(図2に示したネットワークNに対応)を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網500を介して他の機器へ送信する。 The HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like. The communication interface 1500 receives data from another device via the communication network 500 (corresponding to the network N shown in FIG. 2) and sends the data to the CPU 1100, and the data generated by the CPU 1100 is transmitted to another device via the communication network 500. Send to the device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the data generated via the input / output interface 1600 to the output device.

メディアインターフェイス1700は、記録媒体1800に記憶されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が実施形態に係る音声出力装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが記憶される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the audio output device 100 according to the embodiment, the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the RAM 1200. Further, the data in the storage unit 120 is stored in the HDD 1400. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the communication network 500.

〔7.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した取得部131と選択部132とは統合されてもよい。また、例えば、記憶部120に記憶される情報は、ネットワークNを介して、外部に備えられた所定の記憶装置に記憶されてもよい。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured. For example, the acquisition unit 131 and the selection unit 132 shown in FIG. 3 may be integrated. Further, for example, the information stored in the storage unit 120 may be stored in a predetermined storage device provided externally via the network N.

また、上記実施形態では、音声出力装置100が、所定の情報を取得する取得処理と、取得した情報の種別ごとに方向に関する情報を選択する選択処理と、音声の出力を制御する音声出力処理とを行う例を示した。しかし、上述した音声出力装置100は、取得処理を実行するする取得サーバと、選択処理を実行する選択サーバと、音声出力処理を実行する音声出力サーバ等が連携して動作することにより、実現されてもよい。この場合、上記の音声出力装置100による処理は、各サーバを含む音声出力システム1によって実現される。あるいは、音声出力装置100は、情報提供サーバ40やスピーカー20の機能を自装置に備えていてもよい。 Further, in the above embodiment, the voice output device 100 has an acquisition process for acquiring predetermined information, a selection process for selecting direction information for each type of acquired information, and a voice output process for controlling voice output. I showed an example of doing. However, the above-mentioned audio output device 100 is realized by operating the acquisition server that executes the acquisition process, the selection server that executes the selection process, the audio output server that executes the audio output process, and the like in cooperation with each other. You may. In this case, the processing by the audio output device 100 is realized by the audio output system 1 including each server. Alternatively, the voice output device 100 may have the functions of the information providing server 40 and the speaker 20 in its own device.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.

〔8.効果〕
上述してきたように、実施形態に係る音声出力装置100は、取得部131と、選択部132と、音声出力部133とを有する。取得部131は、種別が対応付けられた所定の情報を取得する。選択部132は、取得部131によって取得された所定の情報の種別ごとに、対応する音声情報と、音声情報が出力される際の方向に関する情報とを選択する。音声出力部133は、選択部132によって選択された方向に関する情報に基づいて、音声情報を定常的に出力装置から出力するよう制御するとともに、所定の情報における所定時間ごとの変化に応じて、音声情報を構成する要素を変更する。
[8. effect〕
As described above, the audio output device 100 according to the embodiment includes an acquisition unit 131, a selection unit 132, and an audio output unit 133. The acquisition unit 131 acquires predetermined information with which the types are associated. The selection unit 132 selects the corresponding voice information and the information regarding the direction in which the voice information is output for each type of predetermined information acquired by the acquisition unit 131. The voice output unit 133 controls to constantly output voice information from the output device based on the information regarding the direction selected by the selection unit 132, and the voice output unit 133 responds to changes in the predetermined information at predetermined time intervals. Change the elements that make up the information.

このように、実施形態に係る音声出力装置100は、情報の種別に対応した音声情報を選択するとともに、音声情報が出力される際の方向に関する情報を選択する。そして、音声出力装置100は、選択した方向に関する情報に基づいて音声を出力させることで、視覚によらず、聴覚のみで情報の種別をユーザに判別させることできる。すなわち、音声出力装置100は、音声を構成する音量や周波数等によらず、音に方向性を持たせることによって、音声を用いて様々な種別の情報をユーザに把握させることができる。 As described above, the voice output device 100 according to the embodiment selects the voice information corresponding to the type of information and also selects the information regarding the direction in which the voice information is output. Then, the voice output device 100 can make the user determine the type of information only by hearing, not by sight, by outputting voice based on the information about the selected direction. That is, the voice output device 100 can make the user grasp various types of information by using the voice by giving the sound directionality regardless of the volume, frequency, and the like constituting the voice.

また、選択部132は、音声情報が出力される際の方向に関する情報として、音声情報が出力される出力装置の識別情報を選択する。 Further, the selection unit 132 selects the identification information of the output device to which the voice information is output as the information regarding the direction when the voice information is output.

このように、実施形態に係る音声出力装置100は、音声の出力先となる出力装置を指定することにより、音が出力される方向を選択することができる。これにより、音声出力装置100は、音声を用いて様々な種別の情報をユーザに把握させることができる。 As described above, the audio output device 100 according to the embodiment can select the direction in which the sound is output by designating the output device to which the audio is output. Thereby, the voice output device 100 can make the user grasp various types of information by using voice.

また、取得部131は、種別の異なる複数の所定の情報を取得する。選択部132は、複数の種別ごとに異なる識別情報を選択する。音声出力部133は、複数の種別ごとに異なる出力装置から音声情報を出力するよう制御する。 Further, the acquisition unit 131 acquires a plurality of predetermined information of different types. The selection unit 132 selects different identification information for each of a plurality of types. The voice output unit 133 controls to output voice information from different output devices for each of a plurality of types.

このように、実施形態に係る音声出力装置100は、複数の種別の情報が異なる出力装置から出力されるよう、方向に関する情報を選択することによって、種々の種別の情報が一度にユーザに到達する場合でも、ユーザが情報を把握しやすいような音環境を実現することができる。また、音声出力装置100によれば、種別ごとに出力装置を選択することで、1種類の情報でなく、複数の種別の情報に対応した音声を同時にユーザに知覚させることができる。 As described above, in the audio output device 100 according to the embodiment, various types of information reach the user at once by selecting information regarding directions so that a plurality of types of information are output from different output devices. Even in this case, it is possible to realize a sound environment in which the user can easily grasp the information. Further, according to the voice output device 100, by selecting an output device for each type, it is possible for the user to simultaneously perceive voice corresponding to a plurality of types of information instead of one type of information.

また、音声出力部133は、所定の情報における所定時間ごとの変化に応じて、音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する。 Further, the voice output unit 133 changes at least one of the volume, frequency, and timbre of the voice information according to the change in the predetermined information at predetermined time intervals.

このように、実施形態に係る音声出力装置100は、音声情報の元となる情報の変化に応じて音量等を変更することで、ユーザがディスプレイ等を見なくても、聴覚のみによって、ユーザに情報の変化を把握させることができる。 As described above, the voice output device 100 according to the embodiment changes the volume and the like according to the change of the information that is the source of the voice information, so that the user can hear only by hearing without looking at the display or the like. It is possible to grasp changes in information.

また、音声出力部133は、所定の情報における所定時間ごとの変化に応じて、変化に対応付けられた旋律を含む音声情報を出力する。 Further, the voice output unit 133 outputs voice information including a melody associated with the change according to the change in the predetermined information at predetermined time intervals.

このように、実施形態に係る音声出力装置100は、旋律の変化によって情報の変化をユーザに把握させてもよい。これにより、音声出力装置100は、無機質なアラート音等ではなく、音楽的に有意な表現によってユーザに情報を把握させることができる。 As described above, the voice output device 100 according to the embodiment may allow the user to grasp the change in information due to the change in tune. As a result, the voice output device 100 can make the user grasp the information by a musically significant expression instead of an inorganic alert sound or the like.

また、取得部131は、所定の情報として、所定時間ごとに観測される数値を取得する。音声出力部133は、所定の情報における所定時間ごとの数値の変化量に応じて、音声情報を構成する要素を変更する。 Further, the acquisition unit 131 acquires the numerical value observed at predetermined time intervals as predetermined information. The voice output unit 133 changes the elements constituting the voice information according to the amount of change in the numerical value for each predetermined time in the predetermined information.

このように、実施形態に係る音声出力装置100は、情報の変化の差分に基づいて音声情報を変更してもよい。これにより、音声出力装置100は、ある情報がどのように変化しているかといった傾向を示す情報をユーザに把握させることができる。 As described above, the voice output device 100 according to the embodiment may change the voice information based on the difference in the change of the information. Thereby, the voice output device 100 can make the user grasp the information showing the tendency such as how a certain information is changed.

また、音声出力部133は、所定の情報における所定時間ごとの数値の変化量に応じて、音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する。 Further, the voice output unit 133 changes at least one of the volume, frequency, and timbre of the voice information according to the amount of change in the numerical value of the predetermined information for each predetermined time.

このように、実施形態に係る音声出力装置100は、情報の変化の差分に基づいて音量等の要素を変更することで、ある情報がどのように変化しているかといった傾向を示す情報をユーザに把握させることができる。 As described above, the voice output device 100 according to the embodiment changes an element such as a volume based on the difference in the change of the information to give the user information indicating a tendency such as how a certain information is changed. It can be grasped.

また、取得部131は、所定の情報として、予め設定されたカテゴリが対応付けられたコンテンツの閲覧数もしくは拡散数の少なくともいずれかを取得する。 In addition, the acquisition unit 131 acquires at least one of the number of views and the number of diffusions of the content associated with the preset category as predetermined information.

このように、実施形態に係る音声出力装置100は、コンテンツの閲覧数や拡散数に基づいて音声情報を生成することにより、どのようなカテゴリのコンテンツが頻繁に閲覧されているかといった情報を、音声を用いてユーザに把握させることができる。 As described above, the voice output device 100 according to the embodiment generates voice information based on the number of views and the number of diffusions of the content, so that information such as what category of content is frequently browsed can be obtained by voice. Can be used by the user to understand.

また、取得部131は、所定の情報として、予め設定された銘柄が対応付けられた株価もしくは取引数の少なくともいずれかを取得する。 Further, the acquisition unit 131 acquires at least one of the stock price or the number of transactions associated with the preset issue as predetermined information.

このように、実施形態に係る音声出力装置100は、銘柄ごとの株価や取引数に基づいて音声情報を生成することにより、ユーザがディスプレイ等を確認しなくても、音声によって株価の値動き等の情報をユーザに把握させることができる。さらに、音声出力装置100は、例えば値動きが大きいときには激しい旋律が再生されるように定義することで、ユーザに株価の値動きの詳細な情報を伝達することもできる。言い換えれば、音声出力装置100によれば、ユーザは株価の動きを一連の音楽のフレーズに沿って知覚することができる。 As described above, the voice output device 100 according to the embodiment generates voice information based on the stock price and the number of transactions for each brand, so that the price movement of the stock price or the like can be detected by voice without the user checking the display or the like. Information can be grasped by the user. Further, the voice output device 100 can also transmit detailed information on the price movement of the stock price to the user by defining, for example, that a violent melody is reproduced when the price movement is large. In other words, according to the voice output device 100, the user can perceive the movement of the stock price along a series of musical phrases.

また、取得部131は、所定の情報として、ネットワークを介して販売される商品の販売数、拡散数もしくはブックマーク数の少なくともいずれか一つを取得する。 Further, the acquisition unit 131 acquires at least one of the number of products sold, the number of spreads, and the number of bookmarks of the products sold via the network as predetermined information.

このように、実施形態に係る音声出力装置100は、商品の閲覧数等に基づいて音声情報を生成することにより、どのような商品が頻繁に購買されているかといった情報を、音声を用いてユーザに把握させることができる。 As described above, the voice output device 100 according to the embodiment generates voice information based on the number of views of the product and the like, so that information such as what kind of product is frequently purchased can be obtained by the user by voice. Can be grasped by.

また、取得部131は、予め定義された指示に関する情報を取得する。音声出力部133は、取得部131によって取得された情報と対応付けられた旋律を含む音声情報を出力する。 In addition, the acquisition unit 131 acquires information regarding a predefined instruction. The voice output unit 133 outputs voice information including a tune associated with the information acquired by the acquisition unit 131.

このように、実施形態に係る音声出力装置100は、所定の指示を示した旋律(フレーズ)を再生中の音声に組み込むような音声情報を生成することによって、音声を聞く者に指示を与えることができる。すなわち、音声出力装置100は、音声を利用して、情報の変化を把握させるのみならず、ユーザ間のコミュニケーションを実現することができる。 As described above, the voice output device 100 according to the embodiment gives an instruction to a person who listens to the voice by generating voice information such as incorporating a tune (phrase) indicating a predetermined instruction into the voice being played. Can be done. That is, the voice output device 100 can not only grasp changes in information but also realize communication between users by using voice.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.

1 音声出力システム
20 スピーカー
40 情報提供サーバ
100 音声出力装置
110 通信部
120 記憶部
121 アクセスログ記憶部
122 音声選択記憶部
123 出力先記憶部
124 変更情報記憶部
130 制御部
131 取得部
132 選択部
133 音声出力部
1 Audio output system 20 Speaker 40 Information providing server 100 Audio output device 110 Communication unit 120 Storage unit 121 Access log storage unit 122 Voice selection storage unit 123 Output destination storage unit 124 Change information storage unit 130 Control unit 131 Acquisition unit 132 Selection unit 133 Audio output section

Claims (13)

種別が対応付けられた所定の情報を取得する取得部と、
前記取得部によって取得された所定の情報の種別ごとに、対応する音声情報と、前記音声情報が出力される際の方向に関する情報とを選択する選択部と、
前記選択部によって選択された方向に関する情報に基づいて、前記音声情報を定常的に出力装置から出力するよう制御するとともに、前記所定の情報における所定時間ごとの変化に応じて、前記音声情報を構成する要素を変更する音声出力部と、
を備え
前記選択部は、所定の空間内に所在する複数のユーザのうち所定のユーザに対応する音声情報が出力される際の方向に関する情報として、当該所定のユーザのみが視聴可能な方向に関する情報を選択す
ことを特徴とする音声出力装置。
An acquisition unit that acquires predetermined information with which types are associated, and
A selection unit for selecting the corresponding voice information and information regarding the direction in which the voice information is output for each type of predetermined information acquired by the acquisition unit.
Based on the information about the direction selected by the selection unit, the voice information is controlled to be constantly output from the output device, and the voice information is configured according to the change of the predetermined information at predetermined time intervals. The audio output section that changes the elements to be used, and
Equipped with
The selection unit selects information regarding a direction that can be viewed only by the predetermined user as information regarding the direction in which audio information corresponding to the predetermined user is output among a plurality of users located in the predetermined space. An audio output device characterized by
前記選択部は、
前記音声情報が出力される際の方向に関する情報として、当該音声情報が出力される出力装置の識別情報を選択する、
ことを特徴とする請求項1に記載の音声出力装置。
The selection unit is
As the information regarding the direction when the voice information is output, the identification information of the output device from which the voice information is output is selected.
The audio output device according to claim 1.
前記取得部は、
種別の異なる複数の前記所定の情報を取得し、
前記選択部は、
複数の前記種別ごとに異なる前記識別情報を選択し、
前記音声出力部は、
複数の前記種別ごとに異なる出力装置から音声情報を出力するよう制御する、
ことを特徴とする請求項2に記載の音声出力装置。
The acquisition unit
Acquire a plurality of the predetermined information of different types, and
The selection unit is
Select different identification information for each of the plurality of types,
The audio output unit is
Control to output audio information from a plurality of different output devices for each of the above types.
The audio output device according to claim 2.
前記音声出力部は、
前記所定の情報における所定時間ごとの変化に応じて、前記音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する、
ことを特徴とする請求項1~3のいずれか一つに記載の音声出力装置。
The audio output unit is
At least one of the volume, frequency, and timbre of the voice information is changed according to the change of the predetermined information at predetermined time intervals.
The audio output device according to any one of claims 1 to 3, wherein the audio output device is characterized by the above.
前記音声出力部は、
前記所定の情報における所定時間ごとの変化に応じて、当該変化に対応付けられた旋律を含む前記音声情報を出力する、
ことを特徴とする請求項1~4のいずれか一つに記載の音声出力装置。
The audio output unit is
In response to a change in the predetermined information at predetermined time intervals, the voice information including the tune associated with the change is output.
The audio output device according to any one of claims 1 to 4, wherein the audio output device is characterized.
前記取得部は、
前記所定の情報として、所定時間ごとに観測される数値を取得し、
前記音声出力部は、
前記所定の情報における所定時間ごとの数値の変化量に応じて、当該音声情報を構成する要素を変更する、
ことを特徴とする請求項1~5のいずれか一つに記載の音声出力装置。
The acquisition unit
As the predetermined information, the numerical value observed at a predetermined time is acquired, and the value is obtained.
The audio output unit is
The elements constituting the voice information are changed according to the amount of change in the numerical value for each predetermined time in the predetermined information.
The audio output device according to any one of claims 1 to 5, wherein the audio output device is characterized.
前記音声出力部は、
前記所定の情報における所定時間ごとの数値の変化量に応じて、前記音声情報の音量、周波数もしくは音色の少なくともいずれか一つを変更する、
ことを特徴とする請求項6に記載の音声出力装置。
The audio output unit is
At least one of the volume, frequency, and timbre of the voice information is changed according to the amount of change in the numerical value of the predetermined information at predetermined time intervals.
The audio output device according to claim 6.
前記取得部は、
前記所定の情報として、予め設定されたカテゴリが対応付けられたコンテンツの閲覧数もしくは拡散数の少なくともいずれかを取得する、
ことを特徴とする請求項6又は7に記載の音声出力装置。
The acquisition unit
As the predetermined information, at least one of the number of views or the number of diffusions of the content associated with the preset category is acquired.
The audio output device according to claim 6 or 7.
前記取得部は、
前記所定の情報として、予め設定された銘柄が対応付けられた株価もしくは取引数の少なくともいずれかを取得する、
ことを特徴とする請求項6又は7に記載の音声出力装置。
The acquisition unit
As the predetermined information, at least one of the stock price or the number of transactions associated with the preset stock is acquired.
The audio output device according to claim 6 or 7.
前記取得部は、
前記所定の情報として、ネットワークを介して販売される商品の販売数、拡散数もしくはブックマーク数の少なくともいずれか一つを取得する、
ことを特徴とする請求項6又は7に記載の音声出力装置。
The acquisition unit
As the predetermined information, at least one of the number of products sold, the number of spreads, and the number of bookmarks of products sold via the network is acquired.
The audio output device according to claim 6 or 7.
前記取得部は、
予め定義された指示に関する情報を取得し、
前記音声出力部は、
前記取得部によって取得された情報と対応付けられた旋律を含む前記音声情報を出力する、
ことを特徴とする請求項1~10のいずれか一つに記載の音声出力装置。
The acquisition unit
Get information about predefined instructions and
The audio output unit is
Outputs the voice information including the tune associated with the information acquired by the acquisition unit.
The audio output device according to any one of claims 1 to 10.
コンピュータが実行する音声出力方法であって、
種別が対応付けられた所定の情報を取得する取得工程と、
前記取得工程によって取得された所定の情報の種別ごとに、対応する音声情報と、前記音声情報が出力される際の方向に関する情報とを選択する選択工程と、
前記選択工程によって選択された方向に関する情報に基づいて、前記音声情報を定常的に出力装置から出力するよう制御するとともに、前記所定の情報における所定時間ごとの変化に応じて、前記音声情報を構成する要素を変更する音声出力工程と、
を備え
前記選択工程は、所定の空間内に所在する複数のユーザのうち所定のユーザに対応する音声情報が出力される際の方向に関する情報として、当該所定のユーザのみが視聴可能な方向に関する情報を選択す
ことを含んだことを特徴とする音声出力方法。
It is an audio output method executed by a computer.
The acquisition process to acquire the predetermined information associated with the type, and
A selection step of selecting the corresponding voice information and information regarding the direction in which the voice information is output for each type of predetermined information acquired by the acquisition step.
Based on the information about the direction selected by the selection step, the voice information is controlled to be constantly output from the output device, and the voice information is configured according to the change of the predetermined information at predetermined time intervals. The audio output process that changes the elements to be used, and
Equipped with
In the selection step, information regarding a direction that can be viewed only by the predetermined user is selected as information regarding the direction in which the audio information corresponding to the predetermined user is output among the plurality of users located in the predetermined space. An audio output method characterized by including
種別が対応付けられた所定の情報を取得する取得手順と、
前記取得手順によって取得された所定の情報の種別ごとに、対応する音声情報と、前記音声情報が出力される際の方向に関する情報とを選択する選択手順と、
前記選択手順によって選択された方向に関する情報に基づいて、前記音声情報を定常的に出力装置から出力するよう制御するとともに、前記所定の情報における所定時間ごとの変化に応じて、前記音声情報を構成する要素を変更する音声出力手順と、
を備え
前記選択手順は、所定の空間内に所在する複数のユーザのうち所定のユーザに対応する音声情報が出力される際の方向に関する情報として、当該所定のユーザのみが視聴可能な方向に関する情報を選択す
ことをコンピュータに実行させることを特徴とする音声出力プログラム。
The acquisition procedure to acquire the predetermined information associated with the type, and
A selection procedure for selecting the corresponding voice information and information regarding the direction in which the voice information is output for each type of predetermined information acquired by the acquisition procedure, and a selection procedure.
Based on the information about the direction selected by the selection procedure, the voice information is controlled to be constantly output from the output device, and the voice information is configured according to the change of the predetermined information at predetermined time intervals. Audio output procedure to change the element to be
Equipped with
In the selection procedure, information regarding a direction that can be viewed only by the predetermined user is selected as information regarding the direction in which audio information corresponding to the predetermined user is output among a plurality of users located in the predetermined space. An audio output program characterized by having a computer do what it does.
JP2018093285A 2018-05-14 2018-05-14 Audio output device, audio output method and audio output program Active JP7023786B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018093285A JP7023786B2 (en) 2018-05-14 2018-05-14 Audio output device, audio output method and audio output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018093285A JP7023786B2 (en) 2018-05-14 2018-05-14 Audio output device, audio output method and audio output program

Publications (2)

Publication Number Publication Date
JP2019200486A JP2019200486A (en) 2019-11-21
JP7023786B2 true JP7023786B2 (en) 2022-02-22

Family

ID=68612148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093285A Active JP7023786B2 (en) 2018-05-14 2018-05-14 Audio output device, audio output method and audio output program

Country Status (1)

Country Link
JP (1) JP7023786B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113531755A (en) * 2021-06-24 2021-10-22 惠州华京电子科技有限公司 Ozone disinfection control method and purifier

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020606A (en) 1998-06-26 2000-01-21 Kenichi Uchida System and device for store front information distribution in distribution business
JP2000098950A (en) 1998-09-21 2000-04-07 Toshiba Tec Corp Background music system
JP2016018300A (en) 2014-07-07 2016-02-01 ヤフー株式会社 Information aggregation device, information aggregation method, and information aggregation program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05128121A (en) * 1991-10-30 1993-05-25 Kokusai Electric Co Ltd Stock price information notifying device
JP3739185B2 (en) * 1996-08-28 2006-01-25 富士通株式会社 Access amount expression method and apparatus, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020606A (en) 1998-06-26 2000-01-21 Kenichi Uchida System and device for store front information distribution in distribution business
JP2000098950A (en) 1998-09-21 2000-04-07 Toshiba Tec Corp Background music system
JP2016018300A (en) 2014-07-07 2016-02-01 ヤフー株式会社 Information aggregation device, information aggregation method, and information aggregation program

Also Published As

Publication number Publication date
JP2019200486A (en) 2019-11-21

Similar Documents

Publication Publication Date Title
KR20190008546A (en) Method and apparatus for playing videos for music segment
JP2016024636A (en) Control apparatus, control method, and control program
JP7023786B2 (en) Audio output device, audio output method and audio output program
EP4174841A1 (en) Systems and methods for generating a mixed audio file in a digital audio workstation
Shorey et al. Talker adaptation or “talker” adaptation? Musical instrument variability impedes pitch perception
KR102620198B1 (en) Television board equipped with wireless input module and television device using the same
JP5814197B2 (en) Cooperation when outputting video and audio advertisements with digital signage near karaoke equipment
Sadeghnia Data-driven IoT-platform for optimizing variable acoustics in multifunctional performance spaces
Keil et al. Polyphonic pitch perception in rooms using deep learning networks with data rendered in auditory virtual environments
JP5133398B2 (en) Paper book / digital content correspondence generation apparatus and method
Blauert et al. Auditory perception in rooms
JP6559290B1 (en) Information providing apparatus, information providing method, and information providing program
Yang Prediction model of soundscape assessment based on semantic and acoustic/psychoacoustic factors
Lalonde Predicting children's audiovisual speech recognition thresholds based on unimodal performance
D'Antonio et al. The evolution of Blackbird Studio C
Braasch Bill Hartmann's contribution to understanding and modeling the perception of reflections in real rooms
US20210358474A1 (en) Systems and methods for generating audible versions of text sentences from audio snippets
JP5814196B2 (en) Cooperation when outputting video and audio advertisements with digital signage near karaoke equipment
Kreiman et al. Difference limens for vocal aperiodicities
Blair When the difference between “good” and “great” is 0.5 dB—Ponderings of a “Tuning Conductor.”
Bader Correlation between perception and acoustical parameters in five musical genres
Bresin An artificial neural network model for analysis and synthesis of pianists’ performance styles
McAtee et al. Measurements of room effects on digital simulations of a concert hall sound field
Schwartz et al. Statistical evidence that musical universals derive from the acoustic characteristics of human speech
Kohlrausch Schroeder’s phase in psychoacoustics

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180601

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220209

R150 Certificate of patent or registration of utility model

Ref document number: 7023786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250