[go: up one dir, main page]

JP5539006B2 - Display control apparatus and display control method - Google Patents

Display control apparatus and display control method Download PDF

Info

Publication number
JP5539006B2
JP5539006B2 JP2010111541A JP2010111541A JP5539006B2 JP 5539006 B2 JP5539006 B2 JP 5539006B2 JP 2010111541 A JP2010111541 A JP 2010111541A JP 2010111541 A JP2010111541 A JP 2010111541A JP 5539006 B2 JP5539006 B2 JP 5539006B2
Authority
JP
Japan
Prior art keywords
output device
audio output
display
sound
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010111541A
Other languages
Japanese (ja)
Other versions
JP2011244023A (en
Inventor
剛史 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010111541A priority Critical patent/JP5539006B2/en
Publication of JP2011244023A publication Critical patent/JP2011244023A/en
Application granted granted Critical
Publication of JP5539006B2 publication Critical patent/JP5539006B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、画像の表示とともに音声の出力を行う技術に関する。   The present invention relates to a technique for outputting audio as well as displaying an image.

近年、携帯電話やノート型パソコンにおいて、コンテンツを表示するパネルが回転パネルであるものが普及している。これらは、表示するコンテンツに応じて、長方形型の表示パネルを縦長のパネルとして利用したり、横長のパネルとして利用したりすることで、ユーザビリティを向上させている。   In recent years, in mobile phones and notebook computers, a panel that displays content is a rotating panel. According to the contents to be displayed, usability is improved by using a rectangular display panel as a vertically long panel or a horizontally long panel.

従来、上記回転パネルを縦長パネルとして利用する場合と、横長パネルとして利用する場合とで、それぞれに専用の内蔵スピーカーを利用する技術が知られている。   2. Description of the Related Art Conventionally, a technique is known that uses a dedicated built-in speaker for each of the case where the rotating panel is used as a vertically long panel and the case where it is used as a horizontally long panel.

また、近年、PC(パーソナルコンピュータ)の普及によりマルチウィンドウシステムが広く一般的に使われている。マルチウィンドウシステムとは、複数の仮想的な領域を表示装置上に定義し、異なるアプリケーションを仮想的な領域に割り当てるシステムである。操作者は、マウスなどの入力装置によりこの仮想的な領域を切り替えながら、同時に複数のアプリケーションを利用する。また、近年、表示パネルの大型化や高精細化が進んだことや、高解像度をサポートするグラフィックカードが開発されたことにより、上述のマルチウィンドウシステムを用いて、多くのアプリケーションを扱うことが可能である。そして、テーブル型の大きな表示装置を、複数人でシェアして使用する状況なども存在する。   In recent years, multi-window systems have been widely used in general with the spread of PCs (personal computers). The multi-window system is a system that defines a plurality of virtual areas on a display device and allocates different applications to the virtual areas. The operator uses a plurality of applications at the same time while switching the virtual area with an input device such as a mouse. In addition, with the recent increase in display panel size and definition, and the development of graphic cards that support high resolution, many applications can be handled using the multi-window system described above. It is. There are also situations where a large table-type display device is shared by a plurality of people.

特開2003−244786JP2003-244786

従来、例えば、テーブル型の表示装置に複数の操作者が対面して着座し、その表示装置上にスピーカを置いて使用するような場合、操作者がスピーカの向きや位置を変化させると正しい音像位置で試聴できない。例えば、2つのスピーカを用いてステレオ音声を再生する場合に、これらスピーカの向きを、一方の操作者に向く方向から、対面の操作者に向く方向に変えた場合、出力されるべきステレオ音声は左右が逆になってしまう。   Conventionally, for example, when a plurality of operators are seated facing a table-type display device and a speaker is placed on the display device, the correct sound image is obtained when the operator changes the orientation or position of the speaker. I can't audition the position. For example, when reproducing stereo sound using two speakers, if the direction of these speakers is changed from the direction facing one operator to the direction facing the operator, the stereo sound to be output is The left and right are reversed.

本発明は上記課題に鑑みてなされたものであり、スピーカなどの複数の音声発生装置の向きや位置を変更したとしても、それらから出力される音声を適切に出力できるようにすることを目的とする。   The present invention has been made in view of the above problems, and it is an object of the present invention to appropriately output sound output from a plurality of sound generating devices such as speakers even when the direction and position of the sound generating device are changed. To do.

上記課題を解決するために、本発明の表示制御装置によれば、コンテンツを表示手段に表示させる表示制御手段と、前記表示手段に接近した音声出力装置の位置を検出する位置検出手段と、前記音声出力装置に接近する、前記表示手段に表示中のコンテンツを選択する選択手段と、前記音声出力装置が音声を出力する方向を検出する方向検出手段と、前記音声出力装置の位置と方向とに基づいて、前記音声出力装置から出力させる音声データを決定する出力音声制御手段と、前記決定された音声データを前記音声出力装置へ送信するデータ送信制御手段とを備えることを特徴とする。   In order to solve the above-described problems, according to the display control device of the present invention, the display control unit that displays the content on the display unit, the position detection unit that detects the position of the audio output device approaching the display unit, Selection means for selecting content being displayed on the display means, approaching the sound output device, direction detecting means for detecting the direction in which the sound output device outputs sound, and the position and direction of the sound output device On the basis of this, it is characterized by comprising output voice control means for determining voice data to be output from the voice output apparatus, and data transmission control means for transmitting the determined voice data to the voice output apparatus.

上記構成によれば、スピーカなどの複数の音声発生装置の向きや位置を変更したとしても、それらから出力される音声を適切に出力できる。   According to the above configuration, even if the direction and position of a plurality of sound generating devices such as speakers are changed, sound output from them can be appropriately output.

実施形態に適用するシステムの処理構成図Processing configuration diagram of a system applied to the embodiment 実施形態に適用するシステムの外観図External view of a system applied to the embodiment 実施形態に適用するシステムの処理手順を示す図The figure which shows the process sequence of the system applied to embodiment. 本システムに関する各部の様子を説明する図The figure explaining the situation of each part regarding this system 本システムに関する各部の様子を説明する図The figure explaining the situation of each part regarding this system 本システムに関する各コンテンツの情報を示す図The figure which shows the information of each contents regarding this system

以下、添付の図面を参照して、本発明に好適な実施形態を説明する。なお、本実施形態では、表示装置の一例として、水平に設置したテーブル型のディスプレイを想定して説明するが、後述するスピーカに利用可能な表示装置であれば、本発明に適用可能である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the present embodiment, a description will be given assuming a horizontally installed table-type display as an example of the display device, but any display device that can be used for a speaker described later is applicable to the present invention.

図1および図2は、本実施形態に関わる基本的なシステムを示した図である。図1は、本実施形態に関わるシステム内の処理部の構成を示したものであり、図2は、そのシステムの外観図に相当する。図1の表示手段110は、液晶ディスプレイやプラズマディスプレイに代表されるディスプレイである。表示手段110は、図2における表示手段210に相当する。また、表示手段110は、水平に設置されており、写真、動画像、文章や音楽ファイル等のコンテンツ240〜242を表示できる。図1の音声出力装置120は、スピーカなどの音声を出力する機能を備える装置である。この音声出力装置120は、図2の音声出力装置220、音声出力装置221の2つに相当する。この音声出力装置120は、小型で可搬なスピーカであることが好ましく、本実施形態では、それぞれが表示手段110の上に置かれる。図1の接近検知手段130は、上記音声出力装置120が表示手段110へ接近したことを検知する手段である。接近検知手段130は、上記接近が検知された場合、データ送信制御手段160を介して、音声出力装置120との通信を確立する。ここでは、Bluetoothなどの公知の通信技術を用いることとし、詳細な説明は省略する。図1の位置検出手段140は、接近検知手段130で検知された音声出力装置120の接近位置を特定する手段である。コンテンツ選択手段150は、上記接近位置付近にコンテンツが存在するか判断し、規定の範囲内にコンテンツが存在していた場合には、そのコンテンツの音声データをデータ送信手段160を介して、音声出力装置120に無線送信する。表示制御手段170は、コンテンツ240〜242の表示制御を行う。また、表示制御手段170は、位置検出手段140によって特定された音声出力装置120(220、221)の位置の周辺に、コンテンツ選択手段150が「コンテンツが存在する」と判断する領域(円)を表示させる。方向検出手段180は、接近検知手段130で検知された音声出力装置120の方向を特定する手段である。出力音声制御手段190は、位置検出手段140と方向検出手段180によって得られた音声出力装置120の位置と方向によって、音声出力装置から出力する音声を決定する。なお、図2では、接近検知手段130、位置検出手段140、コンテンツ選択手段150、データ送信手段160、表示制御手段170、方向検出手段180、出力音声制御手段190は、本体200(表示制御装置)に内蔵されているものとする。また、本体200と表示手段210は一体型であっても良いし、取り外し可能であっても良い。   1 and 2 are views showing a basic system according to the present embodiment. FIG. 1 shows a configuration of a processing unit in the system according to the present embodiment, and FIG. 2 corresponds to an external view of the system. The display means 110 in FIG. 1 is a display represented by a liquid crystal display or a plasma display. The display unit 110 corresponds to the display unit 210 in FIG. The display unit 110 is installed horizontally and can display contents 240 to 242 such as photographs, moving images, sentences, and music files. The audio output device 120 in FIG. 1 is a device having a function of outputting audio such as a speaker. The audio output device 120 corresponds to the audio output device 220 and the audio output device 221 shown in FIG. The audio output device 120 is preferably a small and portable speaker. In this embodiment, each audio output device 120 is placed on the display unit 110. The approach detection means 130 in FIG. 1 is a means for detecting that the sound output device 120 has approached the display means 110. When the approach is detected, the approach detection unit 130 establishes communication with the audio output device 120 via the data transmission control unit 160. Here, a known communication technique such as Bluetooth is used, and detailed description thereof is omitted. The position detection unit 140 in FIG. 1 is a unit that specifies the approach position of the audio output device 120 detected by the approach detection unit 130. The content selection unit 150 determines whether content exists in the vicinity of the approach position. If the content exists within a specified range, the audio data of the content is output via the data transmission unit 160 as audio output. Wirelessly transmit to the device 120. The display control unit 170 performs display control of the contents 240 to 242. In addition, the display control unit 170 creates an area (circle) in which the content selection unit 150 determines that “content exists” around the position of the audio output device 120 (220, 221) specified by the position detection unit 140. Display. The direction detection unit 180 is a unit that specifies the direction of the audio output device 120 detected by the approach detection unit 130. The output sound control unit 190 determines the sound output from the sound output device according to the position and direction of the sound output device 120 obtained by the position detection unit 140 and the direction detection unit 180. In FIG. 2, the approach detection unit 130, the position detection unit 140, the content selection unit 150, the data transmission unit 160, the display control unit 170, the direction detection unit 180, and the output audio control unit 190 are the main body 200 (display control device). It shall be built in. Further, the main body 200 and the display unit 210 may be integrated, or may be removable.

図3は、本実施形態の本体200(表示制御装置)の処理手順を示したフローチャートである。図3の詳細については後述する。   FIG. 3 is a flowchart showing a processing procedure of the main body 200 (display control apparatus) of the present embodiment. Details of FIG. 3 will be described later.

図4および図5は、上記処理手順を視覚的に説明するための図である。ここで、図4の本体400と本体500は、図2の本体200に相当する。表示装置410と510は、図2の表示装置210に相当する。音声出力装置420と421、あるいは音声出力装置460と461、あるいは音声出力装置520と521は、図2の音声出力装置220、221に相当する。またコンテンツ440〜442あるいは540〜542は、図2のコンテンツ240〜242に相当する。また、ここでは、操作者450と操作者451は、本体400を間にはさんで、対面しており、操作者550と操作者551は、本体500を間にはさんで、対面している。また、図4では2つの状態を表しており、図5では1つの状態を表している。例えば、図4の左側に示した状態Iでは、音声出力装置420、421の方向(音声が出力される方向)は、概ね操作者450の方を向いている。また図4の右側に示した状態IIでは、音声出力装置460、461の方向(音声が出力される方向)は、概ね操作者451の方向を向いている。また、図5に示した状態IIIでは、音声出力装置520の方向は、概ね操作者551の方向を向いており、音声出力装置521の方向は、概ね操作者550の方向を向いている。なお、図4の下部には、音声出力装置420、421の設置されている座標と方向を480に示し、音声出力装置460、461の設置されている座標と方向を490に示す。ここでは、表示装置410の左上を座標(X=0,Y=0)とし、矢印の方向にX軸とY軸を設定するものとする。また図5の下部には、音声出力装置520、521の設置されている座標と方向を580、590に示す。ここでも、図4と同様に、表示装置510の左上を座標(X=0,Y=0)とし、矢印の方向にX軸とY軸を設定するものとする。   4 and 5 are diagrams for visually explaining the processing procedure. Here, the main body 400 and the main body 500 in FIG. 4 correspond to the main body 200 in FIG. 2. The display devices 410 and 510 correspond to the display device 210 in FIG. The audio output devices 420 and 421, the audio output devices 460 and 461, or the audio output devices 520 and 521 correspond to the audio output devices 220 and 221 in FIG. The contents 440 to 442 or 540 to 542 correspond to the contents 240 to 242 in FIG. Here, the operator 450 and the operator 451 face each other with the main body 400 interposed therebetween, and the operator 550 and the operator 551 face each other with the main body 500 interposed therebetween. . 4 shows two states, and FIG. 5 shows one state. For example, in the state I shown on the left side of FIG. 4, the direction of the sound output devices 420 and 421 (the direction in which sound is output) is generally facing the operator 450. Further, in the state II shown on the right side of FIG. 4, the direction of the audio output devices 460 and 461 (the direction in which audio is output) is generally directed to the operator 451. In the state III shown in FIG. 5, the direction of the audio output device 520 is generally directed to the operator 551, and the direction of the audio output device 521 is generally directed to the operator 550. In the lower part of FIG. 4, the coordinates and directions where the audio output devices 420 and 421 are installed are indicated by 480, and the coordinates and directions where the audio output devices 460 and 461 are installed are indicated by 490. Here, it is assumed that the upper left corner of the display device 410 is the coordinates (X = 0, Y = 0), and the X axis and the Y axis are set in the directions of the arrows. In the lower part of FIG. 5, 580 and 590 indicate coordinates and directions where the audio output devices 520 and 521 are installed. Here, as in FIG. 4, the upper left corner of the display device 510 is set as coordinates (X = 0, Y = 0), and the X axis and the Y axis are set in the directions of the arrows.

図6は、表示手段410に表示中のコンテンツ440〜442の座標、音声データの有無、チャンネル数の一例を示す。   FIG. 6 shows an example of the coordinates of the contents 440 to 442 being displayed on the display means 410, the presence / absence of audio data, and the number of channels.

以下、図3のフローチャートについて、図4〜図6を参照しながら説明する。まず、ステップ300において、本体200(表示制御装置)が起動すると、表示制御装置は以下の処理を行う。   Hereinafter, the flowchart of FIG. 3 will be described with reference to FIGS. First, in step 300, when the main body 200 (display control device) is activated, the display control device performs the following processing.

ステップ310では、接近検知手段130によって、音声出力装置120と表示手段110の距離が測定される。例えば、音声出力装置420、421は、表示手段410上に設置されているので、接近検知手段130が測定した距離は0cmである。   In step 310, the distance between the audio output device 120 and the display unit 110 is measured by the approach detection unit 130. For example, since the audio output devices 420 and 421 are installed on the display unit 410, the distance measured by the approach detection unit 130 is 0 cm.

ステップ320では、接近検知手段130によって、距離N以内に接近してる音声出力装置120があるか判定される。そして、距離Ncm以内に音声出力装置120が存在すると判定した場合には、ステップ330に遷移する。本実施形態では、距離Nが3cmに設定されているとして以下説明する。例えば、図4の状態Iでは、音声出力装置420、421と表示手段410の距離は0cmであり、距離Nの3cm以内であるので音声出力手段420、421の2つが検知される。もし、ステップ320において、距離3cm以内に音声出力手段が無かった場合には、ステップ310に遷移し、再び接近している音声出力装置との距離を測定する。そして、ステップ310とステップ320を一定時間毎に繰り返し距離の再測定を行う。本実施形態では、距離再測定までの時間間隔は0.5秒とする。   In step 320, the approach detection unit 130 determines whether there is an audio output device 120 approaching within the distance N. And when it determines with the audio | voice output apparatus 120 existing within the distance Ncm, it changes to step 330. In the present embodiment, the following description will be given assuming that the distance N is set to 3 cm. For example, in the state I in FIG. 4, the distance between the audio output devices 420 and 421 and the display unit 410 is 0 cm, which is within 3 cm of the distance N, so that the audio output units 420 and 421 are detected. If there is no audio output means within a distance of 3 cm in step 320, the process proceeds to step 310, and the distance to the audio output device approaching again is measured. Then, step 310 and step 320 are repeated at regular intervals to remeasure the distance. In this embodiment, the time interval until the distance remeasurement is 0.5 seconds.

ステップ330では、位置検出手段140によって、現在接近している音声出力装置(状態Iの例では音声出力装置420と421)の座標を特定する。例えば状態Iでは、図4の480に示されるように、音声出力装置420は、座標(x,y)=(600,550)に設置されており、音声出力装置421は、座標(x,y)=(1080,550)に設置されている。   In step 330, the position detection unit 140 identifies the coordinates of the sound output device that is currently approaching (in the example of state I, the sound output devices 420 and 421). For example, in the state I, as shown by 480 in FIG. 4, the audio output device 420 is installed at the coordinates (x, y) = (600, 550), and the audio output device 421 has the coordinates (x, y ) = (1080, 550).

ステップ340では、コンテンツ選択手段150によって、表示中のコンテンツ440〜442の座標を特定される。なお、コンテンツ440〜442はそれぞれ、図6に示した座標610〜612のそれぞれに表示されているものとする。この座標は、上述した座標(x,y)を基準にしており、図6において各コンテンツに示されている4つの座標は、そのコンテンツを矩形として認識した場合の4頂点に相当する。   In step 340, the coordinates of the contents 440 to 442 being displayed are specified by the contents selection means 150. It is assumed that the contents 440 to 442 are displayed at coordinates 610 to 612 shown in FIG. The coordinates are based on the coordinates (x, y) described above, and the four coordinates shown in each content in FIG. 6 correspond to four vertices when the content is recognized as a rectangle.

ステップ350では、コンテンツ選択手段150によって、音声出力装置(状態Iの例では音声出力装置420、421)の近傍にコンテンツが存在するか判断される。ここでは、音声出力装置に接近している座標を中心とする領域(図4、図5では所定半径の円)に含まれるコンテンツを「音声出力装置の近傍に存在するコンテンツである」と判断する。もし、コンテンツが音声出力装置の近傍にある場合にはステップ360に遷移する。もし近傍にコンテンツが無い場合には、ステップ330に遷移し、一定時間毎にステップ330、ステップ340、ステップ350を繰り返す。例えば、音声出力装置420の近傍範囲は円430であり、音声出力装置421の近傍範囲は円431である。これら円430と431は、操作者がそれを認識できるように、表示手段410上に画像として表示される。そして、ここでは、円430および円431と各コンテンツ440〜442とが、座標上でオーバーラップするかどうか計算する。ここでは、表示中のコンテンツ440が音声出力装置の近傍円430と431にオーバーラップするので、ステップ360に遷移する。   In step 350, the content selection unit 150 determines whether content exists in the vicinity of the audio output device (the audio output devices 420 and 421 in the state I example). Here, it is determined that the content included in the region centered on the coordinates approaching the audio output device (the circle with a predetermined radius in FIGS. 4 and 5) is “the content exists in the vicinity of the audio output device”. . If the content is in the vicinity of the audio output device, the process proceeds to step 360. If there is no content in the vicinity, the process proceeds to step 330, and step 330, step 340, and step 350 are repeated at regular intervals. For example, the vicinity range of the audio output device 420 is a circle 430, and the vicinity range of the audio output device 421 is a circle 431. These circles 430 and 431 are displayed as images on the display means 410 so that the operator can recognize them. Here, it is calculated whether or not the circle 430 and the circle 431 and the contents 440 to 442 overlap on the coordinates. Here, since the displayed content 440 overlaps the neighboring circles 430 and 431 of the audio output device, the process proceeds to step 360.

ステップ360では、コンテンツ選択手段150によって、音声を出力するコンテンツが決定される。ここで、コンテンツ選択手段150は、まず、音声出力装置の近傍の各コンテンツが音声データを有しているか否かを確認する。もし、確認中のコンテンツが、動画像や音楽ファイルなどの音声データを有している場合には、その音声データを取得する。そして、このコンテンツを音声出力の対象として決定する。もし音声データを有していないコンテンツがあれば、以降の処理対象から除外する。なお、図6の620〜622に、コンテンツ440〜442が音声データを有しているか否かの一例を示しておく。例えば、状態Iにおけるコンテンツ440は、音声データを有しているので、コンテンツ440は音声出力の対象として決定される。そしてコンテンツ440が有する音声データが取得される。   In step 360, the content selection unit 150 determines the content for outputting sound. Here, the content selection unit 150 first checks whether each content in the vicinity of the audio output device has audio data. If the content being confirmed has audio data such as a moving image or music file, the audio data is acquired. Then, this content is determined as an audio output target. If there is content that does not have audio data, it is excluded from the subsequent processing targets. An example of whether or not the contents 440 to 442 have audio data is shown in 620 to 622 in FIG. For example, since the content 440 in the state I has audio data, the content 440 is determined as an audio output target. Then, audio data included in the content 440 is acquired.

ステップ370では、方向検出手段180によって、音声出力装置の方向を特定する。例えば、図4の480では、音声出力装置420はX軸と60°の角度を形成するように配置され、音声出力装置421は、X軸と90°の角度を形成するように配置されている。方向検出手段180は、これらの方向を情報として取得する。   In step 370, the direction of the audio output device is specified by the direction detection unit 180. For example, in 480 of FIG. 4, the audio output device 420 is arranged to form an angle of 60 ° with the X axis, and the audio output device 421 is arranged to form an angle of 90 ° with the X axis. . The direction detection unit 180 acquires these directions as information.

ステップ380では、出力音声制御手段190によって、位置検出手段140と方向検出手段180が特定した音声出力装置の座標と方向(角度)に基づき、各音声出力装置から出力するべき音声データが決定される。   In step 380, the audio data to be output from each audio output device is determined by the output audio control unit 190 based on the coordinates and direction (angle) of the audio output device specified by the position detection unit 140 and the direction detection unit 180. .

ステップ380の内部フローをステップ381〜389として説明する。ステップ381においてステップ380のフローの開始を検知すると、以下を行う。   The internal flow of step 380 will be described as steps 381 to 389. When the start of the flow in step 380 is detected in step 381, the following is performed.

ステップ382では、互いの音声出力装置が形成する角度を算出する。例えば、図4の状態Iの場合には、音声出力装置420と421が形成する角度は「90°−60°=30°」であるとして算出される。   In step 382, the angle formed by each other's audio output device is calculated. For example, in the case of state I in FIG. 4, the angle formed by the audio output devices 420 and 421 is calculated as “90 ° −60 ° = 30 °”.

ステップ383では、上記算出された角度が90°以下であるか判断する。この判断処理は、互いの音声出力装置が形成する角度によって、「音声出力装置が1人の操作者に向けられている状態なのか、複数人の操作者に向けられている状態なのか」を判定するものである。例えば、図4の状態Iでは、互いの音声出力装置が形成する角度は90°以内であるので、2つの音声出力装置が1人の操作者に向けられている状態と判断する。また例えば、図5の状態IIIでは、互いの音声出力装置が形成する角度は90°以上であるので、それぞれの音声出力装置が別の操作者に向けられている、即ち2つの音声出力装置は複数人に利用されていると判断する。ここで、もし図5の状態IIIの場合には、ステップ383では、上記角度が90°以上であると判断される。従って、この場合には、ステップ388に遷移する。そしてステップ388において、1つの音声出力装置から1つのコンテンツの音声に相当する複数チャネルを合成出力(モノラル出力)するよう設定する。よって、図5の状態IIIにおいては、例えば複数人の操作者(操作者550、551)が同一のコンテンツの音声を聞く場合であっても、それぞれの音声出力装置からモノラル出力されている音声を聞くことになる。   In step 383, it is determined whether the calculated angle is 90 ° or less. This determination process determines whether the audio output device is directed to one operator or a plurality of operators depending on the angle formed by each other's audio output device. Judgment. For example, in the state I in FIG. 4, the angle formed by the mutual sound output devices is within 90 °, so it is determined that the two sound output devices are directed to one operator. Further, for example, in the state III of FIG. 5, the angle formed by the sound output devices is 90 ° or more, so that each sound output device is directed to another operator, that is, the two sound output devices are Judged to be used by multiple people. Here, in the case of state III in FIG. 5, in step 383, it is determined that the angle is 90 ° or more. Therefore, in this case, the process proceeds to step 388. In step 388, settings are made so that a plurality of channels corresponding to the sound of one content are synthesized and output (monaural output) from one audio output device. Therefore, in the state III in FIG. 5, for example, even when a plurality of operators (operators 550 and 551) listen to the sound of the same content, the sound that is monaurally output from each sound output device is used. I will listen.

ステップ384では、音声出力装置(状態Iでは420と421)の座標を結んだ線分と、音声出力装置の方向を表す線分の回転方向を算出する。音声出力装置の方向を表す線分は、上述した角度60°と90°であり、線分の長さは10であるとする。音声出力装置(図4の状態Iでは420と421)の設置されている座標をそれぞれA、Bとし、これら音声出力装置の方向を示す線分をA−A’、B−B’とする。例えば、状態Iの場合には、A,A’,B,B’の座標は、それぞれ、(Ax,Ay)=(600,550),(A’x,A’y)=(606,558),(Bx,By)=(1080,550),(B’x,B’y)=(1080,560)となる。以上の座標と後述する式を用いて、線分A−A’とB−B’の線分AB(線分BA)に対して回転方向を求める。式(1)では、X軸が90°回転するとY軸になる方向を正方向とすると、式(1)で求めた値が正であれば正方向に回転すると線分ABの方向になり、負であれば負方向に回転すると線分ABの方向となる。
(A’x−Ax)×(By−Ay)−(A’y−Ay)×(Bx−Ax) ...式(1)
(606−600)×(550−550)−(558−550)×(1080−600)<0 ...式(2)
このステップ384において、音声出力装置420については、式(1)を用いて演算を行う。線分ABに対しての線分A−A’の回転方向は、式(1)を用いて、式(2)に示すように負であることから、回転方向は負方向であると判断される。よって、ステップ385の判断の下で、ステップ387に遷移する。
In step 384, the rotation direction of the line segment connecting the coordinates of the audio output device (420 and 421 in state I) and the line segment representing the direction of the audio output device is calculated. The line segments representing the direction of the audio output device are the above-described angles of 60 ° and 90 °, and the length of the line segment is 10. Coordinates where the audio output devices (420 and 421 in state I in FIG. 4) are installed are respectively A and B, and line segments indicating the directions of these audio output devices are AA ′ and BB ′. For example, in the state I, the coordinates of A, A ′, B, B ′ are (Ax, Ay) = (600, 550), (A′x, A′y) = (606, 558), respectively. ), (Bx, By) = (1080, 550), (B′x, B′y) = (1080, 560). Using the above coordinates and formulas described later, the rotation direction is obtained for the line segment AB (line segment BA) of the line segments AA ′ and BB ′. In the formula (1), if the direction that becomes the Y axis when the X axis rotates 90 ° is the positive direction, if the value obtained in the formula (1) is positive, the rotation in the positive direction becomes the direction of the line segment AB. If it is negative, it will be in the direction of line segment AB when rotated in the negative direction.
(A′x−Ax) × (By−Ay) − (A′y−Ay) × (Bx−Ax). . . Formula (1)
(606-600) * (550-550)-(558-550) * (1080-600) <0. . . Formula (2)
In step 384, the audio output device 420 performs calculation using equation (1). Since the rotation direction of the line segment AA ′ with respect to the line segment AB is negative as shown in the expression (2) using the expression (1), it is determined that the rotation direction is the negative direction. The Therefore, the process proceeds to step 387 based on the determination in step 385.

ステップ387では、音声出力装置420は、上記式から回転方向が負方向であったことから、「操作者に対して左側に設置されている」と判断され、音声出力装置420には、左側のチャネルの音声データが設定される。   In step 387, the sound output device 420 is determined to be “installed on the left side with respect to the operator” because the rotation direction is a negative direction from the above formula. The audio data for the channel is set.

また、上記と同様に、音声出力装置421に対しても演算を行う。即ち、ステップ384において、音声出力装置421については、線分BAに対しての線分B−B’の回転方向を算出する。
(B’x−Bx)×(Ay−By)−(B’y−By)×(Ax−Bx) ...式(3)
(1080−1080)×(550−550)−(560−550)×(600−1080)>0 ...式(4)
上記式(4)に示すように、演算結果が正であることから、その回転方向は正方向であると判断される。よって、ステップ385の判断の下で、ステップ386に遷移する。
Further, similarly to the above, calculation is also performed on the audio output device 421. That is, in step 384, for the audio output device 421, the rotation direction of the line segment BB ′ with respect to the line segment BA is calculated.
(B′x−Bx) × (Ay−By) − (B′y−By) × (Ax−Bx). . . Formula (3)
(1080-1080) * (550-550)-(560-550) * (600-1080)> 0. . . Formula (4)
Since the calculation result is positive as shown in the above equation (4), the rotation direction is determined to be the positive direction. Therefore, the process proceeds to step 386 based on the determination in step 385.

ステップ386では、音声出力装置421は、上記式から回転方向が正方向であったことから、「操作者に対して右側に設置されている」と判断され、音声出力装置421には、右側のチャネルの音声データが設定される。   In step 386, the sound output device 421 is determined to be “installed on the right side with respect to the operator” because the rotation direction is the positive direction from the above formula, and the sound output device 421 has the right side The audio data for the channel is set.

ステップ390では、データ送信制御手段160によって、上述したようにそれぞれ設定された音声チャネルの音声データを、それに対応する音声出力装置に送信する。   In step 390, the data transmission control means 160 transmits the audio data of the audio channels set as described above to the corresponding audio output device.

ステップ391では、音声出力装置によって、データ送信制御手段160から送信された音声データを出力される。なお、このステップ391だけは、上述した本体200(あるいは本体400、500)が行うのではなく、それらとは別体の音声出力装置が行う。   In step 391, the audio data transmitted from the data transmission control means 160 is output by the audio output device. Note that this step 391 alone is not performed by the main body 200 (or the main bodies 400 and 500) described above, but is performed by a separate audio output device.

以上のよれば、互いの音声出力装置を結んだ線分ABとの回転方向を求めることにより、それら音声出力装置が、操作者に対して左右どちらの位置に置かれているか判断できる。音声出力装置420は、上記式から回転方向が負方向なので、操作者に対して左側に設置されていると判断され、音声出力装置421は、上記式から回転方向は正方向なので、操作者に対して右側に設置されていると判断される。以上により、操作者に対して正しい音像位置で音声データを出力できる。   According to the above, by obtaining the rotation direction with the line segment AB connecting the audio output devices, it can be determined whether the audio output devices are positioned on the left or right side with respect to the operator. The sound output device 420 is determined to be installed on the left side with respect to the operator because the rotation direction is negative from the above equation, and the sound output device 421 is determined to be in the operator because the rotation direction is positive from the above equation. On the other hand, it is judged that it is installed on the right side. As described above, audio data can be output to the operator at the correct sound image position.

以下に図4の状態IIについて説明する。この状態IIは、状態Iにおける音声出力装置420、421の方向が、音声出力装置460、461のように変更されたものであり、それぞれの音声出力装置が操作者451の方向に向けられた状態である。ここでは、音声出力装置420、421の方向は、X軸となす角で120°と60°とする。また、音声出力装置の設置されている座標をそれぞれA,Bとし、音声出力装置の方向を示す線分をA−A’、B−B’とする。A、A’、B、B’の座標は、それぞれ、
(Ax,Ay)=(600,550),(A’x,A’y)=(594,542),(Bx,By)=x(1080,550),(B’x,B’y)=(1088,542)となる。状態IIの場合には、上記ステップ383で音声出力装置460、461のなす角は60°と算出される。状態IIの場合には、ステップ384では、式(1)に基づいて、音声出力装置460の線分ABに対する回転方向が以下のように算出される。
(594−600)×(550−550)−(542−550)×(1080−600)>0 ...式(5)
上記式(5)に示すように、回転方向は正方向であると判断される。そして、音声出力装置460は、「操作者に対して右側に設置されている」と判断される。これは、状態Iにおいて音声出力装置420が「操作者に対して左側に設置されている」と判断した結果をは逆になっている。これと同様に、音声出力装置461は、上記式(3)に基づく式(6)の結果から、回転方向は負方向であると判断される。そして、音声出力装置461は、「操作者に対して左側に設置されている」と判断される。これは、状態Iにおいて音声出力装置421が「操作者に対して右側に設置されている」と判断した結果は逆になっている。
(1088−1080)×(550−550)−(542−550)×(600−1080)<0 ...式(6)
以上の結果から、データ送信制御手段160は、音声出力装置460には右側のチャネルの音声データを送信し、音声出力装置461には左側のチャネルの音声データを送信することになる。
The state II in FIG. 4 will be described below. In this state II, the direction of the sound output devices 420 and 421 in the state I is changed as the sound output devices 460 and 461, and each sound output device is directed toward the operator 451. It is. Here, the directions of the audio output devices 420 and 421 are 120 ° and 60 ° in angle with the X axis. Also, the coordinates where the audio output device is installed are A and B, respectively, and the line segments indicating the direction of the audio output device are AA ′ and BB ′. The coordinates of A, A ′, B and B ′ are respectively
(Ax, Ay) = (600, 550), (A′x, A′y) = (594, 542), (Bx, By) = x (1080, 550), (B′x, B′y) = (1088, 542). In the case of state II, the angle formed by the audio output devices 460 and 461 is calculated as 60 ° in step 383. In the case of state II, in step 384, the rotation direction of the audio output device 460 with respect to the line segment AB is calculated as follows based on the equation (1).
(594-600) * (550-550)-(542-550) * (1080-600)> 0. . . Formula (5)
As shown in the above formula (5), the rotation direction is determined to be the positive direction. Then, it is determined that the audio output device 460 is “installed on the right side with respect to the operator”. This is the reverse of the result of determination that the audio output device 420 is “installed on the left side with respect to the operator” in the state I. Similarly, the sound output device 461 determines that the rotation direction is the negative direction from the result of the equation (6) based on the equation (3). Then, it is determined that the audio output device 461 is “installed on the left side with respect to the operator”. This is the reverse of the determination result that the audio output device 421 is “installed on the right side with respect to the operator” in the state I.
(1088-1080) * (550-550)-(542-550) * (600-1080) <0. . . Formula (6)
From the above results, the data transmission control means 160 transmits the right channel audio data to the audio output device 460 and the left channel audio data to the audio output device 461.

以上説明したように、音声出力装置220は、状態I(音声出力装置420)では左側のチャネルを出力し、状態II(音声出力装置460)では右側のチャネルを出力する。また、音声出力装置221は、状態I(音声出力装置421)では右側のチャネルを出力し、状態II(音声出力装置461)では左側のチャネルを出力する。従って、本実施形態によれば、操作者がスピーカの向きを状態Iから状態IIに変更した場合であっても、適切な音像位置のステレオ音声を出力することができる。   As described above, the audio output device 220 outputs the left channel in the state I (audio output device 420), and outputs the right channel in the state II (audio output device 460). The audio output device 221 outputs the right channel in state I (audio output device 421), and outputs the left channel in state II (audio output device 461). Therefore, according to this embodiment, even when the operator changes the direction of the speaker from the state I to the state II, stereo sound at an appropriate sound image position can be output.

[変形例]
なお、上述した各実施形態は、以下の処理を実行することによっても実現される。即ち、上記実施形態の各工程や機能を実現するソフトウェア(コンピュータプログラム)を、ネットワークや記憶媒体を介してシステムに供給し、そのシステムのコンピュータ(またはCPU等)が上記プログラムを読み込んで実行する処理である。上記コンピュータプログラムや、それを記憶したコンピュータ可読記憶媒体も本発明の範疇に含まれる。
[Modification]
Each embodiment described above is also realized by executing the following processing. That is, a process of supplying software (computer program) that realizes each process and function of the above-described embodiment to the system via a network or a storage medium, and the computer (or CPU or the like) of the system reads and executes the program. It is. The computer program and a computer-readable storage medium storing the computer program are also included in the scope of the present invention.

Claims (6)

コンテンツを表示手段に表示させる表示制御手段と、
前記表示手段に接近した音声出力装置の位置を検出する位置検出手段と、
前記音声出力装置に接近する、前記表示手段に表示中のコンテンツを選択する選択手段と、
前記音声出力装置が音声を出力する方向を検出する方向検出手段と、
前記音声出力装置の位置と方向とに基づいて、前記音声出力装置から出力させる音声データを決定する出力音声制御手段と、
前記決定された音声データを前記音声出力装置へ送信するデータ送信制御手段とを備えたことを特徴とする表示制御装置。
Display control means for displaying content on the display means;
Position detecting means for detecting the position of the audio output device approaching the display means;
Selection means for selecting the content being displayed on the display means, approaching the audio output device;
Direction detecting means for detecting a direction in which the sound output device outputs sound;
Output sound control means for determining sound data to be output from the sound output device based on the position and direction of the sound output device;
A display control device comprising: data transmission control means for transmitting the determined audio data to the audio output device.
前記音声出力装置に接近すると判断する領域を、前記表示手段へ画像として表示させることを特徴とする請求項1に記載の表示制御装置。   The display control apparatus according to claim 1, wherein an area determined to approach the audio output apparatus is displayed as an image on the display unit. 前記表示手段は、テーブル型のディスプレイであることを特徴とする請求項1乃至2のいずれか1項に記載の表示制御装置。   The display control apparatus according to claim 1, wherein the display unit is a table-type display. コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至3のいずれか1項に記載の表示制御装置として機能させるコンピュータプログラム。   A computer program that causes a computer to function as the display control apparatus according to claim 1 by being read and executed by a computer. 請求項4に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the computer program according to claim 4. 表示装置を制御する表示制御方法であって、
表示制御手段によって、コンテンツを表示手段に表示させる表示制御工程と、
位置検出手段によって、前記表示手段に接近した音声出力装置の位置を検出する位置検出工程と、
選択手段によって、前記音声出力装置に接近する、前記表示手段に表示中のコンテンツを選択する選択工程と、
方向検出手段によって、前記音声出力装置が音声を出力する方向を検出する方向検出工程と、
音声制御手段によって、前記音声出力装置の位置と方向とに基づいて、前記音声出力装置から出力させる音声データを決定する出力音声制御工程と、
データ送信制御手段によって、前記決定された音声データを前記音声出力装置へ送信するデータ送信制御工程とを備えたことを特徴とする表示制御方法。
A display control method for controlling a display device, comprising:
A display control step of displaying content on the display means by the display control means;
A position detecting step of detecting a position of the audio output device approaching the display means by a position detecting means;
A selection step of selecting the content being displayed on the display means, the selection means approaching the audio output device;
A direction detecting step of detecting a direction in which the sound output device outputs sound by a direction detecting means;
An output sound control step of determining sound data to be output from the sound output device based on the position and direction of the sound output device by the sound control means;
A display control method comprising: a data transmission control step of transmitting the determined audio data to the audio output device by data transmission control means.
JP2010111541A 2010-05-13 2010-05-13 Display control apparatus and display control method Active JP5539006B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010111541A JP5539006B2 (en) 2010-05-13 2010-05-13 Display control apparatus and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010111541A JP5539006B2 (en) 2010-05-13 2010-05-13 Display control apparatus and display control method

Publications (2)

Publication Number Publication Date
JP2011244023A JP2011244023A (en) 2011-12-01
JP5539006B2 true JP5539006B2 (en) 2014-07-02

Family

ID=45410274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010111541A Active JP5539006B2 (en) 2010-05-13 2010-05-13 Display control apparatus and display control method

Country Status (1)

Country Link
JP (1) JP5539006B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002078073A (en) * 2000-08-25 2002-03-15 Kenwood Corp All-in-one audio set
JP3809423B2 (en) * 2003-03-07 2006-08-16 キヤノン株式会社 Display device and control method of display device
JP4664665B2 (en) * 2004-12-22 2011-04-06 オリンパスイメージング株式会社 Digital platform device
JP2008097151A (en) * 2006-10-06 2008-04-24 Sharp Corp Information processor, information processing system, information processing method, and program
JP5000989B2 (en) * 2006-11-22 2012-08-15 シャープ株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2011244023A (en) 2011-12-01

Similar Documents

Publication Publication Date Title
US11868539B2 (en) Display control method and apparatus
US12229388B2 (en) User terminal device and displaying method thereof
US10007391B2 (en) Interfaces for a spirit level application
US9241217B2 (en) Dynamically adjusted stereo for portable devices
US20110221777A1 (en) Electronic device with motion sensing function and method for executing functions based on movement of electronic device
US20240094970A1 (en) Electronic system for producing a coordinated output using wireless localization of multiple portable electronic devices
US20140210740A1 (en) Portable apparatus having plurality of touch screens and sound output method thereof
US20150084881A1 (en) Data processing method and electronic device
ES2724423T3 (en) Imaging apparatus and procedure
EP2778880B1 (en) Method for controlling display function and an electronic device thereof
EP2703983A2 (en) Method of controlling touch function and an electronic device thereof
JP6409644B2 (en) Display control method, display control program, and information processing apparatus
CN102820022B (en) Display device and operation method thereof
US20240004482A1 (en) Electronic device and control method of the same
CN116871982A (en) Device and method for detecting spindle of numerical control machine tool and terminal equipment
JP5539006B2 (en) Display control apparatus and display control method
TW201531930A (en) User interface adjustment system and adjustment method thereof
JP5448611B2 (en) Display control apparatus and control method
US11714496B2 (en) Apparatus, method and computer program for controlling scrolling of content
US9880570B2 (en) Method and device for generating vibration based on an adjective
US9576501B2 (en) Providing sound as originating from location of display at which corresponding text is presented
KR20240061054A (en) Method and apparatus for controlling auxiliary display
CN104750396A (en) Control method and electronic equipment
Plummer Using the speech recognition virtual kitchen infrastructure for reproducible cross-disciplinary speech research exchange

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

R151 Written notification of patent or utility model registration

Ref document number: 5539006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430