[go: up one dir, main page]

JP2010277372A - Video display system and video display method - Google Patents

Video display system and video display method Download PDF

Info

Publication number
JP2010277372A
JP2010277372A JP2009129669A JP2009129669A JP2010277372A JP 2010277372 A JP2010277372 A JP 2010277372A JP 2009129669 A JP2009129669 A JP 2009129669A JP 2009129669 A JP2009129669 A JP 2009129669A JP 2010277372 A JP2010277372 A JP 2010277372A
Authority
JP
Japan
Prior art keywords
video display
video
display device
display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009129669A
Other languages
Japanese (ja)
Other versions
JP5366137B2 (en
Inventor
Noriko Suzuki
紀子 鈴木
Toshiro Kamiya
俊郎 神谷
Shunsuke Yoshida
俊介 吉田
Sumio Yano
澄男 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2009129669A priority Critical patent/JP5366137B2/en
Publication of JP2010277372A publication Critical patent/JP2010277372A/en
Application granted granted Critical
Publication of JP5366137B2 publication Critical patent/JP5366137B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Liquid Crystal (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】一の映像表示装置に表示される映像の所望の部分を使用者の直感的な操作で容易に他の映像表示装置に表示させることを可能にする映像表示システムおよび映像表示方法を提供する。
【解決手段】平面ディスプレイ20に取り付けられた赤外線素子23,24および立体ディスプレイ30に取り付けられた赤外線素子34が観測装置41,42により撮像される。制御装置10は、立体ディスプレイ30に設けられたタッチセンサ33の検出信号に基づいて使用者が立体ディスプレイ30を把持したことを検出し、観測装置41,42により得られる画像に基づいて使用者が平面ディスプレイ20の所定範囲内に接近したこと、および平面ディスプレイ20に表示された映像の部分を指定する操作を行ったことを検出し、指定された映像の部分を立体ディスプレイ30に表示させる。
【選択図】図2
Provided is a video display system and a video display method capable of easily displaying a desired portion of a video displayed on one video display device on another video display device by a user's intuitive operation. To do.
Infrared elements (23, 24) attached to a flat display (20) and an infrared element (34) attached to a stereoscopic display (30) are imaged by observation devices (41, 42). The control device 10 detects that the user has gripped the three-dimensional display 30 based on the detection signal of the touch sensor 33 provided on the three-dimensional display 30, and the user determines based on the images obtained by the observation devices 41 and 42. It is detected that the flat display 20 has approached a predetermined range and that an operation for designating a portion of the video displayed on the flat display 20 has been performed, and the designated video portion is displayed on the stereoscopic display 30.
[Selection] Figure 2

Description

本発明は、映像を表示する映像表示システムおよび映像表示方法に関する。   The present invention relates to a video display system and a video display method for displaying video.

平面ディスプレイ、および立体ディスプレイ等の種々の映像表示装置が開発されている(例えば特許文献1参照)。   Various video display devices such as a flat display and a stereoscopic display have been developed (see, for example, Patent Document 1).

特開2009−8837号公報JP 2009-8837 A

一の映像表示装置に表示される映像の一部を他の映像表示装置により観察したい場合がある。複数の映像表示装置がネットワーク上のコンピュータにそれぞれ接続される場合には、使用者が一の映像表示装置に表示される映像をコンピュータを操作することにより切り取り、他の映像表示装置に表示させることができる。しかしながら、このような操作は、非常に面倒である。   In some cases, it is desired to observe a part of the video displayed on one video display device with another video display device. When multiple video display devices are connected to computers on the network, the user can cut the video displayed on one video display device by operating the computer and display it on another video display device. Can do. However, such an operation is very troublesome.

例えば、遠隔会議において、大型の映像表示装置の画面に表示された映像の一部を手元の小型の映像表示装置で詳細に観察したい場合、出席者が面倒な操作を行うことにより会議の進行が遅れる事態が生じる。そのため、リアルタイムに変化する状況下で、一の映像表示装置に表示される映像の一部を他の映像表示装置に表示させて詳細に観察することは困難である。   For example, in a remote conference, if you want to observe a part of the video displayed on the screen of a large video display device in detail with a small video display device at hand, the attendance of the attendees can make the conference progress There will be a delay. For this reason, it is difficult to display a part of a video displayed on one video display device on another video display device and observe it in detail under a situation changing in real time.

本発明の目的は、一の映像表示装置に表示される映像の所望の部分を使用者の直感的な操作で容易に他の映像表示装置に表示させることを可能にする映像表示システムおよび映像表示方法を提供することである。   An object of the present invention is to provide a video display system and a video display capable of easily displaying a desired portion of a video displayed on one video display device on another video display device by a user's intuitive operation. Is to provide a method.

(1)第1の発明に係る映像表示システムは、映像を表示する第1の映像表示装置と、映像を表示する第2の映像表示装置と、使用者が第2の映像表示装置を把持したことを検出する把持検出手段と、第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことを検出する接近検出手段と、使用者が第1の映像表示装置に表示された映像の部分を指定する操作を行ったことを検出する指定操作検出手段と、接近検出手段により第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことが検出された場合に、指定操作検出手段により検出された操作に基づいて使用者により指定された映像の部分を判別し、指定された映像の部分を表示するように第2の映像表示装置を制御する制御手段とを備えるものである。   (1) A video display system according to a first invention is a first video display device that displays video, a second video display device that displays video, and a user holds the second video display device. Grip detection means for detecting this, proximity detection means for detecting that the second video display device approaches within a predetermined range of the first video display device, and a user displayed on the first video display device. It is detected that the second image display device approaches within a predetermined range of the first image display device by the designation operation detection means for detecting that the operation for designating the portion of the image is performed and the approach detection means. In this case, the control means for determining the part of the video designated by the user based on the operation detected by the designated operation detecting means and controlling the second video display device to display the designated video part. Are provided.

第1の発明に係る映像表示システムにおいては、使用者が第2の映像表示装置を把持したことが把持検出手段により検出され、第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことが接近検出手段により検出され、使用者が第1の映像表示装置に表示された映像の部分を指定する操作を行ったことが指定操作検出手段により検出される。その場合、検出された操作に基づいて使用者により指定された映像の部分が制御手段により判別され、第2の映像表示装置に指定された映像の部分が表示されるように第2の映像表示装置が制御される。   In the video display system according to the first aspect of the invention, it is detected by the grip detection means that the user has gripped the second video display device, and the second video display device is within a predetermined range of the first video display device. Is detected by the approach detection means, and it is detected by the designation operation detection means that the user has performed an operation of designating the portion of the video displayed on the first video display device. In that case, the video portion designated by the user based on the detected operation is discriminated by the control means, and the second video display is performed such that the designated video portion is displayed on the second video display device. The device is controlled.

それにより、使用者が第2の映像表示装置を把持して第1の映像表示装置に接近し、第1の映像表示装置に表示された映像の部分を指定する操作を行うことにより、指定された部分が第2の映像表示装置に表示される。したがって、使用者は、複雑な操作を行うことなく、第1の映像表示装置に表示される映像の所望の部分を直感的な操作で容易に第2の映像表示装置に表示させることが可能となる。   As a result, the user grasps the second video display device, approaches the first video display device, and performs an operation of designating a portion of the video displayed on the first video display device. The displayed portion is displayed on the second video display device. Therefore, the user can easily display a desired portion of the video displayed on the first video display device on the second video display device by an intuitive operation without performing a complicated operation. Become.

(2)指定操作検出手段は、第1の映像表示装置に対する第2の映像表示装置の位置を検出する位置検出手段を含み、制御手段は、位置検出手段により検出された位置に基づいて使用者により指定された映像の部分を判別してもよい。   (2) The designation operation detection means includes position detection means for detecting the position of the second video display device relative to the first video display device, and the control means is based on the position detected by the position detection means. The part of the video specified by may be determined.

この場合、第1の映像表示装置に対する第2の映像表示装置の位置に基づいて、第1の映像表示装置に表示された映像の部分を指定する操作が行われたことを検出することができるとともに、指定された映像の部分を判別することができる。   In this case, based on the position of the second video display device relative to the first video display device, it can be detected that an operation for designating a portion of the video displayed on the first video display device has been performed. At the same time, the designated video portion can be determined.

(3)位置検出手段は、第1の映像表示装置に設けられた第1の被撮像部と、第2の映像表示装置に設けられた第2の被撮像部と、異なる位置から第1の被撮像部および第2の被撮像部を撮像する複数の撮像手段とを含み、制御手段は、複数の撮像手段により得られる画像に基づいて使用者により指定された映像の部分を判別してもよい。   (3) The position detection means includes a first image pickup unit provided in the first video display device and a second image pickup unit provided in the second video display device. A plurality of imaging means for imaging the imaged part and the second imaged part, and the control means discriminates a video portion designated by the user based on images obtained by the plurality of imaging means. Good.

この場合、第1の映像表示装置に設けられた第1の被撮像部および第2の映像表示装置に設けられた第2の被撮像部が、複数の撮像手段により異なる位置から撮像される。複数の撮像手段により得られる第1の被撮像部の画像に基づいて第1の映像表示装置の位置を特定することができる。また、複数の撮像手段により得られる第2の被撮像部の画像に基づいて第2の映像表示装置の位置を特定することができる。それにより、第1の映像表示装置に対する第2の映像表示装置の位置を検出することができる。したがって、使用者は、第2の映像表示装置を第1の映像表示装置に対して移動させることにより第1の映像表示装置に表示される映像の所望の部分を指定することができ、複数の撮像手段により得られる画像に基づいて使用者により指定された映像の部分を判別することが可能となる。   In this case, the first image pickup unit provided in the first video display device and the second image pickup unit provided in the second video display device are imaged from different positions by the plurality of image pickup means. The position of the first video display device can be specified based on the image of the first imaged part obtained by the plurality of imaging means. In addition, the position of the second video display device can be specified based on the image of the second imaged part obtained by the plurality of imaging means. Thereby, the position of the second video display device relative to the first video display device can be detected. Therefore, the user can designate a desired portion of the video displayed on the first video display device by moving the second video display device relative to the first video display device, and It becomes possible to determine the portion of the video designated by the user based on the image obtained by the imaging means.

(4)接近検出手段は、指定操作検出手段の位置検出手段と共通の位置検出手段を含み、共通の位置検出手段により検出された位置に基づいて第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことを検出してもよい。   (4) The approach detection means includes a position detection means common to the position detection means of the designation operation detection means, and the second video display device displays the first video based on the position detected by the common position detection means. You may detect having approached within the predetermined range of the apparatus.

この場合、共通の位置検出手段により、第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したこと、および第1の映像表示装置に表示された映像の部分を指定する操作が行われたことを検出することができる。したがって、映像表示システムの構成が複雑化しない。   In this case, an operation for designating that the second video display device approaches the predetermined range of the first video display device and a part of the video displayed on the first video display device by the common position detection means. Can be detected. Therefore, the configuration of the video display system is not complicated.

(5)接近検出手段は、第1の映像表示装置に設けられ、第2の映像表示装置の接触を検出する第1の接触検出手段を含んでもよい。   (5) The approach detection unit may include a first contact detection unit that is provided in the first video display device and detects a contact of the second video display device.

この場合、第1の接触検出手段により第1の映像表示装置の接触が検出されることにより、第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことが検出される。   In this case, the contact of the first video display device is detected by the first contact detection means, thereby detecting that the second video display device has approached the predetermined range of the first video display device. .

(6)接近検出手段は、第1の映像表示装置に設けられ、第2の映像表示装置の近接を検出する近接検出手段を含んでもよい。   (6) The approach detection unit may include a proximity detection unit that is provided in the first video display device and detects the proximity of the second video display device.

この場合、近接検出手段により第1の映像表示装置の近接が検出されることにより、第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことが検出される。   In this case, when the proximity of the first video display device is detected by the proximity detection means, it is detected that the second video display device approaches within a predetermined range of the first video display device.

(7)把持検出手段は、第2の映像表示装置に設けられ、使用者の身体が接触したことを検出する第2の接触検出手段を含んでもよい。   (7) The grip detection unit may include a second contact detection unit that is provided in the second video display device and detects that the user's body is in contact.

この場合、使用者が第2の映像表示装置に接触したことが検出されることにより、使用者が第2の映像表示装置を把持したことが検出される。   In this case, it is detected that the user has gripped the second video display device by detecting that the user has touched the second video display device.

(8)制御手段は、映像を表示するためのデータを記憶する記憶部と、記憶部に記憶されたデータを第1の映像表示装置に与え、使用者により指定された映像の部分に対応するデータを記憶部から取得し、取得したデータを第2の映像表示装置に与える主制御部とを含み、第1の映像表示装置は、主制御部から与えられるデータに基づいて映像を表示し、第2の映像表示装置は、主制御部から与えられるデータに基づいて使用者により指定された映像の部分を表示してもよい。   (8) The control means provides the first video display device with the storage unit for storing data for displaying the video and the data stored in the storage unit, and corresponds to the video portion designated by the user. A main control unit that acquires data from the storage unit and provides the acquired data to the second video display device, the first video display device displays video based on the data supplied from the main control unit, The second video display device may display a video portion designated by the user based on data provided from the main control unit.

この場合、記憶部により記憶されたデータが第1の映像表示装置に与えられる。それにより、第1の映像表示装置に映像が表示される。また、使用者により指定された映像の部分に対応するデータが記憶部から取得され、取得されたデータが第2の映像表示装置に与えられる。それにより、第2の映像表示装置に使用者により指定された部分が表示される。   In this case, the data stored in the storage unit is given to the first video display device. Thereby, an image is displayed on the first image display device. Further, data corresponding to the video portion designated by the user is acquired from the storage unit, and the acquired data is provided to the second video display device. Thereby, the part designated by the user is displayed on the second video display device.

このように、共通の記憶部に記憶された共通のデータを用いることにより、第1の映像表示装置に表示される映像の指定された部分を第2の映像表示装置に容易かつ確実に表示させることが可能となる。   In this way, by using the common data stored in the common storage unit, the designated portion of the video displayed on the first video display device is easily and reliably displayed on the second video display device. It becomes possible.

(9)第2の映像表示装置は、指定された映像の部分を立体映像として表示してもよい。   (9) The second video display device may display the designated video portion as a stereoscopic video.

この場合、第1の映像表示装置に表示された映像の指定された部分が立体映像として第2の映像表示装置に表示される。それにより、使用者は、映像の所望の部分を任意の角度から詳細に観察することが可能となる。   In this case, the designated portion of the video displayed on the first video display device is displayed on the second video display device as a stereoscopic video. Thereby, the user can observe the desired portion of the image in detail from an arbitrary angle.

(10)第2の発明に係る映像表示方法は、第1の映像表示装置に映像を表示するステップと、使用者が第2の映像表示装置を把持したことを検出するステップと、第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことを検出するステップと、使用者が第1の映像表示装置に表示された映像の部分を指定する操作を行ったことを検出するステップと、第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことが検出された場合に、検出された操作に基づいて使用者により指定された映像の部分を判別し、指定された映像の部分を表示するように第2の映像表示装置を制御するステップとを備えるものである。   (10) A video display method according to a second invention includes a step of displaying a video on the first video display device, a step of detecting that the user has gripped the second video display device, and a second Detecting that the video display device has approached the predetermined range of the first video display device, and detecting that the user has performed an operation of designating a portion of the video displayed on the first video display device And determining a portion of the video designated by the user based on the detected operation when it is detected that the second video display device approaches the predetermined range of the first video display device. And a step of controlling the second video display device so as to display the designated video portion.

第2の発明に係る映像表示方法においては、使用者が第2の映像表示装置を把持したことが検出され、第2の映像表示装置が第1の映像表示装置の所定範囲内に接近したことが検出され、使用者が第1の映像表示装置に表示された映像の部分を指定する操作を行ったことが検出される。その場合、検出された操作に基づいて使用者により指定された映像の部分が判別され、第2の映像表示装置に指定された映像の部分が表示されるように第2の映像表示装置が制御される。   In the video display method according to the second invention, it is detected that the user has gripped the second video display device, and the second video display device approaches within a predetermined range of the first video display device. Is detected, and it is detected that the user has performed an operation of designating a portion of the video displayed on the first video display device. In that case, the second video display device controls the second video display device to determine the video portion designated by the user based on the detected operation and display the designated video portion on the second video display device. Is done.

それにより、使用者が第2の映像表示装置を把持して第1の映像表示装置に接近し、第1の映像表示装置に表示された映像の部分を指定する操作を行うことにより、指定された部分が第2の映像表示装置に表示される。したがって、使用者は、複雑な操作を行うことなく、第1の映像表示装置に表示される映像の所望の部分を直感的な操作で容易に第2の映像表示装置に表示させることが可能となる。   As a result, the user grasps the second video display device, approaches the first video display device, and performs an operation of designating a portion of the video displayed on the first video display device. The displayed portion is displayed on the second video display device. Therefore, the user can easily display a desired portion of the video displayed on the first video display device on the second video display device by an intuitive operation without performing a complicated operation. Become.

本発明によれば、第1の映像表示装置に表示される映像の所望の部分を直感的な操作で容易に第2の映像表示装置に表示させることができる。   According to the present invention, a desired portion of an image displayed on the first image display device can be easily displayed on the second image display device by an intuitive operation.

本発明の一実施の形態に係る映像表示システムの構成を示す模式的外観図である。1 is a schematic external view showing a configuration of a video display system according to an embodiment of the present invention. 図1の映像表示システムの制御系の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the control system of the video display system of FIG. 平面ディスプレイと立体ディスプレイとの相対的な位置関係の特定方法を示す模式的説明図である。It is typical explanatory drawing which shows the identification method of the relative positional relationship of a flat display and a three-dimensional display. 立体ディスプレイの構成を示す模式的外観図である。It is a typical external view which shows the structure of a three-dimensional display. 立体表示面を構成する要素表示面を示す模式的断面図である。It is typical sectional drawing which shows the element display surface which comprises a three-dimensional display surface. 立体映像を表示するための立体映像データの作成方法を説明するための図である。It is a figure for demonstrating the production method of the stereo image data for displaying a stereo image. 立体映像データに基づいて立体ディスプレイの空間光変調器に表示される映像を説明するための図である。It is a figure for demonstrating the image | video displayed on the spatial light modulator of a three-dimensional display based on three-dimensional image data. 制御装置の主制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the main-control part of a control apparatus. 映像表示システムの動作の説明図である。It is explanatory drawing of operation | movement of a video display system. 平面ディスプレイの構成の他の例を示すブロック図である。It is a block diagram which shows the other example of a structure of a flat display.

(1)映像表示システムの構成
図1は本発明の一実施の形態に係る映像表示システムの構成を示す模式的外観図である。
(1) Configuration of Video Display System FIG. 1 is a schematic external view showing the configuration of a video display system according to an embodiment of the present invention.

図1に示すように、映像表示システム100は、制御装置10、平面ディスプレイ20、立体ディスプレイ30および複数の観測装置41,42を備える。   As shown in FIG. 1, the video display system 100 includes a control device 10, a flat display 20, a stereoscopic display 30, and a plurality of observation devices 41 and 42.

平面ディスプレイ20は、平面映像を表示する長方形の画面を有する。平面ディスプレイ20の前面の上部両端の角部近傍にそれぞれ赤外線を放出する素子(以下、赤外線素子と呼ぶ)23,24が取り付けられる。   The flat display 20 has a rectangular screen that displays a flat image. Elements (hereinafter referred to as infrared elements) 23 and 24 that emit infrared rays are attached in the vicinity of the corners of the upper ends of the front surface of the flat display 20.

立体ディスプレイ30は、立方体形状を有し、立体映像を表示する。立体ディスプレイ30の構成および動作については後述する。立体ディスプレイ30の1つの角部近傍には、赤外線素子34が取り付けられる。また、立体ディスプレイ30の表面には、タッチセンサが設けられる。   The stereoscopic display 30 has a cubic shape and displays a stereoscopic image. The configuration and operation of the three-dimensional display 30 will be described later. An infrared element 34 is attached in the vicinity of one corner of the three-dimensional display 30. A touch sensor is provided on the surface of the stereoscopic display 30.

立体ディスプレイ30は、使用者が容易に持ち運びできるサイズを有する。本実施の形態では、立体ディスプレイ30の一面の一辺の長さは、平面ディスプレイ20の画面の縦横の長さよりも小さい。   The three-dimensional display 30 has a size that can be easily carried by the user. In the present embodiment, the length of one side of the one surface of the stereoscopic display 30 is smaller than the vertical and horizontal lengths of the screen of the flat display 20.

平面ディスプレイ20の前面側の上方に、赤外線素子23,24を撮像するように複数の観測装置41,42が配置される。本実施の形態では、2つの観測装置41,42が用いられる。観測装置41,42は、例えば赤外線を検出可能なカメラからなる。また、観測装置41,42は、立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に位置する場合に赤外線素子34を撮像する。   A plurality of observation devices 41 and 42 are arranged above the front side of the flat display 20 so as to image the infrared elements 23 and 24. In this embodiment, two observation devices 41 and 42 are used. The observation devices 41 and 42 are composed of cameras capable of detecting infrared rays, for example. Further, the observation devices 41 and 42 image the infrared element 34 when the stereoscopic display 30 is located within a predetermined range in front of the flat display 20.

制御装置10は、平面映像または立体映像を表示するための形状データを記憶し、記憶した形状データの一部または全てを平面ディスプレイ20および立体ディスプレイ30に与える。平面ディスプレイ20は、制御装置10から与えられる形状データに基づいて平面映像を表示する。また、立体ディスプレイ30は、制御装置10から与えられる形状データに基づいて立体映像を表示する。   The control device 10 stores shape data for displaying a planar image or a stereoscopic image, and gives part or all of the stored shape data to the planar display 20 and the stereoscopic display 30. The flat display 20 displays a flat image based on the shape data given from the control device 10. In addition, the stereoscopic display 30 displays a stereoscopic image based on the shape data given from the control device 10.

また、制御装置10は、観測装置41,42により得られる赤外線素子23,24,34の発光点の画像に基づいて、平面ディスプレイ20と立体ディスプレイ30との相対的な位置関係を特定する。それにより、制御装置10は、立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近したことを検出するとともに、平面ディスプレイ20に表示される平面映像と立体ディスプレイ30との相対的な位置関係を特定する。   In addition, the control device 10 specifies the relative positional relationship between the flat display 20 and the three-dimensional display 30 based on the images of the light emission points of the infrared elements 23, 24, and 34 obtained by the observation devices 41 and 42. Thereby, the control device 10 detects that the stereoscopic display 30 has approached a predetermined range in front of the flat display 20, and the relative positional relationship between the flat image displayed on the flat display 20 and the stereoscopic display 30. Is identified.

本実施の形態に係る映像表示システム100においては、使用者が立体ディスプレイ30を把持し、平面ディスプレイ20の前方の所定範囲内に接近し、平面ディスプレイ20に表示された平面映像の所望の部分を指定する操作を行うことにより、平面映像の指定された部分を立体ディスプレイ30に立体映像として表示させることができる。これにより、平面ディスプレイ20に表示された映像の所望の部分を立体ディスプレイ30に移動または複写することができる。   In the video display system 100 according to the present embodiment, the user grasps the three-dimensional display 30 and approaches a predetermined range in front of the flat display 20 to display a desired portion of the flat video displayed on the flat display 20. By performing the designation operation, the designated portion of the planar video can be displayed on the stereoscopic display 30 as a stereoscopic video. Thereby, a desired part of the image displayed on the flat display 20 can be moved or copied to the stereoscopic display 30.

(2)映像表示システムの制御系
図2は図1の映像表示システムの制御系の詳細な構成を示すブロック図である。
(2) Control System of Video Display System FIG. 2 is a block diagram showing a detailed configuration of the control system of the video display system of FIG.

制御装置10は、主制御部11、形状データ記憶部12、メモリ13、入出力回路14および通信部15を含む。平面ディスプレイ20は、表示部21、平面表示制御部22、赤外線素子23,24および入出力回路25を含む。立体ディスプレイ30は、立体表示面31、立体表示制御部32、タッチセンサ33、赤外線素子34および通信部35を含む。   The control device 10 includes a main control unit 11, a shape data storage unit 12, a memory 13, an input / output circuit 14, and a communication unit 15. The flat display 20 includes a display unit 21, a flat display control unit 22, infrared elements 23 and 24, and an input / output circuit 25. The stereoscopic display 30 includes a stereoscopic display surface 31, a stereoscopic display control unit 32, a touch sensor 33, an infrared element 34, and a communication unit 35.

主制御部11は、例えばCPU(中央演算処理装置)からなる。メモリ13には、後述される映像表示処理を行うための映像表示プログラムが格納される。また、メモリ13は、主制御部11の作業領域として用いられる。形状データ記憶部12は、形状データを記憶する。   The main control unit 11 is composed of, for example, a CPU (Central Processing Unit). The memory 13 stores a video display program for performing a video display process described later. The memory 13 is used as a work area for the main control unit 11. The shape data storage unit 12 stores shape data.

制御装置10の入出力回路14は、平面ディスプレイ20の入出力回路25に接続される。また、入出力回路14には、観測装置41,42が接続される。   The input / output circuit 14 of the control device 10 is connected to the input / output circuit 25 of the flat display 20. The input / output circuit 14 is connected to observation devices 41 and 42.

制御装置10の主制御部11は、形状データ記憶部12に記憶された形状データを入出力回路14を介して平面ディスプレイ20に与える。また、主制御部11は、観測装置41,42により得られる画像を画像データとして入出力回路14を介して取得する。さらに、主制御部11は、入出力回路14を介して平面ディスプレイ20に赤外線素子23,24の点灯を制御するための制御信号を与える。   The main control unit 11 of the control device 10 gives the shape data stored in the shape data storage unit 12 to the flat display 20 via the input / output circuit 14. Further, the main control unit 11 acquires an image obtained by the observation devices 41 and 42 as image data through the input / output circuit 14. Further, the main control unit 11 gives a control signal for controlling the lighting of the infrared elements 23 and 24 to the flat display 20 via the input / output circuit 14.

制御装置10の通信部15と立体ディスプレイ30の通信部35とは無線通信によりデータおよび信号を送受信する。制御装置10の主制御部11は、形状データ記憶部12に記憶された形状データを通信部15を介して立体ディスプレイ30に送信する。また、主制御部11は、通信部15を介して立体ディスプレイ30に赤外線素子34の点灯を制御するための制御信号を送信する。さらに、主制御部11は、立体ディスプレイ30から送信されるタッチセンサ33の検出信号を通信部15を介して受信する。   The communication unit 15 of the control device 10 and the communication unit 35 of the three-dimensional display 30 transmit and receive data and signals by wireless communication. The main control unit 11 of the control device 10 transmits the shape data stored in the shape data storage unit 12 to the stereoscopic display 30 via the communication unit 15. Further, the main control unit 11 transmits a control signal for controlling lighting of the infrared element 34 to the three-dimensional display 30 via the communication unit 15. Further, the main control unit 11 receives the detection signal of the touch sensor 33 transmitted from the three-dimensional display 30 via the communication unit 15.

平面ディスプレイ20の表示部21は、例えば液晶ディスプレイ、またはプラズマディスプレイ等からなる。平面表示制御部22は、例えばCPUからなり、入出力回路25を介して制御装置10から与えられる形状データを平面映像データに変換し、表示部21に与える。それにより、表示部21の画面に平面映像が表示される。また、平面表示制御部22は、入出力回路25を介して制御装置10から与えられる制御信号に基づいて赤外線素子23,24を点灯させる。   The display unit 21 of the flat display 20 is composed of, for example, a liquid crystal display or a plasma display. The flat display control unit 22 includes, for example, a CPU, converts shape data given from the control device 10 via the input / output circuit 25 into flat video data, and gives the flat video data to the display unit 21. Thereby, a plane image is displayed on the screen of the display unit 21. Further, the flat display control unit 22 turns on the infrared elements 23 and 24 based on a control signal supplied from the control device 10 via the input / output circuit 25.

なお、本実施の形態では、赤外線素子23,24は、制御装置10の制御により点灯するが、赤外線素子23,24が制御装置10により制御されずに平面ディスプレイ20の動作時に点灯してもよい。同様に、本実施の形態では、赤外線素子34は、制御装置10の制御により点灯するが、赤外線素子34が制御装置10により制御されずに立体ディスプレイ30の動作時に点灯してもよい。   In the present embodiment, the infrared elements 23 and 24 are turned on under the control of the control device 10, but the infrared elements 23 and 24 may be turned on when the flat display 20 is operated without being controlled by the control device 10. . Similarly, in the present embodiment, the infrared element 34 is turned on under the control of the control device 10, but the infrared element 34 may be turned on when the three-dimensional display 30 is operated without being controlled by the control device 10.

立体ディスプレイ30の立体表示面31の構成については後述する。立体表示制御部32は、例えばCPUからなり、通信部35を介して制御装置10から与えられる形状データを立体映像データに変換し、立体表示面31に与える。それにより、立体表示面31に立体映像が表示される。また、立体表示制御部32は、通信部35を介して制御装置10から受信した制御信号に基づいて赤外線素子34を点灯させる。さらに、立体表示制御部32は、タッチセンサ33から出力される検出信号を通信部35を介して制御装置10に送信する。   The configuration of the stereoscopic display surface 31 of the stereoscopic display 30 will be described later. The stereoscopic display control unit 32 includes, for example, a CPU, converts shape data provided from the control device 10 via the communication unit 35 into stereoscopic video data, and supplies the stereoscopic video data to the stereoscopic display surface 31. As a result, a stereoscopic image is displayed on the stereoscopic display surface 31. Further, the stereoscopic display control unit 32 turns on the infrared element 34 based on a control signal received from the control device 10 via the communication unit 35. Furthermore, the stereoscopic display control unit 32 transmits a detection signal output from the touch sensor 33 to the control device 10 via the communication unit 35.

(3)平面ディスプレイと立体ディスプレイとの相対的な位置関係の特定方法
図3は平面ディスプレイ20と立体ディスプレイ30との相対的な位置関係の特定方法を示す模式的説明図である。図3(a)は、2つの観測装置41,42により平面ディスプレイ20の赤外線素子23,24の発光点および立体ディスプレイ30の赤外線素子34の発光点が撮像される状態を示し、図3(b)は観測装置41の視野を示し、図3(c)は観測装置42の視野を示す。
(3) Method for Specifying Relative Position Relationship between Flat Display and Stereoscopic Display FIG. 3 is a schematic explanatory diagram showing a method for specifying the relative positional relationship between the flat display 20 and the three-dimensional display 30. FIG. 3A shows a state where the light emitting points of the infrared elements 23 and 24 of the flat display 20 and the light emitting point of the infrared element 34 of the three-dimensional display 30 are imaged by the two observation devices 41 and 42. ) Shows the field of view of the observation device 41, and FIG. 3C shows the field of view of the observation device 42.

図3(a)において、観測装置41,42の視野がそれぞれ仮想平面VP1,VP2で示される。観測装置41の観測中心点C1と立体ディスプレイ30の赤外線素子34の発光点とを結ぶ直線L1が仮想平面VP1と交わる点をI1cとする。また、観測装置42の観測中心点C2と立体ディスプレイ30の赤外線素子34の発光点とを結ぶ直線L2が仮想平面VP2と交わる点をI2cとする。   In FIG. 3A, the visual fields of the observation devices 41 and 42 are indicated by virtual planes VP1 and VP2, respectively. A point where a straight line L1 connecting the observation center point C1 of the observation device 41 and the light emitting point of the infrared element 34 of the stereoscopic display 30 intersects the virtual plane VP1 is defined as I1c. Further, a point where a straight line L2 connecting the observation center point C2 of the observation device 42 and the light emitting point of the infrared element 34 of the stereoscopic display 30 intersects the virtual plane VP2 is defined as I2c.

図3(b)に示す仮想平面VP1上の点I1cの二次元座標は、観測装置41により得られる画像から求められる。図3(c)に示す仮想平面VP2上の点I2cの二次元座標は、観測装置42により得られる画像から求められる。   The two-dimensional coordinates of the point I1c on the virtual plane VP1 shown in FIG. 3B are obtained from the image obtained by the observation device 41. The two-dimensional coordinates of the point I2c on the virtual plane VP2 shown in FIG. 3C are obtained from the image obtained by the observation device 42.

観測装置41,42の位置および向きならびに点I1c,I2cの二次元座標に基づいて赤外線素子34の三次元座標を求めることができる。   Based on the positions and orientations of the observation devices 41 and 42 and the two-dimensional coordinates of the points I1c and I2c, the three-dimensional coordinates of the infrared element 34 can be obtained.

同様にして、観測装置41の観測中心点C1と平面ディスプレイ20の赤外線素子23の発光点とを結ぶ直線が仮想平面VP1と交わる点をI1aとし、観測装置42の観測中心点C2と平面ディスプレイ20の赤外線素子23の発光点とを結ぶ直線が仮想平面VP2と交わる点をI2aとする。   Similarly, I1a is a point where a straight line connecting the observation center point C1 of the observation device 41 and the light emitting point of the infrared element 23 of the flat display 20 intersects the virtual plane VP1, and the observation center point C2 of the observation device 42 and the flat display 20 Let I2a be the point where a straight line connecting the light emitting point of the infrared element 23 intersects the virtual plane VP2.

また、観測装置41の観測中心点C1と平面ディスプレイ20の赤外線素子24の発光点とを結ぶ直線が仮想平面VP1と交わる点をI1bとし、観測装置42の観測中心点C2と平面ディスプレイ20の赤外線素子24の発光点とを結ぶ直線が仮想平面VP2と交わる点をI2bとする。   Further, a point where a straight line connecting the observation center point C1 of the observation device 41 and the light emitting point of the infrared element 24 of the flat display 20 intersects the virtual plane VP1 is defined as I1b, and the observation central point C2 of the observation device 42 and the infrared light of the flat display 20 A point where a straight line connecting the light emitting point of the element 24 intersects the virtual plane VP2 is defined as I2b.

図3(b)に示す仮想平面VP1上の点I1a,I1bの二次元座標は、観測装置41により得られる画像から求められる。図3(c)に示す仮想平面VP2上の点I2a,I2bの二次元座標は、観測装置42により得られる画像から求められる。   The two-dimensional coordinates of the points I1a and I1b on the virtual plane VP1 shown in FIG. 3B are obtained from the image obtained by the observation device 41. The two-dimensional coordinates of the points I2a and I2b on the virtual plane VP2 shown in FIG. 3C are obtained from the image obtained by the observation device 42.

観測装置41,42の位置および向きならびに点I1a,I2aの二次元座標に基づいて赤外線素子23の三次元座標を求めることができ、観測装置41,42の位置および向きならびに点I1b,I2bの座標に基づいて赤外線素子24の三次元座標を求めることができる。   Based on the positions and orientations of the observation devices 41 and 42 and the two-dimensional coordinates of the points I1a and I2a, the three-dimensional coordinates of the infrared element 23 can be obtained, and the positions and orientations of the observation devices 41 and 42 and the coordinates of the points I1b and I2b are obtained. Based on the above, the three-dimensional coordinates of the infrared element 24 can be obtained.

平面ディスプレイ20の画面は設置面に垂直に設けられるものとする。また、平面ディスプレイ20の画面の縦の長さは既知である。この場合、赤外線素子23,24の三次元座標から平面ディスプレイ20の画面の三次元空間内の位置を一意に特定することができる。   The screen of the flat display 20 is provided perpendicular to the installation surface. Further, the vertical length of the screen of the flat display 20 is known. In this case, the position in the three-dimensional space of the screen of the flat display 20 can be uniquely specified from the three-dimensional coordinates of the infrared elements 23 and 24.

このようにして、制御装置10は、観測装置41,42により得られる画像に基づいて立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近したことを検出するとともに、平面ディスプレイ20に表示される平面映像と立体ディスプレイ30との相対的な位置関係を特定することができる。   In this way, the control device 10 detects that the stereoscopic display 30 has approached a predetermined range in front of the flat display 20 based on the images obtained by the observation devices 41 and 42 and is displayed on the flat display 20. The relative positional relationship between the flat image and the three-dimensional display 30 can be specified.

なお、平面ディスプレイ20の画面が垂直に設けられていない場合、または平面ディスプレイ20の縦の長さが既知でない場合には、平面ディスプレイ20に3つ以上の赤外線素子を取り付けることが好ましい。   In addition, when the screen of the flat display 20 is not provided vertically, or when the vertical length of the flat display 20 is not known, it is preferable to attach three or more infrared elements to the flat display 20.

(4)立体ディスプレイの構成
次に、立体ディスプレイ30の構成について説明する。図4は立体ディスプレイ30の構成を示す模式的外観図である。
(4) Configuration of stereoscopic display Next, the configuration of the stereoscopic display 30 will be described. FIG. 4 is a schematic external view showing the configuration of the three-dimensional display 30.

図4に示すように、立体ディスプレイ30は、立体的な外面を有する立体表示面31を備える。立体表示面31は、複数の要素表示面31aを結合させることにより構成される。本実施の形態では、立体表示面31は、正方形の6枚の要素表示面31aにより立方体に構成される。立体表示面31で囲まれる仮想空間Sの内部には立体映像31bが表示される。   As shown in FIG. 4, the stereoscopic display 30 includes a stereoscopic display surface 31 having a stereoscopic outer surface. The three-dimensional display surface 31 is configured by combining a plurality of element display surfaces 31a. In the present embodiment, the three-dimensional display surface 31 is formed in a cube by six square element display surfaces 31a. A stereoscopic video 31b is displayed inside the virtual space S surrounded by the stereoscopic display surface 31.

図5は立体表示面31を構成する要素表示面31aを示す模式的断面図である。図5に示すように、要素表示面31aは、平面状の空間光変調器31c、平面状の光線制御子31dおよび透明外皮層31eにより構成される。   FIG. 5 is a schematic cross-sectional view showing an element display surface 31 a constituting the three-dimensional display surface 31. As shown in FIG. 5, the element display surface 31a includes a planar spatial light modulator 31c, a planar light controller 31d, and a transparent outer skin layer 31e.

空間光変調器31cは、マトリクス状に色を表示することができるマトリクス表示素子からなる。この空間光変調器31cは、マトリクス状に配列された複数の画素を有する。空間光変調器31cとして、例えば液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイ等を用いることができる。   The spatial light modulator 31c includes a matrix display element that can display colors in a matrix. The spatial light modulator 31c has a plurality of pixels arranged in a matrix. As the spatial light modulator 31c, for example, a liquid crystal display or an organic electroluminescence display can be used.

光線制御子31dは、光線の方向を制御することができる光学素子からなり、空間光変調器31cから様々な方向へ向かう光の状態を再現させる機能を有する。本実施の形態では、光線制御子31dとして、複数のレンズからなるレンズアレイが用いられる。レンズアレイの代わりに、複数の回折格子からなる回折格子アレイを用いてもよい。また、光線制御子31dとして、複数のピンホールを有するピンホールアレイ、または複数のプリズムからなるプリズムアレイ等を用いることもできる。   The light beam controller 31d is composed of an optical element that can control the direction of the light beam, and has a function of reproducing the state of light traveling in various directions from the spatial light modulator 31c. In the present embodiment, a lens array including a plurality of lenses is used as the light beam controller 31d. Instead of the lens array, a diffraction grating array including a plurality of diffraction gratings may be used. Further, as the light beam controller 31d, a pinhole array having a plurality of pinholes or a prism array including a plurality of prisms can be used.

光線制御子31dの各レンズにより、空間光変調器31cの複数の画素からの光線の方向が制御される。各レンズには、その下部に位置する画素群が対応する。各レンズが対応する画素群のみからの光線の方向を制御することができるように、空間光変調器31cと光線制御子31dとの間に隣接するレンズ間を仕切る遮光部材31fが設けられてもよい。なお、レンズと画素群との距離を調整するなどの他の方法により、各レンズがその下部に位置する画素群のみからの光線の方向を制御するように構成してもよい。   The direction of the light beam from the plurality of pixels of the spatial light modulator 31c is controlled by each lens of the light beam controller 31d. Each lens corresponds to a pixel group located below the lens. Even if a light shielding member 31f for partitioning adjacent lenses is provided between the spatial light modulator 31c and the light controller 31d so that the direction of light from only the pixel group to which each lens corresponds can be controlled. Good. In addition, you may comprise so that each lens may control the direction of the light ray only from the pixel group located in the lower part by adjusting the distance of a lens and a pixel group.

光線制御子31dにより制御可能な光線の数および光線の方向は、各レンズの下部に位置する画素の数、レンズと画素との距離およびレンズの屈折率等のレンズの光学的な設計等により決まる。   The number of light rays and the direction of the light rays that can be controlled by the light ray controller 31d are determined by the number of pixels located under each lens, the distance between the lenses, the optical design of the lens such as the refractive index of the lens, and the like. .

図5に示すように、光線制御子31dのレンズLは、空間光変調器31cの画素Pa,Pb,Pc,Pdから種々の方向へ向かう光をそれぞれ点線で示す方向に制御する。   As shown in FIG. 5, the lens L of the light beam controller 31d controls light traveling in various directions from the pixels Pa, Pb, Pc, and Pd of the spatial light modulator 31c in directions indicated by dotted lines.

要素表示面31aに沿ってタッチセンサ33が設けられる。タッチセンサ33は、例えば触覚センサアレイからなる。触覚センサアレイは、マトリクス状に配列された複数の触覚センサ素子からなる。触覚センサ素子としては、人または物が接触したことを検出することができる種々の触角センサを用いることができる。   A touch sensor 33 is provided along the element display surface 31a. The touch sensor 33 is composed of, for example, a tactile sensor array. The tactile sensor array includes a plurality of tactile sensor elements arranged in a matrix. As the tactile sensor element, various tactile sensors that can detect contact of a person or an object can be used.

本実施の形態では、タッチセンサ33は、レンズアレイのレンズ間に埋め込まれた複数の触覚センサ素子により構成される。例えば、触覚センサ素子としては、圧電効果による電圧変化を検出する圧電素子(ピエゾ素子)、歪を検出する歪ゲージ、静電容量の変化を検出する可変容量素子を用いることができる。また、指により遮光される光を検出するフォトダイオード等の光検出素子、温度変化を検出する熱検出素子等を用いることもできる。   In the present embodiment, the touch sensor 33 is composed of a plurality of tactile sensor elements embedded between the lenses of the lens array. For example, as the tactile sensor element, a piezoelectric element (piezo element) that detects a voltage change due to the piezoelectric effect, a strain gauge that detects strain, and a variable capacitance element that detects a change in capacitance can be used. It is also possible to use a light detection element such as a photodiode that detects light blocked by a finger, a heat detection element that detects a temperature change, or the like.

また、タッチセンサ33として、触覚センサアレイの代わりに、シート状の透明の触覚センサを用いてもよい。その場合、透明の触覚センサは光線制御子31dに重ねて配置される。例えば、触覚センサ素子としては、光ファイバへの通光状態の変化を検出するシート状光検出素子、接触部位の静電容量の変化を検出するシート状可変容量素子、または電極間の通電状態により接触を検出する導電シート等を用いることができる。   Further, as the touch sensor 33, a sheet-like transparent touch sensor may be used instead of the touch sensor array. In that case, the transparent tactile sensor is disposed so as to overlap the light beam controller 31d. For example, as a tactile sensor element, a sheet-like light detection element that detects a change in a light transmission state to an optical fiber, a sheet-like variable capacitance element that detects a change in capacitance at a contact portion, or a state of conduction between electrodes. A conductive sheet or the like that detects contact can be used.

本実施の形態では、タッチセンサ33は、使用者Mが要素表示面31aに触れたときに検出信号を出力する。光線制御子31dおよびタッチセンサ33は、例えば透明の樹脂からなる透明外皮層31e内に埋め込まれる。   In the present embodiment, the touch sensor 33 outputs a detection signal when the user M touches the element display surface 31a. The light beam controller 31d and the touch sensor 33 are embedded in a transparent outer skin layer 31e made of, for example, a transparent resin.

(5)立体映像データの作成方法
立体ディスプレイ30に立体映像31bを表示するための立体映像データの作成方法について説明する。図6は立体映像31bを表示するための立体映像データの作成方法を説明するための図である。図6においては、タッチセンサ33の図示が省略されている。
(5) Method for Creating Stereoscopic Video Data A method for creating stereoscopic video data for displaying the stereoscopic video 31b on the stereoscopic display 30 will be described. FIG. 6 is a diagram for explaining a method of creating stereoscopic video data for displaying the stereoscopic video 31b. In FIG. 6, the illustration of the touch sensor 33 is omitted.

要素表示面31aの内側の仮想空間S内に視覚されるべき立体形状31gを定義する。この立体形状31gは形状データにより表される。立体形状31gの表面の任意の点において、任意の方向へ向かう光線を考える。要素表示面31aと立体形状31gとの間の位置関係は形状データの定義により一意に求まる。   A solid shape 31g to be visualized in the virtual space S inside the element display surface 31a is defined. This three-dimensional shape 31g is represented by shape data. Consider a light ray traveling in an arbitrary direction at an arbitrary point on the surface of the three-dimensional shape 31g. The positional relationship between the element display surface 31a and the three-dimensional shape 31g is uniquely determined by the definition of shape data.

各光線が要素表示面31aと交差する際の交点の位置(座標)、光線と要素表示面31aとの角度、および色を求める。また、各光線がどの要素表示面31aのどの位置で交差するかを求める。最終的に、光線制御子31dにより上記の角度の方向へ向かう光線を再現するように、空間光変調器31cの各画素に交点の色を表示するための立体映像データを作成する。   The position (coordinates) of the intersection when each light ray intersects the element display surface 31a, the angle between the light ray and the element display surface 31a, and the color are obtained. Further, it is determined at which position of which element display surface 31a each light ray intersects. Finally, stereoscopic image data for displaying the color of the intersection point on each pixel of the spatial light modulator 31c is created so as to reproduce the light beam traveling in the direction of the angle by the light beam controller 31d.

理想的には、立体形状31gの全表面から全方向に向かう光線について上記の交点の位置、角度および色を求め、各要素表示面31aに表示すべき映像を表す立体映像データを作成する。実際には、立体表示面31で囲まれる仮想空間Sを複数のボクセルに離散化するとともに、各ボクセルから発せられる光線の方向を離散化する。本実施の形態では、各ボクセルから発せられる光線の方向は、光線制御子31dにより離散化された方向に制御される。   Ideally, the position, angle, and color of the above intersection are obtained for the light rays traveling in all directions from the entire surface of the three-dimensional shape 31g, and three-dimensional image data representing the image to be displayed on each element display surface 31a is created. Actually, the virtual space S surrounded by the stereoscopic display surface 31 is discretized into a plurality of voxels, and the directions of the light rays emitted from the respective voxels are discretized. In the present embodiment, the direction of the light beam emitted from each voxel is controlled to a discretized direction by the light beam controller 31d.

要素表示面31aの内側の仮想空間Sの1つのボクセルが立体形状31gの一部であれば、そのボクセルから離散化された方向に向かう光線を求める。このようにして、立体形状31gの表面上の複数のボクセルの各々から離散化された複数の方向に向かう光線と要素表示面31aとの交点を求めるとともに、光線と要素表示面31aとの角度、およびボクセルの色を求め、それらの交点、角度および色に基づいて立体映像データを作成する。   If one voxel in the virtual space S inside the element display surface 31a is a part of the three-dimensional shape 31g, a light ray traveling in a discretized direction from the voxel is obtained. In this way, the intersections between the light beams traveling in a plurality of directions discretized from each of the plurality of voxels on the surface of the three-dimensional shape 31g and the element display surface 31a are obtained, and the angle between the light beam and the element display surface 31a, Then, voxel colors are obtained, and stereoscopic video data is created based on their intersections, angles, and colors.

例えば、図6に示すように、立体形状31gの表面上の1つのボクセルb1から発せられる光線は、光線制御子31dのレンズLにより点線の矢印の方向に向かうように制御される。これらの光線と要素表示面31aとの交点の画素にボクセルb1の色を表示させるように立体映像データを作成する。   For example, as shown in FIG. 6, the light emitted from one voxel b1 on the surface of the three-dimensional shape 31g is controlled by the lens L of the light controller 31d so as to be directed in the direction of the dotted arrow. Stereoscopic image data is created so that the color of the voxel b1 is displayed at the pixel at the intersection of these rays and the element display surface 31a.

また、立体形状31gの表面上の他のボクセルb2から発せられる光線は、光線制御子31dのレンズLにより実線の矢印の方向に向かうように制御される。これらの光線と要素表示面31aとの交点の画素にボクセルb2の色を表示させるように立体映像データを作成する。   In addition, light rays emitted from the other voxel b2 on the surface of the three-dimensional shape 31g are controlled by the lens L of the light ray controller 31d so as to be directed in the direction of the solid arrow. Stereoscopic image data is created so that the color of the voxel b2 is displayed at the pixel at the intersection of these rays and the element display surface 31a.

上記の説明は、理解を容易にするために行ったが、実際には、光線制御子31dの各レンズLと空間光変調器31cの画素数との関係により再現可能な光線が制限されるため、上記の説明とは逆のアルゴリズムが用いられる。すなわち、光線制御子31dの各レンズLにより再現可能な光線を空間光変調器31cの画素を経由して逆に辿り、表示すべき立体形状31gとの交点のボクセルの色を求め、その色を画素に表示させる色と決定する。   The above description has been made to facilitate understanding, but in practice, the reproducible light beam is limited by the relationship between each lens L of the light beam controller 31d and the number of pixels of the spatial light modulator 31c. The reverse algorithm to that described above is used. In other words, the light beam reproducible by each lens L of the light beam controller 31d is traced back through the pixels of the spatial light modulator 31c to obtain the color of the voxel at the intersection with the three-dimensional shape 31g to be displayed. The color to be displayed on the pixel is determined.

光線制御子31dのレンズLにより再現可能な一本の光線が立体形状31gの複数のボクセルと交差する場合には、より要素表示面31aに近いボクセルの色が画素に表示すべき色と決定される。使用者から見て奥に位置する点は手前に位置する点により隠されるからである。例えば、図6に示すように、光線制御子31dのレンズLにより再現可能な一本の光線が立体形状31gの複数のボクセルb2,b3と交差する場合には、より要素表示面31aに近いボクセルb3の色を画素に表示すべき色と決定する。   When one light beam reproducible by the lens L of the light beam controller 31d intersects with a plurality of voxels of the three-dimensional shape 31g, the color of the voxel closer to the element display surface 31a is determined as the color to be displayed on the pixel. The This is because the point located in the back as viewed from the user is hidden by the point located in front. For example, as shown in FIG. 6, when one light beam reproducible by the lens L of the light beam controller 31d intersects a plurality of voxels b2 and b3 of the three-dimensional shape 31g, the voxel closer to the element display surface 31a. The color of b3 is determined as the color to be displayed on the pixel.

このようにして、立体形状31gの表面上の各ボクセルの色を立体表示面31の複数の画素に表示させるための立体映像データが作成される。立体映像データに基づいて空間光変調器31cの複数の画素に映像を表示させることにより、結果的に立体形状31gからの光線が再現される。   In this way, stereoscopic video data for displaying the color of each voxel on the surface of the stereoscopic shape 31g on a plurality of pixels on the stereoscopic display surface 31 is created. By displaying an image on a plurality of pixels of the spatial light modulator 31c based on the stereoscopic image data, as a result, light rays from the stereoscopic shape 31g are reproduced.

図7は立体映像データに基づいて立体ディスプレイ30の空間光変調器31cに表示される映像を説明するための図である。   FIG. 7 is a diagram for explaining an image displayed on the spatial light modulator 31c of the stereoscopic display 30 based on the stereoscopic image data.

例えば、観察点V1から立体形状を見た場合の映像が空間光変調器31cの画素“A”に表示される。また、観察点V2から立体形状を見た場合の映像が空間光変調器31cの画素“B”に表示される。それにより、使用者は眼を観察点V1から観察点V2に移動させた場合に、立体形状を異なる角度から見ることができる。   For example, an image when the stereoscopic shape is viewed from the observation point V1 is displayed on the pixel “A” of the spatial light modulator 31c. Further, an image when the stereoscopic shape is viewed from the observation point V2 is displayed on the pixel “B” of the spatial light modulator 31c. Thereby, the user can see the three-dimensional shape from different angles when the eye is moved from the observation point V1 to the observation point V2.

(6)映像表示システムの動作
次に、本実施の形態に係る映像表示システム100の動作について説明する。図8は制御装置10の主制御部11の動作を示すフローチャートである。また、図9は映像表示システム100の動作の説明図である。
(6) Operation of Video Display System Next, the operation of the video display system 100 according to the present embodiment will be described. FIG. 8 is a flowchart showing the operation of the main control unit 11 of the control device 10. FIG. 9 is an explanatory diagram of the operation of the video display system 100.

制御装置10の主制御部11は、メモリ13に記憶された映像表示プログラムに従って映像表示処理を実行する。   The main control unit 11 of the control device 10 executes video display processing according to the video display program stored in the memory 13.

まず、主制御部11は、図2の立体ディスプレイ30から送信されるタッチセンサ33の検出信号に基づいて立体ディスプレイ30が使用者Mにより把持されたか否かを判定する(ステップS1)。   First, the main control unit 11 determines whether or not the stereoscopic display 30 is gripped by the user M based on the detection signal of the touch sensor 33 transmitted from the stereoscopic display 30 of FIG. 2 (step S1).

図9(a)に示されるように、立体ディスプレイ30が使用者Mにより把持された場合には、主制御部11は、観測装置41,42により得られる画像に基づいて、立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近したか否かを判定する(ステップS2)。   As shown in FIG. 9A, when the stereoscopic display 30 is held by the user M, the main control unit 11 determines that the stereoscopic display 30 is flat based on the images obtained by the observation devices 41 and 42. It is determined whether or not the vehicle has approached a predetermined range in front of the display 20 (step S2).

図9(b)に示されるように、使用者Mにより把持された立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近した場合には、主制御部11は、平面ディスプレイ20の画面に表示された平面映像の指定操作が行われたか否かを判定する(ステップS3)。ここで、指定操作とは、使用者Mが立体ディスプレイ30を用いて平面ディスプレイ20の画面に表示された平面映像の所望の部分を指定する操作をいう。指定操作は、例えば、平面ディスプレイ20の画面に表示された平面映像の一部を囲むように立体ディスプレイ30を動かす操作である。   As shown in FIG. 9B, when the three-dimensional display 30 held by the user M approaches within a predetermined range in front of the flat display 20, the main control unit 11 displays the screen of the flat display 20. It is determined whether or not an operation for specifying the displayed plane image has been performed (step S3). Here, the designation operation refers to an operation in which the user M designates a desired portion of the planar image displayed on the screen of the planar display 20 using the stereoscopic display 30. The designation operation is, for example, an operation of moving the three-dimensional display 30 so as to surround a part of the planar image displayed on the screen of the planar display 20.

図9(c)に示されるように、使用者Mにより平面映像の指定操作が行われた場合には、主制御部11は、観測装置41,42により得られる画像に基づいて、平面ディスプレイ20の画面に表示された平面映像の指定部分を判別する(ステップS4)。この場合、主制御部11は、観測装置41,42により得られる画像に基づいて立体ディスプレイ30の移動経路を認識するとともに、形状データ記憶部12に記憶された形状データに基づいて立体ディスプレイ30の移動時に平面ディスプレイ20に表示されている平面映像を認識し、立体ディスプレイ30の移動経路と平面映像との位置関係に基づいて平面映像の指定部分を判別する。図9(c)の例では、平面映像の矢印で囲まれた部分が指定部分となる。   As shown in FIG. 9 (c), when the user M performs a plane video designation operation, the main control unit 11 performs the flat display 20 based on the images obtained by the observation devices 41 and 42. The designated portion of the plane image displayed on the screen is determined (step S4). In this case, the main control unit 11 recognizes the movement path of the three-dimensional display 30 based on the images obtained by the observation devices 41 and 42, and the three-dimensional display 30 based on the shape data stored in the shape data storage unit 12. The plane image displayed on the plane display 20 is recognized during movement, and the designated portion of the plane image is determined based on the positional relationship between the moving path of the stereoscopic display 30 and the plane image. In the example of FIG. 9C, the portion surrounded by the arrow in the planar image is the designated portion.

次いで、主制御部11は、形状データ記憶部12から指定部分に対応する形状データを取得し、取得した形状データを立体表示制御部32に送信する(ステップS5)。これにより、立体ディスプレイ30の立体表示制御部32は、受信した形状データを立体映像データに変換し、その立体映像データに基づく立体映像を立体表示面31に表示させる。このようにして、使用者Mは、平面ディスプレイ20に表示された平面映像の指定部分を立体ディスプレイ30に取得することができる。   Next, the main control unit 11 acquires shape data corresponding to the designated portion from the shape data storage unit 12, and transmits the acquired shape data to the stereoscopic display control unit 32 (step S5). Thereby, the stereoscopic display control unit 32 of the stereoscopic display 30 converts the received shape data into stereoscopic video data, and displays the stereoscopic video based on the stereoscopic video data on the stereoscopic display surface 31. In this way, the user M can acquire the designated portion of the flat image displayed on the flat display 20 in the stereoscopic display 30.

主制御部11が平面ディスプレイ20に表示された平面映像の指定部分を削除する場合には、平面ディスプレイ20に表示された平面映像の指定部分が立体ディスプレイ30に立体映像として移動する。また、主制御部11が平面ディスプレイ20に表示された平面映像の指定部分を削除しない場合には、平面ディスプレイ20に表示された平面映像の指定部分が立体ディスプレイ30に立体映像として複写される。図9(d)の例では、平面ディスプレイ20に表示された平面映像の指定部分が立体ディスプレイ30に立体映像として移動している。   When the main control unit 11 deletes the designated portion of the planar video displayed on the flat display 20, the designated portion of the planar video displayed on the flat display 20 moves to the stereoscopic display 30 as a stereoscopic video. In addition, when the main control unit 11 does not delete the designated portion of the planar video displayed on the flat display 20, the designated portion of the planar video displayed on the flat display 20 is copied to the stereoscopic display 30 as a stereoscopic video. In the example of FIG. 9D, the designated portion of the planar image displayed on the planar display 20 is moved to the stereoscopic display 30 as a stereoscopic image.

なお、平面ディスプレイ20に表示される平面映像の指定部分を立体ディスプレイ30に移動するかまたは複写するかは、制御装置10に予め設定することができる。あるいは、使用者Mが立体ディスプレイ30による指定操作の前に立体ディスプレイ30を予め定められた方法で動かすことにより指定部分の移動または複写が選択されてもよい。   It should be noted that whether to move or copy the designated portion of the planar video displayed on the planar display 20 to the stereoscopic display 30 can be preset in the control device 10. Alternatively, the user M may select to move or copy the designated portion by moving the stereoscopic display 30 by a predetermined method before the designation operation by the stereoscopic display 30.

ステップS1で立体ディスプレイ30が把持されていない場合、ステップS2で立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近していない場合、およびステップS3で平面映像の指定操作が行われていない場合には、主制御部11は、ステップS1の処理に戻る。   If the 3D display 30 is not gripped in step S1, the 3D display 30 is not approaching within a predetermined range in front of the flat display 20 in step S2, and the flat image designation operation is not performed in step S3. In this case, the main control unit 11 returns to the process of step S1.

(7)本実施の形態の効果
上記のように、本実施の形態に係る映像表示システム100によれば、使用者が立体ディスプレイ30を把持して平面ディスプレイ20に接近し、立体ディスプレイ30を用いて平面画像の部分を指定することにより、立体ディスプレイ30に指定部分の立体映像が表示される。したがって、使用者は、複雑な操作を行うことなく、直感的な操作により、平面ディスプレイ20に表示された平面映像の所望の部分を立体映像として立体ディスプレイ30に容易に取得することができる。それにより、使用者は、平面映像の所望の部分に対応する立体映像を任意の方向から詳細に観察することができる。
(7) Effects of the Embodiment As described above, according to the video display system 100 according to the present embodiment, the user grasps the stereoscopic display 30 and approaches the flat display 20, and uses the stereoscopic display 30. By designating the portion of the planar image, the designated portion of the stereoscopic video is displayed on the stereoscopic display 30. Therefore, the user can easily obtain a desired portion of the flat image displayed on the flat display 20 as a three-dimensional image on the three-dimensional display 30 by an intuitive operation without performing a complicated operation. Thereby, the user can observe the stereoscopic image corresponding to the desired portion of the planar image in detail from an arbitrary direction.

(8)他の実施の形態
(a)図10は平面ディスプレイ20の構成の他の例を示すブロック図である。上記実施の形態では、立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近したことを検出するために赤外線素子23,24,34および観測装置41,42が用いられるが、これに限定されない。例えば、図10に示すように、平面ディスプレイ20がタッチセンサ26および近接センサ27の少なくとも一方を備えてもよい。
(8) Other Embodiments (a) FIG. 10 is a block diagram showing another example of the configuration of the flat display 20. In the above embodiment, the infrared elements 23, 24, 34 and the observation devices 41, 42 are used to detect that the three-dimensional display 30 has approached a predetermined range in front of the flat display 20. However, the present invention is not limited to this. . For example, as shown in FIG. 10, the flat display 20 may include at least one of a touch sensor 26 and a proximity sensor 27.

タッチセンサ26は、立体ディスプレイ30が平面ディスプレイ20に接触すると、検出信号を出力する。平面表示制御部22は、タッチセンサ26から出力される検出信号を入出力回路25を介して図2の制御装置10に送信する。これにより、制御装置10は立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近したことを判別する。   The touch sensor 26 outputs a detection signal when the stereoscopic display 30 contacts the flat display 20. The flat display control unit 22 transmits a detection signal output from the touch sensor 26 to the control device 10 in FIG. 2 via the input / output circuit 25. As a result, the control device 10 determines that the three-dimensional display 30 has approached a predetermined range in front of the flat display 20.

また、近接センサ27は、立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近すると、検出信号を出力する。平面表示制御部22は、近接センサ27から出力される検出信号を入出力回路25を介して図2の制御装置10に送信する。これにより、制御装置10は立体ディスプレイ30が平面ディスプレイ20の前方の所定範囲内に接近したことを判別する。   The proximity sensor 27 outputs a detection signal when the three-dimensional display 30 approaches a predetermined range in front of the flat display 20. The flat display control unit 22 transmits a detection signal output from the proximity sensor 27 to the control device 10 of FIG. As a result, the control device 10 determines that the three-dimensional display 30 has approached a predetermined range in front of the flat display 20.

(b)上記実施の形態では、観測装置41,42として、赤外線を検出可能なカメラが用いられるが、カメラに代えて赤外線センサ、磁気センサ、または超音波センサを用いてもよい。磁気センサによる三次元位置計測装置については、例えばポルヘムス(Polhemus)社三次元磁気センサ(http://www.kbk.co.jp/cesd/polhemus.htm)を用いることができる。超音波センサによる三次元位置計測装置については、例えばインターセンス(Intersense)社超音波動作追跡システム(http://www.intersense.com/uploadedFiles/Products/IS900.pdf)を用いることができる。   (B) Although the camera which can detect infrared rays is used as the observation devices 41 and 42 in the above embodiment, an infrared sensor, a magnetic sensor, or an ultrasonic sensor may be used instead of the camera. As a three-dimensional position measuring apparatus using a magnetic sensor, for example, a three-dimensional magnetic sensor (http://www.kbk.co.jp/cesd/polhemus.htm) manufactured by Polhemus can be used. For a three-dimensional position measurement apparatus using an ultrasonic sensor, for example, Intersense's ultrasonic motion tracking system (http://www.intersense.com/uploadedFiles/Products/IS900.pdf) can be used.

また、映像表示システム100が、大画面を有する平面ディスプレイ20および持ち運び可能な立体ディスプレイ30を含むが、これに限定されない。例えば、平面ディスプレイ20の代わりに立体ディスプレイを用いてもよい。また、立体ディスプレイ30の代わりに持ち運び可能な平面ディスプレイを用いてもよい。これらの場合、平面映像または立体映像の指定部分を平面映像または立体映像として取得することができる。   Further, the video display system 100 includes the flat display 20 having a large screen and the portable stereoscopic display 30, but is not limited thereto. For example, a three-dimensional display may be used instead of the flat display 20. Further, a portable flat display may be used instead of the stereoscopic display 30. In these cases, the designated portion of the planar video or stereoscopic video can be acquired as the planar video or stereoscopic video.

(9)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(9) Correspondence between each component of claim and each part of embodiment The following describes an example of the correspondence between each component of the claim and each part of the embodiment. It is not limited.

上記実施の形態においては、平面ディスプレイ20が第1の映像表示装置の例であり、立体ディスプレイ30が第2の映像表示装置の例であり、タッチセンサ33が把持検出手段または第2の接触検出手段の例であり、赤外線素子23,24,34および観測装置41,42が接近検出手段の例であり、タッチセンサ26が接近検出手段の他の例であり、近接センサ27が接近検出手段のさらに他の例である。赤外線素子23,24,34および観測装置41,42が指定操作検出手段、位置検出手段または共通の位置検出手段の例であり、制御装置10が制御手段の例であり、赤外線素子23,24が第1の被撮像部の例であり、赤外線素子34が第2の被撮像部の例である。観測装置41,42が複数の撮像手段の例であり、タッチセンサ26が第1の接触検出手段の例であり、近接センサ27が近接検出手段の例であり、形状データ記憶部12が記憶部の例である。   In the embodiment described above, the flat display 20 is an example of the first video display device, the stereoscopic display 30 is an example of the second video display device, and the touch sensor 33 is the grip detection means or the second contact detection. Infrared elements 23, 24 and 34 and observation devices 41 and 42 are examples of approach detecting means, touch sensor 26 is another example of approach detecting means, and proximity sensor 27 is an approach detecting means. Yet another example. The infrared elements 23, 24 and 34 and the observation devices 41 and 42 are examples of designated operation detection means, position detection means or common position detection means, the control device 10 is an example of control means, and the infrared elements 23 and 24 are It is an example of a 1st imaged part, and the infrared element 34 is an example of a 2nd imaged part. The observation devices 41 and 42 are examples of a plurality of imaging units, the touch sensor 26 is an example of a first contact detection unit, the proximity sensor 27 is an example of a proximity detection unit, and the shape data storage unit 12 is a storage unit. It is an example.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

(10)応用例
(a)遠隔地間で開催される会議において、平面ディスプレイ20の画面に表示された複数の製品の平面映像のうち所望の製品の部分を、出席者の手元にある立体ディスプレイ30に立体映像として表示させ、多角的な視点から検討することができる。
(10) Application Examples (a) In a conference held between remote locations, a desired product portion of a plurality of product flat images displayed on the screen of the flat display 20 is displayed on the attendee's hand. 30 can be displayed as a stereoscopic image, and can be examined from various viewpoints.

(b)インターネットを利用したショッピングにおいて、平面ディスプレイ20の画面上に表示された複数の商品の平面映像のうち所望の商品の部分を、使用者の手元にある立体ディスプレイ30に立体映像として表示させ、任意の角度から商品の細部について確認することができる。   (B) In shopping using the Internet, a desired product portion of a plurality of product planar images displayed on the screen of the flat display 20 is displayed as a three-dimensional image on the three-dimensional display 30 at hand of the user. You can check the details of the product from any angle.

(c)日常生活において、平面ディスプレイ20に表示されるテレビ番組の平面映像のうち所望の部分を、使用者の手元にある立体ディスプレイ30に取得し、立体映像として視聴することができる。   (C) In daily life, a desired portion of the flat image of the television program displayed on the flat display 20 can be acquired on the three-dimensional display 30 at the user's hand and viewed as a three-dimensional image.

本発明は、種々の映像を表示するため等に有効に利用することができる。   The present invention can be effectively used for displaying various videos.

10 制御装置
11 主制御部
12 形状データ記憶部
13 メモリ
14,25 入出力回路
15,35 通信部
20 平面ディスプレイ
21 表示部
22 平面表示制御部
23,24,34 赤外線素子
26,33 タッチセンサ
27 近接センサ
30 立体ディスプレイ
31 立体表示面
31a 要素表示面
31b 立体映像
31c 空間光変調器
31d 光線制御子
31e 透明外皮層
31f 遮光部材
31g 立体形状
32 立体表示制御部
41,42 観測装置
100 映像表示システム
b1,b2,b3 ボクセル
C1,C2 観測中心点
L レンズ
L1,L2 直線
M 使用者
Pa,Pb,Pc,Pd 画素
S 仮想空間
V1,V2 観察点
VP1,VP2 仮想平面
DESCRIPTION OF SYMBOLS 10 Control apparatus 11 Main control part 12 Shape data memory | storage part 13 Memory 14,25 Input / output circuit 15,35 Communication part 20 Planar display 21 Display part 22 Planar display control part 23,24,34 Infrared element 26,33 Touch sensor 27 Proximity Sensor 30 3D display 31 3D display surface 31a Element display surface 31b 3D image 31c Spatial light modulator 31d Light controller 31e Transparent skin layer 31f Light shielding member 31g 3D shape 32 3D display control unit 41, 42 Observation device 100 Video display system b1, b2, b3 voxels C1, C2 observation center point L lens L1, L2 straight line M user Pa, Pb, Pc, Pd pixel S virtual space V1, V2 observation point VP1, VP2 virtual plane

Claims (10)

映像を表示する第1の映像表示装置と、
映像を表示する第2の映像表示装置と、
使用者が前記第2の映像表示装置を把持したことを検出する把持検出手段と、
前記第2の映像表示装置が前記第1の映像表示装置の所定範囲内に接近したことを検出する接近検出手段と、
使用者が前記第1の映像表示装置に表示された映像の部分を指定する操作を行ったことを検出する指定操作検出手段と、
前記接近検出手段により前記第2の映像表示装置が前記第1の映像表示装置の前記所定範囲内に接近したことが検出された場合に、前記指定操作検出手段により検出された操作に基づいて使用者により指定された映像の部分を判別し、前記指定された映像の部分を表示するように前記第2の映像表示装置を制御する制御手段とを備えたことを特徴とする映像表示システム。
A first video display device for displaying video;
A second video display device for displaying video;
Grip detection means for detecting that the user grips the second video display device;
An approach detection means for detecting that the second video display device approaches a predetermined range of the first video display device;
Designation operation detecting means for detecting that a user has performed an operation of designating a portion of the video displayed on the first video display device;
Used based on the operation detected by the designated operation detecting means when the approach detecting means detects that the second video display apparatus has approached the predetermined range of the first video display apparatus A video display system comprising: control means for discriminating a video portion designated by a person and controlling the second video display device to display the designated video portion.
前記指定操作検出手段は、前記第1の映像表示装置に対する第2の映像表示装置の位置を検出する位置検出手段を含み、
前記制御手段は、前記位置検出手段により検出された位置に基づいて使用者により指定された映像の部分を判別することを特徴とする請求項1記載の映像表示システム。
The designation operation detection means includes position detection means for detecting a position of the second video display device with respect to the first video display device,
The video display system according to claim 1, wherein the control unit discriminates a video portion designated by a user based on the position detected by the position detection unit.
前記位置検出手段は、
前記第1の映像表示装置に設けられた第1の被撮像部と、
前記第2の映像表示装置に設けられた第2の被撮像部と、
異なる位置から前記第1の被撮像部および第2の被撮像部を撮像する複数の撮像手段とを含み、
前記制御手段は、前記複数の撮像手段により得られる画像に基づいて使用者により指定された映像の部分を判別することを特徴とする請求項2記載の映像表示システム。
The position detecting means includes
A first image pickup unit provided in the first video display device;
A second image pickup unit provided in the second video display device;
A plurality of imaging means for imaging the first image-capturing unit and the second image-capturing unit from different positions;
The video display system according to claim 2, wherein the control unit discriminates a video portion designated by a user based on images obtained by the plurality of imaging units.
前記接近検出手段は、前記指定操作検出手段の前記位置検出手段と共通の位置検出手段を含み、前記共通の位置検出手段により検出された位置に基づいて前記第2の映像表示装置が前記第1の映像表示装置の前記所定範囲内に接近したことを検出することを特徴とする請求項2または3記載の映像表示システム。 The approach detection means includes a position detection means common to the position detection means of the designation operation detection means, and the second video display device is based on the position detected by the common position detection means. 4. The video display system according to claim 2, wherein it is detected that the video display device approaches the predetermined range. 前記接近検出手段は、
前記第1の映像表示装置に設けられ、前記第2の映像表示装置の接触を検出する第1の接触検出手段を含むことを特徴とする請求項1〜4のいずれかに記載の映像表示システム。
The approach detection means includes
5. The video display system according to claim 1, further comprising a first contact detection unit that is provided in the first video display device and detects a contact of the second video display device. 6. .
前記接近検出手段は、
前記第1の映像表示装置に設けられ、前記第2の映像表示装置の近接を検出する近接検出手段を含むことを特徴とする請求項1〜5のいずれかに記載の映像表示システム。
The approach detection means includes
6. The video display system according to claim 1, further comprising proximity detection means provided in the first video display device and detecting proximity of the second video display device.
前記把持検出手段は、
前記第2の映像表示装置に設けられ、使用者の身体が接触したことを検出する第2の接触検出手段を含むことを特徴とする請求項1〜6のいずれかに記載の映像表示システム。
The grip detection means includes
The video display system according to claim 1, further comprising a second contact detection unit provided in the second video display device and configured to detect that a user's body has come into contact.
前記制御手段は、
映像を表示するためのデータを記憶する記憶部と、
前記記憶部に記憶されたデータを前記第1の映像表示装置に与え、使用者により指定された映像の部分に対応するデータを前記記憶部から取得し、取得したデータを前記第2の映像表示装置に与える主制御部とを含み、
前記第1の映像表示装置は、前記主制御部から与えられるデータに基づいて映像を表示し、
前記第2の映像表示装置は、前記主制御部から与えられるデータに基づいて使用者により指定された映像の部分を表示することを特徴とする請求項1〜7のいずれかに記載の映像表示システム。
The control means includes
A storage unit for storing data for displaying video;
Data stored in the storage unit is provided to the first video display device, data corresponding to a video portion designated by a user is acquired from the storage unit, and the acquired data is displayed in the second video display. A main control unit for the device,
The first video display device displays a video based on data given from the main control unit,
The video display according to any one of claims 1 to 7, wherein the second video display device displays a video portion designated by a user based on data given from the main control unit. system.
前記第2の映像表示装置は、前記指定された映像の部分を立体映像として表示することを特徴とする請求項1〜8のいずれかに記載の映像表示システム。 The video display system according to claim 1, wherein the second video display device displays a part of the specified video as a stereoscopic video. 第1の映像表示装置に映像を表示するステップと、
使用者が第2の映像表示装置を把持したことを検出するステップと、
前記第2の映像表示装置が前記第1の映像表示装置の所定範囲内に接近したことを検出するステップと、
使用者が前記第1の映像表示装置に表示された映像の部分を指定する操作を行ったことを検出するステップと、
前記第2の映像表示装置が前記第1の映像表示装置の前記所定範囲内に接近したことが検出された場合に、検出された操作に基づいて使用者により指定された映像の部分を判別し、前記指定された映像の部分を表示するように前記第2の映像表示装置を制御するステップとを備えたことを特徴とする映像表示方法。
Displaying a video on the first video display device;
Detecting that the user has gripped the second video display device;
Detecting that the second video display device approaches a predetermined range of the first video display device;
Detecting that a user has performed an operation of designating a portion of a video displayed on the first video display device;
When it is detected that the second video display device approaches the predetermined range of the first video display device, a portion of the video designated by the user is determined based on the detected operation. And a step of controlling the second video display device to display the designated video portion.
JP2009129669A 2009-05-28 2009-05-28 Video display system and video display method Expired - Fee Related JP5366137B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009129669A JP5366137B2 (en) 2009-05-28 2009-05-28 Video display system and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009129669A JP5366137B2 (en) 2009-05-28 2009-05-28 Video display system and video display method

Publications (2)

Publication Number Publication Date
JP2010277372A true JP2010277372A (en) 2010-12-09
JP5366137B2 JP5366137B2 (en) 2013-12-11

Family

ID=43424270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009129669A Expired - Fee Related JP5366137B2 (en) 2009-05-28 2009-05-28 Video display system and video display method

Country Status (1)

Country Link
JP (1) JP5366137B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004226A (en) * 2009-06-19 2011-01-06 National Institute Of Information & Communication Technology Data exchange system and method
JP2013137486A (en) * 2011-03-11 2013-07-11 Semiconductor Energy Lab Co Ltd Display device and method for driving the same
JP2015513232A (en) * 2012-01-03 2015-04-30 コン, リャンKONG, Liang 3D display system
US9135845B2 (en) 2012-02-21 2015-09-15 Samsung Display Co., Ltd. Display apparatus including barrier panel and touch sensing part
JP2018152748A (en) * 2017-03-14 2018-09-27 株式会社リコー Imaging/display device of stereoscopic image and head mount device
JP2021048459A (en) * 2019-09-17 2021-03-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
WO2023112617A1 (en) * 2021-12-14 2023-06-22 マクセル株式会社 Aerial floating image display system
JP2023087963A (en) * 2021-12-14 2023-06-26 マクセル株式会社 Spatial-suspended video information display system and optical system used therefor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0279175A (en) * 1988-09-16 1990-03-19 Hitachi Ltd Image data processing system
JPH11259353A (en) * 1998-03-10 1999-09-24 Omron Corp Information operating device, information processor, and its method, and storage medium for recording information processing program
JP2001136504A (en) * 1999-11-08 2001-05-18 Sony Corp System and method for information input and output
JP2002204239A (en) * 2000-10-24 2002-07-19 Sony Corp Device and method for information processing, electronic equipment, information processing system, and recording medium
JP2003177864A (en) * 2001-12-13 2003-06-27 Fuji Photo Film Co Ltd Information terminal system
JP2005100050A (en) * 2003-09-24 2005-04-14 Fuji Xerox Co Ltd Information display system and method
JP2009092786A (en) * 2007-10-05 2009-04-30 National Institute Of Information & Communication Technology 3D display system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0279175A (en) * 1988-09-16 1990-03-19 Hitachi Ltd Image data processing system
JPH11259353A (en) * 1998-03-10 1999-09-24 Omron Corp Information operating device, information processor, and its method, and storage medium for recording information processing program
JP2001136504A (en) * 1999-11-08 2001-05-18 Sony Corp System and method for information input and output
JP2002204239A (en) * 2000-10-24 2002-07-19 Sony Corp Device and method for information processing, electronic equipment, information processing system, and recording medium
JP2003177864A (en) * 2001-12-13 2003-06-27 Fuji Photo Film Co Ltd Information terminal system
JP2005100050A (en) * 2003-09-24 2005-04-14 Fuji Xerox Co Ltd Information display system and method
JP2009092786A (en) * 2007-10-05 2009-04-30 National Institute Of Information & Communication Technology 3D display system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004226A (en) * 2009-06-19 2011-01-06 National Institute Of Information & Communication Technology Data exchange system and method
JP2013137486A (en) * 2011-03-11 2013-07-11 Semiconductor Energy Lab Co Ltd Display device and method for driving the same
US9558687B2 (en) 2011-03-11 2017-01-31 Semiconductor Energy Laboratory Co., Ltd. Display device and method for driving the same
US10218967B2 (en) 2011-03-11 2019-02-26 Semiconductor Energy Laboratory Co., Ltd. Display device and method for driving the same
JP2015513232A (en) * 2012-01-03 2015-04-30 コン, リャンKONG, Liang 3D display system
US9135845B2 (en) 2012-02-21 2015-09-15 Samsung Display Co., Ltd. Display apparatus including barrier panel and touch sensing part
JP2018152748A (en) * 2017-03-14 2018-09-27 株式会社リコー Imaging/display device of stereoscopic image and head mount device
JP2021048459A (en) * 2019-09-17 2021-03-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP7395296B2 (en) 2019-09-17 2023-12-11 キヤノン株式会社 Image processing device, image processing method, and program
WO2023112617A1 (en) * 2021-12-14 2023-06-22 マクセル株式会社 Aerial floating image display system
JP2023087963A (en) * 2021-12-14 2023-06-26 マクセル株式会社 Spatial-suspended video information display system and optical system used therefor

Also Published As

Publication number Publication date
JP5366137B2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
JP5366137B2 (en) Video display system and video display method
US11954268B2 (en) Augmented reality eyewear 3D painting
KR101074940B1 (en) Image system
JP5212991B2 (en) Aerial video interaction device and program thereof
JP5117418B2 (en) Information processing apparatus and information processing method
CN115735178A (en) Augmented reality eyewear with speech bubble and translation
CN115735150A (en) Augmented Reality Wearables and 3D Clothing
CN108304075A (en) A kind of method and apparatus carrying out human-computer interaction in augmented reality equipment
US12169968B2 (en) Augmented reality eyewear with mood sharing
CN115917465A (en) Visual inertial tracking using rolling shutter camera
US12260015B2 (en) Augmented reality with eyewear triggered IoT
US20250203061A1 (en) Augmented reality eyewear with x-ray effect
Yasugi et al. Development of aerial interface by integrating omnidirectional aerial display, motion tracking, and virtual reality space construction
JP2018112894A (en) System and control method
Sobota et al. Virtual reality technologies as an interface of cognitive communication and information systems
JP4845135B2 (en) 3D display system
JP5370962B2 (en) Data exchange system and data exchange method
CN119816802A (en) Selective collaborative object access
KR20230079156A (en) Image Capture Eyewear with Context-Based Transfer
JP5045917B2 (en) 3D display
US12315073B2 (en) Three-dimensional image display method and display device with three-dimensional image display function
Takahashi et al. A Perspective-Corrected Stylus Pen for 3D Interaction
Hong et al. Full-parallax 3D display from single-shot Kinect capture
CN119908008A (en) Aerial floating image display device
Qin et al. Compact and high resolution virtual mouse using lens array and light sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130904

R150 Certificate of patent or registration of utility model

Ref document number: 5366137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees