JP2016045814A - Virtual reality service providing system and virtual reality service providing method - Google Patents
Virtual reality service providing system and virtual reality service providing method Download PDFInfo
- Publication number
- JP2016045814A JP2016045814A JP2014171038A JP2014171038A JP2016045814A JP 2016045814 A JP2016045814 A JP 2016045814A JP 2014171038 A JP2014171038 A JP 2014171038A JP 2014171038 A JP2014171038 A JP 2014171038A JP 2016045814 A JP2016045814 A JP 2016045814A
- Authority
- JP
- Japan
- Prior art keywords
- virtual reality
- user
- unit
- service
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、仮想現実サービス提供システム、仮想現実サービス提供方法、仮想現実サービス提供サーバ、情報処理システム、情報処理方法、情報処理サーバ、情報処理プログラム、仮想現実提示装置、ヘッドマウントディスプレイ装置、仮想現実提示システム、仮想現実提示方法に関する。 The present invention relates to a virtual reality service providing system, a virtual reality service providing method, a virtual reality service providing server, an information processing system, an information processing method, an information processing server, an information processing program, a virtual reality presenting device, a head mounted display device, a virtual reality The present invention relates to a presentation system and a virtual reality presentation method.
近年、映像を表示するための装置として、テレビなど従来の据え置き型ディスプレイに加えて様々な電子デバイスが開発されており、携帯電話端末やタブレット端末、ヘッドマウントディスプレイ(HMD:Human Mounted Display)と言った電子デバイスが既に開発されている。 In recent years, various electronic devices have been developed as devices for displaying images in addition to conventional stationary displays such as televisions, and are referred to as mobile phone terminals, tablet terminals, and head mounted displays (HMDs). Electronic devices have already been developed.
先行文献1には、現実の風景にCG(Computer Graphics)を重ねてHMDで表示するための仮想現実感提示装置が開示されている。 Prior art document 1 discloses a virtual reality presentation device for displaying CG (Computer Graphics) on a real landscape in an HMD.
私達人間が生きる現実の世界は、物理的、社会的制約を受けている。例えば、質量のある物質は光速を超えることができないという物理的制約から惑星間旅行は実現が困難であるし、エネルギー保存の法則が支配すると言った物理的制約から生身の体で空を自由に飛び回ることはできない。 The real world where we live is subject to physical and social constraints. For example, it is difficult to realize interplanetary travel due to the physical restriction that a substance with mass cannot exceed the speed of light, and the physical body said that the law of conservation of energy governs the sky in the living body freely. I can't fly around.
また、物理的には可能な事象であっても、現実の人間社会に平穏と秩序を与えるために設定されている倫理規範や各種法律などにより、人間の行動は社会的な制約を受けている。このように、人間は自由を謳歌する立場でありながら、現実の世界では様々な制約を受ける条件的自由を享受しているに過ぎない。 Even if it is a physically possible event, human behavior is socially restricted by ethical norms and various laws set to give peace and order to real human society. . Thus, while human beings are in a position to enjoy freedom, in the real world they only enjoy conditional freedom subject to various restrictions.
現実の世界は様々な制約が課せられるが、人間が想像する世界はこれらの制約に縛られず、無限の自由度を有している。想像の世界では光速を超えることも、空を飛び回ることも可能である。世界中に散らばるクリエータはのうち、ある者は映画と言う形態で架空の世界を創り出し、ある者は小説や漫画、アニメーション、ゲームと言う形態で架空の世界を構築する。一般需要者は、映画を見たり小説を読んだりすることで、クリエータが創り出した架空の世界を自身の脳内に再構築し、その世界を疑似的に体験している。 The real world is subject to various restrictions, but the world imagined by human beings is not bound by these restrictions and has an infinite degree of freedom. In the imaginary world, it is possible to exceed the speed of light or fly around the sky. Among creators scattered all over the world, some create fictional worlds in the form of movies, and some build fictional worlds in the form of novels, comics, animations, and games. By watching movies and reading novels, general consumers reconstruct the fictional world created by creators in their brains and experience the world in a simulated manner.
映画や小説など、クリエータが創り出すこれらのコンテンツは、想像力溢れる世界を一般需要者が各々自身の脳内に構築できるようにするための補助材料と見ることができる。小説、映画、アニメ、漫画、ゲームと言った各コンテンツの違いは、各コンテンツに表される架空の世界をユーザが自ら脳内に構築するために用いられる表現形態の違いに他ならない。例えば、映画は、クリエータであるシナリオライタが想像した世界をそのまま表現する形態であるのに対し、小説は、クリエータである小説家が想像した世界を、消費者が自らの想像で補完する自由度を与えた表現形態であると言える。 These content created by creators, such as movies and novels, can be viewed as a supplementary material that allows general consumers to build a world full of imagination in their own brains. Differences in content such as novels, movies, anime, manga, and games are nothing but differences in the form of expression that users use to build the fictional world represented by each content in their brains. For example, a movie is a form that directly expresses the world imagined by the creator scenario writer, whereas a novel is a degree of freedom in which consumers can complement the world imagined by the creator novelist with their own imagination. It can be said that it is the expression form that gave.
各需要者は、自らが有する視覚や聴覚を介してこの補助材料にリンクし、クリエータが創り出した架空の世界を自身の脳内に再構築する。従って、例えば漫画を読み終えた後でも、その漫画で表される世界を需要者は脳内で想像することができ、唯一そのクリエータだけが無から構築した架空の世界と同一の世界の片鱗を、需要者も脳内に構築することができる。 Each consumer links to this auxiliary material through his own visual and auditory senses and reconstructs the fictional world created by the creator in his brain. Thus, for example, even after reading a comic, a consumer can imagine in the brain the world represented by that comic, and only the creator can see the same scale of the same world as the fictional world built from nothing. , Consumers can also build in the brain.
ここで、需要者は、現実の世界と、当該コンテンツを介して自身が脳内に創り出す想像の世界とを、明確に分離された2つの異なる世界であることを認識している。このことは、どれだけ既存のコンテンツが示す創り出された世界が現実的なものであったとしても変わることはない。 Here, the consumer recognizes that the real world and the imaginary world that he creates in his brain through the content are two different worlds that are clearly separated. This will not change no matter how realistic the world created by existing content is.
一方、私達は、現実の世界と想像の世界とを日頃の生活の中で同一視する経験をしばしば体験する。それは夢である。私達は夢を見ている間、それが現実の世界とは異なる想像上の世界であることを認識できてはいない。夢の世界は時として素晴らしいものであり、夢から覚めたときに、それが現実ではなく夢であったことを残念に感じることを私達人間はしばしば体験する。 On the other hand, we often experience the experience of identifying the real world and the imaginary world in daily life. That is a dream. While we dream, we are not aware that it is an imaginary world that is different from the real world. The dream world is sometimes wonderful and we humans often experience that when we wake up from a dream, we feel sorry that it was a dream, not a reality.
言葉通り、夢のような時間を過ごすためには、現実の世界と想像の世界との境界とを明確に認識できない状態にユーザが置かれる必要がある。現実の世界と分離した想像の世界よりも現実と融合した想像の世界の方が、人間にとって親近感が強く、より素晴らしいものとして認識される。既存のコンテンツの最終的な表現形態は、クリエータが創造する架空の世界を需要者の現実の世界と融合した状態で表現する形態に集約されるものと考える。 As expected, in order to have a dreamy time, the user needs to be placed in a state where the boundary between the real world and the imaginary world cannot be clearly recognized. The imaginary world that is fused with the real world is more perceived by humans and is recognized as more wonderful than the imaginary world that is separated from the real world. We think that the final form of expression of existing content will be aggregated into a form that expresses the fictional world created by the creator in a state where it is fused with the real world of the consumer.
絵画、彫刻、映画、アニメーション、漫画、ゲーム、小説、などいずれの表現形態を取るにせよ、創造性溢れるクリエータが創り出す世界とリンクすることで、創造性の乏しい需要者が自身の脳内に同一の世界を構築できるようにすることが芸術に対する消費の主目的であるのならば、現実の世界と融合した状態で表現する形態を取る場合において、クリエータが創り出す世界感を需要者に適切に提示できるようなシステムを構築する必要がある。これは、映画であれば映画館の音響環境を整えると言ったことや、ゲームであればプラットフォームを整えると言ったことに近い。従来の技術では、このような観点に対する十分な検討が加えられておらず、限定的な仮想現実を提示するものでしかなかった。 Regardless of the form of expression, such as painting, sculpture, movie, animation, manga, game, novel, etc., by linking with the world created by creators full of creativity, consumers with poor creativity can share the same world in their brains. If the main purpose of consumption for art is to make it possible to construct a product, the world created by the creator can be appropriately presented to consumers when it takes a form that is integrated with the real world. It is necessary to build a simple system. This is close to saying that if it is a movie, the sound environment of the movie theater will be prepared, and if it is a game, the platform will be prepared. In the prior art, sufficient examination for such a viewpoint has not been made, and only a limited virtual reality has been presented.
本発明は、上記課題を鑑み、創造力溢れるクリエータが創り出す想像上の世界をユーザが生きる現実の世界と融合した状態で提示することを可能とする仮想現実サービス提供システム及び仮想現実サービス提供方法としたものである。 In view of the above problems, the present invention provides a virtual reality service providing system and a virtual reality service providing method capable of presenting an imaginary world created by creative creators with a real world where a user lives. It is a thing.
本発明の一態様である仮想現実サービス提供システムは、複数の仮想現実オブジェクトを記憶する仮想現実オブジェクト記憶手段と、ユーザが利用可能な仮想現実サービスを示す情報を記憶する利用可能仮想現実サービス情報記憶手段と、前記ユーザが利用可能な仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶手段より読み出す仮想現実オブジェクト読み出し手段と、ユーザの周囲の状況を示す周囲状況情報に基づいて、仮想空間における前記仮想現実オブジェクトの配置位置を決定する仮想現実オブジェクト配置位置決定手段と、ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて、ユーザが頭部に装着するヘッドマウントディスプレイ装置の表示パネルに表示される映像の符号化データを生成する表示映像生成手段と、を備える。 A virtual reality service providing system according to an aspect of the present invention includes a virtual reality object storage unit that stores a plurality of virtual reality objects, and an available virtual reality service information storage that stores information indicating virtual reality services that can be used by a user. A virtual reality object reading means for reading out a virtual reality object used for a virtual reality service available to the user from the virtual reality object storage means, and a surrounding situation information indicating a surrounding situation of the user. Virtual reality object arrangement position determining means for determining an arrangement position of the virtual reality object, a head-mounted display that the user wears on the head based on user state information indicating a user state and the arrangement position of the virtual reality object Displayed on the display panel of the device. It comprises a display image generating means for generating encoded data of the video, the.
本発明の一態様である仮想現実サービス提供方法は、複数の仮想現実オブジェクトを記憶する仮想現実オブジェクト記憶データベースと、ユーザが利用可能な仮想現実サービスを示す情報を記憶する利用可能仮想現実サービス情報記憶データベースと、を備える仮想現実サービス提供システムで用いられる仮想現実サービス提供方法である。当該仮想現実サービス提供方法は、前記利用可能仮想現実サービス情報記憶データベースに記憶される前記ユーザが利用可能な仮想現実サービスを示す情報に基づいて、前記ユーザが利用する仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶データベースより読み出す仮想現実オブジェクト読み出しステップと、ユーザの周囲の状況を示す周囲状況情報に基づいて、前記読み出した仮想現実オブジェクトの仮想空間における配置位置を決定する仮想現実オブジェクト配置位置決定ステップと、ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて、ユーザが頭部に装着するヘッドマウントディスプレイ装置の表示パネルに表示される映像の符号化データを生成する表示映像生成ステップと、を有する。 A virtual reality service providing method according to an aspect of the present invention includes a virtual reality object storage database that stores a plurality of virtual reality objects, and an available virtual reality service information storage that stores information indicating virtual reality services that can be used by a user. A virtual reality service providing method used in a virtual reality service providing system comprising a database. The virtual reality service providing method includes: a virtual reality object used for a virtual reality service used by the user based on information indicating the virtual reality service available to the user stored in the available virtual reality service information storage database. A virtual reality object reading position for reading out the virtual reality object from the virtual reality object storage database, and a virtual reality object placement position for determining a placement position of the read virtual reality object in the virtual space based on ambient situation information indicating a situation around the user Based on the determination step, the user state information indicating the user state, and the arrangement position of the virtual reality object, the encoded data of the video displayed on the display panel of the head mounted display device worn by the user on the head is generated. Display image It has formed a step, a.
本発明によれば、クリエータが創り出す想像上の世界をユーザが生きる現実の世界と融合した状態で適切に提示することができる。 ADVANTAGE OF THE INVENTION According to this invention, the imaginary world which a creator creates can be appropriately shown in the state united with the real world where a user lives.
以下、本発明の各実施の形態について図面を参照して詳細に説明する。以下の説明において同一の符号が付された部分は実質的に同一の機能を有している。また、発明の明確化のため重複部分は適宜説明が省略されている。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following description, parts denoted by the same reference numerals have substantially the same functions. For the sake of clarification of the invention, explanations of overlapping parts are omitted as appropriate.
<実施形態1>
図1は、本発明の実施形態1に係る仮想現実サービス提供システム1000の構成を示すブロック図である。仮想現実サービス提供システム1000は、仮想現実提示装置100を装着しているユーザに仮想現実サービスを提供するシステムであって、利用可能仮想現実サービス情報記憶データベース1100と、仮想現実オブジェクト記憶データベース1200と、仮想現実サービス提供サーバ1300と、を備える。仮想現実サービス提供サーバ1300は、ユーザが装着する仮想現実提示装置100と、インターネット等の通信網10を介して接続されている。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration of a virtual reality service providing system 1000 according to Embodiment 1 of the present invention. The virtual reality service providing system 1000 is a system that provides a virtual reality service to a user wearing the virtual reality presentation device 100, and includes an available virtual reality service information storage database 1100, a virtual reality object storage database 1200, A virtual reality service providing server 1300. The virtual reality service providing server 1300 is connected to the virtual reality presentation device 100 worn by the user via a communication network 10 such as the Internet.
ここで、仮想現実(VR:Vertual Reality)とは、コンピュータグラフィックス(CG:Computer Graphics)や音響効果を組み合わせることで、人工的に創り出される現実感(リアリティー)のある世界を言い、仮想現実サービスとは、このような仮想現実の世界をユーザに体験させるサービスである。 Here, virtual reality (VR) refers to a world with reality created artificially by combining computer graphics (CG) and sound effects, and is a virtual reality service. Is a service that allows the user to experience such a virtual reality world.
人間は、五感を用いて自身の周囲で生じる事象を感知し、感知した情報を脳で処理して状況把握を行う。従って、人間が有する感覚を欺くように映像を表示したり音声を出力したりすることで、仮想現実の世界を創り出すことができる。仮想現実の世界は、人工的に創り出される世界であるため、様々な形態の仮想現実サービスが存在する。 Humans sense events that occur around them using the five senses, and process the sensed information in the brain to grasp the situation. Therefore, a virtual reality world can be created by displaying images and outputting sounds so as to deceive human senses. Since the virtual reality world is an artificially created world, there are various forms of virtual reality services.
図2は、現実の世界と、表示される映像と、仮想現実の世界との対応関係を示している。ソファーが置かれている部屋にいるユーザに対して仮想現実提示装置100が仮想現実オブジェクトである犬の映像を表示することで、ユーザが見る世界(ユーザが感知する世界)は、ソファーの上に犬が寝ているという現実の世界とは異なる仮想現実の世界となる。 FIG. 2 shows the correspondence between the real world, the displayed image, and the virtual reality world. The virtual reality presentation device 100 displays a video of a dog that is a virtual reality object for a user in a room where the sofa is placed, so that the world that the user sees (the world that the user perceives) is on the sofa. It becomes a virtual reality world different from the real world where the dog is sleeping.
本実施形態1において仮想現実提示装置100は、ユーザが頭部に装着するヘッドマウントディスプレイ(HMD:Human Mounted Display)装置であるとして説明する。仮想現実提示装置100は、ユーザに仮想現実の世界を提示する装置であって、ユーザ状態検知部110と、周囲状況検知部120と、通信部130と、表示制御部140と、表示部150と、を備える。 In the first embodiment, the virtual reality presentation device 100 will be described as a head mounted display (HMD) device that a user wears on the head. The virtual reality presentation device 100 is a device that presents a virtual reality world to a user, and includes a user state detection unit 110, an ambient state detection unit 120, a communication unit 130, a display control unit 140, and a display unit 150. .
ユーザ状態検知部110は、仮想現実提示装置100を使用しているユーザの状態を検知し、ユーザの状態を示すユーザ状態情報を生成する。例えば、ユーザ状態検知部110は、ユーザの頭部の傾きを検知する傾きセンサや、ユーザの頭部の加速度を検知する加速度センサなどで構成される。例えば、ユーザ状態検知部110は、ユーザの状態として、ユーザの頭部の傾き、ユーザ頭部の加速度、ユーザの血圧、ユーザの心拍数、ユーザの心拍波形、ユーザの発汗量、ユーザの姿勢、ユーザの体温、ユーザの脳波、などを検知し、検知結果に基づいてユーザ状態情報を生成する。 The user status detection unit 110 detects the status of the user who is using the virtual reality presentation device 100 and generates user status information indicating the status of the user. For example, the user state detection unit 110 includes an inclination sensor that detects the inclination of the user's head, an acceleration sensor that detects the acceleration of the user's head, and the like. For example, the user state detection unit 110 includes the user's head tilt, user head acceleration, user blood pressure, user heart rate, user heart rate waveform, user sweating amount, user posture, A user's body temperature, a user's brain wave, etc. are detected and user state information is generated based on the detection result.
周囲状況検知部120は、仮想現実提示装置100を使用しているユーザの周囲の状況を検知し、ユーザの周囲の状況を示す周囲状況情報を生成する。例えば、周囲状況検知部120は、ユーザの視線と対応した景色を撮影する視線カメラや、ユーザの両側や後方など視線カメラでは撮影できない範囲の景色を撮影する周囲カメラなどで構成される。例えば、周囲状況検知部120は、周囲の画像データ、ユーザと周囲に存在する物体までの位置関係、ユーザの周囲に存在する物体の移動速度や移動方向、周囲の明るさ(照度)、周囲に他人が存在しているかどうかといった状況などを検知し、検知結果に基づいて周囲状況情報を生成する。 The surrounding situation detection unit 120 detects the surrounding situation of the user who is using the virtual reality presentation device 100, and generates the surrounding situation information indicating the surrounding situation of the user. For example, the ambient condition detection unit 120 includes a line-of-sight camera that captures a scene corresponding to the user's line of sight, a surrounding camera that captures a range of scenes that cannot be captured by the line-of-sight camera, such as on both sides or behind the user. For example, the surrounding state detection unit 120 includes surrounding image data, a positional relationship between the user and an object existing around the user, a moving speed and a moving direction of an object existing around the user, ambient brightness (illuminance), and surroundings. A situation such as whether or not another person exists is detected, and ambient situation information is generated based on the detection result.
通信部130は、インターネット等の通信網10を介して仮想現実サービス提供サーバ1300と通信を行う。通信部130は、仮想現実提示装置100で生成された各種情報を無線で送信する無線送信部131と、仮想現実サービス提供サーバ1300より送信された各種情報を無線で受信する無線受信部132と、を備える。 The communication unit 130 communicates with the virtual reality service providing server 1300 via the communication network 10 such as the Internet. The communication unit 130 includes a wireless transmission unit 131 that wirelessly transmits various types of information generated by the virtual reality presentation device 100, a wireless reception unit 132 that wirelessly receives various types of information transmitted from the virtual reality service providing server 1300, Is provided.
無線送信部131は、仮想現実提示装置100で生成される各種情報を無線信号に変換して仮想現実サービス提供サーバ1300に送信する。無線送信部131は、少なくともユーザ状態検知部110で生成されるユーザ状態情報と、周囲状況検知部120で生成される周囲状況情報とを、仮想現実サービス提供サーバ1300に送信する。 The wireless transmission unit 131 converts various information generated by the virtual reality presentation device 100 into a wireless signal and transmits the wireless signal to the virtual reality service providing server 1300. The wireless transmission unit 131 transmits at least user state information generated by the user state detection unit 110 and ambient state information generated by the ambient state detection unit 120 to the virtual reality service providing server 1300.
無線受信部132は、仮想現実サービス提供サーバ1300より送信される各種情報を無線で受信し、当該受信した情報に対応する仮想現実提示装置100の各部へ出力する。無線受信部132は、少なくとも仮想現実サービス提供サーバ1300で生成された映像の符号化データを無線で受信し、当該符号化データを表示制御部140に出力する。 The wireless reception unit 132 wirelessly receives various pieces of information transmitted from the virtual reality service providing server 1300 and outputs the various information to each unit of the virtual reality presentation device 100 corresponding to the received information. The wireless reception unit 132 wirelessly receives at least encoded video data generated by the virtual reality service providing server 1300 and outputs the encoded data to the display control unit 140.
表示制御部140は、無線受信部132で受信された符号化データを復号化して、仮想現実オブジェクトの映像を表示部150に表示する制御を行う。 The display control unit 140 performs control to display the video of the virtual reality object on the display unit 150 by decoding the encoded data received by the wireless reception unit 132.
表示部150は、表示制御部140の表示制御に基づいて、仮想現実オブジェクトの映像を表示する。 The display unit 150 displays the video of the virtual reality object based on the display control of the display control unit 140.
次に、仮想現実サービス提供システム1000を構成する各装置ついて詳細に説明する。利用可能仮想現実サービス情報記憶データベース1100は、ユーザが利用可能な仮想現実サービスを示す情報である利用可能仮想現実サービス情報(利用可能サービス識別情報)を記憶する。 Next, each device constituting the virtual reality service providing system 1000 will be described in detail. The available virtual reality service information storage database 1100 stores available virtual reality service information (usable service identification information) that is information indicating virtual reality services available to the user.
仮想現実サービス提供システム1000は、様々な種類の仮想現実サービスを提供可能なように構成されており、各ユーザは、それらの仮想現実サービスの中から自身が利用したい一部の仮想現実サービスを予め選択している。 The virtual reality service providing system 1000 is configured to be able to provide various types of virtual reality services, and each user preliminarily selects some virtual reality services that the user wants to use from among those virtual reality services. Selected.
図3は、利用可能仮想現実サービス情報の一例を示している。各ユーザと、当該ユーザが利用可能な仮想現実サービスとが対応付けられた状態で記憶されている。例えば、ユーザBは、S024で識別される仮想現実サービスが利用可能な状態であることを示している。ここでは、S024で識別される仮想現実サービスは、例えば仮想空間に犬の仮想現実オブジェクトを配置することで、ペットがいる仮想現実の世界をユーザに提示するというサービスであるとする。 FIG. 3 shows an example of available virtual reality service information. Each user is stored in a state of being associated with a virtual reality service that can be used by the user. For example, user B indicates that the virtual reality service identified in S024 is available. Here, it is assumed that the virtual reality service identified in S024 is a service that presents a virtual reality world where a pet is present to a user by, for example, arranging a virtual reality object of a dog in a virtual space.
仮想現実オブジェクト記憶データベース1200は、複数の仮想現実オブジェクトを記憶する。仮想現実オブジェクトとは、仮想空間に配置されることで、仮想現実の世界に表される仮想的な人物や建築物などを指す。仮想現実サービス提供サーバ1300が設定する仮想空間が、ユーザの周囲の現実の空間に対応するように設定されることで、ユーザに仮想現実の世界が提示される。 The virtual reality object storage database 1200 stores a plurality of virtual reality objects. A virtual reality object refers to a virtual person or building represented in the virtual reality world by being arranged in a virtual space. By setting the virtual space set by the virtual reality service providing server 1300 to correspond to the real space around the user, the virtual reality world is presented to the user.
各種の仮想現実オブジェクトは、3Dコンピュータグラフィックスで外観形状を規定する3Dポリゴンデータや、当該ポリゴンデータで形成される形状の表面に張り付けられるテキスチャーデータなどから構成される。また、仮想現実オブジェクトを動作させるための関節ポイントデータや骨格データ等を含む構成とするとより好ましい。関節ポイントデータとポリゴンデータの頂点とが関連付けされており、関節ポイントの位置や角度を変更することで、関連付けされているポリゴンデータの頂点の位置が変更されることになり、仮想現実オブジェクトの外観形状が変化する。このように、各種仮想現実オブジェクトは、その種類に応じた属性が設定されている。属性の一つである関節ポイントの位置座標や角度をメソッドによって変化させることにより、ポリゴンデータの各種頂点の位置座標が変化し、当該仮想現実オブジェクトの外観形状が変化する。 Each type of virtual reality object includes 3D polygon data that defines an appearance shape by 3D computer graphics, texture data pasted on the surface of the shape formed by the polygon data, and the like. Moreover, it is more preferable that the configuration includes joint point data, skeleton data, and the like for operating the virtual reality object. The joint point data and the vertex of the polygon data are associated, and changing the position and angle of the joint point changes the position of the vertex of the associated polygon data, and the appearance of the virtual reality object The shape changes. Thus, various virtual reality objects have attributes set according to their types. By changing the position coordinates and angle of the joint point, which is one of the attributes, by the method, the position coordinates of various vertices of the polygon data are changed, and the appearance shape of the virtual reality object is changed.
仮想現実オブジェクトは、仮想現実の世界に配置されるオブジェクトの種類に応じて、人物オブジェクト、動物オブジェクト、非動物オブジェクト、その他のオブジェクトに分類することができる。具体的には、人物クラス、動物クラス、非動物クラスなどの複数のクラスに分類されており、各クラスのインスタンスとして人物オブジェクト、動物オブジェクト、非動物オブジェクトなどの各種仮想現実オブジェクトが生成される。各仮想現実オブジェクトには、その仮想現実オブジェクトを一意に識別するためのオブジェクトIDが割り当てられている。 Virtual reality objects can be classified into human objects, animal objects, non-animal objects, and other objects according to the types of objects arranged in the virtual reality world. Specifically, it is classified into a plurality of classes such as a person class, an animal class, and a non-animal class, and various virtual reality objects such as a person object, an animal object, and a non-animal object are generated as instances of each class. Each virtual reality object is assigned an object ID for uniquely identifying the virtual reality object.
人物オブジェクトとは、現実の人物や想像上・空想上の人物、歴史上の人物や創作上の人物などのオブジェクトであり、少なくとも動作が可能であり、また、好ましくは喋る(音声を出力する)ことが可能であると言う特徴を有する。すなわち、当該人物オブジェクトに対して所定のメソッドを実行することで当該人物オブジェクトの外観形状を変化させたり、当該人物オブジェクトに設定されている音声データを再生させたりすることで、当該人物オブジェクトを動作させたり喋らせたりすることが可能となる。 A person object is an object such as a real person, an imaginary / imaginary person, a historical person, a creative person, etc., and is at least operable, and preferably speaks (outputs sound). It has the feature that it is possible. In other words, by executing a predetermined method on the person object, the appearance shape of the person object is changed, or the sound data set in the person object is reproduced to operate the person object. It is possible to make them flaunt or fool.
動物オブジェクトは、現実の動物や、想像上・空想上の動物、創作上の動物などのオブジェクトであり、動作が可能であると言う特徴を有する。また、動物オブジェクトの一部は、吠る(音声を出力する)と言った構成とすることが可能である。仮想現実の世界に配置される仮想的な動物であるため、人間と同様に言葉を喋る構成とすることも可能である。 The animal object is an object such as a real animal, an imaginary / fantasy animal, or a creative animal, and has a feature that it can operate. In addition, a part of the animal object can be configured to speak (output a sound). Since it is a virtual animal placed in the virtual reality world, it is possible to adopt a configuration that speaks like a human.
非動物オブジェクトは、植物や、家具、建物などの静的なオブジェクトであり基本的に動作が無い物体である。但し、植物は、現実の世界で吹いている風に連動して一部動く構成としても良い。 A non-animal object is a static object such as a plant, furniture, or building and is basically an object that does not move. However, the plant may be configured to partially move in conjunction with the wind blowing in the real world.
その他のオブジェクトは、例えば背景のオブジェクトなどである。その他のオブジェクトは、仮想現実の世界を創り出すために単体で用いられても良いし、人物オブジェクトや動物オブジェクト等と組み合わせて用いられても良い。 Other objects are, for example, background objects. Other objects may be used alone to create a virtual reality world, or may be used in combination with a person object, an animal object, or the like.
図4は、仮想現実オブジェクト記憶データベース1200に記憶される仮想現実オブジェクトを管理する管理ファイルを示す。各仮想現実オブジェクトは、複数の種別によって分類分けされている。例えば、種別1は、オブジェクトの大まかな区分けを示しており、種別2は、現実のもの(人物)か空想上のもの(人物)であるかを示しており、種別3はオブジェクトに含まれる人物等の性別を示している。例えば、管理番号No000012の格納アドレスxx010110101・・・には、寝ている雌のライオンの仮想現実オブジェクトのデータが記憶されている。ここでは、管理番号No000012の仮想現実オブジェクトは、HumanクラスのサブクラスであるRealクラスとfemaleクラスとをそれぞれスーパークラスとして多重継承しているlionクラスのインスタンスとなる。 FIG. 4 shows a management file for managing virtual reality objects stored in the virtual reality object storage database 1200. Each virtual reality object is classified according to a plurality of types. For example, type 1 indicates a rough division of an object, type 2 indicates whether it is real (person) or imaginary (person), and type 3 is a person included in the object. Showing gender. For example, data of a virtual reality object of a sleeping female lion is stored in the storage address xx010110101 of the management number No. 000012. Here, the virtual reality object with the management number No. 000012 is an instance of the lion class that inherits the Real class and the female class, which are subclasses of the Human class, as superclasses.
図5は、仮想現実オブジェクトの一種であるオブジェクトIDナンバー:No000009の仮想現実オブジェクトと当該仮想現実オブジェクトを構成する3Dポリゴンデータと、を示している。ここでは、オブジェクトIDナンバー:No000009の仮想現実オブジェクトには、外観形状の頂点の位置座標の集合であるポリゴンデータとポリゴンデータの各位置座標を結んだ各領域の表面に割り当てられるテキスチャーデータが属性データとして定義されている。 FIG. 5 shows a virtual reality object of object ID number: No. 000009, which is a kind of virtual reality object, and 3D polygon data constituting the virtual reality object. Here, for the virtual reality object with the object ID number: No. 000009, the texture data assigned to the surface of each region connecting the polygon data, which is a set of the position coordinates of the vertices of the appearance shape, and the position coordinates of the polygon data is attribute data. Is defined as
次に、仮想現実サービス提供サーバ1300について説明する。仮想現実サービス提供サーバ1300は、通信部1310と、仮想現実サービス提供管理部1320と、仮想現実オブジェクト読み出し部1330と、仮想現実オブジェクト配置位置決定部1340と、表示映像生成処理部1350と、を備える。 Next, the virtual reality service providing server 1300 will be described. The virtual reality service providing server 1300 includes a communication unit 1310, a virtual reality service provision managing unit 1320, a virtual reality object reading unit 1330, a virtual reality object arrangement position determining unit 1340, and a display video generation processing unit 1350. .
通信部1310は、インターネット等の通信網10を介して、各ユーザがそれぞれ装着している仮想現実提示装置100と通信を行う。通信部1310は、仮想現実提示装置100より送信される各種情報を受信する受信部1311と、仮想現実提示装置100に各種情報を送信する送信部1312とを備える。 The communication unit 1310 communicates with the virtual reality presentation device 100 worn by each user via the communication network 10 such as the Internet. The communication unit 1310 includes a receiving unit 1311 that receives various information transmitted from the virtual reality presentation device 100, and a transmission unit 1312 that transmits various information to the virtual reality presentation device 100.
受信部1311は、少なくともユーザの状態を示すユーザ状態情報と、ユーザの周囲の状況を示す周囲状況情報とを受信する。受信部1311は、受信した周囲状況情報を仮想現実オブジェクト配置位置決定部1340へ、ユーザ状態情報を表示映像生成部1350へそれぞれ出力する。 The receiving unit 1311 receives at least user status information indicating the user status and ambient status information indicating the status of the user. The reception unit 1311 outputs the received ambient state information to the virtual reality object arrangement position determination unit 1340 and the user state information to the display video generation unit 1350, respectively.
仮想現実サービス提供管理部1320は、利用可能仮想現実サービス情報記憶データベース1100に記憶されている利用可能仮想現実サービス情報を参照し、ユーザが利用可能な仮想現実サービスの中からユーザに提供する仮想現実サービスを決定する処理を行う。仮想現実サービス提供管理部1320は、定期的に仮想現実サービスの提供に関するスケジューリングを行うことでユーザに提供する仮想現実サービスを決定しても良いし、ユーザからの要求に基づいて決定しても良い。 The virtual reality service provision management unit 1320 refers to the available virtual reality service information stored in the available virtual reality service information storage database 1100, and provides virtual reality provided to the user from the virtual reality services available to the user. Process to determine the service. The virtual reality service provision management unit 1320 may determine a virtual reality service to be provided to the user by periodically performing scheduling related to provision of the virtual reality service, or may determine based on a request from the user. .
仮想現実オブジェクト読み出し部1330は、仮想現実サービス提供管理部1320で決定されたユーザに提供する仮想現実サービスに用いられる仮想現実オブジェクトを仮想現実オブジェクト記憶データベース1300より読み出す。 The virtual reality object reading unit 1330 reads from the virtual reality object storage database 1300 a virtual reality object used for the virtual reality service provided to the user determined by the virtual reality service provision management unit 1320.
仮想現実オブジェクト配置位置決定部1340は、ユーザの周囲の状況を示す周囲状況情報に基づいて、仮想空間における前記仮想現実オブジェクトの配置位置を決定する。仮想現実オブジェクト配置位置決定部1340は、仮想現実オブジェクト読み出し部1330で読み出された仮想現実オブジェクトを、ユーザの周囲の状況を示す周囲状況情報に基づいて、仮想空間に配置する。 The virtual reality object placement position determination unit 1340 determines the placement position of the virtual reality object in the virtual space based on the surrounding situation information indicating the surrounding situation of the user. The virtual reality object arrangement position determination unit 1340 arranges the virtual reality object read by the virtual reality object reading unit 1330 in the virtual space based on the surrounding situation information indicating the surrounding situation of the user.
表示映像生成処理部1350は、ユーザの状態を示すユーザ状態情報と仮想現実オブジェクトの配置位置とに基づいて、ユーザが頭部に装着する仮想現実提示装置100の表示パネルに表示される映像を生成する。具体的には、表示映像生成処理部1350は、ユーザ状態情報に基づいて決定される仮想空間における視点と、前記仮想現実オブジェクトとの間に置かれたイメージプレーン上に前記仮想現実オブジェクトを投影することで映像を生成する。 The display video generation processing unit 1350 generates a video to be displayed on the display panel of the virtual reality presentation device 100 worn by the user on the head based on the user status information indicating the user status and the arrangement position of the virtual reality object. To do. Specifically, the display video generation processing unit 1350 projects the virtual reality object onto an image plane placed between the viewpoint in the virtual space determined based on the user state information and the virtual reality object. To generate video.
仮想空間における視点は、現実空間におけるユーザの目の位置に対応しており、ユーザの頭部の動きが逐次ユーザ状態情報として表示映像生成処理部1350に入力され、仮想空間における視点が制御される。表示映像生成処理部1350は、ユーザ状態情報で示される前記ユーザの目の位置に対応した視点に基づいて、仮想空間に配置されている各仮想現実オブジェクトをイメージプレーンに投影する座標変換処理を行い、クリッピング処理、隠面処理、シェーディング処理、テキスチャーマッピング処理、アンチエリアシング処理等を行うことで、仮想現実提示装置100の表示部150に表示される映像を生成し、更に当該映像をMPEG2やH.264/AVCと言った所定の符号化方式で符号化を行うことで、当該映像の符号化データを生成する。表示映像生成処理部1350で生成された映像の符号化データは、送信部1312に出力される。 The viewpoint in the virtual space corresponds to the position of the user's eyes in the real space, and the movement of the user's head is sequentially input to the display video generation processing unit 1350 as user state information, and the viewpoint in the virtual space is controlled. . The display video generation processing unit 1350 performs coordinate conversion processing for projecting each virtual reality object arranged in the virtual space onto the image plane based on the viewpoint corresponding to the position of the user's eye indicated by the user state information. By performing clipping processing, hidden surface processing, shading processing, texture mapping processing, anti-aliasing processing, etc., a video to be displayed on the display unit 150 of the virtual reality presentation device 100 is generated. . By performing encoding using a predetermined encoding method such as H.264 / AVC, encoded data of the video is generated. The encoded data of the video generated by the display video generation processing unit 1350 is output to the transmission unit 1312.
送信部1312は、表示映像生成処理部1350で生成された映像の符号化データを仮想現実提示装置100に送信する。当該映像の符号化データを受信した仮想現実提示装置100の表示制御部140において復号処理が行われ、表示部150に仮想現実オブジェクトの映像が表示される。 The transmission unit 1312 transmits the encoded data of the video generated by the display video generation processing unit 1350 to the virtual reality presentation device 100. The display control unit 140 of the virtual reality presentation device 100 that has received the encoded data of the video performs decoding processing, and the video of the virtual reality object is displayed on the display unit 150.
以上のように、本実施形態1に係る仮想現実サービス提供システムによれば、クリエータが創り出す想像の世界を現実の世界と融合した仮想現実の世界の中で表現することが可能となる。すなわち、各クリエータは、自身の想像する世界を仮想現実オブジェクトと言う表現形態で創造し、創造した仮想現実オブジェクトを仮想現実オブジェクト記憶DB1200に格納しておくことができる。当該クリエータが創り出す仮想現実の世界を享受したいユーザには、仮想現実サービスとして仮想現実サービス提供サーバ1300が、当該仮想現実オブジェクトを当該ユーザの現実の世界と融合するように配置することで、適切に仮想現実の世界をユーザに提示することができる。 As described above, according to the virtual reality service providing system according to the first embodiment, the imaginary world created by the creator can be expressed in the virtual reality world fused with the real world. That is, each creator can create the world that he / she imagines in a representation form called a virtual reality object, and store the created virtual reality object in the virtual reality object storage DB 1200. For a user who wants to enjoy the virtual reality world created by the creator, the virtual reality service providing server 1300 as a virtual reality service appropriately arranges the virtual reality object so as to merge with the real world of the user. The virtual reality world can be presented to the user.
(実施形態2)
図6は、本実施形態2に係る仮想現実サービス提供システム2000の構成を示すブロック図である。仮想現実サービス提供システム2000は、利用可能仮想現実サービス情報記憶DB1100と、仮想現実オブジェクト記憶DB1200と、仮想現実サービス提供サーバ2300と、仮想現実サービス利用条件記憶DB2400と、を備える。仮想現実サービス提供サーバ2300は、インターネット等の通信網を介して仮想現実提示装置200と通信可能な状態で接続されている。
(Embodiment 2)
FIG. 6 is a block diagram illustrating a configuration of the virtual reality service providing system 2000 according to the second embodiment. The virtual reality service providing system 2000 includes an available virtual reality service information storage DB 1100, a virtual reality object storage DB 1200, a virtual reality service providing server 2300, and a virtual reality service use condition storage DB 2400. The virtual reality service providing server 2300 is connected in a communicable state with the virtual reality presentation device 200 via a communication network such as the Internet.
仮想現実提示装置200は、ユーザ状態検知部110と、周囲状況検知部120と、通信部130と、表示制御部140と、表示部150と、仮想現実提示制御部260と、を備える。 The virtual reality presentation device 200 includes a user state detection unit 110, an ambient condition detection unit 120, a communication unit 130, a display control unit 140, a display unit 150, and a virtual reality presentation control unit 260.
ユーザ状態検知部110は、ユーザの状態を検知してユーザ状態情報を生成する。仮想現実提示装置200において、ユーザ状態検知部110は、ユーザの頭部の傾きを検知して傾き情報を生成する傾きセンサ111と、ユーザの頭部の加速度を検知して加速度情報を生成する加速度センサ112と、ユーザの現在位置を検出して位置情報を生成する現在位置検出部113と、を備える。各部で定期的に生成される傾き情報、加速度情報、位置情報は、それぞれユーザの状態を示すユーザ状態情報として通信部130に出力される。ユーザ状態情報には、当該ユーザ状態情報に含まれる各情報が生成された時刻を示す時刻情報(タイムスタンプ)が含まれる構成とすることが好ましい。 The user status detection unit 110 detects the user status and generates user status information. In the virtual reality presentation device 200, the user state detection unit 110 detects an inclination of the user's head and generates inclination information, and an acceleration that detects acceleration of the user's head and generates acceleration information. A sensor 112 and a current position detection unit 113 that detects the current position of the user and generates position information are provided. The inclination information, acceleration information, and position information that are periodically generated by each unit are output to the communication unit 130 as user status information indicating the user status. It is preferable that the user status information includes time information (time stamp) indicating the time when each piece of information included in the user status information is generated.
周囲状況検知部120は、ユーザの周囲の状況を検知して周囲状況情報を生成する。仮想現実提示装置200において、周囲状況検知部120は、視線カメラ(視線映像撮影部)121と、周囲カメラ(周囲映像撮影部)122とを備える。視線カメラ121は、ユーザの視線に対応するユーザ前方の景色を撮影して前方景色画像を取得する。周囲カメラ122は、ユーザの両側や後方など視線カメラ121では撮影できない範囲の景色を撮影すして周囲景色画像を取得する。視線カメラ121で撮影された前方景色画像や周囲カメラ122で定期的に撮影された周囲景色画像は、それぞれ適宜圧縮等の符号化が行われた上で、周囲状況情報として通信部130に出力される。 The surrounding situation detection unit 120 detects the surrounding situation of the user and generates the surrounding situation information. In the virtual reality presentation device 200, the surrounding state detection unit 120 includes a line-of-sight camera (line-of-sight video photographing unit) 121 and a surrounding camera (ambient video photographing unit) 122. The line-of-sight camera 121 captures a scene in front of the user corresponding to the line of sight of the user, and acquires a front scene image. The ambient camera 122 captures a scene in a range that cannot be captured by the line-of-sight camera 121, such as on both sides or behind the user, and acquires an ambient scene image. The forward scenery image photographed by the line-of-sight camera 121 and the ambient scenery image periodically photographed by the peripheral camera 122 are each appropriately encoded such as compression, and then output to the communication unit 130 as ambient state information. The
周囲状況情報には、当該周囲状況情報に含まれる各画像が撮影された時刻を示す時刻情報(タイムスタンプ)や、当該画像を撮影したカメラを識別するカメラ識別情報が合わせて含まれる構成とすることが好ましい。周囲状況検知部120を、本明細書では周囲映像撮影部と称することがある。 The ambient situation information includes a time information (time stamp) indicating the time when each image included in the ambient situation information is captured, and camera identification information for identifying the camera that captured the image. It is preferable. The ambient condition detection unit 120 may be referred to as an ambient video capturing unit in this specification.
通信部130は、ユーザ状態検知部110より出力された傾き情報、加速度情報、位置情報など、ユーザの現在の状態を示すユーザ状態情報を入力し、仮想現実サービス提供サーバ2300へ送信する。また、通信部130は、周囲状況検知部120より出力された前方景色画像や周囲景色画像など、ユーザの周囲の状況を示す周囲状況情報を入力し、仮想現実サービス提供サーバ2300へ送信する。また、通信部130は、仮想現実サービス提供サーバ2300より送信されてくる映像の符号化データを受信し、表示制御部140に出力する。 The communication unit 130 inputs user state information indicating the current state of the user, such as tilt information, acceleration information, and position information output from the user state detection unit 110, and transmits the user state information to the virtual reality service providing server 2300. In addition, the communication unit 130 inputs ambient situation information indicating a situation around the user, such as a forward scenery image and an ambient scenery image output from the ambient situation detection unit 120, and transmits the information to the virtual reality service providing server 2300. In addition, the communication unit 130 receives encoded video data transmitted from the virtual reality service providing server 2300 and outputs the encoded data to the display control unit 140.
表示制御部140は、通信部130で受信された映像の符号化データに復号化処理を行い、復号された映像を表示部150に表示する制御を行う。表示部150は、表示制御部140からの表示制御に従って映像を表示する。 The display control unit 140 performs a decoding process on the encoded data of the video received by the communication unit 130, and performs control to display the decoded video on the display unit 150. The display unit 150 displays an image according to the display control from the display control unit 140.
仮想現実提示制御部260は、ユーザに仮想現実を提示するための全体制御を実行する。仮想現実提示制御部260は、通信部130で仮想現実サービスの提供開始を通知する仮想現実サービス開始通知情報が受信された場合に、仮想現実をユーザに提示するための制御を開始する。 The virtual reality presentation control unit 260 performs overall control for presenting virtual reality to the user. The virtual reality presentation control unit 260 starts control for presenting the virtual reality to the user when the virtual reality service start notification information for notifying the start of provision of the virtual reality service is received by the communication unit 130.
具体的に、仮想現実提示制御部260は、当該仮想現実サービス開始通知情報に基づいて、ユーザ状態検知部110及び周囲状況検知部120に、それぞれユーザ状態情報と周囲状況情報の生成開始を指示する。また仮想現実提示制御部260は、通信部130に当該ユーザ状態情報と周囲状況情報を仮想現実サービス提供サーバ2300に定期的に送信するよう指示する。また、仮想現実提示制御部260は、表示制御部140に表示部150に映像を表示する制御の開始を指示する。 Specifically, the virtual reality presentation control unit 260 instructs the user state detection unit 110 and the surrounding state detection unit 120 to start generating the user state information and the surrounding state information, respectively, based on the virtual reality service start notification information. . The virtual reality presentation control unit 260 instructs the communication unit 130 to periodically transmit the user state information and the surrounding state information to the virtual reality service providing server 2300. In addition, the virtual reality presentation control unit 260 instructs the display control unit 140 to start control for displaying an image on the display unit 150.
また、仮想現実提示制御部260は、通信部130で仮想現実サービスの提供終了を通知する仮想現実サービス終了通知情報が受信された場合に、仮想現実の提示を終了するための制御を行う。具体的に、仮想現実提示制御部260は、ユーザ状態検知部110と周囲状況検知部120に検知処理の終了を指示する。また、表示制御部140に表示制御処理の終了を指示する。 Also, the virtual reality presentation control unit 260 performs control for ending the virtual reality presentation when the communication unit 130 receives virtual reality service end notification information for notifying the end of provision of the virtual reality service. Specifically, the virtual reality presentation control unit 260 instructs the user state detection unit 110 and the surrounding state detection unit 120 to end the detection process. In addition, the display control unit 140 is instructed to end the display control process.
仮想現実サービス提供サーバ2300は、通信部1310と、仮想現実サービス提供管理部1320と、仮想現実オブジェクト1330と、仮想現実オブジェクト配置位置決定部1340と、表示映像生成処理部1350と、画像解析処理部2360と、を備える。 The virtual reality service providing server 2300 includes a communication unit 1310, a virtual reality service provision management unit 1320, a virtual reality object 1330, a virtual reality object arrangement position determination unit 1340, a display video generation processing unit 1350, and an image analysis processing unit. 2360.
画像解析処理部2360は、周囲状況情報として通信部1310が仮想現実提示装置200より受信した前方景色画像や周辺景色画像を解析し、画像の中から所定の成分を抽出する処理を行う。 The image analysis processing unit 2360 analyzes the front scenery image and the surrounding scenery image received from the virtual reality presentation device 200 by the communication unit 1310 as the surrounding situation information, and performs processing for extracting a predetermined component from the image.
画像解析処理部2360は、物体の位置関係に関する情報を抽出する物体位置特定部2361と、明るさなど光学成分を抽出する光学抽出部2362と、を備える。 The image analysis processing unit 2360 includes an object position specifying unit 2361 that extracts information related to the positional relationship between objects, and an optical extraction unit 2362 that extracts optical components such as brightness.
物体位置特定部2361は、左目と右目の位置に対応する場所に配置された複数の視線カメラで取得された前方景色画像や、複数の周囲カメラで撮影された周囲景色画像を入力し、各画像において、隣接する画素やブロックとの間で色差信号や輝度信号との差分を算出することで境界判定処理を行う。物体位置特定部2361は、当該境界判定処理に基づいて、当該画像に写っている各物体や壁、床、空などを特定し、特定した各物体等をラべリングする。物体位置特定部2361は、各カメラで取得された画像においてそれぞれ同一のラべルが張られた各物体の画素位置を比較することで、当該物体までの距離を求め、ユーザの周囲に存在する物体等の位置関係を特定する。 The object position specifying unit 2361 inputs a front scene image acquired by a plurality of line-of-sight cameras arranged at locations corresponding to the positions of the left eye and the right eye, and a surrounding scene image captured by a plurality of surrounding cameras. , Boundary determination processing is performed by calculating a difference between a color difference signal and a luminance signal between adjacent pixels and blocks. Based on the boundary determination process, the object position specifying unit 2361 specifies each object, wall, floor, sky, and the like shown in the image, and labels each specified object. The object position specifying unit 2361 determines the distance to the object by comparing the pixel positions of the objects with the same label in the images acquired by the cameras, and exists around the user. The positional relationship of an object etc. is specified.
物体位置特定部2361は、特定したユーザの周囲に存在する物体の位置関係を示す情報を仮想現実オブジェクト配置位置決定部1340と、表示映像生成処理部1350の描画処理部1353にそれぞれ出力する。また、必要に応じて、特定したユーザの周囲に存在する物体の位置関係を示す情報を仮想現実サービス提供開始処理部1321と仮想現実サービス提供終了処理部1322にそれぞれ出力する構成としても良い。 The object position specifying unit 2361 outputs information indicating the positional relationship of objects existing around the specified user to the virtual reality object arrangement position determining unit 1340 and the drawing processing unit 1353 of the display video generation processing unit 1350, respectively. Moreover, it is good also as a structure which each outputs the information which shows the positional relationship of the object which exists around the specified user to the virtual reality service provision start process part 1321 and the virtual reality service provision end process part 1322 as needed.
好ましくは、物体位置特定部2361は、入力した画像から大きさやユーザまでの距離を特定した各物体をモデリングすることで、ユーザの周囲の物理的環境を示すモデルデータを生成すると良い。すなわち、物体位置特定部2361は、現実の世界におけるユーザの周囲の物理的環境を3Dポリゴンデータでモデル化する。物体位置特定部2361は、生成したモデルデータを仮想現実オブジェクト配置位置決定部1340と、表示映像生成処理部1350の描画処理部1353にそれぞれ出力する。 Preferably, the object position specifying unit 2361 generates model data indicating the physical environment around the user by modeling each object specifying the size and the distance to the user from the input image. That is, the object position specifying unit 2361 models the physical environment around the user in the real world with 3D polygon data. The object position specifying unit 2361 outputs the generated model data to the virtual reality object arrangement position determining unit 1340 and the drawing processing unit 1353 of the display video generation processing unit 1350, respectively.
光学成分抽出部2362は、入力した前方景色画像の中から光学成分を抽出する。例えば、光学成分抽出部2362は、前方景色画像の各画素における輝度信号の平均値を算出することで、ユーザの周囲の全体的な明るさ(照度)を示す情報を取得する。また、光学成分抽出部2362は、各画素の色差信号の平均値を求めることで、ユーザの周囲の全体的な色を示す情報を取得する。これらの情報は、後述する光源制御部1352で制御される無限遠方光源の明るさ(照度)や色に対応する。 The optical component extraction unit 2362 extracts an optical component from the input front scene image. For example, the optical component extraction unit 2362 obtains information indicating the overall brightness (illuminance) around the user by calculating the average value of the luminance signal in each pixel of the front scene image. The optical component extraction unit 2362 obtains information indicating the overall color around the user by obtaining an average value of the color difference signals of the respective pixels. These pieces of information correspond to the brightness (illuminance) and color of the infinity light source controlled by the light source control unit 1352 described later.
また、光学成分抽出部2362は、前方景色画像の各画素又はブロックにおける明るさを比較する比較処理や、影となる部分を特定することで、ユーザの周囲にある光源の位置や光源の明るさに関する情報を取得する。 In addition, the optical component extraction unit 2362 compares the brightness of each pixel or block of the front scene image, and identifies a shadowed portion, so that the position of the light source around the user and the brightness of the light source Get information about.
光学成分抽出部2362は、周囲状況情報として入力された前方景色画像の中から抽出した光学成分に関する情報を光源制御部1352に出力する。なお、光学成分抽出部2362は、周囲状況情報として入力される周囲景色画像に対して同様の処理を行い、仮想空間における光源の位置や強さに関連する光学成分の情報を抽出し、光源制御部1352に出力する構成としても良い。 The optical component extraction unit 2362 outputs information related to the optical component extracted from the front scenery image input as the surrounding state information to the light source control unit 1352. The optical component extraction unit 2362 performs the same processing on the surrounding scene image input as the surrounding state information, extracts information on the optical component related to the position and intensity of the light source in the virtual space, and controls the light source. It may be configured to output to the unit 1352.
仮想現実サービス提供サーバ2300において、仮想現実サービス提供管理部1320は、仮想現実サービス提供開始処理部1321と、仮想現実サービス提供終了処理部1322と、を備える。 In the virtual reality service provision server 2300, the virtual reality service provision management unit 1320 includes a virtual reality service provision start processing unit 1321 and a virtual reality service provision end processing unit 1322.
仮想現実サービス提供開始処理部1321は、利用可能仮想現実サービス情報記憶DB1100に記憶されている利用可能サービス情報を参照して、ユーザが利用可能な仮想現実サービスの中から当該ユーザに提供する仮想現実サービスを選択する。 The virtual reality service provision start processing unit 1321 refers to the available service information stored in the available virtual reality service information storage DB 1100, and provides virtual reality provided to the user from among virtual reality services available to the user. Select a service.
例えば、仮想現実サービス提供開始処理部1321は、仮想現実サービスの開始を要求する仮想現実サービス開始要求が通信部1310で受信された場合に、当該仮想現実サービス開始要求で指定されている仮想現実サービスを、提供する仮想現実サービスとして選択する。また、仮想現実サービス提供開始処理部1321は、定期的に仮想現実サービスの提供に関するスケジューリングを行っており、利用可能サービス情報を参照して、ユーザが利用可能な仮想現実サービスの中から提供する仮想現実サービスを能動的に選択しても良い。 For example, when the virtual reality service start request for starting the virtual reality service is received by the communication unit 1310, the virtual reality service provision start processing unit 1321 is designated by the virtual reality service start request. As a virtual reality service to be provided. In addition, the virtual reality service provision start processing unit 1321 periodically performs scheduling related to provision of the virtual reality service, and refers to available service information, and provides virtual services provided from virtual reality services available to the user. Real service may be actively selected.
仮想現実サービス提供開始処理部1321は、選択した仮想現実サービスを提供可能であるかを、仮想現実サービス利用条件記憶DB2400に記憶されている仮想現実サービス利用条件を参照して判定する。 The virtual reality service provision start processing unit 1321 determines whether or not the selected virtual reality service can be provided with reference to the virtual reality service use condition stored in the virtual reality service use condition storage DB 2400.
仮想現実サービス利用条件記憶DB2400は、仮想現実サービスを利用するための条件である仮想現実サービス利用条件を記憶する。当該仮想現実サービス利用条件としては、仮想現実サービス毎に異なる設定されていても良いし、各仮想現実サービスに共通の条件が設定されていても良い。 The virtual reality service use condition storage DB 2400 stores virtual reality service use conditions that are conditions for using the virtual reality service. The virtual reality service usage condition may be set differently for each virtual reality service, or a common condition may be set for each virtual reality service.
例えば、サービスNo:S001で識別される仮想現実サービスは、09:00〜17:00の間の時間帯でのみ利用可能であると言ったように、仮想現実サービスが利用可能な時間帯が仮想現実サービス利用条件として設定されていても良い。例えば、公共サービスと連動した仮想現実サービスである場合は、公共サービスの時間帯と連動するように、仮想現実サービスの利用が可能な時間帯を設定する。この場合、仮想現実サービス提供開始処理部1321は、現在の時刻が、仮想現実サービス利用条件である利用可能時間帯であるかを判定する。同様に、仮想現実サービス利用条件として、仮想現実サービスが利用できない時間帯が設定されていても良い。 For example, the virtual reality service identified by service No. S001 can be used only in the time zone between 09: 00 and 17:00, and the time zone in which the virtual reality service can be used is virtual. It may be set as a real service use condition. For example, in the case of a virtual reality service linked to a public service, a time zone in which the virtual reality service can be used is set so as to be linked to a public service time zone. In this case, the virtual reality service provision start processing unit 1321 determines whether or not the current time is an available time zone that is a virtual reality service usage condition. Similarly, a time zone in which the virtual reality service cannot be used may be set as the virtual reality service usage condition.
また、例えば、サービスNo:S002で識別される仮想現実サービスは、所定の位置範囲内でのみ利用可能であると言ったように、仮想現実サービスが利用可能な位置範囲が仮想現実サービス利用条件として設定されていても良い。例えば、特定のイベント会場でのみ、No:S002で識別される仮想現実サービスの利用を可能とする場合に、位置範囲に関する条件を設定する。この場合、仮想現実サービス提供開始処理部1321は、通信部1310で受信される位置情報で示されるユーザの現在位置が、仮想現実サービス利用条件である位置範囲の中であるかを判定する。同様に、仮想現実サービス利用条件として、仮想現実サービスが利用できない位置範囲が設定されていても良い。 Also, for example, the virtual reality service identified in service No. S002 can be used only within a predetermined location range, and the location range where the virtual reality service can be used is the virtual reality service usage condition. It may be set. For example, the condition regarding the position range is set when the virtual reality service identified by No: S002 can be used only at a specific event venue. In this case, the virtual reality service provision start processing unit 1321 determines whether the current location of the user indicated by the location information received by the communication unit 1310 is within a location range that is a virtual reality service usage condition. Similarly, a location range where the virtual reality service cannot be used may be set as the virtual reality service usage condition.
また、仮想現実サービス利用条件は、仮想現実サービスを提供するユーザ毎に異なる条件が設定されていても良い。ユーザは、予め自ら仮想現実サービスを利用する条件を仮想現実サービス利用条件として設定する。例えば、ユーザは自宅でのみ仮想現実サービスを利用したい場合は、自宅の位置範囲を仮想現実サービス利用条件として設定しておく。当該設定された仮想現実サービス利用条件が仮想現実サービス利用条件記憶DB2400に格納され、仮想現実サービスの提供を行うかどうかの判定処理に利用される。仮想現実サービス提供開始処理部1321は、仮想現実サービス利用条件記憶DB2400に記憶されている当該ユーザに対して設定されている仮想現実サービス利用条件を参照し、通信部1310が受信した位置情報が示す当該ユーザの現在の位置が、仮想現実サービス利用条件として設定されている自宅の位置範囲の中であるかを判定する。 Also, the virtual reality service usage conditions may be set differently for each user who provides the virtual reality service. The user previously sets a condition for using the virtual reality service in advance as a virtual reality service use condition. For example, when the user wants to use the virtual reality service only at home, the location range of the home is set as a virtual reality service usage condition. The set virtual reality service use condition is stored in the virtual reality service use condition storage DB 2400, and is used for the determination process of whether to provide the virtual reality service. The virtual reality service provision start processing unit 1321 refers to the virtual reality service use conditions set for the user stored in the virtual reality service use condition storage DB 2400, and indicates the position information received by the communication unit 1310. It is determined whether the current position of the user is within the position range of the home set as the virtual reality service usage conditions.
なお、仮想現実サービス提供開始処理部1321は、画像解析処理部2360の物体位置特定部2361より、ユーザの周囲にある物体の位置関係に関する情報を入力し、仮想現実サービスをユーザが利用可能であるかを判定しても良い。例えば、ユーザから所定の距離以内の場所に干渉となる物体が無いことが、選択された仮想現実サービスにおける仮想現実サービス利用条件として設定されている場合に、物体位置特定部2361で特定されるユーザの周囲の物体の位置関係に基づいて当該条件を満たしているかを判定する。その他、ユーザの周囲に所定の高さ以上の段差がないことを仮想現実サービスの利用を開始するための仮想現実サービス利用条件として設定されていても良い。仮想現実サービス提供開始処理部1321は上述した複数の種類の仮想現実サービス利用条件に対して判定処理を行い、仮想現実サービスの提供を開始するかどうかを決定する。 Note that the virtual reality service provision start processing unit 1321 inputs information regarding the positional relationship of objects around the user from the object position specifying unit 2361 of the image analysis processing unit 2360, and the user can use the virtual reality service. It may be determined. For example, when it is set as a virtual reality service usage condition in the selected virtual reality service that there is no interference object in a place within a predetermined distance from the user, the user specified by the object position specifying unit 2361 It is determined whether or not the condition is satisfied based on the positional relationship between the surrounding objects. In addition, it may be set as a virtual reality service use condition for starting the use of the virtual reality service that there is no step higher than a predetermined height around the user. The virtual reality service provision start processing unit 1321 performs determination processing on the above-described plurality of types of virtual reality service usage conditions, and determines whether to start provision of the virtual reality service.
仮想現実サービス提供開始処理部1321は、上記判定処理の結果、選択した仮想現実サービスを提供可能であると判定した場合、すなわち選択された仮想現実サービスをユーザは利用可能であると判定した場合に、仮想現実オブジェクト読み出し部1330に、当該仮想現実サービスに用いる仮想現実オブジェクトの読み出しを指示する。 When the virtual reality service provision start processing unit 1321 determines that the selected virtual reality service can be provided as a result of the determination process, that is, when the user determines that the selected virtual reality service is available. The virtual reality object reading unit 1330 is instructed to read a virtual reality object used for the virtual reality service.
また、仮想現実サービス提供開始処理部1321は、仮想現実サービスの提供を開始することを通知する仮想現実サービス開始通知情報を生成し、通信部1310に出力する。当該仮想現実サービス開始通知情報は、通信部1310より仮想現実提示装置200に送信され、仮想現実提示装置200の仮想現実提示制御部260における各種制御が開始される。 Further, the virtual reality service provision start processing unit 1321 generates virtual reality service start notification information for notifying that the provision of the virtual reality service is started, and outputs the virtual reality service start notification information to the communication unit 1310. The virtual reality service start notification information is transmitted from the communication unit 1310 to the virtual reality presentation device 200, and various controls in the virtual reality presentation control unit 260 of the virtual reality presentation device 200 are started.
仮想現実サービス提供終了処理部1322は、ユーザに提供中の仮想現実サービスを終了する処理を行う。仮想現実サービス提供終了処理部1322は、現在提供中の仮想現実サービスの終了を要求する仮想現実サービス終了要求が通信部1310で受信された場合に、仮想現実サービスを終了する処理を行う。 The virtual reality service provision end processing unit 1322 performs processing to end the virtual reality service being provided to the user. The virtual reality service provision end processing unit 1322 performs processing to end the virtual reality service when the communication unit 1310 receives a virtual reality service end request for requesting termination of the currently provided virtual reality service.
また、仮想現実サービス提供終了処理部1322は、仮想現実サービス利用条件記憶DB2400に記憶されている仮想現実サービス利用条件を参照し、当該仮想現実サービス利用条件を満たさなくなった場合に、仮想現実サービス終了処理を実行する。例えば、位置範囲が仮想現実サービス利用条件に設定されている場合は、当該条件として指定されている位置範囲からユーザの現在位置が外れた場合に、現在提供中の仮想現実サービスを終了する処理を行う。また、例えば、時間帯が仮想現実サービス利用条件として設定されている場合は、当該条件として指定されている時間帯を現在の時刻が過ぎた場合に、現在提供中の仮想現実サービスを終了する処理を行う。 Also, the virtual reality service provision end processing unit 1322 refers to the virtual reality service usage conditions stored in the virtual reality service usage condition storage DB 2400, and when the virtual reality service usage conditions are not satisfied, the virtual reality service termination is performed Execute the process. For example, if the location range is set as a virtual reality service usage condition, a process of terminating the currently provided virtual reality service when the current location of the user deviates from the location range specified as the condition. Do. Also, for example, when a time zone is set as a virtual reality service usage condition, a process of terminating the currently provided virtual reality service when the current time has passed the time zone specified as the condition I do.
また、例えば、仮想現実サービスの一回における提供時間が2時間として仮想現実サービス利用条件に設定されている場合に、仮想現実サービス提供終了処理部1322は、仮想現実サービス提供開始処理部1321において仮想現実サービスの提供が開始された時点で上記仮想現実サービス利用条件として指定されている時間のタイマをセットして時間計測を開始する。仮想現実サービス提供終了処理部1322は、当該時間計測が完了した時点で、提供中の仮想現実サービスの終了処理を行う。 Further, for example, when the virtual reality service use condition is set to 2 hours as a virtual reality service use condition, the virtual reality service provision end processing unit 1322 performs virtual processing in the virtual reality service provision start processing unit 1321. When the provision of the real service is started, the timer for the time specified as the virtual reality service use condition is set and the time measurement is started. The virtual reality service provision end processing unit 1322 performs a termination process of the virtual reality service being provided when the time measurement is completed.
仮想現実サービス提供終了処理部1322は、表示映像生成処理部1350の描画処理部1353に描画処理の終了を指示することで仮想現実サービスの提供を終了する。また、仮想現実サービス提供終了処理部1322は、仮想現実サービスの提供を終了することを通知する仮想現実サービス終了通知情報を生成し、通信部1310に出力する。当該仮想現実サービス終了通知情報は、通信部1310より仮想現実提示装置200に送信され、仮想現実提示装置200の仮想現実提示制御部260によって仮想現実の提示を終了する制御が行われる。 The virtual reality service provision end processing unit 1322 terminates the provision of the virtual reality service by instructing the drawing processing unit 1353 of the display video generation processing unit 1350 to end the drawing processing. In addition, the virtual reality service provision end processing unit 1322 generates virtual reality service end notification information for notifying that provision of the virtual reality service is to be ended, and outputs the virtual reality service end notification information to the communication unit 1310. The virtual reality service end notification information is transmitted from the communication unit 1310 to the virtual reality presentation device 200, and the virtual reality presentation control unit 260 of the virtual reality presentation device 200 performs control to end the presentation of the virtual reality.
仮想現実オブジェクト読み出し部1330は、仮想現実サービス提供開始処理部1321においてユーザへの提供を開始すると決定された仮想現実サービスに用いられる仮想現実オブジェクトを仮想現実オブジェクト記憶DB1200より読み出す。 The virtual reality object reading unit 1330 reads from the virtual reality object storage DB 1200 a virtual reality object used for the virtual reality service determined to start providing to the user by the virtual reality service provision start processing unit 1321.
仮想現実オブジェクト配置位置決定部1340は、ユーザの周囲の状況を示す周囲状況情報に基づいて、仮想空間における仮想現実オブジェクトの配置位置を決定する。仮想現実オブジェクト配置位置決定部1340は、周囲状況情報として入力された各カメラで取得された画像に基づいて、物体位置特定部2361で特定されたユーザの周囲の物体の位置関係に基づいて、仮想現実オブジェクト読み出し部1330で読み出された仮想現実オブジェクトを、当該ユーザの周囲の物体と干渉しない位置に配置する。 The virtual reality object placement position determination unit 1340 determines the placement position of the virtual reality object in the virtual space based on the surrounding situation information indicating the surrounding situation of the user. The virtual reality object arrangement position determination unit 1340 is based on the positional relationship of the objects around the user specified by the object position specifying unit 2361 based on the image acquired by each camera input as the surrounding state information. The virtual reality object read by the real object reading unit 1330 is arranged at a position where it does not interfere with objects around the user.
好ましくは、物体位置特定部2361が生成した現実の世界におけるユーザの周囲の物理的環境が3Dポリゴンデータでモデル化されている仮想空間において、3Dポリゴンデータでモデリングされているユーザの周囲の物体と干渉を起こさない位置(例えば、現実空間に存在する物体と仮想現実オブジェクトが所定量以上重ならず、所定量以上の面積で接する位置)に仮想現実オブジェクト読み出し部1330で読み出された仮想現実オブジェクトを配置する。 Preferably, in a virtual space in which the physical environment around the user in the real world generated by the object position specifying unit 2361 is modeled with 3D polygon data, The virtual reality object read by the virtual reality object reading unit 1330 at a position where interference does not occur (for example, a position where an object existing in the real space and the virtual reality object do not overlap with each other by a predetermined amount but touch an area of a predetermined amount or more) Place.
表示映像生成処理部1350は、ユーザの状態を示すユーザ状態情報と仮想現実オブジェクトの配置位置とに基づいて、ユーザが頭部に装着する仮想現実提示装置200の表示部150に表示される映像を生成する。仮想現実サービス提供サーバ2300において、表示映像生成処理部1350は、視点制御部1351と、光源制御部1352と、描画処理部1353と、映像符号化処理部1354と、を備える。 The display video generation processing unit 1350 displays the video displayed on the display unit 150 of the virtual reality presentation device 200 worn by the user on the head based on the user status information indicating the user status and the arrangement position of the virtual reality object. Generate. In the virtual reality service providing server 2300, the display video generation processing unit 1350 includes a viewpoint control unit 1351, a light source control unit 1352, a drawing processing unit 1353, and a video encoding processing unit 1354.
視点制御部1351は、ユーザの状態を示すユーザ状態情報に基づいて仮想現実オブジェクトを描画する際の視点の位置及び方向を制御する。具体的には、ユーザ状態情報に含まれるユーザの頭部の傾きを示す傾き情報やユーザの頭部の加速度を示す加速度情報に基づいて、ユーザの左目の位置と右目の位置に対応する仮想空間での視点位置を算出する。また、加速度情報に基づいて、ユーザの視線の方向に対応する仮想空間での視線方向を算出する。ここで、視線方向は、ユーザが眼球のみを移動させた場合の視線の方向ではなく、ユーザの頭部の方向と対応している。 The viewpoint control unit 1351 controls the position and direction of the viewpoint when drawing the virtual reality object based on the user state information indicating the user state. Specifically, based on the tilt information indicating the tilt of the user's head included in the user state information and the acceleration information indicating the acceleration of the user's head, a virtual space corresponding to the position of the left eye and the position of the right eye of the user The viewpoint position at is calculated. Further, the line-of-sight direction in the virtual space corresponding to the direction of the user's line of sight is calculated based on the acceleration information. Here, the line-of-sight direction corresponds to the direction of the user's head, not the direction of the line of sight when the user moves only the eyeball.
なお、ユーザ状態情報の中にはユーザの方向を示す方位情報やユーザの移動速度を示す移動速度情報などが含まれていると更に好ましい。視点制御部1351は、ユーザ状態情報に含まれるこれら各情報に基づいてユーザの頭部の姿勢を算出し、ユーザの左目と右目の位置及びユーザの頭部が向いている方向を特定する。視点制御部1351は、ユーザの目の位置及び頭部の方向に対応する仮想空間における視点の位置及び視線の方向を算出する。 It is more preferable that the user status information includes azimuth information indicating the direction of the user, movement speed information indicating the movement speed of the user, and the like. The viewpoint control unit 1351 calculates the posture of the user's head based on each piece of information included in the user state information, and specifies the positions of the user's left eye and right eye and the direction in which the user's head is facing. The viewpoint control unit 1351 calculates the position of the viewpoint and the direction of the line of sight in the virtual space corresponding to the position of the user's eyes and the direction of the head.
光源制御部1352は、画像解析処理部2360の光学成分抽出部2362で抽出された光学成分に基づいて、仮想空間における光源の位置及び光源の強さ(明るさ)を算出する。例えば、光源制御部1352は、光学成分抽出部2362で抽出された画像の各画素の輝度の平均値を算出することで、無限遠方の光源の強さを算出し、当該画像の画素間の輝度の差分に基づいて、他の光源の位置及び強さを算出する。また、光源制御部1352は、解析処理が行われた画像における画素の色差信号に基づいて光源の色を算出しても良い。 The light source control unit 1352 calculates the position of the light source and the intensity (brightness) of the light source in the virtual space based on the optical component extracted by the optical component extraction unit 2362 of the image analysis processing unit 2360. For example, the light source control unit 1352 calculates the intensity of the light source at infinity by calculating the average value of the luminance of each pixel of the image extracted by the optical component extraction unit 2362, and the luminance between the pixels of the image. Based on the difference, the position and intensity of another light source are calculated. Further, the light source control unit 1352 may calculate the color of the light source based on the color difference signal of the pixel in the image subjected to the analysis process.
描画処理部1353は、仮想現実オブジェクトをリアルタイムにレンダリングして2次元画像を生成する。一例として、描画処理部1353は、以下に示す投影処理、クリッピング処理、隠面処理、シェーディング処理、テキスチャーマッピング処理等の一部又は複数の処理を組み合わせてレンダリングを行い、仮想現実オブジェクトの映像を生成する。 The drawing processing unit 1353 generates a two-dimensional image by rendering the virtual reality object in real time. As an example, the rendering processing unit 1353 performs rendering by combining a part or a plurality of processes such as a projection process, a clipping process, a hidden surface process, a shading process, and a texture mapping process shown below to generate a video of a virtual reality object. To do.
描画処理部1353は、視点制御部1351で求められた視点の位置及び視線の方向に基づいて、仮想空間内の所定の位置にイメージプレーンを設定し、仮想現実オブジェクトを投影することで、仮想現実オブジェクトの投影画像を取得する。描画処理部1353は、仮想現実オブジェクトが投影されたイメージプレーンのクリッピング処理を行い、仮想現実提示装置200における表示部150で表示される範囲を選択する。 The drawing processing unit 1353 sets an image plane at a predetermined position in the virtual space based on the viewpoint position and the line-of-sight direction obtained by the viewpoint control unit 1351, and projects the virtual reality object. Get the projected image of the object. The drawing processing unit 1353 performs clipping processing of the image plane on which the virtual reality object is projected, and selects a range displayed on the display unit 150 in the virtual reality presentation device 200.
描画処理部1353は、物体位置特定部2361で特定された現実の世界の物体のモデルに基づいて隠面処理を行う。描画処理部1353は、イメージプレーンに投影された仮想現実オブジェクトの画像を構成する画素の中から、視点制御部1351で算出された視点位置と仮想現実オブジェクトの間に位置している現実の世界の物体のモデルの投影画像と重複する画素のデータを消去することで隠面処理を行う。 The drawing processing unit 1353 performs hidden surface processing based on the model of the real world object specified by the object position specifying unit 2361. The drawing processing unit 1353 is a pixel of the real world located between the viewpoint position calculated by the viewpoint control unit 1351 and the virtual reality object, out of the pixels constituting the virtual reality object image projected onto the image plane. Hidden surface processing is performed by deleting pixel data that overlaps the projected image of the object model.
描画処理部1353は、光源制御部1352で算出された光源の位置及び強さに基づいてシェーディング処理を行い、仮想現実オブジェクトの表面の輝度や光の上がり具合、光の透過の状態を調整する。描画処理部1353は、仮想現実オブジェクトの表面に張り付けられるテキスチャーデータを用いてテキスチャーマッピング処理を行い、アンチエリアシング処理等の補正処理を適宜行い、最終的に仮想現実提示装置200の表示部150で表示する映像を生成する。 The drawing processing unit 1353 performs shading processing based on the position and intensity of the light source calculated by the light source control unit 1352, and adjusts the brightness of the surface of the virtual reality object, the degree of light rise, and the light transmission state. The rendering processing unit 1353 performs texture mapping processing using texture data pasted on the surface of the virtual reality object, appropriately performs correction processing such as anti-aliasing processing, and finally is performed by the display unit 150 of the virtual reality presentation device 200. Generate video for display.
なお、描画処理部1353は、視点制御部1351が制御する左目に対応する視点と右目に対応する視点に基づいて、左目用の映像と右目用の映像の2枚の映像を生成する。描画処理部1353は、生成した映像を映像符号化処理部1354に出力する。 Note that the drawing processing unit 1353 generates two images, a left-eye image and a right-eye image, based on the viewpoint corresponding to the left eye and the viewpoint corresponding to the right eye controlled by the viewpoint control unit 1351. The drawing processing unit 1353 outputs the generated video to the video encoding processing unit 1354.
映像符号化処理部1354は、描画処理部1353におけるリアルタイムレンダリング処理で順次生成される映像を所定の符号化方式に基づいて圧縮符号化処理を行う。映像符号化処理部1354符号化処理後の映像符号化データを通信部1310に出力する。通信部1310は、映像符号化処理部1354より出力される映像符号化データを仮想現実提示装置200に送信し、仮想現実提示装置200の表示制御部140で復号処理が行われ、復号処理後の映像が表示部150に表示される。 The video encoding processing unit 1354 performs compression encoding processing on videos sequentially generated by the real-time rendering processing in the drawing processing unit 1353 based on a predetermined encoding method. Video encoded data after the video encoding processing unit 1354 encoding process is output to the communication unit 1310. The communication unit 1310 transmits the video encoded data output from the video encoding processing unit 1354 to the virtual reality presentation device 200, and the decoding control is performed by the display control unit 140 of the virtual reality presentation device 200. The video is displayed on the display unit 150.
以上説明したように、本実施形態2に係る仮想現実サービス提供システム2000によれば、サービス利用条件を満たしているかの判定結果に基づいて、仮想現実サービスが提供されるため、現実の世界との関係で適切でない場合のサービス提供を防ぐことができる。 As described above, according to the virtual reality service providing system 2000 according to the second embodiment, the virtual reality service is provided based on the determination result of whether the service use condition is satisfied. It is possible to prevent service provision when the relationship is not appropriate.
なお、仮想現実サービス提示サーバ2300は、図7に示す構成とすると更に好ましい。図7に示す仮想現実サービス提供サーバ2300において、仮想現実サービス提供管理部1320は、仮想現実サービス中断処理部1323を備え、画像解析処理部2360は、移動速度算出部2363を備える。 The virtual reality service presentation server 2300 is more preferably configured as shown in FIG. In the virtual reality service providing server 2300 illustrated in FIG. 7, the virtual reality service provision management unit 1320 includes a virtual reality service interruption processing unit 1323, and the image analysis processing unit 2360 includes a movement speed calculation unit 2363.
移動速度算出部2363は、物体位置特定部2361で特定されるユーザの周囲に存在する各物体の位置の時間的変化に基づいて、各物体の移動速度を算出する。移動速度算出部2363は、算出した各物体の移動速度を仮想現実サービス中断処理部1323に出力する。また、物体位置特定部2361は、算出した各物体の距離を仮想現実サービス中断処理部1323に出力する。 The moving speed calculation unit 2363 calculates the moving speed of each object based on the temporal change in the position of each object existing around the user specified by the object position specifying unit 2361. The movement speed calculation unit 2363 outputs the calculated movement speed of each object to the virtual reality service interruption processing unit 1323. Further, the object position specifying unit 2361 outputs the calculated distance of each object to the virtual reality service interruption processing unit 1323.
仮想現実サービス中断処理部1323は、仮想現実サービスをユーザに提供している場合であって、所定の中断条件を満たした場合に仮想現実サービスの提供を強制的に中断する処理を行う。仮想現実サービス利用条件記憶DB2400は、仮想現実サービスの提供を中断する条件である仮想現実サービス提供中断条件を更に記憶しており、仮想現実サービス中断処理部1323は、当該仮想現実サービス提供中断条件を参照して、仮想現実サービスの提供を中断するかどうかを判断する。 The virtual reality service interruption processing unit 1323 performs a process of forcibly interrupting the provision of the virtual reality service when a virtual reality service is provided to the user and a predetermined interruption condition is satisfied. The virtual reality service usage condition storage DB 2400 further stores a virtual reality service provision interruption condition that is a condition for interrupting provision of the virtual reality service, and the virtual reality service interruption processing unit 1323 stores the virtual reality service provision interruption condition. By referring, it is determined whether or not the provision of the virtual reality service is interrupted.
例えば、仮想現実サービス中断処理部1323は、ユーザより仮想現実サービスの利用中断を要求する仮想現実サービス中断要求が通信部1310で受信された場合に、提供中の仮想現実サービスの提供を中断する処理を行う。 For example, the virtual reality service interruption processing unit 1323 suspends provision of the virtual reality service being provided when a virtual reality service interruption request for requesting interruption of use of the virtual reality service is received from the user by the communication unit 1310. I do.
また、例えば、仮想現実サービス中断処理部1323は、物体位置特定部2361で特定された物体の中で、当該物体までの距離Lが所定の範囲内であって、当該物体の移動速度Vが所定の速度以上である物体がある場合に、仮想現実サービスの中断処理を行う。例えば、仮想現実サービス提供中断条件として、0m<L≦20m、5m/s≦V≦200m/sと言った条件が設定されていても良いし、0<L/V≦4と言った条件が設定されていても良い。 Further, for example, the virtual reality service interruption processing unit 1323 has the distance L to the object within a predetermined range among the objects specified by the object position specifying unit 2361, and the moving speed V of the object is a predetermined value. When there is an object whose speed is greater than or equal to, the virtual reality service is interrupted. For example, as a virtual reality service provision interruption condition, a condition such as 0 m <L ≦ 20 m, 5 m / s ≦ V ≦ 200 m / s may be set, or a condition such as 0 <L / V ≦ 4 may be set. It may be set.
また、例えば、仮想現実サービス中断処理部1323は、ユーザが移動している場合であって、ユーザの移動方向の所定の距離以内に障害となる物体が物体位置特定部2361で特定された場合に、仮想現実サービスの中断処理を行う。 Further, for example, the virtual reality service interruption processing unit 1323 is a case where the user is moving and an object that becomes an obstacle within a predetermined distance in the moving direction of the user is specified by the object position specifying unit 2361. The virtual reality service is interrupted.
仮想現実サービス中断処理部1323は、仮想現実サービスの提供を中断することを通知する仮想現実サービス中断通知情報を生成し、通信部1310に当該生成した仮想現実サービス中断通知情報を出力する。当該仮想現実サービス中断通知情報は、通信部1310より仮想現実提示装置200に送信され、仮想現実提示装置200の仮想現実提示制御部260は、当該仮想現実サービス中断通知情報を受け取った場合に、表示制御部140に、表示部150に表示中の映像の表示を中断する指示を出す。表示制御部140は、当該中断指示に基づいて、表示部150に表示している仮想現実オブジェクトの映像の表示を中断する制御を行う。なお、この場合、表示制御部140は、仮想現実オブジェクトの表示を強制的に中断することを示す画像を表示部150に表示する構成とすると、障害等の発生により仮想現実サービスの提供が強制的に中断されたことをユーザに適切に認識させることができるため好ましい。 The virtual reality service interruption processing unit 1323 generates virtual reality service interruption notification information for notifying that provision of the virtual reality service is interrupted, and outputs the generated virtual reality service interruption notification information to the communication unit 1310. The virtual reality service interruption notification information is transmitted from the communication unit 1310 to the virtual reality presentation device 200. When the virtual reality presentation control unit 260 of the virtual reality presentation device 200 receives the virtual reality service interruption notification information, the virtual reality service interruption notification information is displayed. The control unit 140 is instructed to interrupt the display of the image being displayed on the display unit 150. The display control unit 140 performs control to interrupt display of the video of the virtual reality object displayed on the display unit 150 based on the interruption instruction. In this case, if the display control unit 140 is configured to display an image indicating that the display of the virtual reality object is forcibly interrupted on the display unit 150, the provision of the virtual reality service is compulsory due to the occurrence of a failure or the like. It is preferable because the user can appropriately recognize that the operation has been interrupted.
仮想現実サービス中断処理部1323は、中断した仮想現実サービスを再開する場合に、仮想現実サービス再開通知情報を生成して通信部1310より仮想現実提示装置200に送信する。当該仮想現実サービス再開通知情報を受け取った仮想現実提示制御部260は、表示制御部140に、通信部130で受信される映像符号化データを復号して映像を表示部150に表示する制御を再開させる。 When resuming the interrupted virtual reality service, the virtual reality service interruption processing unit 1323 generates virtual reality service restart notification information and transmits the virtual reality service restart notification information to the virtual reality presentation device 200 from the communication unit 1310. The virtual reality presentation control unit 260 that has received the virtual reality service resumption notification information resumes the display control unit 140 to decode the video encoded data received by the communication unit 130 and display the video on the display unit 150. Let
なお、仮想現実サービス中断処理部1323は、仮想現実サービスの中断中は、描画処理部1353にレンダリング処理の中断を指示して、レンダリング処理を止めておいても良い。 Note that the virtual reality service interruption processing unit 1323 may stop the rendering process by instructing the drawing processing unit 1353 to interrupt the rendering process while the virtual reality service is interrupted.
なお、上述した仮想現実サービス中断処理部1323や画像解析処理部2360を、仮想現実提示装置200が具備する構成としても良い。この場合、画像解析処理部2360は、周囲状況検知部120で撮影された映像に対して上述した所定の解析処理を行うことでユーザ周囲の物体の位置関係や各物体とユーザ間の相対的な移動速度などを検出する。仮想現実サービス中断処理部1323は、当該画像解析処理部2360における解析処理に基づいて取得された物体の位置関係に関する情報や移動速度に関する情報、その他ユーザ状態検知部110で検知されたユーザの状態に基づいて、現在当該ユーザに対して提示している仮想現実サービスの提示を中断するかを判断する処理を行う。具体的には、表示部150で行われている仮想現実オブジェクトの映像の表示を中断する指示を表示制御部140に出力する。表示制御部140は、仮想現実サービス中断処理部1323からの中断指示に基づいて、表示部150における仮想現実オブジェクトの映像の表示処理を中断する制御を行う。この場合、表示制御部140は、中断した仮想現実オブジェクトの映像の代わりに、ユーザの周囲の状況等が中断条件に該当したことで仮想現実サービスを中断することを当該ユーザに警告する画面を表示部150に表示する制御を行う構成としても良い。 The virtual reality service interruption processing unit 1323 and the image analysis processing unit 2360 described above may be included in the virtual reality presentation device 200. In this case, the image analysis processing unit 2360 performs the above-described predetermined analysis processing on the video imaged by the surrounding state detection unit 120, so that the positional relationship between the objects around the user and the relative relationship between each object and the user. Detect movement speed. The virtual reality service interruption processing unit 1323 displays information related to the positional relationship of the object acquired based on the analysis processing in the image analysis processing unit 2360, information related to the moving speed, and the user status detected by the user status detection unit 110. Based on this, a process for determining whether to interrupt the presentation of the virtual reality service currently being presented to the user is performed. Specifically, an instruction to interrupt the video display of the virtual reality object being performed on the display unit 150 is output to the display control unit 140. The display control unit 140 performs control to interrupt the display processing of the virtual reality object video on the display unit 150 based on the suspension instruction from the virtual reality service suspension processing unit 1323. In this case, instead of the video of the interrupted virtual reality object, the display control unit 140 displays a screen that warns the user that the virtual reality service will be interrupted due to the situation around the user corresponding to the interrupt condition. It is good also as a structure which performs control displayed on the part 150. FIG.
(実施形態3)
図8は、本実施形態3に係る仮想現実提示装置であるヘッドマウントディスプレイ(HMD)装置300の斜め前方と斜め後方からの外観斜視図である。HMD装置300は、フレーム301と、フロントパネル302と、を少なくとも備える。
(Embodiment 3)
FIG. 8 is an external perspective view of a head-mounted display (HMD) device 300 that is a virtual reality presentation device according to the third embodiment from obliquely forward and obliquely rearward. The HMD device 300 includes at least a frame 301 and a front panel 302.
フレーム301は、HMD装置300の筐体であり、内部には、CPU(Central Processing Unit)等の情報処理プロセッサ、RAM(Random Access Memory)、ROM(Read only memory)、無線通信処理プロセッサ、バッテリーなどが配置されている。また、必要に応じて映像を描画する専用の映像処理プロセッサなどが合わせて配置されている。フレーム301は、大きく分けてライトフレーム301a、レフトフレーム301b、センターフレーム301cから構成される。 A frame 301 is a housing of the HMD device 300, and includes an information processing processor such as a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read only memory), a wireless communication processing processor, a battery, and the like. Is arranged. In addition, a dedicated video processor or the like that draws video as necessary is also arranged. The frame 301 is roughly composed of a right frame 301a, a left frame 301b, and a center frame 301c.
ライトフレーム301a及び301bは、ユーザの左右の耳にそれぞれ接続する筐体部材であり、それぞれ一端の内側にアナログ電気信号を空気振動に変換して音声を出力するスピーカ391a、391bが配置され、他端がセンターフレーム301cと接続されている。 The light frames 301a and 301b are housing members that are connected to the left and right ears of the user, respectively, and speakers 391a and 391b that convert analog electric signals into air vibrations and output sound are arranged inside one end, respectively. The end is connected to the center frame 301c.
また、ライトフレーム301a及びレフトフレーム301bの一端の外側に周囲の音声を集音する周囲マイクロフォン372a、372bが配置されている。また、ライトフレーム301aの内側の前端下方には、ユーザが発した音声を集音するユーザマイクロフォン371を備える。ユーザマイクロフォン371や周囲マイクロフォン372a、372bで集音された音声は、AD変換でデジタル音声信号に変換され、情報処理プロセッサに出力される。 In addition, surrounding microphones 372a and 372b that collect surrounding sounds are arranged outside one ends of the right frame 301a and the left frame 301b. In addition, a user microphone 371 that collects a voice uttered by the user is provided below the front end inside the light frame 301a. The sound collected by the user microphone 371 and the surrounding microphones 372a and 372b is converted into a digital sound signal by AD conversion and output to the information processing processor.
ライトフレーム301a及び301bの端部には、それぞれ傾きを検知する傾きセンサ111a、111bと、加速度を検知する加速度センサ112a、112bが配置されている。また、ライトフレーム301a及びレフトフレーム301bの外側には、周囲の景色を撮影する周囲カメラ122a、122bがそれぞれ配置されている。 At the ends of the light frames 301a and 301b, inclination sensors 111a and 111b for detecting inclination and acceleration sensors 112a and 112b for detecting acceleration are arranged, respectively. In addition, the surrounding cameras 122a and 122b for photographing the surrounding scenery are arranged outside the right frame 301a and the left frame 301b, respectively.
センターフレーム301cは、両端がそれぞれライトフレーム301a、レフトフレーム301bに接続されており、センターフレーム301cの下方にフロントパネル302が接続されている。 Both ends of the center frame 301c are connected to the right frame 301a and the left frame 301b, respectively, and the front panel 302 is connected below the center frame 301c.
センターフレーム301cの中央付近と両端付近には、傾きを検知する傾きセンサ111c、111d、111eと、加速度を検知する加速度センサ112c、112d、112eがそれぞれ配置されている。また、センターフレーム301cの前方側であって、ユーザの左右の目の位置には、ユーザの視界と対応する景色を撮影する視線カメラ121a、121bが配置されている。視線カメラ121a、121bは、センターフレーム301cの前方側に、ユーザの左右の目の間隔に対応する距離だけ離れた位置に配置されている。 Near the center and near both ends of the center frame 301c, tilt sensors 111c, 111d, and 111e that detect tilt and acceleration sensors 112c, 112d, and 112e that detect acceleration are arranged, respectively. In addition, line-of-sight cameras 121a and 121b for photographing a scene corresponding to the user's field of view are arranged on the front side of the center frame 301c and at the positions of the left and right eyes of the user. The line-of-sight cameras 121a and 121b are arranged on the front side of the center frame 301c at positions separated by a distance corresponding to the distance between the left and right eyes of the user.
フロントパネル302は、HMD装置300を頭部に装着した状態でユーザの目の前方に来る位置に配置される。本実施形態3に係るHMD装置300において、フロントパネル302は透過型ディスプレイであり、右目の前方と左目の前方にそれぞれ映像を表示する表示領域であるライト表示パネル(第1映像表示部)151aとレフト表示パネル(第2映像表示部)151bとが配置される。 The front panel 302 is disposed at a position in front of the user's eyes with the HMD device 300 mounted on the head. In the HMD device 300 according to the third embodiment, the front panel 302 is a transmissive display, and includes a light display panel (first video display unit) 151a that is a display area for displaying images in front of the right eye and in front of the left eye, respectively. A left display panel (second video display unit) 151b is arranged.
図8に示すHMD装置300では、ライト表示パネル151aとレフト表示パネル151bは、導光板と液晶パネル(LCD)が重ね合わされた構造を取る。液晶パネルは、透明電極(透明導電膜)、偏光板(偏光フィルム)、液晶層、ガラス基板、カラーフィルタ等が積層された構造をとる。 In the HMD device 300 shown in FIG. 8, the right display panel 151a and the left display panel 151b have a structure in which a light guide plate and a liquid crystal panel (LCD) are overlapped. The liquid crystal panel has a structure in which a transparent electrode (transparent conductive film), a polarizing plate (polarizing film), a liquid crystal layer, a glass substrate, a color filter, and the like are laminated.
図9は、HMD装置300のライト表示パネル151a付近の断面図を示している。センターフレーム301cの下方には、フロントパネル302が配置されており、センターフレーム301cの下部には光源352が配置されている。 FIG. 9 is a cross-sectional view of the vicinity of the light display panel 151 a of the HMD device 300. A front panel 302 is disposed below the center frame 301c, and a light source 352 is disposed below the center frame 301c.
光源352より放射された可視光はフロントパネル302側へ照射される。フロントパネル302は、導光板353とLCD354とが合わさった構成であり、光源352より放射された可視光が導光板353でユーザ側へ反射され、表示制御されたLCD354を透過することで映像が表示される。 Visible light emitted from the light source 352 is irradiated to the front panel 302 side. The front panel 302 has a configuration in which a light guide plate 353 and an LCD 354 are combined. Visible light emitted from the light source 352 is reflected to the user side by the light guide plate 353 and transmitted through the display-controlled LCD 354 to display an image. Is done.
図10は、本実施形態3に係る仮想現実サービス提供システム3000の機能構成を示すブロック図である。仮想現実サービス提供システム3000は、契約者情報記憶DB3100と、仮想現実コンテンツ記憶DB3200と、仮想現実サービス提供サーバ3300と、セーブデータ記憶DB3500と、を備え、仮想現実提示装置であるHMD装置300とインターネット等の通信網を介して接続されている。 FIG. 10 is a block diagram illustrating a functional configuration of the virtual reality service providing system 3000 according to the third embodiment. The virtual reality service providing system 3000 includes a contractor information storage DB 3100, a virtual reality content storage DB 3200, a virtual reality service providing server 3300, and a save data storage DB 3500, and includes an HMD device 300 that is a virtual reality presentation device and the Internet. Connected via a communication network.
HMD装置300は、ユーザ状態検知部110と、周囲状況検知部120と、通信部130と、表示制御部140と、表示部150と、仮想現実提示制御部260と、音声入力部370と、音声再生制御部380と、音声出力部390と、を備える。 The HMD device 300 includes a user state detection unit 110, an ambient state detection unit 120, a communication unit 130, a display control unit 140, a display unit 150, a virtual reality presentation control unit 260, a voice input unit 370, and a voice. A playback control unit 380 and an audio output unit 390 are provided.
ユーザ状態検知部110は、仮想現実提示装置であるHMD装置300を使用しているユーザの状態を検知する。ユーザ状態検知部110として、HMD装置300は、傾きを検知する傾きセンサ111と、加速度を検知する加速度センサ112と、を備える。傾きセンサ111で生成された傾き情報や加速度センサ112で生成された加速度情報は、それぞれユーザの状態を示すユーザ状態情報として通信部130より仮想現実サービス提供サーバ3300へ送信される。 The user state detection unit 110 detects the state of a user who is using the HMD device 300 that is a virtual reality presentation device. As the user state detection unit 110, the HMD device 300 includes an inclination sensor 111 that detects inclination and an acceleration sensor 112 that detects acceleration. The inclination information generated by the inclination sensor 111 and the acceleration information generated by the acceleration sensor 112 are transmitted from the communication unit 130 to the virtual reality service providing server 3300 as user state information indicating the state of the user.
周囲状況検知部120は、HMD装置300を使用しているユーザの周囲の状況を検知する。具体的には、周囲状況検知部120は、外部環境の映像を取得することで周囲の状況を検知する。周囲状況検知部120として、HMD装置300は、ユーザの視線と対応した景色を撮影する視線カメラ121と、ユーザの両側や後方など視線カメラ121では撮影できない範囲の景色を撮影する周囲カメラ122と、を備える。視線カメラ121で撮影されたユーザ前方の景色の映像や周囲カメラ122で撮影されたユーザの周囲の映像は、それぞれ適宜圧縮等の符号化が行われた上で、周囲状況情報として通信部130より仮想現実サービス提供サーバ3300へ送信される。 The surrounding situation detection unit 120 detects the surrounding situation of the user who is using the HMD device 300. Specifically, the surrounding situation detection unit 120 detects the surrounding situation by acquiring an image of the external environment. As the surrounding state detection unit 120, the HMD device 300 includes a line-of-sight camera 121 that captures a scene corresponding to the user's line of sight, a surrounding camera 122 that captures a range of scenes that cannot be captured by the line-of-sight camera 121, such as both sides and behind the user, Is provided. The image of the scenery in front of the user photographed by the line-of-sight camera 121 and the image of the user's surroundings photographed by the peripheral camera 122 are each appropriately encoded such as compression, and then transmitted from the communication unit 130 as ambient state information. It is transmitted to the virtual reality service providing server 3300.
通信部130は、仮想現実提示制御部260からの制御に従って、ユーザ状態検知部110で検知されたユーザ状態を示すユーザ状態情報、周囲状況検知部120で検知されたユーザの周囲の状況を示す周囲状況情報、音声入力部370で入力された音声を示す音声情報、をそれぞれ仮想現実サービス提供サーバ3300に送信する。また、通信部130は、仮想現実サービス提供サーバ3300より受信した映像データと音声データをそれぞれ表示制御部140と音声再生処理部380へ出力する。 In accordance with control from the virtual reality presentation control unit 260, the communication unit 130 includes user status information indicating the user status detected by the user status detection unit 110, and a surrounding status indicating the user's surrounding status detected by the ambient status detection unit 120. The situation information and the voice information indicating the voice input by the voice input unit 370 are transmitted to the virtual reality service providing server 3300, respectively. Further, the communication unit 130 outputs the video data and audio data received from the virtual reality service providing server 3300 to the display control unit 140 and the audio reproduction processing unit 380, respectively.
表示制御部140は、通信部130で受信される各種データのうち、仮想現実サービス提供サーバ3300で生成された映像の符号化データを入力し、当該入力した符号化データを復号して得た仮想現実オブジェクトの映像を表示部150に表示する制御を行う。 The display control unit 140 receives encoded data of a video generated by the virtual reality service providing server 3300 among various data received by the communication unit 130, and decodes the input encoded data. Control to display the video of the real object on the display unit 150 is performed.
表示部150は、表示制御部140からの制御に基づいて所定の映像を表示する。表示部150に表示される映像は、仮想現実感を提供するための仮想現実オブジェクトの静止画像や動画像などの映像である。表示部150として、HMD装置100には、ライト表示パネル151aとレフト表示パネル151bが設けられており、それぞれ視差が加えられた映像を表示する。 The display unit 150 displays a predetermined video based on the control from the display control unit 140. The video displayed on the display unit 150 is a video such as a still image or a moving image of a virtual reality object for providing virtual reality. As the display unit 150, the HMD device 100 is provided with a right display panel 151a and a left display panel 151b, and each displays an image with added parallax.
仮想現実提示制御部260は、HMD装置300でユーザに仮想現実を提示する処理を制御する。仮想現実提示制御部260は、通信部130で仮想現実サービスの開始を指示する仮想現実サービス開始通知情報が受信された場合に、仮想現実を提示するための制御を開始する。 The virtual reality presentation control unit 260 controls the process of presenting virtual reality to the user with the HMD device 300. The virtual reality presentation control unit 260 starts control for presenting virtual reality when the communication unit 130 receives virtual reality service start notification information instructing the start of the virtual reality service.
具体的に、仮想現実提示制御部260は、当該開始通知情報に基づいて、ユーザ状態検知部110、周囲状況検知部120、音声入力部370にそれぞれユーザ状態情報、周囲状況情報、音声情報の取得開始を指示すると共に通信部130に当該情報を仮想現実サービス提供サーバ2100に定期的に送信するよう指示する。また、仮想現実提示制御部260は、表示制御部140に表示部150に映像を表示する制御の開始を指示し、音声再生制御部380に音声出力部390より出力する音声の再生制御の開始を指示する。 Specifically, the virtual reality presentation control unit 260 acquires the user state information, the surrounding state information, and the sound information from the user state detecting unit 110, the surrounding state detecting unit 120, and the voice input unit 370 based on the start notification information. The start is instructed and the communication unit 130 is instructed to periodically transmit the information to the virtual reality service providing server 2100. In addition, the virtual reality presentation control unit 260 instructs the display control unit 140 to start control of displaying video on the display unit 150, and starts the playback control of audio output from the audio output unit 390 to the audio playback control unit 380. Instruct.
音声入力部370は、音声を集音してアナログ電気信号に変換し、AD変換処理を行ってデジタル音声信号に変換することで音声を入力する。音声入力部370として、HMD装置300は、ユーザが発した音声を集音するユーザマイクロフォン371と、周囲の音声を集音する周囲マイクロフォン372とを備える。 The voice input unit 370 collects voice and converts it into an analog electric signal, performs AD conversion processing and converts it into a digital voice signal, and inputs voice. As the voice input unit 370, the HMD device 300 includes a user microphone 371 that collects voices uttered by the user and a surrounding microphone 372 that collects surrounding voices.
ユーザの音声を効率良く集音できるよう、ユーザマイクロフォン371は、HMD装置300の内側(ユーザ側)に配置され、一方、周囲マイクロフォン372は、ユーザの外部環境からの音声を効率良く集音できるよう、HMD装置300の外側に配置される。周囲マイクロフォン372は、ユーザがHMD装置300を装着していない状態でユーザの耳に直接聞こえる音声を集音できるよう、HMD装置300における耳の位置付近に配置されていることが好ましい。ユーザマイクロフォン371や周囲マイクロフォン372は、音声を集音してアナログ電気信号に変換し、AD変換処理を行ってデジタル音声信号に変換することで音声を入力する。当該入力された音声は、必要に応じて音声符号化が行われた後、それぞれユーザ音声情報及び周囲音声情報として通信部130より仮想現実サービス提供サーバ3300に送信される。 The user microphone 371 is arranged on the inner side (user side) of the HMD device 300 so that the user's voice can be collected efficiently, while the surrounding microphone 372 can efficiently collect the voice from the user's external environment. , Arranged outside the HMD device 300. The surrounding microphone 372 is preferably arranged in the vicinity of the position of the ear in the HMD device 300 so as to collect sound that can be heard directly by the user's ear when the user is not wearing the HMD device 300. The user microphone 371 and the surrounding microphone 372 collect sound and convert it into an analog electric signal, and perform AD conversion processing to convert it into a digital sound signal, thereby inputting the sound. The input speech is subjected to speech coding as necessary, and then transmitted to the virtual reality service providing server 3300 from the communication unit 130 as user speech information and ambient speech information, respectively.
音声再生制御部380は、通信部130で受信される各種データのうち、仮想現実サービス提供サーバ3300で生成された音声データを入力し、当該入力した音声データに基づいて仮想現実オブジェクトが発する音声を音声出力部390より出力する制御を行う。 The audio reproduction control unit 380 inputs audio data generated by the virtual reality service providing server 3300 among various data received by the communication unit 130, and generates audio generated by the virtual reality object based on the input audio data. Control to output from the audio output unit 390 is performed.
ここで、バーチャルな現象が引き起こす音声をリアルな現象が引き起こしている音声としてユーザに認識させるためには、音声発生源である仮想現実オブジェクトの位置から音声が伝達されているようにユーザに認識させることが仮想現実の世界にユーザを引き込むうえで好ましい。そこで、音声再生制御部380は、5.1Chや6.1Ch、7.1Chと言った立体音響に対応する形で音声データを再生することが好ましい。 Here, in order to make the user recognize the sound caused by the virtual phenomenon as the sound caused by the real phenomenon, the user is recognized as if the sound is transmitted from the position of the virtual reality object that is the sound generation source. This is preferable in attracting users to the virtual reality world. Therefore, it is preferable that the audio reproduction control unit 380 reproduces audio data in a form corresponding to the three-dimensional sound such as 5.1Ch, 6.1Ch, or 7.1Ch.
音声出力部390は、音声再生制御部370からの再生制御に従って音声を出力する。音声出力部390として、HMD装置300は、ライトフレーム301a及びレフトフレーム301bの後端付近に配置されるスピーカ391a、391bを備えており、音声再生制御部380で再生された各チャンネルの音声データにDA変換を行い、アナログ電気信号に変換し、更に空気振動に変換して外部へ放音する。 The audio output unit 390 outputs audio according to the reproduction control from the audio reproduction control unit 370. As the audio output unit 390, the HMD device 300 includes speakers 391 a and 391 b arranged near the rear ends of the right frame 301 a and the left frame 301 b, and the audio data of each channel reproduced by the audio reproduction control unit 380 It performs DA conversion, converts it into an analog electrical signal, converts it into air vibration, and emits the sound to the outside.
次に、仮想現実サービス提供システム3000について説明する。契約者情報記憶データベース部3100は、仮想現実サービスを利用するユーザである契約者を管理する契約者情報を記憶する。各ユーザは、仮想現実サービスを利用するにあたり、仮想現実サービス提供会社との間で、仮想現実サービス利用契約を締結している。 Next, the virtual reality service providing system 3000 will be described. The contractor information storage database unit 3100 stores contractor information for managing contractors who are users of the virtual reality service. Each user has a virtual reality service use contract with a virtual reality service provider in order to use the virtual reality service.
図11は、契約者情報記憶データベース部3100に記憶される契約者情報の一例を示している。図11において、契約者情報には、仮想現実サービス利用契約を締結しているユーザの個人情報(契約者個人情報)や、当該ユーザが契約しているプランやそのプランに含まれるサービス内容などが含まれている。 FIG. 11 shows an example of contractor information stored in the contractor information storage database unit 3100. In FIG. 11, the contractor information includes the personal information (contractor personal information) of the user who has concluded the virtual reality service use contract, the plan contracted by the user and the service content included in the plan. include.
仮想現実コンテンツ記憶データベース3200は、仮想現実コンテンツを記憶する。ここで、仮想現実コンテンツとは、仮想現実の世界を創り出すために使用されるデータ等の総称であり、仮想現実オブジェクトの外観を規定するモデルデータと、当該仮想現実オブジェクトが発する音声データと、仮想現実サービスを制御する仮想現実サービス制御プログラムとを含む。図12は、仮想現実コンテンツの構造を示している。 The virtual reality content storage database 3200 stores virtual reality content. Here, virtual reality content is a general term for data used to create a virtual reality world, model data defining the appearance of a virtual reality object, audio data emitted by the virtual reality object, virtual data A virtual reality service control program for controlling the real service. FIG. 12 shows the structure of virtual reality content.
仮想現実オブジェクトのモデルデータは、当該仮想現実オブジェクトの形状を規定するポリゴンデータと、当該ポリゴンデータで規定される形状の表面に張り付けられるテキスチャーデータと、を含む。 The model data of the virtual reality object includes polygon data that defines the shape of the virtual reality object and texture data that is attached to the surface of the shape that is defined by the polygon data.
仮想現実オブジェクトの音声データは、当該仮想現実オブジェクトで表される人物等が読み上げる所定の文章の音声を予め収録した文章音声データや、当該仮想現実オブジェクトが発する音声の元となる音声基礎データと、を含む。音声基礎データは、例えば、仮想現実オブジェクトが実在の人間を元にして創り出された人物オブジェクトである場合、当該実在の人物の肉声より抽出した声質、ピッチ、音声波形、音素等のデータである。これらの音声基礎データが音声合成処理によって合成されてユーザに提示されることで、当該人物オブジェクトが実際に喋っているようにユーザに感知される。なお、音声基礎データの抽出方法(収録方法)は、様々な切り口で抽出することが可能であり、音声発音データと音声表情データとに分類する形で抽出しても良いし、他の分類方法で抽出しても良い。当該抽出方法は、実施される音声合成処理のアルゴリズムによって決定される。 The sound data of the virtual reality object includes sentence sound data that records in advance the sound of a predetermined sentence read out by a person or the like represented by the virtual reality object, sound basic data that is a source of sound generated by the virtual reality object, and including. For example, when the virtual reality object is a human object created based on a real person, the voice basic data is data such as voice quality, pitch, voice waveform, and phoneme extracted from the real voice of the real person. These voice basic data are synthesized by voice synthesis processing and presented to the user, so that the user senses that the person object is actually speaking. Note that the basic voice data extraction method (recording method) can be extracted at various angles, and may be extracted in the form of voice pronunciation data and voice expression data, or other classification methods. It may be extracted with. The extraction method is determined by a speech synthesis algorithm to be performed.
仮想現実制御プログラムは、ユーザに提供される仮想現実サービスを制御するために実行されるプログラムであって、大きく仮想現実メイン制御プログラムと、仮想現実サブ制御プログラムと、仮想現実オブジェクト人格制御プログラムと、仮想現実オブジェクト挙動制御プログラムと、に分類される。図13は、仮想現実制御プログラムの階層構造を示している。 The virtual reality control program is a program executed to control a virtual reality service provided to the user, and is largely a virtual reality main control program, a virtual reality sub-control program, a virtual reality object personality control program, And a virtual reality object behavior control program. FIG. 13 shows the hierarchical structure of the virtual reality control program.
仮想現実オブジェクト挙動制御プログラムは、仮想空間に配置されている仮想現実オブジェクトの挙動を制御するためのプログラムであって、仮想現実オブジェクト人格制御プログラムによって読み出される。例えば、仮想現実オブジェクトが人間オブジェクトである場合、仮想現実オブジェクト挙動制御プログラムAは、右膝の関節ポイントを少し折り曲げ、口元のテキスチャーデータを笑顔のテキスチャーデータに段階的に変更すると言った制御を行うプログラムである。一方、仮想現実オブジェクト挙動制御プログラムNは、のけぞるように腰の関節ポイントを折り曲げ、右肩と右ひじの関節ポイントを所定量回転させることで右腕を前に突き出すと言った制御を行う。当該挙動制御プログラムが実行されることで、フレーム経過に伴って仮想空間に配置されているオブジェクトの外観形状が変化していく。 The virtual reality object behavior control program is a program for controlling the behavior of the virtual reality object arranged in the virtual space, and is read by the virtual reality object personality control program. For example, when the virtual reality object is a human object, the virtual reality object behavior control program A performs a control such that the joint point of the right knee is slightly bent and the texture data of the mouth is gradually changed to the smile texture data. It is a program. On the other hand, the virtual reality object behavior control program N performs control such that the hip joint point is bent so as to slide, and the right arm and the right elbow joint point are rotated by a predetermined amount to project the right arm forward. By executing the behavior control program, the appearance shape of the object arranged in the virtual space changes as the frame progresses.
仮想現実オブジェクト人格制御プログラムは、仮想現実サブ制御プログラムによって読み出されるプログラムであって、仮想空間に配置されている仮想現実オブジェクトに対する入力と出力との対応関係を制御する。 The virtual reality object personality control program is a program read by the virtual reality sub-control program, and controls the correspondence between the input and output for the virtual reality object arranged in the virtual space.
例えば、音声解析部3380のコンテキスト取得部3381で「おはよう」と言うコンテキストが取得されたとする。この場合、仮想現実オブジェクト人格制御プログラムXが実行されている場合、当該「おはよう」と言う入力に対して仮想現実オブジェクト挙動制御プログラムAを読み出して実行する。一方、仮想現実オブジェクト人格制御プログラムZが実行されている場合、同一の「おはよう」と言う入力が行われたとしても、仮想現実オブジェクト挙動制御プログラムAではなく、仮想現実オブジェクト挙動制御プログラムNが読み出されて実行される。このように、仮想空間に配置されている各仮想現実オブジェクトに対してぞれぞれ実行されている仮想現実オブジェクト人格制御プログラムによって、外界からの入力と、当該仮想現実オブジェクトからの出力との対応関係が異なる。従って、仮想現実オブジェクトを実在する人間として見立てた場合に、仮想現実オブジェクト人格制御プログラムは、当該仮想現実オブジェクトの人格を表しているとみることができる。 For example, it is assumed that the context “Good morning” is acquired by the context acquisition unit 3381 of the voice analysis unit 3380. In this case, when the virtual reality object personality control program X is executed, the virtual reality object behavior control program A is read and executed in response to the input “Good morning”. On the other hand, when the virtual reality object personality control program Z is executed, the virtual reality object behavior control program N, not the virtual reality object behavior control program A, reads even if the same “Good morning” input is made. It is issued and executed. In this way, the virtual reality object personality control program executed for each virtual reality object placed in the virtual space can correspond to the input from the outside world and the output from the virtual reality object. The relationship is different. Accordingly, when the virtual reality object is regarded as a real person, the virtual reality object personality control program can be regarded as representing the personality of the virtual reality object.
仮想現実オブジェクト挙動制御プログラムや仮想現実オブジェクト人格制御プログラムは、対応する仮想現実オブジェクトに対するメッソドとしてプログラミングすることができる。 The virtual reality object behavior control program and the virtual reality object personality control program can be programmed as a method for the corresponding virtual reality object.
仮想現実サブ制御プログラムは、仮想現実メイン制御プログラムによって適宜呼び出されるプログラムであり、提供する仮想現実サービスと対応している。仮想現実サブ制御プログラムは、提供中の仮想現実サービスに用いる仮想現実オブジェクトを仮想空間に読み出して配置する制御や、予め設定されている順序に従って仮想現実オブジェクト挙動制御プログラムを直接読み出して、仮想現実オブジェクトに所定の挙動を行わせる制御を行う。 The virtual reality sub-control program is a program that is appropriately called by the virtual reality main control program, and corresponds to the provided virtual reality service. The virtual reality sub-control program reads the virtual reality object used for the virtual reality service being provided in the virtual space, or directly reads out the virtual reality object behavior control program according to a preset order, Control is performed to perform a predetermined behavior.
仮想現実メイン制御プログラムは、仮想現実サービス毎に対応するプログラムであって、仮想現実サービスの提供開始に当たり、第1に実行されるプログラムである。仮想現実メイン制御プログラムが実行されることで、当該プログラムに対応する仮想現実サービスのための仮想空間の設定や環境設定が行われる。HMD装置300より適宜送信されるユーザ状態情報や周囲状況情報、音声情報等の情報に基づいて、仮想現実メイン制御プログラムが、適切な仮想現実サブ制御プログラムを読み出し、当該仮想現実サブ制御プログラムによって実行される内容に従って仮想現実の世界がHMD装置300を介してユーザに提示される。 The virtual reality main control program is a program corresponding to each virtual reality service, and is a program executed first when the provision of the virtual reality service is started. By executing the virtual reality main control program, the virtual space setting and environment setting for the virtual reality service corresponding to the program are performed. Based on information such as user state information, ambient state information, and audio information that is appropriately transmitted from the HMD device 300, the virtual reality main control program reads an appropriate virtual reality sub-control program and executes it by the virtual reality sub-control program The virtual reality world is presented to the user via the HMD device 300 in accordance with the content to be performed.
セーブデータ記憶データベース3500は、ユーザのセーブデータを記憶する。セーブデータとは、仮想現実サービスを途中から開始するためのデータである。仮想現実サービスの中には、ストーリー性があるものや、仮想現実サービスを利用するに従ってサービス内容が変化するものや、仮想現実サービスの中でアイテムや経験値等を取得できるものがある。そこで、ユーザがこれまでに利用済みの部分を記憶し、仮想現実サービスを前回終了した途中地点から再開できるようにセーブデータが記憶される。 The save data storage database 3500 stores user save data. Save data is data for starting a virtual reality service halfway. Some virtual reality services have story characteristics, some change in service contents as the virtual reality service is used, and others can acquire items, experience values, and the like in the virtual reality service. Therefore, the saved data is stored so that the user can store the portion that has been used so far and can restart the virtual reality service from the middle point where it was previously terminated.
図14は、セーブデータ記憶データベース3500に記憶されているセーブデータ管理ファイルの一例である。セーブデータ管理ファイルには、各セーブデータに一意に割り当てられたセーブデータ管理番号、当該セーブデータに係るユーザ名、当該ユーザを識別するユーザ識別番号、当該セーブデータに係る仮想現実サービス名、当該仮想現実サービスを一意に識別する仮想現実サービス識別番号、当該セーブデータの格納アドレス、などが対応付けられた状態で記憶されている。 FIG. 14 is an example of a save data management file stored in the save data storage database 3500. The save data management file includes a save data management number uniquely assigned to each save data, a user name related to the save data, a user identification number identifying the user, a virtual reality service name related to the save data, the virtual data A virtual reality service identification number for uniquely identifying a real service, a storage address of the save data, and the like are stored in association with each other.
仮想現実サービス提供サーバ3300は、通信部1310と、仮想現実サービス提供管理部1320と、表示映像生成処理部1350と、画像解析処理部2360と、仮想現実サービス制御部3330と、仮想現実オブジェクト挙動制御部3370と、音声解析処理部3380と、再生音声生成処理部3390と、を備える。 The virtual reality service providing server 3300 includes a communication unit 1310, a virtual reality service provision management unit 1320, a display image generation processing unit 1350, an image analysis processing unit 2360, a virtual reality service control unit 3330, and a virtual reality object behavior control. Unit 3370, audio analysis processing unit 3380, and reproduction audio generation processing unit 3390.
仮想現実サービス提供管理部1320は、契約者情報記憶DB3100に記憶されている契約者情報を参照して、ユーザに提供する仮想現実サービスの管理を行う。例えば、仮想現実サービス提供管理部1320は、ユーザから出された仮想現実サービス開始要求や仮想現実サービス終了要求等に基づいて仮想現実仮想現実サービスの開始処理や終了処理を行う。 The virtual reality service provision management unit 1320 refers to the contractor information stored in the contractor information storage DB 3100 and manages the virtual reality service provided to the user. For example, the virtual reality service provision management unit 1320 performs a virtual reality virtual reality service start process and an end process based on a virtual reality service start request, a virtual reality service end request, and the like issued by the user.
契約者情報には、ユーザが仮想現実サービスを利用する条件やユーザが利用可能な仮想現実サービスに関する情報等が含まれる。すなわち、契約者情報には、仮想現実サービス利用条件が含まれている。仮想現実サービス提供管理部1320は、これらの情報に基づいて、仮想現実サービスを提供可能であるかを判定し、また、提供する仮想現実サービスを決定する処理を行う。 The contractor information includes conditions for the user to use the virtual reality service, information on the virtual reality service available to the user, and the like. That is, the contractor information includes the virtual reality service usage conditions. Based on these pieces of information, the virtual reality service provision management unit 1320 determines whether or not the virtual reality service can be provided, and performs a process of determining the virtual reality service to be provided.
仮想現実サービス提供管理部1320は、提供を開始する仮想現実サービスと、当該仮想現実サービスを利用するユーザをそれぞれ識別する情報を仮想現実サービス制御部3330に出力する。また、仮想現実サービス提供管理部1320は、仮想現実サービスの提供を開始することを当該ユーザに通知する。 The virtual reality service provision management unit 1320 outputs to the virtual reality service control unit 3330 information identifying the virtual reality service to be provided and the user who uses the virtual reality service. In addition, the virtual reality service provision management unit 1320 notifies the user that the provision of the virtual reality service is started.
仮想現実サービス制御部3330は、仮想現実サービスを制御する。具体的には、仮想現実サービス制御部3330は、仮想現実サービス提供管理部1320で仮想現実サービスの提供を開始すると決定された場合に、当該仮想現実サービスに用いる仮想現実コンテンツを仮想現実コンテンツ記憶データベース3200より読み出す。 The virtual reality service control unit 3330 controls the virtual reality service. Specifically, when the virtual reality service control unit 1320 determines to start providing the virtual reality service, the virtual reality service control unit 3330 displays the virtual reality content used for the virtual reality service in the virtual reality content storage database. Read from 3200.
なお、当該仮想現実サービスのセーブデータがセーブデータ記憶データベース3500に記憶されている場合は、仮想現実サービス制御部3330は、当該仮想現実サービスを提供するユーザのセーブデータを読み出し、当該セーブデータで示されるサービス再開位置に係る部分の仮想現実コンテンツを読み出す。 When the save data of the virtual reality service is stored in the save data storage database 3500, the virtual reality service control unit 3330 reads the save data of the user who provides the virtual reality service and indicates the save data as the save data. The virtual reality content of the part related to the service restart position to be read is read.
具体的に、仮想現実サービス制御部3330は、当該仮想現実サービスの全体を制御する仮想現実メイン制御プログラムを読み出して実行することで、仮想空間を設定し、当該仮想現実サービスを提供するユーザのHMD装置300との間の通信で使用するポート番号等の設定などを行う。 Specifically, the virtual reality service control unit 3330 reads and executes a virtual reality main control program that controls the entire virtual reality service, thereby setting the virtual space and providing the HMD of the user who provides the virtual reality service. A port number used for communication with the apparatus 300 is set.
また、仮想現実サービス制御部3330は、仮想現実サブ制御プログラムを読み出して実行することで、仮想現実オブジェクトを仮想現実コンテンツ記憶データベース3200より読み出し、仮想空間の所定の位置に当該読み出した仮想現実オブジェクトを配置する。 Also, the virtual reality service control unit 3330 reads out and executes the virtual reality sub-control program, thereby reading out the virtual reality object from the virtual reality content storage database 3200 and placing the read virtual reality object at a predetermined position in the virtual space. Deploy.
ここで、仮想現実サービス制御部3330は、仮想空間内において、予め定められている位置に仮想現実オブジェクトを配置しても良いし、画像解析処理部2360で得られた現実空間におけるユーザ周辺の物体の配置関係を考慮して仮想現実オブジェクトを干渉が生じない位置に配置する構成としても良い。この場合、仮想現実サービス制御部3330は、画像解析処理部2360におけるモデル化処理によって生成されたユーザの周囲に存在する物体等のモデルデータを仮想空間に配置し、当該モデルデータで示される物体と重なることで干渉が起きないように、仮想現実オブジェクトの配置位置を決定する。仮想現実サービス制御部3330は、仮想空間における当該決定した配置位置に仮想現実オブジェクトを配置する。 Here, the virtual reality service control unit 3330 may arrange a virtual reality object at a predetermined position in the virtual space, or an object around the user in the real space obtained by the image analysis processing unit 2360. Considering this arrangement relationship, the virtual reality object may be arranged at a position where no interference occurs. In this case, the virtual reality service control unit 3330 arranges model data such as an object existing around the user generated by the modeling processing in the image analysis processing unit 2360 in the virtual space, and the object indicated by the model data The arrangement position of the virtual reality object is determined so that interference does not occur due to the overlap. The virtual reality service control unit 3330 arranges the virtual reality object at the determined arrangement position in the virtual space.
仮想現実オブジェクト挙動制御部3370は、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。仮想空間に配置されている仮想現実オブジェクトが動作可能なオブジェクトである場合は、仮想現実オブジェクト挙動制御部3370は、当該仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御プログラムを実行することで、仮想現実オブジェクトに当該プログラムに対応した挙動を行わせる。 The virtual reality object behavior control unit 3370 controls the behavior of the virtual reality object arranged in the virtual space. When the virtual reality object arranged in the virtual space is an operable object, the virtual reality object behavior control unit 3370 executes a virtual reality object behavior control program for controlling the behavior of the virtual reality object, Causes the virtual reality object to perform a behavior corresponding to the program.
また、仮想現実サービス制御部3330は、当該仮想空間に配置している仮想現実オブジェクトが音声等の入力に対して所定の出力を返す動的な仮想現実オブジェクトである場合は、当該仮想現実オブジェクトに対する入力と、当該入力に基づく仮想現実オブジェクトの挙動との因果関係を規定している仮想現実オブジェクト人格制御プログラムを仮想現実オブジェクト挙動制御部3370に実行させる。仮想現実オブジェクト挙動制御部3370は、画像解析処理部2360や音声解析処理部3380における解析結果を入力として仮想現実オブジェクト人格制御プログラムを実行することで、当該入力に対応する仮想現実オブジェクト挙動制御プログラムを特定する。仮想現実オブジェクト挙動制御部3370は、当該特定した仮想現実オブジェクト挙動制御プログラムを仮想現実コンテンツ記憶DB3200より読み出して実行することで、仮想現実オブジェクトの挙動を制御する。すなわち、仮想現実オブジェクト挙動制御部3370は、実行する仮想現実オブジェクトに従って、仮想空間に配置されている各仮想現実オブジェクトの形状を変形させる。 In addition, the virtual reality service control unit 3330, when the virtual reality object arranged in the virtual space is a dynamic virtual reality object that returns a predetermined output in response to an input such as sound, The virtual reality object behavior control unit 3370 is caused to execute a virtual reality object personality control program that defines a causal relationship between the input and the behavior of the virtual reality object based on the input. The virtual reality object behavior control unit 3370 executes the virtual reality object personality control program with the analysis results in the image analysis processing unit 2360 and the voice analysis processing unit 3380 as inputs, thereby executing the virtual reality object behavior control program corresponding to the input. Identify. The virtual reality object behavior control unit 3370 reads the identified virtual reality object behavior control program from the virtual reality content storage DB 3200 and executes it, thereby controlling the behavior of the virtual reality object. That is, the virtual reality object behavior control unit 3370 deforms the shape of each virtual reality object arranged in the virtual space according to the virtual reality object to be executed.
表示映像生成処理部1350は、ユーザ状態情報で示される視点位置からの仮想空間に配置されている仮想現実オブジェクトの映像を生成する。仮想現実オブジェクトが動的な仮想現実オブジェクトである場合は、表示映像生成処理部1350は、仮想現実オブジェクト挙動制御部3370における制御に従って順次外観形状が変化していく仮想現実オブジェクトの各フレームタイミングにおける上記視点位置からの映像を順次生成する。なお、仮想現実オブジェクトが静的な仮想現実オブジェクトである場合は、表示映像生成処理部1350は、仮想現実サービス制御部3330が仮想現実サブ制御プログラムを実行することで仮想空間に配置する仮想現実オブジェクトの各フレームタイミングにおける上記視点位置からの映像を順次生成する。なお、この場合は、ユーザの視点に変化が無ければ、HMD装置300の表示パネル151a、151bでそれぞれ表示される映像に変化は無いため、以前のフレームタイミングで生成した映像を複製して現タイミングにおける映像とすることができる。 The display video generation processing unit 1350 generates a video of the virtual reality object arranged in the virtual space from the viewpoint position indicated by the user state information. When the virtual reality object is a dynamic virtual reality object, the display video generation processing unit 1350 performs the above-described operation at each frame timing of the virtual reality object whose appearance shape sequentially changes according to the control by the virtual reality object behavior control unit 3370. Video from the viewpoint position is generated sequentially. When the virtual reality object is a static virtual reality object, the display video generation processing unit 1350 causes the virtual reality service control unit 3330 to execute the virtual reality sub-control program and place the virtual reality object in the virtual space. The video from the viewpoint position at each frame timing is sequentially generated. In this case, if there is no change in the viewpoint of the user, there is no change in the video displayed on the display panels 151a and 151b of the HMD device 300, so the video generated at the previous frame timing is duplicated and the current timing is reproduced. Video.
音声解析処理部3380は、HMD装置300の音声入力部370で入力された音声を解析する処理を行う。音声解析処理部3380は、音声レベル抽出部3381と、感情要素抽出部3382と、コンテキスト取得部3383と、を備える。 The voice analysis processing unit 3380 performs processing for analyzing the voice input by the voice input unit 370 of the HMD device 300. The voice analysis processing unit 3380 includes a voice level extraction unit 3381, an emotion element extraction unit 3382, and a context acquisition unit 3383.
音声レベル抽出部3381は、入力した周囲音声情報に基づいて、ユーザの外部環境で生じている雑音の音声レベル(音量レベル)を特定する。音声レベル抽出部3381は、入力したユーザ音声情報に基づいて、ユーザが発した音声の音声レベルを特定する。音声レベル抽出部3381は、周囲音声情報から抽出した外部環境の音声の音声レベルを再生音声生成処理部3390に出力し、ユーザ音声情報から抽出したユーザの音声レベルを感情要素抽出部3382とコンテキスト取得部3383にそれぞれ出力する。 The voice level extraction unit 3381 identifies the voice level (volume level) of noise generated in the user's external environment based on the input ambient voice information. The voice level extraction unit 3381 identifies the voice level of the voice uttered by the user based on the input user voice information. The audio level extraction unit 3381 outputs the audio level of the external environment audio extracted from the ambient audio information to the reproduction audio generation processing unit 3390, and obtains the user's audio level extracted from the user audio information from the emotion element extraction unit 3382 and the context. The data are output to the unit 3383.
感情要素抽出部3382は、入力したユーザ音声情報に基づいて、ユーザの感情要素を抽出する。具体的には、感情要素抽出部3382は、予め登録しているユーザの音声波形とマッチング処理を行うことで、ユーザの喜怒哀楽などの状態を特定し、感情要素として抽出する。ここで、感情要素抽出部3382は、音声レベル抽出部3381で抽出されるユーザの音声レベルに基づいて入力するユーザ音声情報に含まれる音声に増幅処理等を行った上で感情要素を抽出しても良い。感情要素抽出部3382は、抽出した感情要素データを仮想現実オブジェクト挙動制御部3370に出力する。 The emotion element extraction unit 3382 extracts a user's emotion element based on the input user voice information. Specifically, the emotion element extraction unit 3382 performs a matching process with a user's voice waveform registered in advance to identify a state such as the user's emotions and extract it as an emotion element. Here, the emotion element extraction unit 3382 extracts an emotion element after performing amplification processing or the like on the voice included in the user voice information input based on the user voice level extracted by the voice level extraction unit 3381. Also good. The emotion element extraction unit 3382 outputs the extracted emotion element data to the virtual reality object behavior control unit 3370.
コンテキスト取得部3383は、入力したユーザ音声情報に基づいて、ユーザが発した音声のコンテキストを取得する。コンテキスト取得部3383は、入力したユーザ音声情報に含まれる音声データに対して、音声レベル抽出部3381で抽出された音声レベルに基づく増幅処理を行った後、所定の音声解析アルゴリズムに従って当該音声データが示すコンテキストを取り出す処理を行う。 The context acquisition unit 3383 acquires the context of the voice uttered by the user based on the input user voice information. The context acquisition unit 3383 performs amplification processing based on the audio level extracted by the audio level extraction unit 3381 on the audio data included in the input user audio information, and then the audio data is converted according to a predetermined audio analysis algorithm. Performs processing to extract the indicated context.
例えば、コンテキスト取得部3383は、複数の音声単位を記憶する音声データベースに含まれる音声単位データと、入力した音声データとのマッチング処理を行うことで、音声データを単位音声に分割する。当該音声データベースに含まれる音声単位データは、例えば「い」の単位音声がコードNo004、「こ」の単位音声がコードNo021というように、コードが割り当てられている。コンテキスト取得部3383は、入力した音声データを単位音声に分割することで、当該入力した音声データをコードの羅列に変換する。なお、上記音声データベースの図示は省略している。 For example, the context acquisition unit 3383 divides the sound data into unit sounds by performing a matching process between the sound unit data included in the sound database storing a plurality of sound units and the input sound data. The voice unit data included in the voice database is assigned a code such that the unit voice “I” is code No004 and the unit voice “ko” is code No021, for example. The context acquisition unit 3383 divides the input voice data into unit voices, thereby converting the input voice data into a code enumeration. The voice database is not shown.
コンテキスト取得部3383は、複数の単語データや文法構造を規定する文法データを記憶している単語・文法データベースにアクセスし、音声解析処理で得られた一連のコードのいくつかと、上記データベースに記憶される単語データとのマッチングを行うことで、意味のある部分を抽出していく。コンテキスト取得部3383は、当該一連の処理に基づいて、入力された音声データが示すコンテキストを取得する。 The context acquisition unit 3383 accesses a word / grammar database storing a plurality of word data and grammar data defining a grammatical structure, and stores some of a series of codes obtained by the speech analysis processing and the database. It extracts meaningful parts by matching with word data. The context acquisition unit 3383 acquires the context indicated by the input audio data based on the series of processes.
例えば、入力された音声データが「ねことたわむれたいな」と言う音声であった場合、コンテキスト取得部3383は、「ね」、「こ」、「と」、「た」、「わ」、「む」、「れ」、「た」、「い」、「な」と単位音声に分割する。各単位音声にはコードが割り当てられているため、コンテキスト取得部3383は、当該音声データを「072/021/041/036/124/085/099/036/004/043」といったコードの羅列に変換する。 For example, when the input voice data is a voice saying “I want to play with cats”, the context acquisition unit 3383 has “ne”, “ko”, “to”, “ta”, “wa”, “ “Mu”, “Re”, “Ta”, “I”, “N” and divided into unit sounds. Since a code is assigned to each unit voice, the context acquisition unit 3383 converts the voice data into a code enumeration such as “072/02/041/036/124/085/099/036/04043”. To do.
コンテキスト取得部3383は、入力された音声データから変換された当該コードと単語・文法データベースの単語を示すコードとのマッチング処理を行うことで単語の羅列に変換する。例えば、コンテキスト取得部3383は、当該マッチング処理を行うことで、「072021」、「034」、「036124085099」、「036004043」と纏まり毎に抽出し、「Ob:ねこ、Of:と、Va:たわむれ、Vc:たいな」と言う形で主語、目的語、述語、助詞、などに整理する。コンテキスト取得部3383は、当該処理により、入力された音声は、「猫と戯れたい」というコンテキストを示していると判定する。 The context acquisition unit 3383 performs a matching process between the code converted from the input voice data and a code indicating a word in the word / grammar database to convert the code into a list of words. For example, by performing the matching process, the context acquisition unit 3383 extracts “072021”, “034”, “036124085099”, and “0360004043” for each group, and “Ob: Cat, Of: and Va: Deflection. , Vc: taina "and organize it into a subject, object, predicate, particle, etc. The context acquisition unit 3383 determines that the input voice indicates a context of “I want to play with a cat” by the processing.
このようにコンテキスト取得部3383で取得されたコンテキストは、仮想現実サービス提供管理部1320、仮想現実サービス制御部3330、仮想現実オブジェクト挙動制御部3370にそれぞれ出力される。 Thus, the context acquired by the context acquisition unit 3383 is output to the virtual reality service provision management unit 1320, the virtual reality service control unit 3330, and the virtual reality object behavior control unit 3370, respectively.
仮想現実サービス提供管理部1320は、コンテキスト取得部3383で取得された音声データのコンテキストが「ガガフロンティアを開始したい」と言った仮想現実サービスの開始を要求するコンテキストであった場合、当該コンテキストで示されている仮想現実サービスの提供開始を決定する。このように、仮想現実サービス提供管理部1320は、仮想現実サービス開始要求、仮想現実サービス終了要求、仮想現実サービス中断要求など、ユーザからの要求を音声データと言った形式で入力する。 When the context of the audio data acquired by the context acquisition unit 3383 is a context requesting the start of a virtual reality service saying “I want to start Gaga Frontier”, the virtual reality service provision management unit 1320 indicates the context. To start providing virtual reality services. As described above, the virtual reality service provision management unit 1320 inputs a request from the user in the form of voice data, such as a virtual reality service start request, a virtual reality service end request, and a virtual reality service interruption request.
仮想現実サービス制御部3330は、コンテキスト取得部3383で取得された音声データのコンテキストに基づいて、当該音声入力に対応する仮想現実サービス制御プログラムを仮想現実コンテンツ記憶DB3200より読み出して実行する。 Based on the audio data context acquired by the context acquisition unit 3383, the virtual reality service control unit 3330 reads the virtual reality service control program corresponding to the audio input from the virtual reality content storage DB 3200 and executes it.
仮想現実オブジェクト挙動制御部3370は、コンテキスト取得部3383で取得された音声データのコンテキストや、感情要素抽出部3382で抽出された感情要素データに基づいて、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。 The virtual reality object behavior control unit 3370 is based on the context of the voice data acquired by the context acquisition unit 3383 and the emotion element data extracted by the emotion element extraction unit 3382. Control behavior.
再生音声生成処理部3390は、HMD装置300の音声再生制御部380より再生される音声データを生成する。再生音声生成処理部3390は、仮想現実サービス制御部3330によって仮想現実コンテンツ記憶DB3200より読み出された音声データや、仮想現実オブジェクト挙動制御部3370で制御された仮想現実オブジェクトが発する音声データに対して、音声レベル抽出部3381で抽出された音声レベルに基づく利得調整処理を行う。再生音声生成処理部3390は、通信部1310で受信されたユーザ状態情報で示されるユーザの頭部の姿勢に基づいて、ユーザの左右の耳の位置を特定し、入力した上記音声データを複数のチャンネルに分割して各チャンネルの音声データを生成する。再生音声生成処理部3390は、当該複数のチャンネルに分割した音声データを、CELP等の符号化方式で符号化して音声符号化データを生成し、通信部1310に出力する。当該再生音声生成処理部3390で生成された音声符号化データは、通信部1310よりHMD装置300に送信され、HMD装置300の音声再生制御部380で音声復号処理が行われた後、音声出力部170である各スピーカより音声が出力される。 The playback sound generation processing unit 3390 generates sound data that is played back by the sound playback control unit 380 of the HMD device 300. The playback audio generation processing unit 3390 performs the processing on the audio data read from the virtual reality content storage DB 3200 by the virtual reality service control unit 3330 and the audio data generated by the virtual reality object controlled by the virtual reality object behavior control unit 3370. Then, gain adjustment processing based on the voice level extracted by the voice level extraction unit 3381 is performed. Based on the posture of the user's head indicated by the user status information received by the communication unit 1310, the playback audio generation processing unit 3390 identifies the position of the user's left and right ears, and the input audio data is a plurality of The audio data of each channel is generated by dividing into channels. The playback audio generation processing unit 3390 encodes the audio data divided into the plurality of channels by an encoding method such as CELP, generates audio encoded data, and outputs the audio encoded data to the communication unit 1310. The encoded speech data generated by the reproduced speech generation processing unit 3390 is transmitted from the communication unit 1310 to the HMD device 300 and subjected to speech decoding processing by the speech reproduction control unit 380 of the HMD device 300, and then the speech output unit Audio is output from each speaker 170.
次に、仮想現実サービス提供システム3000の動作について説明する。図15は、仮想現実サービスの提供開始処理の流れの一例を示すフローチャート図である。 Next, the operation of the virtual reality service providing system 3000 will be described. FIG. 15 is a flowchart illustrating an example of a flow of a virtual reality service provision start process.
仮想現実サービス提供管理部1320は、ユーザに対して仮想現実サービスを提供することを決定する決定処理を行う(ステップS301〜S304)。具体的には、通信部1310で仮想現実サービス開始要求が受信されたかを判定する(ステップS301)。通信部1320で仮想現実サービス開始要求が受信されていない場合は、当該サービス開始要求が受信されるまで待機する。 The virtual reality service provision management unit 1320 performs a determination process for determining to provide the virtual reality service to the user (steps S301 to S304). Specifically, it is determined whether the virtual reality service start request is received by the communication unit 1310 (step S301). If the virtual reality service start request is not received by the communication unit 1320, the communication unit 1320 waits until the service start request is received.
通信部1310で仮想現実サービス開始要求が受信された場合、仮想現実サービス提供管理部1320は、当該仮想現実サービス開始要求に基づいて、要求元のユーザに当該仮想現実サービス開始要求で指定されている仮想現実サービスの提供を開始することが可能であるかを判定する(ステップS302)。具体的には、仮想現実サービス提供管理部1320は、仮想現実サービス利用条件記憶DB2400や契約者情報記憶DB3100に記憶されている当該仮想現実サービスを利用するための条件である仮想現実サービス利用条件を参照して、当該仮想現実サービス開始要求で指定されている仮想現実サービスの提供を開始することが可能であるかを判定する。 When the virtual reality service start request is received by the communication unit 1310, the virtual reality service provision management unit 1320 is designated by the requesting user in the virtual reality service start request based on the virtual reality service start request. It is determined whether provision of the virtual reality service can be started (step S302). Specifically, the virtual reality service provision management unit 1320 sets a virtual reality service usage condition that is a condition for using the virtual reality service stored in the virtual reality service usage condition storage DB 2400 or the contractor information storage DB 3100. With reference to this, it is determined whether it is possible to start providing the virtual reality service specified by the virtual reality service start request.
ステップS302における判定の結果、当該仮想現実サービス利用条件を満たさないと判定された場合、仮想現実サービス提供管理部1320は、上記仮想現実サービス開始要求で開始が要求されている仮想現実サービスを提供することを拒絶する通知を行う(ステップS303)。具体的には、仮想現実サービス提供管理部1320は、仮想現実サービスの提供の開始を拒絶することを示す仮想現実サービス開始拒絶通知情報を生成し、通信部1310より仮想現実サービス開始要求の要求元ユーザに送信する。当該仮想現実サービス開始拒絶通知情報には、仮想現実サービスの提供を開始できない理由を示す仮想現実サービス提供拒絶理由を含める構成とすることが好ましい。 As a result of the determination in step S302, when it is determined that the virtual reality service usage condition is not satisfied, the virtual reality service provision management unit 1320 provides the virtual reality service that is requested to start by the virtual reality service start request. A notification of refusal is made (step S303). Specifically, the virtual reality service provision management unit 1320 generates virtual reality service start rejection notification information indicating that the start of provision of the virtual reality service is rejected, and the request source of the virtual reality service start request from the communication unit 1310 Send to user. It is preferable that the virtual reality service start rejection notification information includes a virtual reality service provision rejection reason indicating a reason why provision of the virtual reality service cannot be started.
一方、ステップS302における判定の結果、当該仮想現実サービス利用条件を満たすと判定された場合、仮想現実サービス提供管理部1320は、当該要求に基づく仮想現実サービスの提供開始を決定する(ステップS304)。具体的には、仮想現実サービス提供管理部1320は、仮想現実サービス制御部3330に、要求されている仮想現実サービスの制御開始を指示する。 On the other hand, as a result of the determination in step S302, when it is determined that the virtual reality service usage condition is satisfied, the virtual reality service provision management unit 1320 determines the start of provision of the virtual reality service based on the request (step S304). Specifically, the virtual reality service provision management unit 1320 instructs the virtual reality service control unit 3330 to start control of the requested virtual reality service.
仮想現実サービス制御部3330は、仮想現実サービス提供管理部1320で仮想現実サービスの提供開始が決定された場合、当該仮想現実サービスに係る仮想現実コンテンツを、仮想現実コンテンツ記憶DB3200より読み出す(ステップS305)。 When the virtual reality service provision management unit 1320 determines to start providing the virtual reality service, the virtual reality service control unit 3330 reads the virtual reality content related to the virtual reality service from the virtual reality content storage DB 3200 (step S305). .
仮想現実サービス制御部3330は、提供する仮想現実サービス用に、仮想空間を設定する(ステップS306)。通常、ユーザに提示される仮想現実の世界は、ユーザの視界に収まる範囲であるため、10m四方程度の大きさに設定することが好ましい。但し、ユーザが移動しながら仮想現実の世界を鑑賞したりする場合は、100mm四方程度の大きさの仮想空間を予め確保しておくことが好ましい。このように、仮想現実サービスの内容に従って、必要となる仮想空間の大きさも異なってくる。従って、仮想現実サービス制御部3330は、仮想現実サービス提供管理部1320で決定された仮想現実サービスに基づいて、仮想空間を設定する構成とすることが好ましい。例えば、S001の仮想現実サービスを提供する場合は、50m四方の仮想空間を、S025の仮想現実サービスを提供する場合は、X方向が1km、Y方向が1km、Z方向が20mの仮想空間を設定する構成とすることができる。どの程度の大きさの仮想空間を必要とするかは、仮想現実コンテンツの一部の制御データとして、仮想現実コンテンツ記憶DB3200に記憶されていると良い。仮想現実サービス制御部3330は、仮想現実コンテンツを読み出し、仮想現実コンテンツに含まれる当該制御データを参照して仮想空間を設定する。不必要に大きすぎる仮想空間を設定すると不要なリソース消費が発生する一方、仮想現実サービスと比較して小さすぎる仮想空間では、仮想現実サービスの提供に用いられる仮想現実オブジェクトを適切に配置できない可能性が残る。このような観点から、予め記憶されている制御データを参照して、仮想空間の大きさが決定される構成とすることが好ましい。 The virtual reality service control unit 3330 sets a virtual space for the provided virtual reality service (step S306). Usually, since the virtual reality world presented to the user is within the range of the user's field of view, it is preferable to set the size to about 10 m square. However, when the user moves and appreciates the virtual reality world, it is preferable to reserve a virtual space of about 100 mm square in advance. In this way, the required virtual space size varies depending on the contents of the virtual reality service. Therefore, the virtual reality service control unit 3330 is preferably configured to set the virtual space based on the virtual reality service determined by the virtual reality service provision management unit 1320. For example, when providing a virtual reality service of S001, a virtual space of 50 m square is set, and when providing a virtual reality service of S025, a virtual space of 1 km in the X direction, 1 km in the Y direction, and 20 m in the Z direction is set. It can be set as the structure to do. The size of the virtual space required may be stored in the virtual reality content storage DB 3200 as a part of the virtual reality content control data. The virtual reality service control unit 3330 reads the virtual reality content and sets the virtual space with reference to the control data included in the virtual reality content. Setting a virtual space that is unnecessarily large consumes unnecessary resources, but in a virtual space that is too small compared to the virtual reality service, the virtual reality object used to provide the virtual reality service may not be properly placed Remains. From such a viewpoint, it is preferable that the size of the virtual space is determined with reference to control data stored in advance.
次に、仮想現実サービス制御部3330は、仮想現実サービスの提供に用いられる環境パラメータの設定を行う(ステップS307)。環境パラメータとは、仮想現実の世界をユーザに提示するために、HMD装置(仮想現実提示装置)300と、仮想現実サービス提供サーバ3300との間で行われる通信の制御を規定する情報である。 Next, the virtual reality service control unit 3330 sets environment parameters used for providing the virtual reality service (step S307). The environment parameter is information that defines control of communication performed between the HMD device (virtual reality presentation device) 300 and the virtual reality service providing server 3300 in order to present the virtual reality world to the user.
例えば、仮想現実サービス制御部3330は、環境パラメータとして、HMD装置300と仮想現実サービス提供サーバ3300との間の通信を暗号化する暗号鍵を設定する。HMD装置300では、周囲状況情報にはユーザの周囲の景色を撮影した画像データが含まれるため、プライバシーに係るものが写っている可能性がある。そこで、当該2つの装置間での通信を暗号化するために、仮想現実サービス制御部3330は、通信用の暗号鍵を生成又は仮想現実コンテンツ記憶DB3200より読み出す。当該暗号鍵は、共通鍵であっても良いし、公開鍵であっても良い。 For example, the virtual reality service control unit 3330 sets an encryption key for encrypting communication between the HMD device 300 and the virtual reality service providing server 3300 as the environment parameter. In the HMD device 300, since the surrounding state information includes image data obtained by photographing a scene around the user, there is a possibility that a privacy related matter is captured. Therefore, in order to encrypt communication between the two devices, the virtual reality service control unit 3330 generates or reads out an encryption key for communication from the virtual reality content storage DB 3200. The encryption key may be a common key or a public key.
また、例えば、仮想現実サービス制御部3330は、環境パラメータとして、HMD装置300と仮想現実サービス提供サーバ3300との間の通信で使用するポートを設定する。当該ポートは、送受信される情報に応じて複数の異なるポートが割り当てられていても良いし、1つのポートを共通して用いる構成としても良い。 Further, for example, the virtual reality service control unit 3330 sets a port used for communication between the HMD device 300 and the virtual reality service providing server 3300 as an environment parameter. As the port, a plurality of different ports may be assigned according to information to be transmitted / received, or one port may be used in common.
また、例えば、仮想現実サービス制御部3330は、環境パラメータとして、HMD装置300から仮想現実サービス提供サーバ3300へ定期的に送信されるユーザ状態情報や周囲状況情報の送信間隔やデータ形式などを設定する。仮想空間内で仮想現実オブジェクトが大きく移動するような仮想現実サービスでは、当該移動する仮想現実オブジェクトが現実の世界の物体と重なり合わないよう、現実の世界の状況を高い頻度で更新する必要がある。また、ユーザの頭部の動きが小さい場合は、ユーザ状態情報や周囲状況情報は、過去の情報を再利用することができる。このように、HMD装置300から仮想現実サービス提示サーバ3300へ定期的に送信される情報の取得間隔(生成間隔)、送信間隔、データ形式、などを環境パラメータとして設定する。 Further, for example, the virtual reality service control unit 3330 sets, as environment parameters, a transmission interval, a data format, and the like of user status information and ambient status information that are periodically transmitted from the HMD device 300 to the virtual reality service providing server 3300. . In a virtual reality service in which a virtual reality object moves greatly in a virtual space, it is necessary to frequently update the real world situation so that the moving virtual reality object does not overlap with an object in the real world. . Further, when the movement of the user's head is small, past information can be reused for the user state information and the surrounding state information. In this way, the acquisition interval (generation interval), transmission interval, data format, and the like of information periodically transmitted from the HMD device 300 to the virtual reality service presentation server 3300 are set as environment parameters.
また、例えば、仮想現実サービス制御部3330は、環境パラメータとして、仮想現実サービス提供サーバ3300で生成される映像のフレームレートや、映像符号化処理で用いられる符号化方式を識別する情報、また、生成される音声のチャンネル数や、音声符号化方式を識別する情報などを設定する。このように、仮想現実サービス制御部3330は、仮想現実サービス提供サーバ3300からHMD装置300へ定期的に送信される情報に関するパラメータを、環境パラメータとして設定する。 Further, for example, the virtual reality service control unit 3330 uses, as an environment parameter, information for identifying a frame rate of a video generated by the virtual reality service providing server 3300, a coding method used in the video coding process, The number of audio channels to be used, information for identifying the audio encoding method, and the like are set. In this way, the virtual reality service control unit 3330 sets parameters regarding information periodically transmitted from the virtual reality service providing server 3300 to the HMD device 300 as environment parameters.
仮想現実サービス制御部3330は、映像生成処理部1350、画像解析処理部2360、音声解析処理部3380、音声再生処理部3390、と言った仮想現実サービスを提供するために行われる各処理部に対して、上記設定した環境パラメータに従って担当処理を実行させる制御を行う(ステップS308)。例えば、当該制御に基づいて、映像生成処理部1350は、仮想現実サービス制御部3330が設定したフレームレートに従って、仮想空間に配置されている仮想現実オブジェクトをレンダリングして2次元画像を取得する。 The virtual reality service control unit 3330 is provided for each processing unit performed to provide a virtual reality service such as a video generation processing unit 1350, an image analysis processing unit 2360, an audio analysis processing unit 3380, and an audio reproduction processing unit 3390. Then, control for executing the responsible process is performed according to the set environmental parameter (step S308). For example, based on the control, the video generation processing unit 1350 obtains a two-dimensional image by rendering the virtual reality object arranged in the virtual space according to the frame rate set by the virtual reality service control unit 3330.
当該環境パラメータの設定が完了した場合、仮想現実サービス提供管理部1320は、仮想現実サービス開始通知情報を生成し、通信部1320よりHMD装置300に送信することで、仮想現実サービスの開始を通知する(ステップS309)。当該仮想現実サービス開始通知情報には、上記設定された環境パラメータが含まれている。 When the setting of the environment parameter is completed, the virtual reality service provision management unit 1320 generates virtual reality service start notification information and transmits the virtual reality service start notification information to the HMD device 300 from the communication unit 1320 to notify the start of the virtual reality service. (Step S309). The virtual reality service start notification information includes the set environmental parameters.
なお、上記サービス開始決定処理は、サービス開始要求が受信されたことをトリガーとする場合に限られるものではなく、現在サービスを利用可能なユーザの中から自サーバが使用可能なリソースに基づいてスケジューリングを行う構成とすることも可能である。また、ステップS306とS307は順不同であっても良い。 Note that the service start determination process is not limited to the case where a service start request is received as a trigger, but scheduling based on resources available to the server among users who can currently use the service. It is also possible to adopt a configuration in which Steps S306 and S307 may be out of order.
図16は、仮想現実サービス提供管理部1320において、仮想現実サービスの提供が決定された場合における当該仮想現実サービスのメイン制御処理を示している。仮想現実サービス提供管理部1320において仮想現実サービスの開始がHMD装置300に通知されることで、HMD装置300より環境パラメータに従ってユーザ状態情報及び周囲状況情報が定期的に送信されてくることになる。通信部1310は、当該ユーザ状態情報及び周囲状況情報を受信する(ステップS310)。通常、ユーザ状態情報の受信頻度は周囲状況情報の受信頻度よりも高くなるように環境パラメータによって設定されている。また、HMD装置300の音声入力部370で入力される音声も定期的に、又は、所定の音声レベル以上の音声が入力された場合に音声情報として送信され、通信部1310は、当該音声情報を受信する。 FIG. 16 shows main control processing of the virtual reality service when provision of the virtual reality service is determined by the virtual reality service provision management unit 1320. When the virtual reality service provision management unit 1320 notifies the HMD device 300 of the start of the virtual reality service, the HMD device 300 periodically transmits user status information and ambient status information according to the environmental parameters. The communication unit 1310 receives the user state information and the surrounding state information (step S310). Normally, the reception frequency of the user status information is set by the environmental parameter so as to be higher than the reception frequency of the surrounding state information. In addition, the voice input by the voice input unit 370 of the HMD device 300 is also transmitted as voice information periodically or when voice of a predetermined voice level or higher is input, and the communication unit 1310 transmits the voice information. Receive.
画像解析処理部2360は、周囲状況情報として送信されてくる前方景色画像や周囲景色画像の画像データに基づいて所定の解析処理を行うことでユーザの周囲にある現実の物体の位置関係を特定し、特定した物体をモデリングしてモデルデータを生成するモデリング処理を行う(ステップS311)。例えば、前方景色画像を取得する視線カメラは左目と右目に対応する位置に配置されているため、これら2つのカメラで撮影される画像を比較することで物体までの距離を特定することが可能となる。当該モデルデータは、現実の物体の外観形状を規定するポリゴンデータと当該物体の位置を示す座標データとを含み、更に好ましくは、当該モデルデータを識別するモデルラベル情報、当該モデルデータで表される現実の物体を識別する物体ラベル情報、当該現実の物体の種類を示す物体種類情報、などを含んでいる。画像解析処理部2360で生成される現実の物体のモデルデータは、仮想現実サービス制御部3330に出力される。 The image analysis processing unit 2360 performs a predetermined analysis process based on the forward view image and the image data of the surrounding view image transmitted as the surrounding state information, and identifies the positional relationship of the actual objects around the user. Then, a modeling process for modeling the identified object and generating model data is performed (step S311). For example, since the line-of-sight camera that acquires the forward scenery image is arranged at a position corresponding to the left eye and the right eye, it is possible to specify the distance to the object by comparing the images captured by these two cameras Become. The model data includes polygon data that defines the appearance shape of an actual object and coordinate data that indicates the position of the object, and more preferably is represented by model label information that identifies the model data and the model data. It includes object label information for identifying an actual object, object type information indicating the type of the actual object, and the like. The model data of the real object generated by the image analysis processing unit 2360 is output to the virtual reality service control unit 3330.
仮想現実サービス制御部3330は、画像解析処理部2360より出力されるユーザの周囲にある現実物体のモデルデータをステップS306で設定した仮想空間に配置する(ステップS312)。モデルデータは、ユーザの位置からの相対位置を示す座標データが含まれているため、仮想空間におけるユーザの位置を示すユーザ位置座標に当該座標データを加算して求まる位置に画像解析処理部2360におけるモデリング処理で得られた現実の物体のモデルデータを配置する。なお、仮想空間におけるユーザ位置座標は、ユーザ状態情報に基づいて適宜変更されていく。また、ユーザの移動に伴い、画像解析処理部2360に入力される画像の撮影範囲が変化するため、今まで画像に写っていなかった範囲にある現実の物体のモデルデータが順次生成されていく。仮想現実サービス制御部3330は、画像解析処理部2360で順次生成されるモデルデータに基づいて、仮想空間に配置する現実の物体のモデルデータを順次更新していく。 The virtual reality service control unit 3330 places the model data of the real object around the user output from the image analysis processing unit 2360 in the virtual space set in step S306 (step S312). Since the model data includes coordinate data indicating a relative position from the user's position, the image analysis processing unit 2360 has a position obtained by adding the coordinate data to the user position coordinate indicating the user's position in the virtual space. Arrange the model data of the real object obtained by the modeling process. Note that the user position coordinates in the virtual space are appropriately changed based on the user state information. In addition, as the user moves, the shooting range of the image input to the image analysis processing unit 2360 changes, so that model data of an actual object in the range that has not been captured in the image until now is sequentially generated. The virtual reality service control unit 3330 sequentially updates the model data of the real objects arranged in the virtual space based on the model data sequentially generated by the image analysis processing unit 2360.
仮想現実サービス制御部3330は、新たな仮想現実オブジェクトを仮想空間に配置するかを判定する(ステップS313)。仮想現実サービス制御部3330は、仮想現実コンテンツ記憶DB3200より読み出す仮想現実コンテンツに含まれる各種制御プログラムに基づいて、仮想現実オブジェクトを仮想空間に配置するかを判定する。 The virtual reality service control unit 3330 determines whether to arrange a new virtual reality object in the virtual space (step S313). The virtual reality service control unit 3330 determines whether to arrange the virtual reality object in the virtual space based on various control programs included in the virtual reality content read from the virtual reality content storage DB 3200.
新たな仮想現実オブジェクトを配置すると決定した場合、仮想現実サービス制御部3330は、仮想現実コンテンツ記憶DB3200より仮想現実オブジェクトを読み出して仮想空間に配置する(ステップS314)。ここで、仮想現実サービス制御部3330は、仮想空間に配置されている現実の物体のモデルデータと仮想空間内で重なり合わない位置に仮想現実オブジェクトを配置する。より好ましくは、仮想現実オブジェクトに対して配置条件が設定されており、仮想現実サービス制御部3330は、当該配置条件に従がって仮想現実オブジェクトを仮想空間に配置する。例えば、仮想現実オブジェクトが人間オブジェクトであり、「配置条件1:他の物体と重なる領域が1%以下であること、配置条件2:床の上に接触した状態で配置すること」と言う配置条件が設定されている場合、仮想現実サービス制御部3330は、仮想空間に配置している現実の物体のモデルデータのうち、床のモデルデータの上部に、1%以下の重なり状態を持って接触した状態で仮想現実オブジェクトを配置する。 When it is determined to arrange a new virtual reality object, the virtual reality service control unit 3330 reads the virtual reality object from the virtual reality content storage DB 3200 and arranges it in the virtual space (step S314). Here, the virtual reality service control unit 3330 arranges the virtual reality object at a position that does not overlap the model data of the real object arranged in the virtual space in the virtual space. More preferably, an arrangement condition is set for the virtual reality object, and the virtual reality service control unit 3330 arranges the virtual reality object in the virtual space according to the arrangement condition. For example, the virtual reality object is a human object, and the “placement condition 1: the area overlapping with other objects is 1% or less, the placement condition 2: place in contact with the floor”. Is set, the virtual reality service control unit 3330 contacts the upper part of the floor model data with an overlap state of 1% or less among the model data of the real objects arranged in the virtual space. Arrange virtual reality objects in state.
一方、ステップS313で新たな仮想現実オブジェクトを配置しないと決定された場合、ステップS314を飛ばして次のステップS315に進む。 On the other hand, if it is determined in step S313 that no new virtual reality object is to be arranged, step S314 is skipped and the process proceeds to the next step S315.
仮想現実サービス制御部3330は、仮想空間に配置している仮想現実オブジェクトの挙動を制御するかを判定する(ステップS315)。仮想現実サービス制御部3330は、仮想現実サブ制御プログラムを実行しており、画像解析処理部2360や音声解析処理部3380における処理結果を入力し、当該処理結果に基づいて配置中の仮想現実オブジェクトの挙動を制御するかを判定する処理を行う。なお、仮想現実サービス制御部3330は、上記処理結果の入力に依らず、現在実行中の仮想現実サブ制御プログラムに従って順次仮想現実オブジェクトの挙動を制御していく場合もある。 The virtual reality service control unit 3330 determines whether to control the behavior of the virtual reality object arranged in the virtual space (step S315). The virtual reality service control unit 3330 executes the virtual reality sub-control program, inputs the processing results in the image analysis processing unit 2360 and the audio analysis processing unit 3380, and determines the virtual reality object being arranged based on the processing results. Process to determine whether to control the behavior. Note that the virtual reality service control unit 3330 may sequentially control the behavior of the virtual reality object in accordance with the currently executed virtual reality sub-control program, regardless of the input of the processing result.
ステップS315で仮想現実オブジェクトの挙動を制御すると判定された場合、仮想現実オブジェクト制御部3370は、仮想現実オブジェクトの挙動を制御する(ステップS316)。具体的には、ステップS316において、仮想現実オブジェクトの挙動を制御すると仮想現実サービス制御部3330が判定した場合、仮想現実サービス制御部3330は、仮想現実コンテンツ記憶DB3200より仮想現実オブジェクト人格制御プログラムと、当該仮想現実オブジェクト人格制御プログラムで読み出される仮想現実オブジェクト挙動制御プログラムとを読み出して仮想現実オブジェクト制御部3370に送る。仮想現実オブジェクト制御部3370は、仮想現実オブジェクト人格制御プログラムを実行し、画像解析処理部2360や音声解析処理部3380における処理結果を入力として、実行する仮想現実オブジェクト挙動制御プログラムを選択する。仮想現実オブジェクト制御部3370は、選択した仮想現実オブジェクト挙動制御プログラムを実行することで、仮想現実オブジェクトの仮想空間内での位置や仮想現実オブジェクトの関節ポイントの位置や角度、仮想現実オブジェクトの表面に張り付けられるテキスチャーを変更する。このように、仮想現実オブジェクト制御部3370は、仮想現実オブジェクト挙動制御プログラムに従って仮想現実オブジェクトの挙動を制御する。 If it is determined in step S315 that the behavior of the virtual reality object is to be controlled, the virtual reality object control unit 3370 controls the behavior of the virtual reality object (step S316). Specifically, when the virtual reality service control unit 3330 determines that the behavior of the virtual reality object is to be controlled in step S316, the virtual reality service control unit 3330 stores the virtual reality object personality control program from the virtual reality content storage DB 3200, The virtual reality object behavior control program read by the virtual reality object personality control program is read and sent to the virtual reality object control unit 3370. The virtual reality object control unit 3370 executes the virtual reality object personality control program, and selects the virtual reality object behavior control program to be executed by using the processing results in the image analysis processing unit 2360 and the sound analysis processing unit 3380 as inputs. The virtual reality object control unit 3370 executes the selected virtual reality object behavior control program so that the position of the virtual reality object in the virtual space, the position and angle of the joint point of the virtual reality object, and the surface of the virtual reality object are displayed. Change the pasted texture. As described above, the virtual reality object control unit 3370 controls the behavior of the virtual reality object according to the virtual reality object behavior control program.
なお、ステップS315で仮想現実オブジェクトの挙動を制御しないと判定された場合は、上記ステップS316の挙動制御処理を行うことなく、次のステップS317に移行する。 If it is determined in step S315 that the behavior of the virtual reality object is not to be controlled, the process proceeds to the next step S317 without performing the behavior control process in step S316.
次に、仮想現実サービス制御部3330は、仮想空間に配置中の現実の物体のモデルデータを仮想空間の中から削除するかを判定する(ステップS317)。仮想現実サービス制御部3330は、ユーザとの相対距離が所定の基準値以上離れたことにより、仮想現実の提示に影響を与えなくなった物体のモデルデータや、他の物体のモデルデータとの間で干渉を生じるようになったモデルデータや、移動したことによってユーザの周囲からいなくなった物体のモデルデータなど、所定の削除基準を満たしたモデルデータがあるかを判定する。 Next, the virtual reality service control unit 3330 determines whether or not to delete the model data of the real object being arranged in the virtual space from the virtual space (step S317). The virtual reality service control unit 3330 determines whether or not the model data of an object that does not affect the presentation of virtual reality or the model data of another object because the relative distance from the user is greater than or equal to a predetermined reference value. It is determined whether there is model data that satisfies a predetermined deletion criterion, such as model data that has caused interference, or model data of an object that has disappeared from the user's surroundings due to movement.
仮想現実サービス制御部3330は、所定の削除基準を満たしたと判定した現実の物体のモデルデータを仮想空間の中から削除する(ステップS318)。一方、所定の削除基準を持たすと判定した現実の物体のモデルデータが無い場合は、当該削除処理を行うことなく次のステップS319に進む。 The virtual reality service control unit 3330 deletes the model data of the real object determined to satisfy the predetermined deletion criterion from the virtual space (step S318). On the other hand, if there is no model data of an actual object determined to have a predetermined deletion criterion, the process proceeds to the next step S319 without performing the deletion process.
次に、仮想現実サービス制御部3330は、仮想空間に配置中の仮想現実オブジェクトを仮想空間の中から削除するかを判定する(ステップS319)。仮想現実サービス制御部3330は、仮想現実サービスの進行に従って、不必要となった仮想現実オブジェクトや、ユーザとの相対距離が所定の基準値以上離れたことにより、仮想現実の提示に影響を与えなくなった仮想現実オブジェクトや、現実の物体のモデルデータや他の仮想現実オブジェクトとの干渉を生じるようになった仮想現実オブジェクトなど、所定の削除基準を満たした仮想現実オブジェクトがあるかを判定する。 Next, the virtual reality service control unit 3330 determines whether or not to delete the virtual reality object being arranged in the virtual space from the virtual space (step S319). The virtual reality service control unit 3330 does not affect the presentation of the virtual reality because the virtual reality object that has become unnecessary or the relative distance from the user is more than a predetermined reference value as the virtual reality service progresses. It is determined whether there is a virtual reality object that satisfies a predetermined deletion criterion, such as a virtual reality object, a model data of a real object, or a virtual reality object that has caused interference with another virtual reality object.
仮想現実サービス制御部3330は、所定の削除基準を満たしたと判定した仮想現実オブジェクトを仮想空間の中から削除し、ステップS310に戻る(ステップS320)。一方、所定の削除基準を持たすと判定した仮想現実オブジェクトが無い場合は、当該削除処理を行うことなく次のステップS310に戻る。 The virtual reality service control unit 3330 deletes the virtual reality object determined to satisfy the predetermined deletion criterion from the virtual space, and returns to step S310 (step S320). On the other hand, if there is no virtual reality object determined to have the predetermined deletion criterion, the process returns to the next step S310 without performing the deletion process.
このように、仮想現実サービス制御部3330は、設定した仮想空間に配置する仮想現実オブジェクトや現実の物体のモデルデータを適宜追加、変形、削除を繰り返し行うことで仮想空間を更新する。 As described above, the virtual reality service control unit 3330 updates the virtual space by repeatedly adding, transforming, and deleting the model data of the virtual reality object and the real object to be arranged in the set virtual space.
次に、HMD装置300で表示される映像の生成処理について説明する。図17は、当該映像生成処理の流れを示すフローチャート図である。 Next, a process for generating a video displayed on the HMD device 300 will be described. FIG. 17 is a flowchart showing the flow of the video generation process.
ユーザ状態情報が通信部1310で新たに受信された場合(ステップS321)、表示映像生成処理部1350は、当該受信された最新のユーザ状態情報に基づいて仮想空間における視点を制御する(ステップS322)。具体的には、表示映像生成処理部1350は、ユーザ状態情報に含まれる加速度情報や傾き情報に基づいて、ユーザの左目の位置と右目の位置に対応する仮想空間上の座標を視点の位置として求め、また、ユーザの頭部が向いている方向を視線方向として求める。一方、ユーザ状態情報が受信されていない場合は、このタイミングにおける視点制御はスキップする。 When the user status information is newly received by the communication unit 1310 (step S321), the display video generation processing unit 1350 controls the viewpoint in the virtual space based on the received latest user status information (step S322). . Specifically, the display video generation processing unit 1350 uses the coordinates in the virtual space corresponding to the position of the left eye and the position of the right eye of the user as the viewpoint position based on the acceleration information and the tilt information included in the user state information. Further, the direction in which the user's head is facing is obtained as the line-of-sight direction. On the other hand, when the user status information is not received, the viewpoint control at this timing is skipped.
一方、周囲状況情報が通信部1310で新たに受信された場合(ステップS323)、表示映像生成処理部1350は、当該受信された最新の周囲状況情報に基づいて仮想空間における光源を制御する(ステップS324)。具体的には、表示映像生成処理部1350は、仮想空間に配置する光源の位置及び光の強さを設定する。一方、周囲状況情報が受信されていない場合は、このタイミングにおける光源制御はスキップする。 On the other hand, when the ambient condition information is newly received by the communication unit 1310 (step S323), the display video generation processing unit 1350 controls the light source in the virtual space based on the received latest ambient condition information (step S323). S324). Specifically, the display video generation processing unit 1350 sets the position of the light source and the light intensity arranged in the virtual space. On the other hand, when the ambient condition information is not received, the light source control at this timing is skipped.
次に、表示映像生成処理部1350は、ステップS323で制御された光源からの照射環境における仮想空間に配置されている仮想現実オブジェクトの、ステップS321で制御された視点からの映像を生成する(ステップS325)。具体的には、表示映像生成処理部1350は、ステップS321で制御された視点位置の視線方向前方に配置したイメージプレーンに仮想空間内の仮想現実オブジェクトを投影する。ここで、表示映像生成処理部1350は、イメージプレーンには現実の物体のモデルデータは投影せず、仮想現実オブジェクトだけを投影する。ここで、表示映像生成処理部1350は、仮想現実オブジェクトと視点位置との間に現実の物体のモデルデータがある場合は、仮想現実オブジェクトの中で当該モデルデータに隠される部分は投影しない隠面処理を行う。また、表示映像生成処理部1350は、ステップS324で制御された光源からの照射環境に基づいて、投影された仮想現実オブジェクトに対するシェーディング処理を行う。これら、各処理を行うことで、表示映像生成処理部1350は、HMD装置300の表示パネル151a、151bで表示される2つの映像を生成する。 Next, the display video generation processing unit 1350 generates a video from the viewpoint controlled in step S321 of the virtual reality object arranged in the virtual space in the irradiation environment from the light source controlled in step S323 (step S321). S325). Specifically, the display video generation processing unit 1350 projects the virtual reality object in the virtual space onto the image plane arranged in front of the visual line direction of the viewpoint position controlled in step S321. Here, the display video generation processing unit 1350 projects only the virtual reality object, not the model data of the real object on the image plane. Here, when there is model data of a real object between the virtual reality object and the viewpoint position, the display video generation processing unit 1350 does not project the portion hidden in the model data in the virtual reality object. Process. Further, the display video generation processing unit 1350 performs a shading process on the projected virtual reality object based on the irradiation environment from the light source controlled in step S324. By performing these processes, the display image generation processing unit 1350 generates two images to be displayed on the display panels 151a and 151b of the HMD device 300.
次に、表示映像生成処理部1350は、生成した映像を所定の圧縮符号化方式で符号化することで映像符号化データを生成し(ステップS326)、通信部1310は、当該生成された映像符号化データをHMD装置300へ送信する(ステップS327)。なお、HMD装置300と仮想現実サービス提供サーバ3300の間の通信を暗号化する場合は、ステップS326で生成された映像符号化データを暗号化した上で送信する。 Next, the display video generation processing unit 1350 generates video encoded data by encoding the generated video using a predetermined compression encoding method (step S326), and the communication unit 1310 generates the generated video code. The converted data is transmitted to the HMD device 300 (step S327). When communication between the HMD device 300 and the virtual reality service providing server 3300 is encrypted, the encoded video data generated in step S326 is encrypted and transmitted.
当該ステップS321〜S327の処理を一つのフレーム処理として、繰り返すことにより、表示パネル151a、151bで順次仮想現実オブジェクトの映像が表示される。 By repeating the processes in steps S321 to S327 as one frame process, video images of virtual reality objects are sequentially displayed on the display panels 151a and 151b.
次に、HMD装置300で再生される音声の生成処理について説明する。図18は、当該音声生成処理の流れを示すフローチャート図である。 Next, a process for generating sound played back by the HMD device 300 will be described. FIG. 18 is a flowchart showing the flow of the sound generation processing.
ユーザ状態情報が通信部1310で新たに受信された場合(ステップS331)、再生音声生成処理部3390は、当該受信された最新のユーザ状態情報に基づいて仮想空間における耳の位置を制御する(ステップS332)。具体的には、再生音声生成処理部3390は、ユーザ状態情報に含まれる加速度情報や傾き情報に基づいて、ユーザの耳の位置に対応する仮想空間における音声集音位置(音声集音位置座標)を求める。一方、ユーザ状態情報が受信されていない場合は、このタイミングにおける耳の位置(音声集音位置)の制御はスキップする。 When the user state information is newly received by the communication unit 1310 (step S331), the reproduction sound generation processing unit 3390 controls the position of the ear in the virtual space based on the received latest user state information (step S331). S332). Specifically, the reproduction sound generation processing unit 3390, based on the acceleration information and the inclination information included in the user state information, the sound collection position (sound collection position coordinates) in the virtual space corresponding to the position of the user's ear. Ask for. On the other hand, when the user status information is not received, the control of the ear position (sound collection position) at this timing is skipped.
一方、周囲音声情報が通信部1310で新たに受信された場合(ステップS333)、再生音声生成処理部3390は、当該受信された最新の周囲音声情報に基づいてユーザの周囲における雑音等の音声レベルを算出し、HMD装置300の音声再生制御部380で再生する音声における音声レベルを設定する(ステップS334)。一方、周囲音声情報が受信されていない場合は、このタイミングにおける音声レベル設定はスキップする。 On the other hand, when ambient audio information is newly received by the communication unit 1310 (step S333), the playback audio generation processing unit 3390 determines the audio level such as noise around the user based on the received latest ambient audio information. Is calculated, and the sound level in the sound reproduced by the sound reproduction control unit 380 of the HMD device 300 is set (step S334). On the other hand, when ambient audio information is not received, audio level setting at this timing is skipped.
仮想現実サービス制御部3330は、画像解析処理部2360や音声解析処理部3380における処理結果に基づいて、音声を再生するかを判定する(ステップS335)。このタイミングでは再生しないと判定した場合、ステップS331に戻って次の音声再生判定タイミングまで待機する。 The virtual reality service control unit 3330 determines whether to reproduce the sound based on the processing results in the image analysis processing unit 2360 and the sound analysis processing unit 3380 (step S335). If it is determined that playback is not performed at this timing, the process returns to step S331 and waits until the next audio playback determination timing.
一方、音声を再生すると判定した場合、仮想現実サービス制御部3330は、再生する音声を音声合成によって生成するかを判定する(ステップS336)。音声合成を行わない場合は、仮想現実サービス制御部3330は、予め仮想現実コンテンツの一部として仮想現実コンテンツ記憶DB3200に記憶されている音声データを読み出して再生音声生成処理部3390へ出力する(ステップS337)。 On the other hand, when it is determined that the voice is to be reproduced, the virtual reality service control unit 3330 determines whether to generate the voice to be reproduced by voice synthesis (step S336). When speech synthesis is not performed, the virtual reality service control unit 3330 reads audio data stored in advance in the virtual reality content storage DB 3200 as a part of the virtual reality content and outputs the audio data to the reproduction audio generation processing unit 3390 (Step S390). S337).
一方、音声を合成すると判定した場合は、仮想現実サービス制御部3330は、仮想現実コンテンツ記憶DB3200に予め仮想現実コンテンツの一部として記憶されている音声基礎データを読み出して再生音声生成処理部3390に送り、再生音声生成処理部339おは、自ら求めたコンテキスト又は他のコンテキスト生成処理部で生成されたコンテキストに従って音声基礎データを合成することで、合成音声データを生成する(ステップS338)。 On the other hand, when it is determined to synthesize the voice, the virtual reality service control unit 3330 reads the voice basic data stored in advance as part of the virtual reality content in the virtual reality content storage DB 3200 and sends it to the playback voice generation processing unit 3390. The sending / reproducing voice generation processing unit 339 generates synthesized voice data by synthesizing the voice basic data in accordance with the context obtained by itself or the context generated by another context generation processing unit (step S338).
再生音声生成処理部3390は、仮想現実サービス制御部3330より出力された音声データ又は音声合成処理によって生成した音声データに対して、ステップS334で設定された音声レベルに基づいて利得調整処理を行う(ステップS339)。 The playback sound generation processing unit 3390 performs gain adjustment processing on the sound data output from the virtual reality service control unit 3330 or the sound data generated by the sound synthesis process based on the sound level set in step S334 ( Step S339).
再生音声生成処理部3390は、利得調整された音声データを、ステップS332で制御された耳の位置(音声集音位置)に基づいて複数のチャンネルに分配する分配処理を行う(ステップS340)。当該分配処理により、再生音声生成処理部3390は、HMD装置300が備える複数の音声チャンネルでそれぞれ再生されるチャンネル別音声データを生成する。 The reproduction sound generation processing unit 3390 performs a distribution process of distributing the gain-adjusted sound data to a plurality of channels based on the ear position (sound collection position) controlled in step S332 (step S340). Through the distribution process, the reproduction audio generation processing unit 3390 generates channel-specific audio data that is reproduced on each of the plurality of audio channels included in the HMD device 300.
再生音声生成処理部3390は、各チャンネルへ分配した音声データをH.729等の音声符号化方式に従って符号化処理を行い、音声符号化データを生成し、通信部1310へ出力する(ステップS341)。 The reproduction audio generation processing unit 3390 converts the audio data distributed to each channel to H.264. Encoding processing is performed in accordance with a speech encoding scheme such as 729, speech encoded data is generated, and output to the communication unit 1310 (step S341).
通信部1310は、再生音声生成処理部3390より出力された音声符号化データをHMD装置300に送信し、ステップS331に戻る(ステップS342)。当該送信された音声符号化データは、HMD装置300の音声再生制御部380で復号され、音声出力部390において各チャンネルの音声データがDA変換処理でアナログ音声信号に変換された後、空気振動に変換されて外部へ音声として出力される。 The communication unit 1310 transmits the audio encoded data output from the reproduction audio generation processing unit 3390 to the HMD device 300, and returns to step S331 (step S342). The transmitted encoded audio data is decoded by the audio reproduction control unit 380 of the HMD device 300, and the audio output unit 390 converts the audio data of each channel into an analog audio signal by DA conversion processing. It is converted and output as audio to the outside.
次に、仮想現実サービスの中断処理の流れについて説明する。図19は、仮想現実サービス中断処理の流れを示すフローチャート図である。 Next, the flow of the virtual reality service interruption process will be described. FIG. 19 is a flowchart showing the flow of the virtual reality service interruption process.
仮想現実サービス提供管理部1320は、現在提供中の仮想現実サービスを中断するかを判定する(ステップS351)。例えば、仮想現実サービス提供管理部1320は、仮想現実サービス中断要求が受信された場合や、仮想現実サービスを中断する条件として予め設定されている仮想現実サービス提供中断条件を満たした場合に、現在提供中の仮想現実サービスを中断すると判定する。 The virtual reality service provision management unit 1320 determines whether to interrupt the currently provided virtual reality service (step S351). For example, the virtual reality service provision management unit 1320 provides the current provision when a virtual reality service suspension request is received or when a virtual reality service provision suspension condition preset as a condition for suspending the virtual reality service is satisfied. It is determined that the virtual reality service is interrupted.
仮想現実サービス提供管理部1320は、ステップS351で仮想現実サービスの提供を中断すると判定した場合、仮想現実サービスの提供を中断することを通知する仮想現実サービス中断通知情報を生成し、通信部1310へ出力する(ステップS352)。 If the virtual reality service provision management unit 1320 determines in step S351 that the provision of the virtual reality service is to be suspended, the virtual reality service provision management unit 1320 generates virtual reality service suspension notification information for notifying that the provision of the virtual reality service is to be suspended, and transmits the virtual reality service suspension notification information to the communication unit 1310. Output (step S352).
通信部1310は、当該仮想現実サービス中断通知情報をHMD装置300へ送信する(ステップS353)。該仮想現実サービス中断通知情報はHMD装置300の通信部130で受信されて仮想現実提示制御部260に送られる。仮想現実提示制御部260は、当該中断通知情報に基づいて、各部の機能を停止する制御を行う。例えば、表示制御部140に映像の表示制御を中断させ、音声再生制御部380に音声の再生制御を中断させる。但し、仮想現実サービス提供サーバ3300が、サービス中断中のユーザの状態や周囲の状況を追跡できるよう、仮想現実提示制御部260は、ユーザ状態検知部110と周囲状況検知部120の機能は中断しない構成とすることが好ましい。仮想現実サービスの提供が中断されている場合であっても、HMD装置300において、ユーザ状態検知部110はユーザの状態を検知してユーザ状態情報を生成し、通信部130より仮想現実サービス提供サーバ3300に送信される。また、仮想現実サービスの提供が中断されている場合であっても、HMD装置300において、周囲状況検知部120は、ユーザの周囲の状況を検知して周囲状況情報を生成し、通信部130より仮想現実サービス提供サーバ3300に送信される。 The communication unit 1310 transmits the virtual reality service interruption notification information to the HMD device 300 (step S353). The virtual reality service interruption notification information is received by the communication unit 130 of the HMD device 300 and sent to the virtual reality presentation control unit 260. The virtual reality presentation control unit 260 performs control to stop the function of each unit based on the interruption notification information. For example, the display control unit 140 interrupts the video display control, and the audio reproduction control unit 380 interrupts the audio reproduction control. However, the virtual reality service providing server 3300 does not interrupt the functions of the user status detection unit 110 and the ambient status detection unit 120 so that the virtual status service providing server 3300 can track the status of the user who is interrupting the service and the surrounding status. A configuration is preferable. Even in the case where provision of the virtual reality service is interrupted, in the HMD device 300, the user status detection unit 110 detects the user status and generates user status information, and the virtual reality service provision server from the communication unit 130 3300. Even when provision of the virtual reality service is interrupted, in the HMD device 300, the surrounding state detection unit 120 detects the surrounding state of the user and generates the surrounding state information. It is transmitted to the virtual reality service providing server 3300.
仮想現実サービス提供管理部1320は、自サーバにおける各処理部に処理中断指示を送る(ステップS354)。当該指示に基づいて表示映像生成処理や再生音声生成処理が停止されることで自サーバのリソースの消費を抑える。但し、後続における仮想現実サービス再開時にタイムラグを生じさせず再開できるよう、当該ステップS354はスキップし、各処理を継続する構成としても良い。この場合、映像データや音声データはHMD装置300に送信されるものの、HMD装置300の仮想現実提示制御部260がサービス中断通知情報に基づいて行う制御によって、映像の表示や音声の再生は行われず、従って仮想現実の世界がユーザに提示されることはない。 The virtual reality service provision management unit 1320 sends a processing interruption instruction to each processing unit in its own server (step S354). The display video generation process and the playback audio generation process are stopped based on the instruction, thereby suppressing the resource consumption of the own server. However, step S354 may be skipped and each process continued so that the subsequent virtual reality service can be resumed without causing a time lag. In this case, although video data and audio data are transmitted to the HMD device 300, video display and audio reproduction are not performed by control performed by the virtual reality presentation control unit 260 of the HMD device 300 based on the service interruption notification information. Therefore, the virtual reality world is not presented to the user.
仮想現実サービスの提供を中断している状態において、仮想現実サービス提供管理部1320は、中断中の仮想現実サービスの提供を再開するかを判定する(ステップS355)。仮想現実サービス提供管理部1320は、仮想現実サービス再開要求が通信部1310で受信された場合や、仮想現実サービス提供中断条件が解消された場合に、仮想現実サービスの提供を再開すると判定する。 In a state where the provision of the virtual reality service is suspended, the virtual reality service provision management unit 1320 determines whether or not to resume the provision of the suspended virtual reality service (step S355). The virtual reality service provision management unit 1320 determines to resume provision of the virtual reality service when the virtual reality service resumption request is received by the communication unit 1310 or when the virtual reality service provision interruption condition is resolved.
仮想現実サービス提供管理部1320は、自サーバにおける各処理部に処理の再開を指示することで、ステップS354で停止させた処理を再開させる(ステップS356)。 The virtual reality service provision management unit 1320 instructs each processing unit in its own server to resume processing, thereby resuming the processing stopped in step S354 (step S356).
仮想現実サービス提供管理部1320は、仮想現実サービスの提供を再開することを示す仮想現実サービス再開通知情報を生成し、通信部1310へ出力する(ステップS357)。 The virtual reality service provision management unit 1320 generates virtual reality service restart notification information indicating that provision of the virtual reality service is resumed, and outputs the virtual reality service restart notification information to the communication unit 1310 (step S357).
通信部1310は、当該仮想現実サービス再開通知情報をHMD装置300へ送信し、ステップS351へ戻る(ステップS358)。当該仮想現実サービス再開通知情報はHMD装置300の通信部130で受信されて仮想現実提示制御部260に送られる。仮想現実提示制御部260は、当該再開通知情報に基づいて、各部の機能を再開させる。例えば、表示制御部140に映像の表示制御を再開させ、音声再生制御部380に音声の再生制御を再開させる。 The communication unit 1310 transmits the virtual reality service restart notification information to the HMD device 300, and returns to Step S351 (Step S358). The virtual reality service restart notification information is received by the communication unit 130 of the HMD device 300 and sent to the virtual reality presentation control unit 260. The virtual reality presentation control unit 260 restarts the function of each unit based on the restart notification information. For example, the display control unit 140 is caused to resume video display control, and the audio reproduction control unit 380 is caused to resume audio reproduction control.
次に、仮想現実サービスの終了処理の流れについて説明する。図20は、仮想現実サービス終了処理の流れを示すフローチャート図である。 Next, the flow of the virtual reality service end process will be described. FIG. 20 is a flowchart showing the flow of the virtual reality service end process.
仮想現実サービス提供管理部1320は、現在提供中の仮想現実サービスを終了するかを判定する(ステップS361)。例えば、仮想現実サービス提供管理部1320は、仮想現実サービス終了要求が受信された場合や、ユーザの現在の状態が仮想現実サービス利用条件を満たさなくなった場合に、現在提供中の仮想現実サービスを終了すると判定する。 The virtual reality service provision management unit 1320 determines whether to end the currently provided virtual reality service (step S361). For example, the virtual reality service provision management unit 1320 terminates the currently provided virtual reality service when a virtual reality service termination request is received or when the current state of the user does not satisfy the virtual reality service usage conditions. Judge that.
仮想現実サービス提供管理部1320は、ステップS361で仮想現実サービスの提供を終了すると判定した場合、仮想現実サービスの提供を終了することを通知する仮想現実サービス終了通知情報を生成し、通信部1310へ出力する(ステップS362)。 If the virtual reality service provision management unit 1320 determines in step S361 that the provision of the virtual reality service is to be terminated, the virtual reality service provision management unit 1320 generates virtual reality service termination notification information for notifying that the provision of the virtual reality service is to be terminated, and sends it to the communication unit 1310. Output (step S362).
通信部1310は、当該仮想現実サービス終了通知情報をHMD装置300へ送信する(ステップS363)。当該仮想現実サービス終了通知情報は、HMD装置300の通信部130で受信されて仮想現実提示制御部260に送られる。仮想現実提示制御部260は、当該終了通知情報に基づいて、仮想現実の提示に関連する各部の機能を停止し、仮想現実の提示を終了する制御を行う。例えば、表示制御部140に映像の表示制御を中断させ、音声再生制御部380に音声の再生制御を終了させる。また、仮想現実提示制御部260は、ユーザ状態検知部110にユーザ状態の検知処理を終了させ、周囲状況検知部120に周囲状況の検知処理を終了させる。具体的には、傾きセンサ111や加速度センサ112への給電を遮断し、前方カメラ121や周囲カメラ122への給電を遮断する。 The communication unit 1310 transmits the virtual reality service end notification information to the HMD device 300 (step S363). The virtual reality service end notification information is received by the communication unit 130 of the HMD device 300 and sent to the virtual reality presentation control unit 260. Based on the end notification information, the virtual reality presentation control unit 260 performs control to stop the function of each unit related to the virtual reality presentation and end the virtual reality presentation. For example, the display control unit 140 interrupts the video display control, and the audio reproduction control unit 380 ends the audio reproduction control. Also, the virtual reality presentation control unit 260 causes the user state detection unit 110 to end the user state detection process, and causes the surrounding state detection unit 120 to end the surrounding state detection process. Specifically, power supply to the tilt sensor 111 and the acceleration sensor 112 is cut off, and power supply to the front camera 121 and the surrounding camera 122 is cut off.
仮想現実サービス提供管理部1320は、自サーバにおける各処理部に処理終了指示を送る(ステップS364)。当該終了指示に基づいて仮想現実サービスの提供に関連する各部の処理が終了され、自サーバのリソースが解放される。また、当該仮想現実サービス用に設定されている仮想空間も解放される。 The virtual reality service provision management unit 1320 sends a processing end instruction to each processing unit in its own server (step S364). Based on the termination instruction, processing of each unit related to provision of the virtual reality service is terminated, and the resources of the own server are released. Further, the virtual space set for the virtual reality service is also released.
仮想現実サービス提供管理部1320は、これまでの仮想現実サービスの経過状況等をセーブデータとしてセーブデータ記憶DB3500に格納し、仮想現実サービスの提供を終了する(ステップS365)。例えば、ユーザが仮想現実の世界で獲得した仮想的なアイテムや経験値に関する情報、仮想現実サービスのストーリー上の進行状況などをセーブデータとして格納する。 The virtual reality service provision management unit 1320 stores the progress of the virtual reality service so far in the save data storage DB 3500 as save data, and ends the provision of the virtual reality service (step S365). For example, information regarding virtual items and experience values acquired by the user in the virtual reality world, progress on the story of the virtual reality service, and the like are stored as saved data.
図21は、HMD装置300より仮想現実サービス提供サーバ3300へ送信される各種要求のデータ構造を、図22は、仮想現実サービス提供サーバ3300よりHMD装置300へ送信される各種通知情報のデータ構造をそれぞれ示している。 21 shows a data structure of various requests transmitted from the HMD device 300 to the virtual reality service providing server 3300, and FIG. 22 shows a data structure of various notification information transmitted from the virtual reality service providing server 3300 to the HMD device 300. Each is shown.
各要求(情報)には、送信元アドレスとして自装置300のアドレスが、送信先アドレスとして仮想現実サービス提供サーバ3300のアドレスが含まれる。一方、各通知情報には、送信元アドレスとして自サーバ3300のアドレスが、送信先アドレスとしてHMD装置300のアドレスがそれぞれ含まれる。 Each request (information) includes the address of the device 300 as a transmission source address and the address of the virtual reality service providing server 3300 as a transmission destination address. On the other hand, each notification information includes the address of the own server 3300 as a transmission source address and the address of the HMD device 300 as a transmission destination address.
各要求には要求内容を示す要求種別情報と、当該要求を識別するために割り当てた管理用の番号である要求識別情報と、が含まれる。例えば要求種別情報は2ビットの情報であり、“00”が仮想現実サービス開始要求を、“01”が仮想現実サービス中断要求を、“10”が仮想現実サービス再開要求を、“11”が仮想現実サービス終了要求をそれぞれ表している。 Each request includes request type information indicating the request content and request identification information which is a management number assigned to identify the request. For example, the request type information is 2-bit information, “00” is a virtual reality service start request, “01” is a virtual reality service suspension request, “10” is a virtual reality service restart request, and “11” is virtual. Each real service end request is shown.
一方、各通知情報には、通知内容を示す通知種別情報と、どの要求に対する応答であるかを識別するために上記要求識別情報とが含まれる。例えば、通知種別情報は3ビットの上方であり、“000”が仮想現実サービス開始通知情報を、“001”が仮想現実サービス開始拒絶通知情報を、“010”が仮想現実サービス中断通知情報を、“011”が仮想現実サービス再開通知情報を、“100”が仮想現実サービス終了通知情報を、それぞれ表している。なお、HMD装置300より送られてくる要求に対する応答として通知される情報ではなく、自発的に仮想現実サービス提供サーバ3300が送信する場合は、各通知情報には要求識別情報は含まれない。 On the other hand, each notification information includes notification type information indicating the content of notification and the request identification information for identifying which request is a response. For example, the notification type information is above 3 bits, “000” is virtual reality service start notification information, “001” is virtual reality service start rejection notification information, “010” is virtual reality service interruption notification information, “011” represents virtual reality service restart notification information, and “100” represents virtual reality service end notification information. Note that when the virtual reality service providing server 3300 voluntarily transmits not the information notified as a response to the request sent from the HMD device 300, the request identification information is not included in each notification information.
仮想現実サービス開始要求には、当該要求に係るユーザを識別するユーザIDと、仮想現実サービスを開始するためのパスワード、開始を要求する仮想現実サービスを識別する仮想現実サービス識別情報が含まれる。当該サービス開始要求を受け取った仮想現実サービス提供管理部1320は、契約者情報記憶DB3100に記憶される契約者情報に含まれるユーザIDとパスワードの組と比較することで、適切なユーザからの要求であるかを判定する。また、仮想現実サービス提供管理部1320は、当該サービス開始要求に含まれる仮想現実サービス識別情報で識別される仮想現実サービスを当該ユーザが利用可能であるかを判定する。これらの判定を適切に通過した場合に、仮想現実サービスの提供開始処理が進められる。 The virtual reality service start request includes a user ID for identifying the user associated with the request, a password for starting the virtual reality service, and virtual reality service identification information for identifying the virtual reality service that requests the start. Upon receiving the service start request, the virtual reality service provision management unit 1320 compares the user ID and password set included in the contractor information stored in the contractor information storage DB 3100 with a request from an appropriate user. Determine if there is. Also, the virtual reality service provision management unit 1320 determines whether the user can use the virtual reality service identified by the virtual reality service identification information included in the service start request. When these determinations are properly passed, provision start processing of the virtual reality service proceeds.
仮想現実サービス開始通知情報には、提供を開始する仮想現実サービスを識別する仮想現実サービス識別情報と、当該仮想現実サービスにおいて自サーバ3300とHMD装置300との間で発生する各通信を他の通信と区別するために用いる提供中仮想現実サービス管理番号と、各種環境パラメータを設定するための環境設定情報と、が含まれる。環境設定情報には、自サーバ3300とHMD装置300との間の通信を暗号化するための暗号鍵と、当該通信で用いるポート番号を指定する使用ポート番号と、自サーバ3300からHMD装置300へ送信される映像データのフレームレートを指定するフレームレート情報と、HMD装置300より自サーバ3300へ送信させるユーザ状態情報や周囲状況情報の送信頻度を指定するHMD側情報送信頻度指定情報と、自サーバ3300からHMD装置300へ送信する映像及び音声の符号化方式をそれぞれ指定する映像符号化方式指定情報と音声符号化方式指定情報などが含まれる。 The virtual reality service start notification information includes virtual reality service identification information for identifying a virtual reality service to be provided, and each communication generated between the server 3300 and the HMD device 300 in the virtual reality service. A virtual reality service management number being provided for use in distinguishing it from the environment setting information for setting various environment parameters. The environment setting information includes an encryption key for encrypting communication between the local server 3300 and the HMD device 300, a used port number for designating a port number used in the communication, and the local server 3300 to the HMD device 300. Frame rate information for specifying the frame rate of video data to be transmitted, HMD side information transmission frequency designation information for designating the transmission frequency of user status information and surrounding situation information to be transmitted from the HMD device 300 to the own server 3300, and the own server Video encoding method specifying information and audio encoding method specifying information for specifying video and audio encoding methods to be transmitted from 3300 to the HMD device 300 are included.
当該仮想現実サービス開始通知情報を受信したHMD装置300において、仮想現実提示制御部260は、当該サービス開始通知情報に含まれる環境設定情報に基づいて、各パラメータを設定し、HMD装置300側での各処理を開始させる。 In the HMD device 300 that has received the virtual reality service start notification information, the virtual reality presentation control unit 260 sets each parameter based on the environment setting information included in the service start notification information, and the HMD device 300 side Each process is started.
仮想現実サービス開始拒絶通知情報には、上述した送信元アドレス、送信先アドレス、通知種別情報、要求識別情報に加えて、仮想現実サービスの提供開始を拒絶する理由が付加情報として含まれる構成としても良い。 In addition to the transmission source address, transmission destination address, notification type information, and request identification information described above, the virtual reality service start rejection notification information may include a reason for rejecting the provision start of the virtual reality service as additional information. good.
仮想現実サービス中断要求、仮想現実サービス再開要求、仮想現実サービス終了要求には、それぞれ中断、再開、終了に係る仮想現実サービスに割り当てられている上述の提供中仮想現実サービス管理番号が含まれる。当該仮想現実サービス中断要求、仮想現実サービス再開要求、仮想現実サービス終了要求をそれぞれ受け取った仮想現実サービス提供管理部1320は、当該要求に含まれる提供中仮想現実サービス管理番号で管理されている仮想現実サービスの中断処理、再開処理、終了処理を実行する。 The virtual reality service interruption request, the virtual reality service restart request, and the virtual reality service termination request include the above-described virtual reality service management numbers that are allocated to the virtual reality services related to the suspension, restart, and termination, respectively. The virtual reality service provision management unit 1320 that has received the virtual reality service interruption request, the virtual reality service restart request, and the virtual reality service termination request, respectively, manages the virtual reality managed by the virtual reality service management number being provided included in the request. Executes service interruption processing, resumption processing, and termination processing.
仮想現実サービス中断通知情報、仮想現実サービス再開通知情報、仮想現実サービス終了通知情報には、それぞれ中断、再開、終了に係る仮想現実サービスを識別する提供仮想現実サービス識別情報と、当該仮想現実サービス用に割り当てられている提供中仮想現実サービス管理番号とが含まれる。当該サービス中断通知情報、サービス再開通知情報、サービス終了通知情報を受信したHMD装置300において、仮想現実提示制御部260は、指定される仮想現実サービスに係る仮想現実の提示の中断、再開、終了を制御する。 The virtual reality service interruption notification information, the virtual reality service resumption notification information, and the virtual reality service end notification information include provided virtual reality service identification information for identifying the virtual reality service related to interruption, resumption, and termination, and for the virtual reality service, respectively. And the virtual reality service management number being provided assigned to the. In the HMD device 300 that has received the service interruption notification information, service resumption notification information, and service end notification information, the virtual reality presentation control unit 260 suspends, resumes, and ends the presentation of the virtual reality related to the designated virtual reality service. Control.
以上説明したように、本実施形態3に係る仮想現実サービス提供システム3000によれば、仮想空間に配置された仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト挙動制御部を備えることで、ユーザに提示される仮想現実の世界に表される仮想現実オブジェクトが動作するため、より豊かな仮想現実の世界をユーザに提示することができる。 As described above, according to the virtual reality service providing system 3000 according to the third embodiment, the virtual reality object behavior control unit that controls the behavior of the virtual reality object arranged in the virtual space is provided to the user. Since the virtual reality object represented in the virtual reality world is operated, a richer virtual reality world can be presented to the user.
なお、上記説明では、HMD装置300は、光源352から照射された光がユーザ側へ反射され、LCD等のディスプレイを通過することで映像が表示される構成について説明したが、本発明のHMD装置は当該構成に限定されるものではない。例えば、表示部150として、LCD154の代わりにプロジェクション機構を備える構成としても良い。 In the above description, the HMD device 300 has been described with respect to the configuration in which the light emitted from the light source 352 is reflected toward the user side and passes through a display such as an LCD, but the HMD device of the present invention is described. Is not limited to this configuration. For example, the display unit 150 may include a projection mechanism instead of the LCD 154.
図23は、プロジェクション機構の表示部150を有するHMD装置300におけるフロントパネル102の断面図を示している。フロントパネル102の上部に位置するセンターフレーム101cの内部にプロジェクション機構が表示部150として配置されている。 FIG. 23 shows a cross-sectional view of the front panel 102 in the HMD device 300 having the display unit 150 of the projection mechanism. A projection mechanism is arranged as a display unit 150 inside a center frame 101 c located on the upper part of the front panel 102.
センターフレーム101cの内部上方に配置されている光源152より照射された白色光は、レンズ群155aによって集光された後、ポラライジングコンバータ(PLC)155bによって偏光成分が一方向に整えられたのち、第1反射ミラー155cによって垂直方向に反射される。第1反射ミラー155cで反射された白色光は、R反射ダイクロイックミラー155dによって赤色の光成分(R成分)だけが水平方向へ反射され、他の成分の光は、R反射ダイクロイックミラー155dを透過する。 After the white light emitted from the light source 152 disposed above the center frame 101c is collected by the lens group 155a, the polarization component is adjusted in one direction by the polarizing converter (PLC) 155b. The light is reflected in the vertical direction by the first reflecting mirror 155c. In the white light reflected by the first reflecting mirror 155c, only the red light component (R component) is reflected in the horizontal direction by the R reflecting dichroic mirror 155d, and the light of the other components is transmitted through the R reflecting dichroic mirror 155d. .
R反射ダイクロイックミラー155dを透過した光は、G反射ダイクロイックミラー155eで緑色の光成分(G成分)だけが水平方向に反射され、残りの青色の光成分(B成分)はG反射ダイクロイックミラー155eを透過する。 From the light transmitted through the R reflecting dichroic mirror 155d, only the green light component (G component) is reflected in the horizontal direction by the G reflecting dichroic mirror 155e, and the remaining blue light component (B component) passes through the G reflecting dichroic mirror 155e. To Penetrate.
G反射ダイクロイックミラー155eを透過したB成分の光は、第2反射ミラー155fで水平方向に反射され、更に第3反射ミラー155gで垂直上方へ反射され、第1液晶パネル155hを透過した後にクロスダイクロプリズム155jに入射される。 The B component light transmitted through the G reflecting dichroic mirror 155e is reflected in the horizontal direction by the second reflecting mirror 155f, further reflected vertically upward by the third reflecting mirror 155g, and then transmitted through the first liquid crystal panel 155h. The light enters the prism 155j.
一方、R反射ダイクロイックミラー155dで反射されたR成分の光は、第4反射ミラー155kによって垂直方向に反射され、第2液晶パネル155mを透過した後にクロスダイクロプリズム155jに入射される。また、G反射ダイクロイックミラー155eで反射されたG成分の光は、第3液晶パネル155nを透過した後にクロスダイクロプリズム155jに入射される。 On the other hand, the R component light reflected by the R reflecting dichroic mirror 155d is reflected in the vertical direction by the fourth reflecting mirror 155k, passes through the second liquid crystal panel 155m, and then enters the cross dichroic prism 155j. The G component light reflected by the G reflecting dichroic mirror 155e passes through the third liquid crystal panel 155n and then enters the cross dichroic prism 155j.
クロスダイクロプリズム155jは、分離されてそれぞれ液晶パネルを通過したR成分、G成分、B成分の3つの光を合成して水平方向に反射する。クロスダイクロプリズム155jより出力された合成光は、ガルバノミラー155pによって垂直方向に反射され、照射窓155qよりフロントパネル102へ照射される。ガルバノミラー155pは、クロスダイクロプリズム155jより出力された合成光を水平方向(y方向)に走査しながら反射する。 The cross dichroic prism 155j combines the three light components R, G, and B that have been separated and passed through the liquid crystal panel, and reflects them in the horizontal direction. The combined light output from the cross dichroic prism 155j is reflected in the vertical direction by the galvano mirror 155p, and is irradiated to the front panel 102 from the irradiation window 155q. The galvanometer mirror 155p reflects the combined light output from the cross dichroic prism 155j while scanning in the horizontal direction (y direction).
フロントパネル102のうち、照射窓155qの下方には透過型導光板153が配置されており、当該導光板153によって再度水平方向に反射された光がユーザの目の中へ入射される。ガルバノミラー155pによって水平方向に光が操作されているため、導光板153で反射される光は垂直方向(z方向)に走査される。 A transmissive light guide plate 153 is disposed below the irradiation window 155q in the front panel 102, and light reflected by the light guide plate 153 in the horizontal direction again enters the user's eyes. Since the light is operated in the horizontal direction by the galvanometer mirror 155p, the light reflected by the light guide plate 153 is scanned in the vertical direction (z direction).
なお、図23における各部材は、x方向すなわち紙面垂直方向に長細い構成をとっており、右目用の映像におけるx方向の一列を纏めて表示する。当該一列の映像がガルバノミラー155pによってy方向に走査されて順次表示されることで、xz平面の2次元画像がフロントパネル102の導光板153に映し出されることになる。同様に、左目の上部にも同一のプロジェクション機構が配置されており、導光板153に左目用の映像が映し出される。このように、導光板153及びセンターフレーム101c内に格納されている右目用プロジェクション機構と左目用プロジェクション機構によって表示部が形成され、導光板153が表示パネルとして機能する。なお、左目用プロジェクション機構と右目用プロジェクション機構は共通化されていても良い。 Note that each member in FIG. 23 has a configuration that is long in the x direction, that is, the direction perpendicular to the paper surface, and collectively displays a line in the x direction in the image for the right eye. The row of images is scanned in the y direction by the galvano mirror 155p and sequentially displayed, so that a two-dimensional image in the xz plane is displayed on the light guide plate 153 of the front panel 102. Similarly, the same projection mechanism is also arranged at the upper part of the left eye, and an image for the left eye is displayed on the light guide plate 153. As described above, the display unit is formed by the right-eye projection mechanism and the left-eye projection mechanism stored in the light guide plate 153 and the center frame 101c, and the light guide plate 153 functions as a display panel. Note that the left-eye projection mechanism and the right-eye projection mechanism may be shared.
また、センターフレーム101cには、視線カメラ121a、121bが配置されている。視線カメラ121aは、外部の光を集光するレンズ群121a−1と、集光した光を絞る絞り機構121a−2と、CCDやCMOS等の固体撮像素子121a−3などで構成される。固体撮像素子121a−3で光からアナログ電気信号に変換された後、AD変換器でデジタル信号に変換され、後続のDSP(Degital Signal Processor)で所定の補正処理及び符号化処理が行われた後、周囲状況情報として通信部130より仮想現実サービス提供サーバ3300へ送信される。 In addition, line-of-sight cameras 121a and 121b are arranged on the center frame 101c. The line-of-sight camera 121a includes a lens group 121a-1 that collects external light, a diaphragm mechanism 121a-2 that restricts the collected light, and a solid-state imaging device 121a-3 such as a CCD or a CMOS. After being converted from light to an analog electrical signal by the solid-state imaging device 121a-3, after being converted to a digital signal by an AD converter, a predetermined correction processing and encoding processing are performed by a subsequent DSP (Digital Signal Processor) Then, it is transmitted from the communication unit 130 to the virtual reality service providing server 3300 as the surrounding state information.
なお、上記説明ではHMD装置300が透過型ディスプレイを備える仮想現実提示装置である場合について説明したがこれに限定されるものではない。例えば、図24に示すHMD装置300bのように、フロントパネル102は、遮蔽型のパネルであって外側に視線カメラ121a、121bが、内側に表示パネル151a、151bがそれぞれ配置される構成であっても良い。但し、この場合、フロントパネル302によってユーザの視界は遮蔽されているため、視線カメラ121a、121bでそれぞれ撮影された映像が表示パネル151a、151bに表示されることでユーザは前方の様子を見ることができる構成を取る。 In the above description, the case where the HMD device 300 is a virtual reality presentation device including a transmissive display is described, but the present invention is not limited to this. For example, like the HMD device 300b shown in FIG. 24, the front panel 102 is a shielded panel, and the line-of-sight cameras 121a and 121b are arranged outside and the display panels 151a and 151b are arranged inside, respectively. Also good. However, in this case, since the user's field of view is shielded by the front panel 302, the images taken by the line-of-sight cameras 121a and 121b are displayed on the display panels 151a and 151b, so that the user sees the front view. Take a configuration that can.
図25は、図24に示したHMD装置300bの構成を示すブロック図である。HMD装置300bにおいて、表示制御部140は、映像復号処理部141と、映像合成処理部142とを備える。 FIG. 25 is a block diagram showing a configuration of the HMD device 300b shown in FIG. In the HMD device 300b, the display control unit 140 includes a video decoding processing unit 141 and a video composition processing unit 142.
映像復号処理部141は、仮想現実サービス提供サーバ3300で生成された映像の符号化データに対して復号処理を行うことで、仮想現実オブジェクトの映像を取得する。 The video decoding processing unit 141 acquires a video of the virtual reality object by performing a decoding process on the encoded video data generated by the virtual reality service providing server 3300.
映像合成処理部142は、視線カメラ121で撮影された前方景色画像に映像復号処理部141で取得された仮想現実オブジェクトの映像を合成することで、仮想現実の映像を生成する。具体的には、映像合成処理部142は、右視線カメラ121aで撮影された前方景色画像と右視点で生成された仮想現実オブジェクトの映像とを合成し、左視線カメラ121bで撮影された前方景色画像と左視点で生成された仮想現実オブジェクトの映像とを合成することで2つの映像を生成する。映像合成処理部142は、生成した2つの映像をそれぞれライト表示パネル151aとレフト表示パネル151bとにそれぞれ表示する。 The video synthesis processing unit 142 generates a virtual reality video by synthesizing the video of the virtual reality object acquired by the video decoding processing unit 141 with the forward scene image captured by the line-of-sight camera 121. Specifically, the video composition processing unit 142 synthesizes the front scene image captured by the right gaze camera 121a and the video of the virtual reality object generated from the right viewpoint, and the front scene captured by the left gaze camera 121b. Two images are generated by combining the image and the image of the virtual reality object generated from the left viewpoint. The video composition processing unit 142 displays the two generated videos on the right display panel 151a and the left display panel 151b, respectively.
なお、当該形態を取る場合は、周囲状況情報は仮想現実サービス提供サーバ3300へ送信されない構成としても良い。この場合、HMD装置300bは、図26に示すように構成されていても良い。図26に示すHMD装置300bにおいて、周囲状況検知部120は、視線カメラ121と視線補助カメラ123とを備える。 In addition, when taking the said form, it is good also as a structure where ambient condition information is not transmitted to the virtual reality service provision server 3300. In this case, the HMD device 300b may be configured as shown in FIG. In the HMD device 300 b shown in FIG. 26, the surrounding state detection unit 120 includes a line-of-sight camera 121 and a line-of-sight auxiliary camera 123.
フロントパネル102の厚みを増やすと装着性が低下するため、フロントパネル102はできるだけ薄いことが好ましい。一方、フロントパネル102の厚みが薄いと、視線カメラ121における光学パスが十分確保取れないため、撮像される画像に比較的大きい歪みが生じる。そこで、フロントパネル102の外側前方に別途視線補助カメラ123を配置する。 When the thickness of the front panel 102 is increased, the mounting property is lowered. Therefore, the front panel 102 is preferably as thin as possible. On the other hand, if the thickness of the front panel 102 is thin, a sufficient optical path cannot be secured in the visual line camera 121, so that a relatively large distortion occurs in the captured image. Therefore, a line-of-sight auxiliary camera 123 is separately arranged in front of the front panel 102.
表示制御部140は、映像復号処理部141と、映像合成処理部142と、視界映像生成処理部143と、境界特定処理部144と、を備える。映像復号処理部141は、仮想現実サービス提供サーバ3300で生成された仮想現実オブジェクトの映像の符号化データに対して復号処理を行うことで、当該仮想現実オブジェクトの映像を取得する。 The display control unit 140 includes a video decoding processing unit 141, a video composition processing unit 142, a visual field video generation processing unit 143, and a boundary specification processing unit 144. The video decoding processing unit 141 acquires the video of the virtual reality object by performing a decoding process on the encoded data of the video of the virtual reality object generated by the virtual reality service providing server 3300.
視界映像生成処理部143は、視線カメラ121で撮影された映像と視線補助カメラ123で撮影された映像とを組み合わせることで歪みを補正し、ユーザの視界となる映像である視界映像を生成する。当該視界映像は、HMD装置300をつけていない場合にユーザが肉眼で見える視界の景色と略同一の景色の映像である。視界映像生成処理部143は、左目用の視界映像と右目用の視界映像とを生成する。 The visual field image generation processing unit 143 corrects distortion by combining the image captured by the visual line camera 121 and the video captured by the visual axis auxiliary camera 123, and generates a visual field image that is an image serving as the user's visual field. The field-of-view image is an image of a scene that is substantially the same as the field of view that the user can see with the naked eye when the HMD device 300 is not attached. The view image generation processing unit 143 generates a view image for the left eye and a view image for the right eye.
境界特定処理部144は、視界映像生成処理部143で生成されたユーザの視界の映像に対して境界判定処理を行うことで、当該映像に写っている各物体の境界と距離とを特定する。境界特定処理部144は、隣接する画素やブロックの色差信号の差が所定の基準値を超えて離れている場合に、当該部分が物体の境界であると判定し、左右2つの視界映像においてそれぞれ同一の物体が表示されている位置の差分から、当該物体までの距離を算出する。 The boundary identification processing unit 144 performs boundary determination processing on the user's visual field image generated by the visual field image generation processing unit 143 to identify the boundary and distance of each object shown in the video. The boundary identification processing unit 144 determines that the portion is the boundary of the object when the difference between the color difference signals of adjacent pixels or blocks exceeds a predetermined reference value, and each of the two left and right view images The distance to the object is calculated from the difference between the positions where the same object is displayed.
映像合成処理部142は、視界映像生成処理部143で生成された左目用視界映像と右目用視界映像にそれぞれ映像復号処理部141で取得された左目用の仮想現実オブジェクトの映像と右目用の仮想現実オブジェクトの映像とを合成する処理を行う。 The video composition processing unit 142 includes a left-eye virtual reality object video and a right-eye virtual image acquired by the video decoding processing unit 141 for the left-eye visual image and the right-eye visual image generated by the visual image generation processing unit 143, respectively. A process of synthesizing the video of the real object is performed.
ここで、映像合成処理部142は、境界特定処理部144で特定された視界映像に含まれる物体の境界位置に基づいて、仮想現実オブジェクトの一部を境界に沿って削除する補正処理を行い、当該補正処理が行われた仮想現実オブジェクトの映像を視界映像と合成することで表示用の映像を生成する。これは、仮想現実オブジェクトの映像が仮想現実サービス提供サーバ3300で生成されるのに対し、視界映像がHMD装置300で生成されるため、合成する際にズレが生じる場合があるためである。 Here, the video composition processing unit 142 performs correction processing for deleting a part of the virtual reality object along the boundary based on the boundary position of the object included in the visual field image specified by the boundary specifying processing unit 144, A video for display is generated by combining the video of the virtual reality object on which the correction processing has been performed with the visual field video. This is because a video of a virtual reality object is generated by the virtual reality service providing server 3300, whereas a visual field image is generated by the HMD device 300, and thus there may be a shift in the composition.
なお、当該構成の場合には、仮想現実オブジェクトまでの距離を示す距離情報が映像データと合わせて仮想現実サービス提供サーバ3300より送信される構成とすると更に良好である。この場合、映像合成処理部142は、当該距離情報で示される仮想現実オブジェクトの距離よりもユーザ側にある物体の境界で仮想現実オブジェクトの映像の一部を削除する補正処理を行った上で、視界映像と仮想現実オブジェクトの映像とを合成する。 In the case of this configuration, it is more preferable that the distance information indicating the distance to the virtual reality object is transmitted from the virtual reality service providing server 3300 together with the video data. In this case, the video composition processing unit 142 performs correction processing for deleting a part of the video of the virtual reality object at the boundary of the object on the user side with respect to the distance of the virtual reality object indicated by the distance information. The view image and the virtual reality object image are combined.
例えば、仮想現実サービス提供サーバ3300で生成される映像に仮想現実オブジェクトA、B、Cが含まれているとして、当該仮想現実オブジェクトA、B、Cまでのユーザからの距離がそれぞれ2.1m、4.0m、4.8mであったとする。一方、境界特定処理部144における境界特定処理により、視界映像の中にそれぞれユーザの位置から1.0m、3.1m、4.5m、5.2m、8mの距離にある物体P、Q、R、S、Tが写っていることが特定されたとする。この場合、仮想現実オブジェクトAよりも物体Pだけがユーザにより近い位置にあるため、仮想現実オブジェクトAの映像から、物体Pと重なり合う部分の映像を削除する処理を行う。同様に、仮想現実オブジェクトBよりも、物体P、Qがユーザにより近い位置にあるため、仮想現実オブジェクトBの映像から、物体P、Qと重なり合う部分の映像を削除する処理を行う。同様に、仮想現実オブジェクトCの映像から物体P、Q、Rと重なり合う部分の映像を削除する処理を行う。 For example, assuming that the virtual reality objects A, B, and C are included in the video generated by the virtual reality service providing server 3300, the distance from the user to the virtual reality objects A, B, and C is 2.1 m, respectively. Suppose that it was 4.0 m and 4.8 m. On the other hand, by the boundary identification processing in the boundary identification processing unit 144, the objects P, Q, and R at the distances of 1.0 m, 3.1 m, 4.5 m, 5.2 m, and 8 m from the position of the user in the view image, respectively. , S, and T are identified. In this case, since only the object P is closer to the user than the virtual reality object A, a process of deleting the image of the portion overlapping the object P from the image of the virtual reality object A is performed. Similarly, since the objects P and Q are closer to the user than the virtual reality object B, a process of deleting the image of the portion overlapping the objects P and Q from the image of the virtual reality object B is performed. Similarly, a process of deleting a video of a portion that overlaps the objects P, Q, and R from the video of the virtual reality object C is performed.
このように、表示制御部140は、仮想現実サービス提供サーバ3300で生成された仮想現実オブジェクトの映像を、ユーザの視界に入る物体に基づいて補正を行い、補正処理後の仮想現実オブジェクトの映像を表示パネル151a、151bにそれぞれ表示する制御を行うことで、仮想現実オブジェクトがより自然な状態でユーザの周囲の景色と同化するため、高い現実感を有する仮想現実の世界をユーザに提示することが可能となる。 As described above, the display control unit 140 corrects the video of the virtual reality object generated by the virtual reality service providing server 3300 based on the object that enters the user's field of view, and displays the video of the virtual reality object after the correction process. By performing control to display each on the display panels 151a and 151b, the virtual reality object is assimilated with the scenery around the user in a more natural state, so that a virtual reality world with high reality can be presented to the user. It becomes possible.
なお、非透過型のディスプレイを備えるHMD装置の構成として、図27に示すHMD装置300cの形態とすることも可能である。HMD装置300cは、非透過型のディスプレイである点を除き、図8に示すHMD装置300と同一の構成を取る。 Note that the configuration of an HMD device including a non-transmissive display may be an HMD device 300c shown in FIG. The HMD device 300c has the same configuration as the HMD device 300 shown in FIG. 8 except that it is a non-transmissive display.
一方、仮想現実サービス提供サーバ3300において、表示映像生成処理部1350は、視点制御部1351と、光源制御部1352と、描画処理部1353と、符号化処理部1354と、映像合成処理部1355と、を備える。 On the other hand, in the virtual reality service providing server 3300, the display video generation processing unit 1350 includes a viewpoint control unit 1351, a light source control unit 1352, a drawing processing unit 1353, an encoding processing unit 1354, a video composition processing unit 1355, Is provided.
視点制御部1351は、ユーザ状態情報で示されるユーザの目の位置(視線カメラの位置)に基づいて仮想空間における視点位置及び視線方向を制御する。光源制御部1352は、画像解析処理部2360における画像解析結果に基づいて光源位置及び光源の強さ(照度)を制御する。 The viewpoint control unit 1351 controls the viewpoint position and the line-of-sight direction in the virtual space based on the position of the user's eyes (the position of the line-of-sight camera) indicated by the user state information. The light source control unit 1352 controls the light source position and the intensity (illuminance) of the light source based on the image analysis result in the image analysis processing unit 2360.
描画処理部1353は、視点制御部1351及び光源制御部1352でそれぞれ制御される視点及び光源に基づいて、仮想空間に配置されている仮想現実オブジェクトの映像を生成する。 The drawing processing unit 1353 generates an image of the virtual reality object arranged in the virtual space based on the viewpoint and the light source controlled by the viewpoint control unit 1351 and the light source control unit 1352, respectively.
映像合成処理部1355は、視線カメラ121で撮影された前方景色映像に描画処理部1353で生成された仮想現実オブジェクトの映像を合成することでHMD装置300cの表示パネル151a、151bでそれぞれ表示される映像を生成する。 The video composition processing unit 1355 synthesizes the video of the virtual reality object generated by the drawing processing unit 1353 with the forward scene video captured by the line-of-sight camera 121, and is displayed on the display panels 151a and 151b of the HMD device 300c, respectively. Generate video.
ここで、合成とは前方景色映像の上に仮想現実オブジェクトの映像をのせることで、前方景色映像と仮想現実オブジェクトの映像を合成する。すなわち、前方景色映像のうち、仮想現実オブジェクトに対応する画素を、仮想現実オブジェクトの映像の画素に置換することで、これら2つの映像を合成する。但し、仮想現実オブジェクトを半透明として表示する場合は、前方景色映像の画素の値と仮想現実オブジェクトの映像の画素の値との平均値や片方に重み付けをして足し合わせた値で画素の値を置換することでこれら2つの映像を合成する構成としても良い。 Here, the composition means that the video of the virtual reality object is synthesized with the video of the virtual reality object on the front scenery video. That is, by replacing the pixels corresponding to the virtual reality object in the front scene video with the pixels of the video of the virtual reality object, these two videos are synthesized. However, when the virtual reality object is displayed as semi-transparent, the pixel value is the average value of the pixel value of the front view image and the pixel value of the image of the virtual reality object or a value obtained by weighting and adding one of the values. The two images may be combined by replacing.
また、前方景色映像の境界特定処理によって前方景色映像に写る物体と仮想現実オブジェクトの位置関係とを判定し、仮想現実オブジェクトよりも前方に位置する物体を優先して、仮想現実オブジェクトの一部を削除する処理を行っても良い。 In addition, by determining the boundary between the front scene video and the position of the object in the front scene video and the position of the virtual reality object, priority is given to the object located ahead of the virtual reality object, and a part of the virtual reality object is determined. You may perform the process to delete.
映像合成処理部1355における合成処理によって生成された映像は、映像符号化処理部1354によって映像符号化データに変換され、通信部1310よりHMD装置300cへ送信される。 The video generated by the synthesis process in the video synthesis processing unit 1355 is converted into video encoded data by the video encoding processing unit 1354 and transmitted from the communication unit 1310 to the HMD device 300c.
なお、上述した仮想現実サービス提供サーバ3300で行われる各処理は1台のサーバで行われても良いし、複数のサーバが協働して行う構成としても良い。例えば、図28に示す仮想現実サービス提供システム3000では、仮想現実サービスを提供する仮想現実サービス提供サーバ3300と、HMD装置300において周囲状況情報として取得された画像を解析する画像解析サーバ3600と、HMD装置300において入力された音声を解析する音声解析サーバ3700と、ユーザに対する応答のコンテキストを生成する応答コンテキスト生成サーバ3800と、音声を合成する音声合成サーバ3900と、を備えている。 Each process performed by the virtual reality service providing server 3300 described above may be performed by a single server, or may be configured by a plurality of servers working together. For example, in the virtual reality service providing system 3000 shown in FIG. 28, a virtual reality service providing server 3300 that provides a virtual reality service, an image analysis server 3600 that analyzes an image acquired as ambient state information in the HMD device 300, and an HMD A speech analysis server 3700 that analyzes speech input in the device 300, a response context generation server 3800 that generates a context of a response to the user, and a speech synthesis server 3900 that synthesizes speech are provided.
画像解析処理サーバ3600は、HMD装置300で撮影された画像を入力し、境界特定処理、物体特定処理、物体距離算出処理、物体モデル化処理等を行い、物体の種類、物体の位置、物体までの距離、物体のモデルデータ等を生成する。 The image analysis processing server 3600 receives an image captured by the HMD device 300, performs boundary identification processing, object identification processing, object distance calculation processing, object modeling processing, and the like, and performs object types, object positions, and objects. Distance, object model data, etc. are generated.
境界特定処理は、同一画像における隣接ブロックや隣接画素を比較することで、物体の境界であるかを判定する。物体特定処理は、予め基準物体データベースに記憶している各物体の画像とのパターンマッチング処理を行うことで、相関値が所定の基準値以上である画像の物体であると判定する。物体距離算出処理は、複数のカメラで撮影された画像に写る物体の画素位置の差分に基づいて距離を算出する。モデル化処理は、境界特定処理で特定された境界に沿って、各物体を抽出し、当該物体の形状の頂点座標を求めて3Dポリゴンデータを生成することで当該物体のモデルデータを取得する。 In the boundary specifying process, it is determined whether the boundary is an object boundary by comparing adjacent blocks and adjacent pixels in the same image. In the object specifying process, a pattern matching process with an image of each object stored in advance in the reference object database is performed to determine that the object is an image having a correlation value equal to or greater than a predetermined reference value. In the object distance calculation process, a distance is calculated based on a difference in pixel position of an object shown in an image photographed by a plurality of cameras. In the modeling process, each object is extracted along the boundary specified in the boundary specifying process, the vertex coordinates of the shape of the object are obtained, and 3D polygon data is generated to acquire the model data of the object.
音声解析処理サーバ3700は、HMD装置300で入力された音声データを入力し、当該音声データに含まれる特徴量に基づいて、当該音声データを時系列に複数の音素データに分割する。分割された各音素データを、基準音素データベースに記憶している基準音素データとマッチング処理を行うことで、分割した音素データがどの音であるかを特定する。各基準音素データには、当該音素データの音を示す符号と対応付けられているため、入力した音声データが符号列に変換される。音声解析処理サーバ3700は、単語データベースに記憶されている単語に対応付けられている符号と、符号列との間でマッチング処理を行うことで、変換された符号列を意味のある単語の羅列に変換し、入力した音声のコンテキストを取得する。 The voice analysis processing server 3700 receives the voice data input by the HMD device 300, and divides the voice data into a plurality of phoneme data in time series based on the feature amount included in the voice data. Each divided phoneme data is subjected to matching processing with reference phoneme data stored in the reference phoneme database, thereby specifying which sound the divided phoneme data is. Since each reference phoneme data is associated with a code indicating the sound of the phoneme data, the input speech data is converted into a code string. The speech analysis processing server 3700 performs matching processing between the code associated with the word stored in the word database and the code string, thereby converting the converted code string into a sequence of meaningful words. Convert and get input audio context.
また、音声解析処理サーバ3700は、入力した音声の音声レベルやピッチに基づいて感情要素を抽出する。例えば、入力した音声における感情要素を、「喜怒哀楽」の5段階評価に分類する。例えば、音声解析処理サーバ3700は、高いピッチの音声の感情要素を「楽5」として抽出する。また、例えば、音声解析処理サーバ3700は、低いピッチで音声レベルの低い音声の感情要素を「哀2」として抽出する。 The voice analysis processing server 3700 extracts emotion elements based on the voice level and pitch of the input voice. For example, the emotional elements in the input voice are classified into a five-step evaluation of “feeling emotional”. For example, the voice analysis processing server 3700 extracts emotion elements of high pitch voice as “Raku 5”. Further, for example, the voice analysis processing server 3700 extracts a voice emotion element having a low pitch and a low voice level as “sorrow 2”.
音声解析処理サーバ3700は、取得したコンテキストや抽出した感情要素を応答コンテキスト生成サーバ3800に出力する。 The voice analysis processing server 3700 outputs the acquired context and the extracted emotion element to the response context generation server 3800.
応答コンテキスト生成サーバ3800は、音声解析処理サーバ3700で取得されたコンテキストや感情要素を入力し、HMD装置300で入力された音声に対する応答コンテキストを生成する。ここで、応答コンテキスト生成サーバ3800は、仮想現実コンテンツ記憶DB3200に記憶されている仮想現実オブジェクトの人格制御プログラムを読み出して実行しており、音声解析処理サーバ3700より入力されるコンテキストや感情要素に基づいて、応答コンテキストを生成する。応答コンテキスト生成サーバ3800は、生成した応答コンテキストを音声合成処理サーバ3900に出力する。 The response context generation server 3800 receives the context and emotional elements acquired by the voice analysis processing server 3700 and generates a response context for the voice input by the HMD device 300. Here, the response context generation server 3800 reads out and executes the virtual reality object personality control program stored in the virtual reality content storage DB 3200, and based on the context and emotion elements input from the speech analysis processing server 3700. To generate a response context. The response context generation server 3800 outputs the generated response context to the speech synthesis processing server 3900.
音声合成処理サーバ3900は、応答コンテキスト生成サーバ3800で生成された応答コンテキストに従って仮想現実コンテンツ記憶DB3200に記憶されている上記仮想現実オブジェクトに対応付けられている基礎音声データを組み合わせることで、合成音声データを生成する。 The speech synthesis processing server 3900 combines the synthesized speech data by combining the basic speech data associated with the virtual reality object stored in the virtual reality content storage DB 3200 according to the response context generated by the response context generation server 3800. Is generated.
仮想現実サービス提供サーバ3300は、仮想空間に仮想現実オブジェクトを配置し、ユーザ状態情報に基づいて制御された視点からの仮想現実オブジェクトの映像を生成する。仮想現実サービス提供サーバ3300は、生成した映像や音声合成処理サーバ3900で生成された合成音声データを符号化してHMD装置300へ送信する。また、仮想現実サービス提供サーバ3300は、仮想現実コンテンツ記憶DB3200から読み出した音声データを符号化してHMD装置300へ送信する。HMD装置300は、これら仮想現実オブジェクトの映像を表示したり、音声データを再生したりすることで仮想現実の世界をユーザに提示する。このように構成されていても良い。 The virtual reality service providing server 3300 arranges the virtual reality object in the virtual space, and generates a video of the virtual reality object from the viewpoint controlled based on the user state information. The virtual reality service providing server 3300 encodes the generated video and the synthesized voice data generated by the voice synthesis processing server 3900 and transmits the encoded voice data to the HMD device 300. Also, the virtual reality service providing server 3300 encodes the audio data read from the virtual reality content storage DB 3200 and transmits the encoded audio data to the HMD device 300. The HMD device 300 presents the virtual reality world to the user by displaying video images of these virtual reality objects or reproducing audio data. It may be configured in this way.
(実施形態4)
本発明は、ユーザに対して仮想現実の世界を提示する。人間は、5感を用いて外界で起きている事象を感知するが、通常時では視覚による情報取得量が最も多いため、仮想現実の世界を提示するために、ユーザが装着している仮想現実提示装置の表示部に仮想現実オブジェクトの映像を表示する。ここで、当該表示に必要となる各処理は、仮想現実提示装置で行われても良いし、処理能力の高い外部のサーバで行われても良い。どこで処理が行われるかは、仮想現実提示装置の処理能力や記憶容量、消費電力等に基づいて決定されるものであって、ユーザに提示される仮想現実の世界には大きな影響を与えるものではない。すなわち、どのように処理を仮想現実提示装置と外部の情報処理サーバとの間で分担するかは、適宜仮想現実提示装置の能力に応じて決定される構成とすることができ、仮想現実を提示する仮想現実提示システムとしてはどのような処理分担を行っても同一のシステムとなる。
(Embodiment 4)
The present invention presents the virtual reality world to the user. Although humans sense events occurring in the outside world using the five senses, the amount of information acquired by visual sense is the largest in normal times, so that the virtual reality worn by the user to present a virtual reality world The video of the virtual reality object is displayed on the display unit of the presentation device. Here, each process required for the display may be performed by the virtual reality presentation device or may be performed by an external server having a high processing capability. Where the processing is performed is determined based on the processing capacity, storage capacity, power consumption, etc. of the virtual reality presentation device, and does not significantly affect the virtual reality world presented to the user. Absent. In other words, how the processing is shared between the virtual reality presentation device and the external information processing server can be determined according to the capability of the virtual reality presentation device as appropriate, and the virtual reality is presented. As a virtual reality presentation system, the same system is used regardless of the processing sharing.
図29は、本実施形態4に係る仮想現実提示システム4000の構成を示すブロック図である。仮想現実提示システム4000は、少なくとも、ユーザ状態検知部410と、仮想現実コンテンツ記憶部420と、視点制御部430と、描画処理部440と、表示部450と、を備える。 FIG. 29 is a block diagram illustrating a configuration of a virtual reality presentation system 4000 according to the fourth embodiment. The virtual reality presentation system 4000 includes at least a user state detection unit 410, a virtual reality content storage unit 420, a viewpoint control unit 430, a drawing processing unit 440, and a display unit 450.
ユーザ状態検知部410は、上述したユーザ状態検知部110と対応しており、ユーザの現在の状態を検知する。ユーザ状態検知部410は、ユーザの状態としてユーザの頭部の傾きを検知する傾きセンサ、ユーザの頭部の加速度を検知する加速度センサ、ユーザの速度を検知する速度センサ、GPS等を利用してユーザの現在位置を検出する位置検出部、などの一部又は全部を組み合わせることで構成される。 The user state detection unit 410 corresponds to the above-described user state detection unit 110 and detects the current state of the user. The user state detection unit 410 uses a tilt sensor that detects the tilt of the user's head as the user state, an acceleration sensor that detects the acceleration of the user's head, a speed sensor that detects the user's speed, a GPS, and the like. It is configured by combining part or all of a position detection unit that detects the current position of the user.
仮想現実コンテンツ記憶部420は、上述した仮想現実コンテンツ記憶DB3200と対応しており、少なくとも仮想現実オブジェクトを含む仮想現実コンテンツを記憶する。 The virtual reality content storage unit 420 corresponds to the above-described virtual reality content storage DB 3200 and stores virtual reality content including at least a virtual reality object.
視点制御部430は、視点制御部1351と対応しており、ユーザ状態検知部410で検知されたユーザの状態に基づいて、仮想現実オブジェクトの描画処理における視点を制御する。視点制御部430は、ユーザ状態検知部410におけるユーザの状態に基づいて、視点の位置及び視点の方向(視線)を算出する。視点制御部430は、ユーザの右目に対応する第1視点とユーザの左目に対応する第2視点の少なくとも2つの視点を制御する。ここで、第1視点と第2視点の位置及び視線は、連動している。第1視点と第2視点は予め設定された距離だけ離れており、第1視点及び第2視点の方向(視線)は同一方向となる。 The viewpoint control unit 430 corresponds to the viewpoint control unit 1351, and controls the viewpoint in the virtual reality object drawing process based on the user state detected by the user state detection unit 410. The viewpoint control unit 430 calculates the position of the viewpoint and the direction of the viewpoint (line of sight) based on the user state in the user state detection unit 410. The viewpoint control unit 430 controls at least two viewpoints of a first viewpoint corresponding to the user's right eye and a second viewpoint corresponding to the user's left eye. Here, the positions and lines of sight of the first viewpoint and the second viewpoint are linked. The first viewpoint and the second viewpoint are separated by a preset distance, and the directions (line of sight) of the first viewpoint and the second viewpoint are the same direction.
描画処理部440は、描画処理部1353と対応しており、視点制御部430で制御される視点に基づいて、仮想現実コンテンツ記憶部420より読み出された仮想現実オブジェクトを描画する処理を行う。描画処理部440は、視点制御部430で制御される第1視点と第2視点の2つの視点に基づいて、仮想現実オブジェクトを描画することで、同一の仮想現実オブジェクトの2つ映像を生成する。但し、描画処理部440は、第1視点と第2視点とは連動しているため、独立して描画処理を行う必要はなく、第1視点に基づいて描画された第1映像に補正処理を行うことで第2映像を生成しても良い。描画処理部440は、仮想現実オブジェクトを含む映像を生成する処理を行うため、映像生成処理部と称されることがある。 The drawing processing unit 440 corresponds to the drawing processing unit 1353, and performs a process of drawing a virtual reality object read from the virtual reality content storage unit 420 based on the viewpoint controlled by the viewpoint control unit 430. The rendering processing unit 440 generates two images of the same virtual reality object by rendering the virtual reality object based on the two viewpoints of the first viewpoint and the second viewpoint controlled by the viewpoint control unit 430. . However, since the drawing processing unit 440 is linked to the first viewpoint and the second viewpoint, it is not necessary to perform the drawing process independently, and the correction process is performed on the first video drawn based on the first viewpoint. The second video may be generated by doing so. The drawing processing unit 440 may be referred to as a video generation processing unit because it performs processing to generate a video including a virtual reality object.
表示部450は、上述した表示部150と対応しており、描画処理部440で描画された映像を表示する。表示部450は、具体的にユーザの左目と右目の前方に配置されている2枚の表示パネルであって、描画処理部440で生成された仮想現実オブジェクトの2つの映像をそれぞれ表示する。 The display unit 450 corresponds to the display unit 150 described above, and displays the video drawn by the drawing processing unit 440. The display unit 450 is specifically two display panels arranged in front of the user's left eye and right eye, and displays two images of the virtual reality object generated by the drawing processing unit 440, respectively.
なお、視点制御部430が行う視点制御は、表示部450に表示される仮想現実オブジェクトの位置を制御するものでもあるため、仮想現実オブジェクト表示位置制御部と称されることがある。 Note that the viewpoint control performed by the viewpoint control unit 430 also controls the position of the virtual reality object displayed on the display unit 450, and thus may be referred to as a virtual reality object display position control unit.
図30は、仮想現実提示システム4000の動作の流れを示すフローチャート図である。ユーザ状態検知部410が新たにユーザの状態を検知した場合(ステップS401でYes)、視点制御部430は、当該検知された最新のユーザの状態に基づいて視点を制御する(ステップS402)。次のフレームタイミングが到達した場合(ステップS403でYes)、描画処理部440は仮想現実オブジェクトの映像を生成する(ステップS404)。表示部450は、ステップS404で生成された映像を表示する(ステップS405)。 FIG. 30 is a flowchart showing an operation flow of the virtual reality presentation system 4000. When the user state detection unit 410 newly detects the user state (Yes in step S401), the viewpoint control unit 430 controls the viewpoint based on the detected latest user state (step S402). When the next frame timing has arrived (Yes in step S403), the drawing processing unit 440 generates a video of the virtual reality object (step S404). The display unit 450 displays the video generated in step S404 (step S405).
当該構成によれば、現実の世界の挙動と対応する仮想現実の世界をユーザに提示することが可能となる。 According to this configuration, it is possible to present a virtual reality world corresponding to the behavior of the real world to the user.
(実施形態5)
実施形態4で行われる視点制御は、仮想現実の世界を提示するために必須の制御である。一方、現実の世界が夜で暗いにもかかわらず、表示される仮想現実オブジェクトの輝度が高すぎる場合など、仮想現実オブジェクトの輝度と現実の世界における物体表面の輝度が異なると、ユーザに違和感を生じさせることになる。本実施形態5は、当該輝度のずれを修正する機能を備えていることを特徴とする。
(Embodiment 5)
The viewpoint control performed in the fourth embodiment is essential for presenting the virtual reality world. On the other hand, if the brightness of the virtual reality object is different from the brightness of the object surface in the real world, such as when the brightness of the displayed virtual reality object is too high even though the real world is dark at night, the user feels uncomfortable. Will be generated. The fifth embodiment is characterized by having a function of correcting the luminance shift.
図31は、本実施形態5に係る仮想現実提示システム5000の構成を示すブロック図である。仮想現実提示システム5000は、少なくとも、ユーザ状態検知部410と、仮想現実コンテンツ記憶部420と、視点制御部430と、描画処理部440と、表示部450と、周囲状況検知部510と、光源制御部520と、を備える。 FIG. 31 is a block diagram illustrating a configuration of a virtual reality presentation system 5000 according to the fifth embodiment. The virtual reality presentation system 5000 includes at least a user state detection unit 410, a virtual reality content storage unit 420, a viewpoint control unit 430, a drawing processing unit 440, a display unit 450, an ambient state detection unit 510, and light source control. Part 520.
周囲状況検知部510は、上述した周囲状況検知部120と対応しており、ユーザの周囲の状況を検知する。具体的に、周囲状況検知部510は、ユーザの周囲の明るさ(照度)を検知する。周囲状況検知部510は、ユーザの視線方向を撮影する視線カメラやユーザの左右上下や後方などユーザの周囲を撮影する周囲カメラ、その他、外界の明るさを検知する光センサなどで構成される。 The surrounding situation detection unit 510 corresponds to the surrounding situation detection unit 120 described above, and detects the surrounding situation of the user. Specifically, the surrounding state detection unit 510 detects the brightness (illuminance) around the user. The ambient condition detection unit 510 includes a line-of-sight camera that captures the user's line-of-sight direction, a peripheral camera that captures the user's surroundings such as the user's left, right, up, down, and rear, and other optical sensors that detect the brightness of the outside world.
光源制御部520は、上述した光源制御部1352と対応しており、周囲状況検知部420で検知されたユーザの周囲の状況に基づいて、仮想現実オブジェクトの描画処理における光源を制御する。具体的には、光源制御部520は、周囲状況検知部510において検知されたユーザの周囲の明るさ(照度)に基づいて、光源の輝度を算出する。なお、周囲状況検知部510が視線カメラなど位置分解能を有する画像を撮影することでユーザの周囲の状況を検知する場合は、光源制御部520は、周囲状況検知部510において撮影された画像に基づいて、光源の輝度及び光源の位置を算出する。 The light source control unit 520 corresponds to the light source control unit 1352 described above, and controls the light source in the virtual reality object drawing process based on the user's surroundings detected by the surrounding state detection unit 420. Specifically, the light source control unit 520 calculates the luminance of the light source based on the brightness (illuminance) around the user detected by the ambient condition detection unit 510. Note that when the ambient condition detection unit 510 detects an environment around the user by capturing an image having a positional resolution such as a line-of-sight camera, the light source control unit 520 is based on the image captured by the ambient condition detection unit 510. Then, the luminance of the light source and the position of the light source are calculated.
描画処理部440は、視点制御部430で制御される視点と光源制御部520で制御される光源とに基づいて、仮想現実コンテンツ記憶部420より読み出された仮想現実オブジェクトを描画する処理を行う。描画処理部440は、光源制御部520で制御される光源に基づいて、仮想現実オブジェクトの表面の輝度を算出するシェーディング処理を行う。描画処理部440は、シェーディング処理によって表面の輝度が調整された仮想現実オブジェクトの映像を生成する。 The rendering processing unit 440 performs processing for rendering the virtual reality object read from the virtual reality content storage unit 420 based on the viewpoint controlled by the viewpoint control unit 430 and the light source controlled by the light source control unit 520. . The drawing processing unit 440 performs a shading process for calculating the luminance of the surface of the virtual reality object based on the light source controlled by the light source control unit 520. The drawing processing unit 440 generates a video of the virtual reality object whose surface brightness is adjusted by the shading process.
図32は、仮想現実提示システム5000の動作の流れを示すフローチャート図である。ユーザ状態検知部410が新たにユーザの状態を検知した場合(ステップS401でYes)、視点制御部430は、当該検知された最新のユーザの状態に基づいて視点を制御する(ステップS402)。 FIG. 32 is a flowchart showing an operation flow of the virtual reality presentation system 5000. When the user state detection unit 410 newly detects the user state (Yes in step S401), the viewpoint control unit 430 controls the viewpoint based on the detected latest user state (step S402).
光源制御部510は、新たに光源を制御するか、すなわち、光源の配置関係や輝度を更新するかを判定する(ステップS501)。光源を制御すると判定した場合、光源制御部510は、周囲状況検知部510で検知されるユーザの周囲の状況に基づいて、光源を制御する、すなわち、光源に関する設定を更新する(ステップS502)。なお、光源制御部510は、予め定められた時間間隔で当該更新を行っても良いし、周囲状況検知部510で検知される周囲の状況に所定の基準以上の変化があった場合に、光源の配置関係や光源の輝度など、光源に関する設定を更新する構成としても良い。 The light source control unit 510 determines whether to newly control the light source, that is, whether to update the arrangement relationship and luminance of the light source (step S501). If it is determined that the light source is to be controlled, the light source control unit 510 controls the light source based on the user's surroundings detected by the surrounding state detection unit 510, that is, updates the settings relating to the light source (step S502). Note that the light source control unit 510 may perform the update at a predetermined time interval, or when the surrounding situation detected by the surrounding situation detection unit 510 has changed more than a predetermined reference, It is also possible to update the settings relating to the light source such as the arrangement relationship of the light sources and the luminance of the light source.
次のフレームタイミングが到達した場合(ステップS403でYes)、描画処理部440は仮想現実オブジェクトの映像を生成する(ステップS404)。具体的には、描画処理部440は、シェーディング処理を行い、仮想現実オブジェクトの表面の輝度を算出した上で当該算出された輝度で表される仮想現実オブジェクトの映像を生成する。表示部450は、ステップS404で生成された映像を表示する(ステップS405)。 When the next frame timing has arrived (Yes in step S403), the drawing processing unit 440 generates a video of the virtual reality object (step S404). Specifically, the drawing processing unit 440 performs a shading process, calculates the luminance of the surface of the virtual reality object, and generates a video of the virtual reality object represented by the calculated luminance. The display unit 450 displays the video generated in step S404 (step S405).
以上のように、本実施形態5に係る仮想現実提示システム5000では、視点制御に加えて光源制御を行うことで、より現実感のある仮想現実の世界をユーザに提示することが可能となる。 As described above, in the virtual reality presentation system 5000 according to the fifth embodiment, by performing light source control in addition to viewpoint control, it is possible to present a more realistic virtual reality world to the user.
(実施形態6)
仮想現実提示システムでは、現実の世界の所定の位置にあるように表示部に仮想現実オブジェクトの映像を表示する。しかしながら、当該所定の位置とユーザとの間に、ユーザの腕などが入り込んだ場合に、本来は当該腕に隠されて見えなくなるべき仮想現実オブジェクトが表示部に表示され続けると、現実の世界と仮想現実の世界との間で乖離が生じ、現実感が低下することになる。本実施形態6は、このように、仮想現実オブジェクトとユーザの位置との間に現実の物体が入り込んだ場合に、仮想現実の世界の挙動と現実の世界の挙動とが一致するように制御を行うことを特徴とする。
(Embodiment 6)
In the virtual reality presentation system, the video of the virtual reality object is displayed on the display unit so as to be at a predetermined position in the real world. However, when a user's arm or the like enters between the predetermined position and the user, if a virtual reality object that should be hidden by the arm and disappear from the display is continuously displayed on the display unit, Deviation from the virtual reality world will occur, and the reality will be reduced. In the sixth embodiment, when a real object enters between the virtual reality object and the position of the user as described above, the control is performed so that the behavior of the virtual reality world matches the behavior of the real world. It is characterized by performing.
図33は、本実施形態6に係る仮想現実提示システム6000の構成を示すブロック図である。仮想現実提示システム6000は、少なくとも、ユーザ状態検知部410と、仮想現実コンテンツ記憶部420と、視点制御部430と、描画処理部440と、表示部450と、周囲状況検知部510と、光源制御部520と、物体特定部610を備える。 FIG. 33 is a block diagram illustrating a configuration of a virtual reality presentation system 6000 according to the sixth embodiment. The virtual reality presentation system 6000 includes at least a user state detection unit 410, a virtual reality content storage unit 420, a viewpoint control unit 430, a drawing processing unit 440, a display unit 450, an ambient condition detection unit 510, and light source control. A unit 520 and an object specifying unit 610.
物体位置特定部610は、上述した物体位置特定部2361と対応しており、周囲状況検知部510で検知されたユーザの周囲の状況に基づいて、少なくともユーザの前方にある物体の位置を特定する。 The object position specifying unit 610 corresponds to the object position specifying unit 2361 described above, and specifies at least the position of the object in front of the user based on the surroundings of the user detected by the surroundings detection unit 510. .
描画処理部440は、視点制御部430で制御される視点と光源制御部520で制御される光源と物体位置特定部610で特定される物体の位置とに基づいて、仮想現実コンテンツ記憶部420より読み出された仮想現実オブジェクトを描画する処理を行う。描画処理部440は、物体位置特定部610で特定される物体の位置に基づいて、仮想現実オブジェクトの一部又は全部を隠す陰面処理を行う。描画処理部440は、陰面処理によって一部又は全部が隠された仮想現実オブジェクトの映像を生成する。 The drawing processing unit 440 is based on the virtual reality content storage unit 420 based on the viewpoint controlled by the viewpoint control unit 430, the light source controlled by the light source control unit 520, and the position of the object specified by the object position specifying unit 610. A process of drawing the read virtual reality object is performed. The drawing processing unit 440 performs hidden surface processing for hiding a part or all of the virtual reality object based on the position of the object specified by the object position specifying unit 610. The drawing processing unit 440 generates a video of a virtual reality object that is partially or entirely hidden by hidden surface processing.
図34は、仮想現実提示システム6000の動作の流れを示すフローチャート図である。ユーザ状態検知部410が新たにユーザの状態を検知した場合(ステップS401でYes)、視点制御部430は、当該検知された最新のユーザの状態に基づいて視点を制御する(ステップS402)。 FIG. 34 is a flowchart showing an operation flow of the virtual reality presentation system 6000. When the user state detection unit 410 newly detects the user state (Yes in step S401), the viewpoint control unit 430 controls the viewpoint based on the detected latest user state (step S402).
光源制御部510は、新たに光源を制御するか、すなわち、光源の配置関係や輝度を更新するかを判定する(ステップS501)。光源を制御すると判定した場合、光源制御部510は、周囲状況検知部510で検知されるユーザの周囲の状況に基づいて、光源を制御する、すなわち、光源に関する設定を更新する(ステップS502)。 The light source control unit 510 determines whether to newly control the light source, that is, whether to update the arrangement relationship and luminance of the light source (step S501). If it is determined that the light source is to be controlled, the light source control unit 510 controls the light source based on the user's surroundings detected by the surrounding state detection unit 510, that is, updates the settings relating to the light source (step S502).
物体位置特定部610は、周囲状況検知部510で検知されたユーザの周囲の状況に基づいて、ユーザの周囲にある物体の位置を特定する(ステップS601)。具体的には、物体位置特定部610は、周囲状況検知部510で撮影された画像に基づいて、ユーザの周囲にある物体の位置を特定する。物体位置特定部610は、ユーザの周囲にある物体の種類や配置関係等を特定する構成とすると更に良好である。 The object position specifying unit 610 specifies the position of an object around the user based on the situation around the user detected by the surrounding state detection unit 510 (step S601). Specifically, the object position specifying unit 610 specifies the position of an object around the user based on the image taken by the surrounding state detection unit 510. It is even better if the object position specifying unit 610 is configured to specify the type and arrangement relationship of objects around the user.
次のフレームタイミングが到達した場合(ステップS403でYes)、描画処理部440は仮想現実オブジェクトの映像を生成する(ステップS404)。具体的には、描画処理部440は、ステップS601で特定された物体の位置に基づいて、仮想現実オブジェクトの一部又は全部を隠す陰面処理を行い、陰面処理で一部又は全部が隠されている仮想現実オブジェクトの映像を生成する。表示部450は、ステップS404で生成された映像を表示する(ステップS405)。 When the next frame timing has arrived (Yes in step S403), the drawing processing unit 440 generates a video of the virtual reality object (step S404). Specifically, the rendering processing unit 440 performs hidden surface processing for hiding part or all of the virtual reality object based on the position of the object specified in step S601, and part or all of the virtual surface object is hidden by the hidden surface processing. A video of the virtual reality object that is present. The display unit 450 displays the video generated in step S404 (step S405).
当該構成とすることで、仮想現実の世界と現実の世界の挙動を一致させることができ、より高い現実感を有する仮想現実の世界をユーザに提示することができる。 With this configuration, the behavior of the virtual reality world and the behavior of the real world can be matched, and a virtual reality world with a higher sense of reality can be presented to the user.
(実施形態7)
仮想現実提示システムでは、現実の世界の所定の位置にあるように表示部に仮想現実オブジェクトの映像を表示する。仮想現実オブジェクトが花瓶や建物のような静的なオブジェクトである場合は特に問題とならないが、仮想現実オブジェクトが人間などである場合は、仮想現実の世界の中で動作を行えなければ単なる人形が置かれているような状況となり、仮想現実の世界の現実感が低下することになる。本実施形態7は、仮想現実オブジェクトが、現実の世界で対応する人間等と同じように仮想現実の世界で表されるように制御することを特徴とする。
(Embodiment 7)
In the virtual reality presentation system, the video of the virtual reality object is displayed on the display unit so as to be at a predetermined position in the real world. If the virtual reality object is a static object such as a vase or a building, there is no problem. However, if the virtual reality object is a human being or the like, a simple doll can be used if it cannot operate in the virtual reality world. As a result, the reality of the virtual reality world decreases. The seventh embodiment is characterized in that control is performed so that a virtual reality object is represented in the virtual reality world in the same manner as a human or the like corresponding in the real world.
図35は、本実施形態7に係る仮想現実提示システム7000の構成を示すブロック図である。仮想現実提示システム7000は、少なくとも、ユーザ状態検知部410と、仮想現実コンテンツ記憶部420と、視点制御部430と、描画処理部440と、表示部450と、周囲状況検知部510と、光源制御部520と、物体特定部610と、仮想現実管理部710と、仮想空間設定部720と、仮想現実オブジェクト配置部730と、仮想現実オブジェクト挙動制御部740と、を備える。 FIG. 35 is a block diagram illustrating a configuration of a virtual reality presentation system 7000 according to the seventh embodiment. The virtual reality presentation system 7000 includes at least a user state detection unit 410, a virtual reality content storage unit 420, a viewpoint control unit 430, a drawing processing unit 440, a display unit 450, an ambient condition detection unit 510, and light source control. Unit 520, object specifying unit 610, virtual reality management unit 710, virtual space setting unit 720, virtual reality object placement unit 730, and virtual reality object behavior control unit 740.
仮想現実管理部710は、上述の仮想現実サービス提供管理部1320に対応し、仮想現実の提示の開始処理や終了処理を行うことでユーザに仮想現実の世界を提示することを管理する。 The virtual reality management unit 710 corresponds to the virtual reality service provision management unit 1320 described above, and manages the presentation of the virtual reality world to the user by performing a virtual reality presentation start process and an end process.
仮想空間設定部720は、上述の仮想現実サービス制御部3330に対応し、仮想現実オブジェクトを配置する仮想空間を設定する。仮想空間設定部720は、仮想現実管理部710で新たに仮想現実の提示を開始すると決定された場合に、新たに仮想空間を生成する。 The virtual space setting unit 720 corresponds to the virtual reality service control unit 3330 described above, and sets a virtual space in which a virtual reality object is placed. The virtual space setting unit 720 generates a new virtual space when it is determined by the virtual reality management unit 710 to start presentation of virtual reality.
仮想現実オブジェクト配置部730は、上述の仮想現実オブジェクト配置位置決定部1340や仮想現実サービス制御部3330に対応し、仮想空間設定部720が設定した仮想空間に、仮想現実コンテンツ記憶部420より読み出した仮想現実オブジェクトを配置する。仮想現実オブジェクト配置部730は、周囲状況検知部510で検知されるユーザの周囲の状況やユーザ状態検知部410で検知されるユーザの状態に基づいて、仮想空間における仮想現実オブジェクトの配置位置を決定して配置する構成とすることが好ましい。 The virtual reality object placement unit 730 corresponds to the virtual reality object placement position determination unit 1340 and the virtual reality service control unit 3330 described above, and is read from the virtual reality content storage unit 420 in the virtual space set by the virtual space setting unit 720. Arrange virtual reality objects. The virtual reality object placement unit 730 determines the placement position of the virtual reality object in the virtual space based on the user's surroundings detected by the surrounding state detection unit 510 and the user's state detected by the user state detection unit 410. It is preferable that the configuration is arranged.
仮想現実オブジェクト挙動制御部740は、上述の仮想現実オブジェクト挙動制御部3370に対応し、仮想空間設定部720が設定した仮想空間に仮想現実オブジェクト配置部730によって配置されている仮想現実オブジェクトの挙動を制御する。仮想現実オブジェクト挙動制御部740は、仮想現実オブジェクトに設定されている関節ポイントの角度や位置を変化させることで、仮想現実オブジェクトの外観形状を変化させたり、仮想現実オブジェクトの表面に張り付けられるテキスチャーを変更したりすることで、仮想現実オブジェクトの挙動を制御する。 The virtual reality object behavior control unit 740 corresponds to the above-described virtual reality object behavior control unit 3370, and displays the behavior of the virtual reality object placed by the virtual reality object placement unit 730 in the virtual space set by the virtual space setting unit 720. Control. The virtual reality object behavior control unit 740 changes the appearance and shape of the virtual reality object by changing the angle and position of the joint point set in the virtual reality object, or creates a texture attached to the surface of the virtual reality object. The behavior of the virtual reality object is controlled by changing it.
描画処理部440は、仮想現実オブジェクト挙動制御部740によって挙動が制御される仮想現実オブジェクトを視点制御部430で制御される視点に基づいて描画することで、当該挙動が制御されている仮想現実オブジェクトの映像を生成する。 The rendering processing unit 440 renders the virtual reality object whose behavior is controlled by the virtual reality object behavior control unit 740 based on the viewpoint controlled by the viewpoint control unit 430, thereby controlling the virtual reality object whose behavior is controlled. Generate video for
図36は、仮想現実提示システム7000の動作の流れを示すフローチャート図である。仮想現実管理部710は、新たに仮想現実の提示を開始するかを判定する(ステップS701)。ステップS701で新たに仮想現実の提示を開始すると判定された場合、仮想空間設定部720は、新たに仮想空間を設定する(ステップS702)。 FIG. 36 is a flowchart showing an operation flow of the virtual reality presentation system 7000. The virtual reality management unit 710 determines whether to start presenting virtual reality anew (step S701). When it is determined in step S701 that presentation of virtual reality is newly started, the virtual space setting unit 720 newly sets a virtual space (step S702).
次に、仮想現実オブジェクト配置部730は、ステップS702で設定された仮想空間に、仮想現実コンテンツ記憶部420より読み出した仮想現実オブジェクトを配置する(ステップS703)。仮想現実の世界を提示している最中であっても、仮想現実オブジェクト配置部730は、必要に応じて新たな仮想現実オブジェクトを追加して仮想空間に配置する。 Next, the virtual reality object placement unit 730 places the virtual reality object read from the virtual reality content storage unit 420 in the virtual space set in step S702 (step S703). Even while the virtual reality world is being presented, the virtual reality object placement unit 730 adds a new virtual reality object and places it in the virtual space as necessary.
仮想現実オブジェクト挙動制御部730は、ステップS703で仮想空間に配置された仮想現実オブジェクトの挙動を制御するかどうか、すなわち仮想現実オブジェクトの外観形状を変形させるかを判定する(ステップS704)。仮想現実オブジェクトの挙動を制御すると判定した場合、仮想現実オブジェクトの挙動を制御する、すなわち、仮想現実オブジェクトの外観形状を変化させる(ステップS705)。 The virtual reality object behavior control unit 730 determines whether to control the behavior of the virtual reality object arranged in the virtual space in step S703, that is, whether to deform the appearance shape of the virtual reality object (step S704). When it is determined that the behavior of the virtual reality object is to be controlled, the behavior of the virtual reality object is controlled, that is, the appearance shape of the virtual reality object is changed (step S705).
ユーザ状態検知部410が新たにユーザの状態を検知した場合(ステップS401でYes)、視点制御部430は、当該検知された最新のユーザの状態に基づいて視点を制御する(ステップS402)。 When the user state detection unit 410 newly detects the user state (Yes in step S401), the viewpoint control unit 430 controls the viewpoint based on the detected latest user state (step S402).
光源制御部510は、新たに光源を制御するか、すなわち、光源の配置関係や輝度を更新するかを判定する(ステップS501)。光源を制御すると判定した場合、光源制御部510は、周囲状況検知部510で検知されるユーザの周囲の状況に基づいて、光源を制御する、すなわち、光源に関する設定を更新する(ステップS502)。 The light source control unit 510 determines whether to newly control the light source, that is, whether to update the arrangement relationship and luminance of the light source (step S501). If it is determined that the light source is to be controlled, the light source control unit 510 controls the light source based on the user's surroundings detected by the surrounding state detection unit 510, that is, updates the settings relating to the light source (step S502).
物体位置特定部610は、周囲状況検知部510で検知されたユーザの周囲の状況に基づいて、ユーザの周囲にある物体の位置を特定する(ステップS601)。具体的には、物体位置特定部610は、周囲状況検知部510で撮影された画像に基づいて、ユーザの周囲にある物体の位置を特定する。物体位置特定部610は、ユーザの周囲にある物体の種類や配置関係等を特定する構成とすると更に良好である。 The object position specifying unit 610 specifies the position of an object around the user based on the situation around the user detected by the surrounding state detection unit 510 (step S601). Specifically, the object position specifying unit 610 specifies the position of an object around the user based on the image taken by the surrounding state detection unit 510. It is even better if the object position specifying unit 610 is configured to specify the type and arrangement relationship of objects around the user.
次のフレームタイミングが到達した場合(ステップS403でYes)、描画処理部440は仮想現実オブジェクトの映像を生成する(ステップS404)。具体的には、描画処理部440は、ステップS601で特定された物体の位置に基づいて、仮想現実オブジェクトの一部又は全部を隠す陰面処理を行い、陰面処理で一部又は全部が隠されている仮想現実オブジェクトの映像を生成する。表示部450は、ステップS404で生成された映像を表示する(ステップS405)。 When the next frame timing has arrived (Yes in step S403), the drawing processing unit 440 generates a video of the virtual reality object (step S404). Specifically, the rendering processing unit 440 performs hidden surface processing for hiding part or all of the virtual reality object based on the position of the object specified in step S601, and part or all of the virtual surface object is hidden by the hidden surface processing. A video of the virtual reality object that is present. The display unit 450 displays the video generated in step S404 (step S405).
仮想現実管理部710は、仮想現実の提示を終了するかを判定する(ステップS707)。仮想現実の提示を終了すると判定した場合に、システムの各部へ処理や制御を終了する指示を出して仮想現実の提示を終了する。一方、仮想現実の提示を終了しない場合は、ステップS703へ戻る。 The virtual reality management unit 710 determines whether to end the presentation of virtual reality (step S707). When it is determined that the presentation of the virtual reality is to be ended, an instruction to end the processing and control is issued to each part of the system, and the presentation of the virtual reality is ended. On the other hand, if the presentation of virtual reality is not terminated, the process returns to step S703.
当該構成とすることで、仮想現実の世界の中で仮想現実オブジェクトが動くことにより、より現実感のある仮想現実の世界を提示することが可能となる。 With this configuration, it is possible to present a more realistic virtual reality world by moving a virtual reality object in the virtual reality world.
なお、ステップS704、S705における仮想現実オブジェクトの挙動制御処理としては、予め当該仮想現実オブジェクトに対する複数のメソッドを用意しておき、ユーザ状態検知部410で検知されるユーザの状態や周囲状況検知部420で検知されるユーザの周囲の状況、その他ユーザが発する音声や周囲の音声などに基づいて所定のメッソドを実行する構成とすることができる。 In addition, as the virtual reality object behavior control processing in steps S704 and S705, a plurality of methods for the virtual reality object are prepared in advance, and the user status and ambient condition detection unit 420 detected by the user status detection unit 410 are prepared. It is possible to adopt a configuration in which a predetermined method is executed based on the surroundings of the user detected in step S1, other voices uttered by the user, surrounding voices, and the like.
また、仮想現実提示システムにおける各機能は、一部又は全部が仮想現実提示装置に、残りの一部が仮想現実サービス提供サーバによって実現される。 In addition, some or all of the functions in the virtual reality presentation system are realized by the virtual reality presentation device, and the remaining part is realized by the virtual reality service providing server.
(実施形態8)
私達人間は、生まれながらに有している感覚器官を用いて現実の世界で生じる様々な事象を感知し、現実の世界で行動を行うことでこの現実の世界を生きている。すなわち、人間は、五感を使って外部より情報を入力し、入力した情報を脳で処理し、処理結果を行動と言う形で出力する生物であると言える。
(Embodiment 8)
We humans live in this real world by sensing various events that occur in the real world using the sensory organs we have born and acting in the real world. That is, humans can be said to be organisms that input information from outside using the five senses, process the input information in the brain, and output the processing results in the form of actions.
仮想現実提示装置は、ユーザの感覚を欺くことで、現実とは異なる仮想現実の世界をユーザに感知させる装置である。すなわち、図37に例示するように、現実の世界で生じる事象に基づいて入力される情報の一部又は全部を遮蔽し、人工的に創り出した情報で補完することで、現実の世界とは異なる人工的に創り出された仮想現実の世界を人間の脳に感知させる装置である。このことは、仮想現実提示装置の数の異なる仮想現実の世界を創り出すことができることを意味している。 The virtual reality presentation device is a device that allows a user to sense a virtual reality world different from reality by deceiving the user's senses. That is, as illustrated in FIG. 37, it is different from the real world by shielding part or all of the information input based on an event that occurs in the real world and complementing it with artificially created information. It is a device that makes the human brain sense the artificially created virtual reality world. This means that virtual reality worlds with different numbers of virtual reality presentation devices can be created.
仮想現実提示装置を使用しているユーザは、創り出された仮想現実の世界で生じる事象を感知しており、ユーザの行動も仮想現実提示装置によって仮想現実の世界に取り込まれて反映される。そのため、ユーザは仮想現実の世界の中で生きているとみることができる。一方で、ユーザは、現実の世界の事象を感知しており、ユーザが行う行動は現実の世界にも反映される。すなわち、図38に示すように仮想現実提示装置を使用しているユーザは、仮想現実の世界と現実の世界とが重複している世界に生きていると言える。 The user using the virtual reality presentation device senses an event that occurs in the created virtual reality world, and the user's behavior is also captured and reflected in the virtual reality world by the virtual reality presentation device. Therefore, the user can be regarded as living in the virtual reality world. On the other hand, the user senses an event in the real world, and the action performed by the user is reflected in the real world. That is, as shown in FIG. 38, it can be said that the user using the virtual reality presentation apparatus lives in a world where the virtual reality world and the real world overlap.
仮に、図39に示すように、現実の世界と相互作用を及ぼさない異次元の世界を仮想現実の世界として創り出し、そこにユーザを帰還可能な状態で送り込むことができるのであれば、各ユーザの入出力が同一の世界内で閉じているため、各世界に生きる人間の行動が他の世界に生きる人間に影響を及ぼすことはない。仮に、天国や地獄と言う世界があったとしても、現世に生きる私達との接点がないため、現世を生きている人間は、自分の行動が天国にいる人に影響を及ぼすことを心配する必要はないし、逆に現世を生きている人間が、地獄にいる人間の行動に影響を受けることがないことと同一である。 As shown in FIG. 39, if it is possible to create a different dimension world that does not interact with the real world as a virtual reality world and send the user in a returnable state, each user's Since input and output are closed within the same world, the actions of people living in each world do not affect people living in other worlds. Even if there is a world called heaven or hell, there is no point of contact with us who live in this world, so people living in this world are worried that their actions will affect people in heaven. It is not necessary, and conversely, human beings living in this world are not affected by the actions of human beings in hell.
しかしながら、図38に示す形態では、仮想現実提示装置を使用している人間も使用していない人間も等しく共通である現実の世界に跨っているため、仮想現実の世界に対して行った行動が、現実の世界に対して影響を及ぼす可能性がある。 However, in the form shown in FIG. 38, the person who uses the virtual reality presentation device and the person who does not use it straddle the real world that is equally common. May affect the real world.
例えば、「街中でドラゴンを狩ろう」と言うコンセプトの仮想現実サービスによって作り出される仮想現実の世界Aにユーザaがいるとする。ユーザは、目の前に表されているドラゴンに対してパンチをしたとする。ユーザaが装着している仮想現実提示装置は、当該ユーザの行動を画像解析処理等によって捕捉し、ドラゴンが倒れていく映像を表示する。従って、ユーザは、仮想現実の世界の中でドラゴンを倒したことになる。 For example, it is assumed that the user a is in a virtual reality world A created by a virtual reality service having a concept of “hunting a dragon in the city”. It is assumed that the user has punched the dragon represented in front of him. The virtual reality presentation device worn by the user a captures the user's action by image analysis processing or the like, and displays an image of the dragon falling down. Therefore, the user defeats the dragon in the virtual reality world.
一方、現実の世界でユーザaの目の前に他人Xが立っていた場合、ユーザがくりだしたパンチは、他人Xに当たってしまうことになる。この場合、仮想現実の世界におけるユーザの行動はドラゴンを倒しただけであって問題とはならないが、現実の世界では他人を殴ったという問題に繋がる。 On the other hand, when another person X stands in front of the user a in the real world, the punch that the user starts out will hit the other person X. In this case, the user's action in the virtual reality world is not a problem just by defeating the dragon, but in the real world, it leads to a problem of scolding others.
このように、仮想現実提示装置を使用しているユーザaの主観は、仮想現実の世界にいるが、他人から客観的に見たユーザaは現実の世界にいることになる。従って、現実の世界に跨る形で仮想現実の世界にいるユーザaの行動が、現実の世界に対する問題行動とならないような状態で仮想現実の世界をユーザに提示する必要がある。しかしながら、従来の仮想現実提示装置は、このような観点における考察が行われておらず、仮想現実の世界と現実の世界との間の調整が行われていなかった。 As described above, the subject of the user a who uses the virtual reality presentation device is in the virtual reality world, but the user a who is objectively viewed by others is in the real world. Therefore, it is necessary to present the virtual reality world to the user in such a state that the action of the user a in the virtual reality world straddling the real world does not become a problem behavior with respect to the real world. However, the conventional virtual reality presentation device has not been considered from such a viewpoint, and no adjustment has been made between the virtual reality world and the real world.
本実施形態8では、上記課題を鑑み、仮想現実の世界にいるユーザの行動が現実の世界に及ぼす影響を配慮した仮想現実提示システム、仮想現実提示装置、仮想現実提示方法としたものである。以下、図面を参照して詳細に説明する。 In the eighth embodiment, in view of the above problems, a virtual reality presentation system, a virtual reality presentation device, and a virtual reality presentation method are provided in consideration of the influence of the action of a user in the virtual reality world on the real world. Hereinafter, it will be described in detail with reference to the drawings.
図40は、本発明の実施形態8に係る仮想現実提示システム10000の構成を示すブロック図である。仮想現実提示システム10000は、周囲状況検知部11010と、仮想現実提示部11020と、仮想現実提示中断制御部11030と、を備える。 FIG. 40 is a block diagram showing a configuration of a virtual reality presentation system 10000 according to Embodiment 8 of the present invention. The virtual reality presentation system 10000 includes an ambient condition detection unit 11010, a virtual reality presentation unit 11020, and a virtual reality presentation interruption control unit 11030.
周囲状況検知部11010は、仮想現実の提示を受けるユーザの周囲の状況を検知する。周囲状況検知部11010は、例えば、ユーザの周囲の景色を撮影することでユーザの周囲の状況を検知する。 The surrounding situation detection unit 11010 detects the surrounding situation of the user who receives the presentation of virtual reality. For example, the surrounding state detection unit 11010 detects the surroundings of the user by photographing the scenery around the user.
仮想現実提示部11020は、ユーザに仮想現実の提示を行う。ここで、仮想現実(VR:Vertual Reality)とは、コンピュータグラフィックス(CG:Computer Graphics)や音響効果を組み合わせることで、人工的に創り出される現実感(リアリティー)のある世界を言う。 The virtual reality presentation unit 11020 presents virtual reality to the user. Here, virtual reality (VR) refers to a world with reality created artificially by combining computer graphics (CG) and sound effects.
人間は、五感を用いて自身の周囲で生じる事象を感知し、感知した情報を脳で処理して状況把握を行う。従って、人間が有する感覚を欺くように映像を表示したり音声を出力したりすることで、仮想現実の世界を提示することができる。本明細書では、仮想現実提示部11020は、少なくとも仮想現実用の映像を表示することで仮想現実の提示をユーザに対して行い、更に好ましくは仮想現実用の音声を出力することで仮想現実の提示をユーザに対して行うものとする。 Humans sense events that occur around them using the five senses, and process the sensed information in the brain to grasp the situation. Therefore, it is possible to present a virtual reality world by displaying images and outputting sounds so as to deceive human senses. In this specification, the virtual reality presentation unit 11020 presents the virtual reality to the user by displaying at least a virtual reality video, and more preferably outputs the virtual reality sound to output the virtual reality. The presentation shall be made to the user.
図41は、現実の世界と、表示される映像と、ユーザが感知する仮想現実の世界との対応関係を示している。ソファーが置かれている部屋にいるユーザに対して仮想現実提示部11020が仮想現実オブジェクトである犬の映像を表示することで、ユーザが見る世界(ユーザが感知する世界)は、ソファーの上に犬が寝ているという現実の世界とは異なる仮想現実の世界となる。 FIG. 41 shows a correspondence relationship between the real world, the displayed image, and the virtual reality world sensed by the user. The virtual reality presenting unit 11020 displays the image of the dog, which is a virtual reality object, to the user in the room where the sofa is placed, so that the world that the user sees (the world that the user perceives) is on the sofa. It becomes a virtual reality world different from the real world where the dog is sleeping.
ここで、仮想現実オブジェクトとは、人為的に設定される仮想的な空間である仮想空間に配置されることで、仮想現実の世界に表される仮想的な人物や建築物などを指す。当該仮想空間が、ユーザの周囲の現実の空間に対応するように設定されることで、ユーザに仮想現実の世界が提示される。 Here, the virtual reality object refers to a virtual person or a building represented in the virtual reality world by being arranged in a virtual space which is a virtual space artificially set. By setting the virtual space so as to correspond to the real space around the user, the virtual reality world is presented to the user.
各種の仮想現実オブジェクトは、3Dコンピュータグラフィックスで外観形状を規定する3Dポリゴンデータや、当該ポリゴンデータで形成される形状の表面に張り付けられるテキスチャーデータなどから構成される。また、仮想現実オブジェクトを動作させるための関節ポイントデータや骨格データ等を含む構成とするとより好ましい。関節ポイントデータとポリゴンデータの頂点とが関連付けされており、関節ポイントの位置や角度を変更することで、関連付けされているポリゴンデータの頂点の位置が変更されることになり、仮想現実オブジェクトの外観形状が変化する。 Each type of virtual reality object includes 3D polygon data that defines an appearance shape by 3D computer graphics, texture data pasted on the surface of the shape formed by the polygon data, and the like. Moreover, it is more preferable that the configuration includes joint point data, skeleton data, and the like for operating the virtual reality object. The joint point data and the vertex of the polygon data are associated, and changing the position and angle of the joint point changes the position of the vertex of the associated polygon data, and the appearance of the virtual reality object The shape changes.
仮想現実オブジェクトは、仮想現実の世界に配置されるオブジェクトの種類に応じて、人物オブジェクト、動物オブジェクト、非動物オブジェクト、その他のオブジェクトに分類することができる。各仮想現実オブジェクトには、その仮想現実オブジェクトを一意に識別するためのオブジェクトIDが割り当てられている。 Virtual reality objects can be classified into human objects, animal objects, non-animal objects, and other objects according to the types of objects arranged in the virtual reality world. Each virtual reality object is assigned an object ID for uniquely identifying the virtual reality object.
人物オブジェクトとは、現実の人物や想像上・空想上の人物、歴史上の人物や創作上の人物などのオブジェクトであり、少なくとも動作が可能であり、また、好ましくは喋る(音声を出力する)ことが可能であると言う特徴を有する。 A person object is an object such as a real person, an imaginary / imaginary person, a historical person, a creative person, etc., and is at least operable, and preferably speaks (outputs sound). It has the feature that it is possible.
動物オブジェクトは、現実の動物や、想像上・空想上の動物、創作上の動物などのオブジェクトであり、動作が可能であると言う特徴を有する。また、動物オブジェクトの一部は、吠る(音声を出力する)と言った構成とすることが可能である。仮想現実の世界に配置される仮想的な動物であるため、人間と同様に言葉を喋る構成とすることも可能である。 The animal object is an object such as a real animal, an imaginary / fantasy animal, or a creative animal, and has a feature that it can operate. In addition, a part of the animal object can be configured to speak (output a sound). Since it is a virtual animal placed in the virtual reality world, it is possible to adopt a configuration that speaks like a human.
非動物オブジェクトは、植物や、家具、建物などの静的なオブジェクトであり基本的に動作が無い物体である。但し、植物は、現実の世界で吹いている風に連動して一部動く構成としても良い。 A non-animal object is a static object such as a plant, furniture, or building and is basically an object that does not move. However, the plant may be configured to partially move in conjunction with the wind blowing in the real world.
その他のオブジェクトは、例えば背景のオブジェクトなどである。その他のオブジェクトは、仮想現実の世界を創り出すために単体で用いられても良いし、人物オブジェクトや動物オブジェクト等と組み合わせて用いられても良い。 Other objects are, for example, background objects. Other objects may be used alone to create a virtual reality world, or may be used in combination with a person object, an animal object, or the like.
図42は、仮想現実オブジェクトの一例を示している。仮想現実オブジェクトは、外観形状を規定する3Dポリゴンデータと、表面に張り付けられるテキスチャーデータなどから構成される。 FIG. 42 shows an example of a virtual reality object. The virtual reality object is composed of 3D polygon data defining an appearance shape, texture data pasted on the surface, and the like.
仮想現実提示中断制御部11030は、周囲状況検知部11010で検知されたユーザの周囲の状況に基づいて、仮想現実の提示を中断する制御を行う。例えば、周囲状況検知部11010によってユーザから所定の距離以内に他人の存在が検知された場合に、仮想現実の提示を中断する制御を行う。仮想現実提示部11020は、当該仮想現実提示中断制御部11030からの制御に基づいて、現在行っている仮想現実の提示を中断する。 The virtual reality presentation interruption control unit 11030 performs control to interrupt the presentation of the virtual reality based on the surroundings of the user detected by the surroundings state detection unit 11010. For example, when the surrounding state detection unit 11010 detects the presence of another person within a predetermined distance from the user, control is performed to interrupt the presentation of virtual reality. Based on the control from the virtual reality presentation interruption control unit 11030, the virtual reality presentation unit 11020 interrupts the presenting virtual reality presentation.
以上のように、本実施形態8の仮想現実提示システム10000は、ユーザに仮想現実を提示する一方、ユーザの現実の世界における周囲の状況をセンシングしておき、ユーザの現実の世界の周囲の状況に応じて仮想現実の提示を中断する。従って、他人と共有している現実の世界の状況に基づいて、ユーザに対して仮想現実の世界と現実の世界のどちらを感知させるかを切り替えることができ、仮想現実の世界にいるユーザの行動が現実の世界に及ぼす影響を配慮することができる。 As described above, the virtual reality presentation system 10000 according to the eighth embodiment presents virtual reality to the user, while sensing the situation in the user's real world, and the situation in the user's real world. The presentation of virtual reality is interrupted accordingly. Therefore, based on the situation of the real world shared with others, it is possible to switch whether the user senses the virtual reality world or the real world, and the behavior of the user in the virtual reality world Can take into account the impact of the real world.
(実施形態9)
図43は、本実施形態9に係る仮想現実提示システム12000の構成を示すブロック図である。仮想現実提示システム12000は、周囲状況検知部11010と、仮想現実提示部11020と、仮想現実提示中断制御部11030と、ユーザ状態検知部12010と、を備える。また、仮想現実提示部11020は、映像生成処理部11021と、映像表示部11022と、を備える。
(Embodiment 9)
FIG. 43 is a block diagram illustrating a configuration of a virtual reality presentation system 12000 according to the ninth embodiment. The virtual reality presentation system 12000 includes an ambient condition detection unit 11010, a virtual reality presentation unit 11020, a virtual reality presentation interruption control unit 11030, and a user state detection unit 12010. The virtual reality presentation unit 11020 includes a video generation processing unit 11021 and a video display unit 11022.
ユーザ状態検知部12010は、ユーザの現在の状態を検知し、ユーザの現在の状態を示すユーザ状態情報を生成する。本実施形態9における仮想現実提示システム12000において、ユーザ状態検知部12010は、ユーザの頭部の傾きを検知する傾きセンサ12011と、ユーザの頭部の加速度を検知する加速度センサ12012と、を備える。当該傾きセンサ12011における検知結果や、加速度センサ12012における検知結果は、ユーザ状態情報として、映像生成処理部11021に出力される。 The user state detection unit 12010 detects the current state of the user and generates user state information indicating the current state of the user. In the virtual reality presentation system 12000 according to the ninth embodiment, the user state detection unit 12010 includes an inclination sensor 12011 that detects the inclination of the user's head and an acceleration sensor 12012 that detects the acceleration of the user's head. The detection result in the inclination sensor 12011 and the detection result in the acceleration sensor 12012 are output to the video generation processing unit 11021 as user state information.
映像生成処理部11021は、仮想現実提示用の映像を生成する。映像生成処理部11021は、ユーザ状態検知部12010で検知されるユーザの現在の状態に基づいて、仮想現実提示用の映像を生成し、生成した映像を映像表示部11022に出力する。仮想現実提示用の映像としては、例えば、ユーザ状態検知部12010で検知されたユーザの状態に基づいて求められる視点位置及び視点方向から仮想現実オブジェクトを描画した映像がある。 The video generation processing unit 11021 generates a video for virtual reality presentation. The video generation processing unit 11021 generates a virtual reality presentation video based on the current state of the user detected by the user status detection unit 12010, and outputs the generated video to the video display unit 11022. The virtual reality presentation video includes, for example, a video in which a virtual reality object is drawn from a viewpoint position and a viewpoint direction obtained based on the user state detected by the user state detection unit 12010.
映像表示部11022は、映像生成処理部11021で生成された映像を表示することで、仮想現実の提示を行う。例えば、映像表示部11022は、仮想現実提示装置としてユーザが装着するヘッドマウントディスプレイ装置において、ユーザの目の前方に配置される表示ディスプレイなどが該当する。 The video display unit 11022 presents the virtual reality by displaying the video generated by the video generation processing unit 11021. For example, the video display unit 11022 corresponds to a display display disposed in front of the user's eyes in a head mounted display device worn by the user as a virtual reality presentation device.
仮想現実提示中断制御部11030は、仮想現実の提示を中断する制御として、仮想現実オブジェクトの映像表示を中断させる指示を映像表示部11022に出す。当該指示を受け取った映像表示部11022は、映像生成処理部11021で生成される映像の表示を中断する。 The virtual reality presentation interruption control unit 11030 issues an instruction to interrupt the video display of the virtual reality object to the video display unit 11022 as control for interrupting the virtual reality presentation. The video display unit 11022 that has received the instruction interrupts the display of the video generated by the video generation processing unit 11021.
なお、仮想現実提示中断制御部11030は、仮想現実の提示を中断する制御として、映像生成処理部11021に仮想現実オブジェクトの映像の生成を中断させる指示を出す構成としても良い。当該指示を受け取った映像生成処理部11021は、仮想現実提示用の映像の生成を中断する。 Note that the virtual reality presentation interruption control unit 11030 may be configured to issue an instruction to interrupt the generation of the virtual reality object video to the video generation processing unit 11021 as control to interrupt the virtual reality presentation. Receiving the instruction, the video generation processing unit 11021 interrupts the generation of the virtual reality presentation video.
以上のように、本実施形態9に係る仮想現実提示システム12000によれば、仮想現実提示用の映像を表示することでユーザに仮想現実の世界を提示する。人間は視覚によって得る情報量が他の感覚で感知する情報量よりも遥かに多い。そこで、人間の視覚に対して錯覚を起こすように、ユーザの状態に基づいて制御される映像を表示することで、ユーザを仮想現実の世界に引き込むことが可能となる。 As described above, according to the virtual reality presentation system 12000 according to the ninth embodiment, the virtual reality world is presented to the user by displaying the virtual reality presentation video. The amount of information that humans obtain through vision is much larger than the amount of information perceived by other senses. Therefore, it is possible to draw the user into the virtual reality world by displaying an image controlled based on the state of the user so as to cause an illusion to human vision.
なお、本実施形態9に係る仮想現実提示システム12000は、図44に示す構成とすると更に良好である。図44に示す仮想現実提示システム12000は、仮想現実オブジェクト記憶部12020と、仮想現実オブジェクト配置部12030と、を更に備え、映像生成処理部11021は、視点制御部11021−1と、描画処理部11021−2を備える点を特徴としている。 Note that the virtual reality presentation system 12000 according to the ninth embodiment is more favorable when configured as shown in FIG. The virtual reality presentation system 12000 shown in FIG. 44 further includes a virtual reality object storage unit 12020 and a virtual reality object placement unit 12030. The video generation processing unit 11021 includes a viewpoint control unit 11021-1, a drawing processing unit 11021. -2 is a feature.
仮想現実オブジェクト記憶部12020は、仮想現実オブジェクトを記憶する。仮想現実オブジェクトは、例えば、外観形状を規定するポリゴンデータと、表面に張り付けられるテキスチャーデータと含んで構成される。 The virtual reality object storage unit 12020 stores a virtual reality object. The virtual reality object includes, for example, polygon data that defines an appearance shape and texture data that is pasted on the surface.
仮想現実オブジェクト配置部12030は、仮想現実オブジェクト記憶部12020に記憶されている仮想現実オブジェクトを読み出して仮想空間に配置する。 The virtual reality object placement unit 12030 reads the virtual reality object stored in the virtual reality object storage unit 12020 and places it in the virtual space.
視点制御部11021−1は、ユーザの状態を示すユーザ状態情報に基づいて仮想現実オブジェクトを描画する際の視点の位置及び方向を制御する。具体的には、ユーザ状態情報に含まれるユーザの頭部の傾きを示す傾き情報やユーザの頭部の加速度を示す加速度情報に基づいて、ユーザの左目の位置と右目の位置に対応する仮想空間での視点位置を算出する。また、加速度情報に基づいて、ユーザの視線の方向に対応する仮想空間での視線方向を算出する。ここで、視線方向は、ユーザが眼球のみを移動させた場合の視線の方向ではなく、ユーザの頭部の方向、すなわちユーザが装着しているHMD装置の方向と対応している。但し、仮想現実提示装置としてHMD装置では無く、コンタクトレンズ型装置やインプラント型装置である場合は、ユーザの眼球方向を視線方向とする構成であることが好ましい。この場合、ユーザ状態検知部12010は、ユーザの視線方向を検知する視線方向センサを更に具備する構成であることが好ましい。視点制御部11021−1は、ユーザ状態情報に基づいて、ユーザの目の位置及び頭部の方向に対応する仮想空間における視点の位置及び視線の方向を算出する。 The viewpoint control unit 11021-1 controls the position and direction of the viewpoint when drawing the virtual reality object based on the user state information indicating the user state. Specifically, based on the tilt information indicating the tilt of the user's head included in the user state information and the acceleration information indicating the acceleration of the user's head, a virtual space corresponding to the position of the left eye and the position of the right eye of the user The viewpoint position at is calculated. Further, the line-of-sight direction in the virtual space corresponding to the direction of the user's line of sight is calculated based on the acceleration information. Here, the line-of-sight direction does not correspond to the direction of the line of sight when the user moves only the eyeball, but corresponds to the direction of the user's head, that is, the direction of the HMD device worn by the user. However, when the virtual reality presentation device is not an HMD device but a contact lens type device or an implant type device, it is preferable that the eyeball direction of the user is the line-of-sight direction. In this case, it is preferable that the user state detection unit 12010 further includes a gaze direction sensor that detects the gaze direction of the user. The viewpoint control unit 11021-1 calculates the position of the viewpoint and the direction of the line of sight in the virtual space corresponding to the position of the user's eyes and the direction of the head based on the user state information.
描画処理部11021−2は、仮想現実オブジェクトをリアルタイムにレンダリングして映像を生成する。描画処理部11021−2で生成された映像は、映像表示部11022で表示される。 The drawing processing unit 11021-2 renders the virtual reality object in real time to generate a video. The video generated by the drawing processing unit 11021-2 is displayed on the video display unit 11022.
例えば、描画処理部11021−2は、視点制御部11021−1で求められた視点の位置及び視線の方向に基づいて、仮想空間内の所定の位置にイメージプレーンを設定し、仮想現実オブジェクトを投影することで、仮想現実オブジェクトの投影画像を取得する。描画処理部11021−2は、仮想現実オブジェクトが投影されたイメージプレーンのクリッピング処理を行い、映像表示部11022で表示される範囲を選択する。 For example, the drawing processing unit 11021-2 sets an image plane at a predetermined position in the virtual space based on the viewpoint position and the line-of-sight direction obtained by the viewpoint control unit 11021-1 and projects a virtual reality object. As a result, a projection image of the virtual reality object is acquired. The drawing processing unit 11021-2 performs clipping processing of the image plane onto which the virtual reality object is projected, and selects a range to be displayed on the video display unit 11022.
描画処理部11021−2は、仮想現実オブジェクトの表面に張り付けられるテキスチャーデータを用いてテキスチャーマッピング処理を行い、アンチエリアシング処理等の補正処理を適宜行い、最終的に映像表示部11022で表示される映像を生成する。 The drawing processing unit 11021-2 performs texture mapping processing using texture data pasted on the surface of the virtual reality object, appropriately performs correction processing such as anti-aliasing processing, and is finally displayed on the video display unit 11022. Generate video.
当該構成とすることで、人工的に創り出される仮想現実オブジェクトが存在する仮想現実の世界をユーザに提示することができる。 With this configuration, a virtual reality world in which a virtual reality object created artificially exists can be presented to the user.
また、本実施形態9に係る仮想現実提示システム12000は、図45に示す構成とすると更に良好である。図45に示す仮想現実提示システム12000において、仮想現実提示部11020は、映像生成処理部11021と映像表示部11022に加えて音声出力部11023を備えることを特徴とする。また、図45に示す仮想現実提示システム12000は、中断用映像データ記憶部12040と、仮想現実提示用音声データ記憶部12050と、中断用音声データ記憶部12060と、を備える。 In addition, the virtual reality presentation system 12000 according to the ninth embodiment is more favorable when configured as shown in FIG. In the virtual reality presentation system 12000 shown in FIG. 45, the virtual reality presentation unit 11020 includes an audio output unit 11023 in addition to the video generation processing unit 11021 and the video display unit 11022. The virtual reality presentation system 12000 shown in FIG. 45 includes an interruption video data storage unit 12040, a virtual reality presentation audio data storage unit 12050, and an interruption audio data storage unit 12060.
映像表示部11022は、映像表示制御部11022−1と表示パネル11022−2とを備える。映像表示制御部11022−1は、映像生成処理部11021で生成される仮想現実オブジェクトの映像を入力し、表示パネル11022−2に表示する制御を行う。 The video display unit 11022 includes a video display control unit 11022-1 and a display panel 11022-2. The video display control unit 11022-1 receives the video of the virtual reality object generated by the video generation processing unit 11021 and performs control to display it on the display panel 11022-2.
また、映像表示制御部11022−1は、仮想現実提示中断制御部11030より仮想現実の提示の中断を指示する指示信号を入力した場合は、表示パネル11022−2に仮想現実オブジェクトの映像を表示することを中断する制御を行う。 Also, the video display control unit 11022-1 displays the video of the virtual reality object on the display panel 11022-2 when the instruction signal instructing the virtual reality presentation suspension control unit 11030 to interrupt the virtual reality presentation is input. Control to interrupt that.
また、上記仮想現実提示の中断指示を受けた場合、映像表示制御部11022−1は、中断用映像データ記憶部12040に記憶されている中断用映像データを読み出し、表示パネル11022−2に中断用映像を表示する制御を行う。 When receiving the instruction to interrupt the virtual reality presentation, the video display control unit 11022-1 reads the video data for interruption stored in the video data storage unit 12040 for interruption, and displays the interruption data on the display panel 11022-2. Control to display video.
図46は、仮想現実提示中断制御に基づいて表示される当該中断用映像の一例を示している。映像表示制御部11022−1は、映像生成処理部11021で生成された仮想現実オブジェクトである犬の映像を現実の世界に重ねあわさるように表示パネル11022−2に表示することで仮想現実を提示している。ここで、仮想現実提示中断制御部11030より仮想現実の提示中断指示が出された場合、映像表示制御部11022−1は、中断用映像データ記憶部12040より中断用映像データを読み込み、表示パネル11022−2に中断用映像を表示する。 FIG. 46 shows an example of the interruption video displayed based on the virtual reality presentation interruption control. The video display control unit 11022-1 presents virtual reality by displaying the video of the dog, which is a virtual reality object generated by the video generation processing unit 11021, on the display panel 11022-2 so as to overlap the real world. doing. When a virtual reality presentation suspension instruction is issued from the virtual reality presentation suspension control unit 11030, the video display control unit 11022-1 reads the suspension video data from the suspension video data storage unit 12040 and displays the display panel 11022. -2 displays a video for interruption.
図46では、中断用映像データとして「車接近により仮想現実提示を中断しました」と言う内容を示す画像データが用いられている。映像表示制御部11022−1が、表示パネル11022−2で表示する映像の入力元を映像生成処理部11021から中断用映像データ記憶部12040に切り替え、中断指示に基づいて仮想現実オブジェクトの映像の表示を中断する制御を行う。 In FIG. 46, image data indicating the content that “virtual reality presentation has been interrupted due to approach of a vehicle” is used as video data for interruption. The video display control unit 11022-1 switches the video input source to be displayed on the display panel 11022-2 from the video generation processing unit 11021 to the video data storage unit for interruption 12040, and displays the video of the virtual reality object based on the interruption instruction. Control to interrupt.
映像生成処理部11021で生成される仮想現実オブジェクトの映像は、ユーザ状態検知部12010で検知されるユーザの現在の状態に基づいて制御されている。すなわち、映像生成処理部11021は、ユーザの現在の状態に基づいて仮想現実オブジェクトの映像を生成するため、ユーザが移動したり首を傾けたりすると言った動作と連動して生成される映像が変化していく。 The video of the virtual reality object generated by the video generation processing unit 11021 is controlled based on the current state of the user detected by the user state detection unit 12010. That is, since the video generation processing unit 11021 generates a video of the virtual reality object based on the current state of the user, the generated video is changed in conjunction with the operation that the user moves or tilts the head. I will do it.
図47は、ユーザの状態が変化する場合におけるユーザの周囲の現実の世界の景色と、表示パネル11022−2に表示される映像、すなわち、映像生成処理部11021が生成する映像と、仮想現実が提示されているユーザが感知する景色との時間変化を示している。 FIG. 47 shows the real world scenery around the user when the user's state changes, the video displayed on the display panel 11022-2, that is, the video generated by the video generation processing unit 11021, and the virtual reality. The time change with the scenery which the user shown is perceived is shown.
図47において、ユーザは、ソファーが置かれている部屋で首を120度時計方向に回転させている。犬の仮想現実オブジェクトが仮想現実オブジェクト配置部12030によって仮想空間に配置されており、映像生成処理部11021は、ユーザ状態検知部12010で検知されるユーザの目の位置及び頭部の方向に対応する視点位置及び視線方向に基づいて、仮想空間に配置されている仮想現実オブジェクトを描画する。従って、映像生成処理部11021が生成する仮想現実オブジェクトの映像は、ユーザの首の動きに連動して変化していく。そのため、現実の世界の景色と重ねて表示パネル11022−2で表示されている映像を視ているユーザには、現実の世界に置かれたソファーの上に仮想現実オブジェクトで表される犬が寝そべっているという仮想現実の世界が感知される。 In FIG. 47, the user rotates his neck 120 degrees clockwise in the room where the sofa is placed. The virtual reality object of the dog is arranged in the virtual space by the virtual reality object arrangement unit 12030, and the video generation processing unit 11021 corresponds to the position of the user's eyes and the direction of the head detected by the user state detection unit 12010. Based on the viewpoint position and the line-of-sight direction, the virtual reality object arranged in the virtual space is drawn. Accordingly, the video of the virtual reality object generated by the video generation processing unit 11021 changes in conjunction with the movement of the user's neck. For this reason, a user who is viewing the video displayed on the display panel 11022-2 overlaid on the real world scenery lies a dog represented by a virtual reality object on a sofa placed in the real world. A virtual reality world is perceived.
一方、図48は、仮想現実の提示が中断され、中断用映像が表示パネル11022−2に表示されている場合においてユーザが感知する景色の時間変化を示している。ユーザが首を回転することによってユーザの視界に入る景色は変わっていく。一方、映像表示制御部11022−1は、表示パネル11022−2の同一位置に中断用映像を表示し続ける。中断用映像は、仮想現実の提示を中断したことユーザに認識させるために表示されるものであるため、ユーザの状態の変化に係わらず中断用映像がユーザの視界に入り続ける。 On the other hand, FIG. 48 shows a temporal change of the scenery sensed by the user when the virtual reality presentation is interrupted and the interrupting video is displayed on the display panel 11022-2. The scenery that enters the user's field of view changes as the user rotates his neck. On the other hand, the video display control unit 11022-1 continues to display the interruption video at the same position on the display panel 11022-2. Since the interruption video is displayed in order for the user to recognize that the presentation of the virtual reality has been interrupted, the interruption video continues to enter the user's field of view regardless of a change in the state of the user.
このように、仮想現実の提示に係る仮想現実オブジェクトの映像は、ユーザ状態の変化に連動して、表示パネル11022−2における表示位置や仮想現実オブジェクトの形状が変化するものであるのに対し、中断用映像は、一定期間又は中断理由が解消するまで表示パネル11022−2に、ユーザの状態の変化に連動することなく表示される。 As described above, the video of the virtual reality object related to the presentation of the virtual reality is such that the display position on the display panel 11022-2 and the shape of the virtual reality object change in conjunction with the change of the user state. The interruption video is displayed on the display panel 11022-2 without being interlocked with the change of the state of the user for a certain period or until the reason for the interruption is resolved.
仮想現実提示用音声データ記憶部12050は、仮想現実提示用の音声データを記憶する。当該仮想現実提示用音声データは、仮想現実オブジェクト記憶部12020に記憶される仮想現実オブジェクトと関連付けされている。 The virtual reality presentation sound data storage unit 12050 stores sound data for virtual reality presentation. The virtual reality presentation sound data is associated with a virtual reality object stored in the virtual reality object storage unit 12020.
図49は、仮想現実オブジェクトと、当該仮想現実オブジェクトに関連付けられた仮想現実提示用音声データとを管理する管理ファイルの一例である。各仮想現実オブジェクトには、当該オブジェクトを一意に識別するオブジェクトIDが割り当てられている。また、各仮想現実オブジェクトは、複数の種別によって分類分けされている。種別1は、仮想現実オブジェクトの大まかな分類を示しており、人間を表した人間オブジェクトであるか、動物を表した動物オブジェクトであるか等が示されている。種別2は、当該オブジェクトが現実の世界にあるものを表したオブジェクトであるか、想像上の物体や人物を表したオブジェクトであるかが示されている。種別Nは、より詳細な分類が示されている。 FIG. 49 is an example of a management file that manages the virtual reality object and the virtual reality presentation sound data associated with the virtual reality object. Each virtual reality object is assigned an object ID that uniquely identifies the object. Each virtual reality object is classified according to a plurality of types. Type 1 indicates a rough classification of virtual reality objects, and indicates whether the object is a human object representing a human or an animal object representing an animal. Type 2 indicates whether the object represents an object in the real world or an object representing an imaginary object or person. The type N indicates a more detailed classification.
人間オブジェクトや動物オブジェクトのように、音声を発する能力を有する人間や動物を表したオブジェクトには、当該オブジェクトが発する音声と関連付けされている。例えば、オブジェクトID000001の仮想現実オブジェクトには、M001.mp3、M003.mp3、M034.mp3の音声データが関連付けされている。 An object representing a person or animal having the ability to emit sound, such as a human object or animal object, is associated with the sound emitted by the object. For example, the virtual reality object with the object ID 000001 has M001. mp3, M003. mp3, M034. The audio data of mp3 is associated.
中断用音声データ記憶部12060は、仮想現実の提示を中断する際に再生する中断用音声データを記憶する。中断用音声データとしては、例えば「車接近により仮想現実提示を中断しました」と言う文章を読み上げた音声などが該当する。 The interruption voice data storage unit 12060 stores interruption voice data to be reproduced when the presentation of virtual reality is interrupted. The interruption voice data corresponds to, for example, a voice that reads out a sentence saying “virtual reality presentation has been interrupted due to vehicle approach”.
音声出力部11023は、仮想現実提示用音声データや中断用音声データを読み込み、音声として出力する。音声出力部11023は、音声再生制御部11023−1と、スピーカ11023−2とを備える。 The audio output unit 11023 reads the virtual reality presentation audio data and the interruption audio data and outputs them as audio. The audio output unit 11023 includes an audio reproduction control unit 11023-1 and a speaker 11023-2.
ユーザに対して仮想現実を提示する場合、音声再生制御部11023−1は、仮想現実提示用音声データを仮想現実提示用音声データ記憶部12050より読み出して再生する。具体的には、音声再生制御部11023−1は、ユーザ状態検知部12010で検知されるユーザの状態に基づいて、仮想現実提示用音声データを複数のチャンネルの音声データに分配する。音声再生制御部11023−1は、分配した各音声データにDA変換処理や増幅処理を行ってアナログ音声信号に変換し、当該アナログ音声信号をスピーカ11023−2に出力する。 When presenting virtual reality to the user, the audio reproduction control unit 11023-1 reads the virtual reality presentation audio data from the virtual reality presentation audio data storage unit 12050 and reproduces it. Specifically, the audio reproduction control unit 11023-1 distributes the virtual reality presentation audio data to the audio data of a plurality of channels based on the user status detected by the user status detection unit 12010. The audio reproduction control unit 11023-1 performs DA conversion processing and amplification processing on each distributed audio data to convert it into an analog audio signal, and outputs the analog audio signal to the speaker 11023-2.
スピーカ11023−2は、音声再生制御部11023−1より出力された各チャンネルのアナログ音声信号を空気振動に変換して外部へ放音する。 The speaker 11023-2 converts the analog audio signal of each channel output from the audio reproduction control unit 11023-1 into air vibration and emits the sound to the outside.
当該構成によれば、仮想現実の提示が中断されたことをユーザは、中断用映像や中断用音声によって明確に認識することができる。また、通常人間が視覚の次に外部より情報を得ている聴覚を介して仮想現実を提示することで、ユーザはより自然に仮想現実の世界に入り込むことが可能となる。 According to the said structure, the user can recognize clearly that the presentation of virtual reality was interrupted | interrupted and the audio | voice for interruption. In addition, by presenting virtual reality through hearing, in which human beings usually obtain information from outside after vision, the user can more naturally enter the virtual reality world.
なお、再生される音声が自然な音声となるように、6.1Chや7.1Chと言った多数のチャンネルで音声を再生できる構成とすることが好ましい。 In addition, it is preferable that the audio can be played back on many channels such as 6.1Ch and 7.1Ch so that the played back sound becomes natural.
また、音声再生制御部11023−1で再生される仮想現実提示用音声データは、仮想現実提示用音声データ記憶部12050に予め記憶されている構成に限定されるものではなく、音声合成によって適宜生成される構成としても良い。例えば、仮想現実提示用音声データ記憶部12050には、音声合成の元となる音声基礎データが記憶される構成とし、別途備えられる音声合成処理部が当該音声基礎データを音声出力コンテキストに従って合成することで仮想現実提示用の合成音声データを生成する構成とすると更に良好である。当該音声基礎データは、仮想現実オブジェクトに関連付けられる音声の単位となるデータであり、例えば仮想現実オブジェクトで表される人物が発する50音などの肉声を収録した音声データである。当該合成音声データが音声再生制御部11023−1に出力され、音声再生制御部11023−1は、当該合成音声データを再生する。 Also, the virtual reality presentation audio data reproduced by the audio reproduction control unit 11023-1 is not limited to the configuration stored in advance in the virtual reality presentation audio data storage unit 12050, and is appropriately generated by speech synthesis. It is good also as a structure to be performed. For example, the virtual reality presentation voice data storage unit 12050 is configured to store voice basic data that is a source of voice synthesis, and a voice synthesis processing unit provided separately synthesizes the voice basic data according to a voice output context. It is even better if it is configured to generate synthesized speech data for virtual reality presentation. The sound basic data is data that is a unit of sound associated with the virtual reality object, and is sound data that records a real voice such as 50 sounds uttered by a person represented by the virtual reality object. The synthesized voice data is output to the voice reproduction control unit 11023-1, and the voice reproduction control unit 11023-1 reproduces the synthesized voice data.
また、仮想現実オブジェクトで表される人物や動物が実際に音声を発しているように、音声の発生源が仮想現実オブジェクトの方向から来るように音声再生制御部11023−1は、音声を再生する制御を行う構成とすることが好ましい。そこで、図50に示す仮想現実提示システム12000のように、仮想現実オブジェクト配置部12030は、音声再生制御部11023−1に、仮想空間に配置している各仮想現実オブジェクトの位置を示す仮想現実オブジェクト位置情報を出力する構成とすると更に良好である。 Further, the sound reproduction control unit 11023-1 reproduces sound so that the sound generation source comes from the direction of the virtual reality object so that a person or an animal represented by the virtual reality object actually emits sound. It is preferable that the control be performed. Therefore, as in the virtual reality presentation system 12000 shown in FIG. 50, the virtual reality object placement unit 12030 instructs the audio reproduction control unit 11023-1 to indicate the position of each virtual reality object placed in the virtual space. It is even better when the position information is output.
音声再生制御部11023−1は、仮想現実オブジェクト位置情報で示される仮想現実オブジェクトの位置座標と、ユーザ状態検知部12010で生成されるユーザの状態を示すユーザ状態情報に基づいて求まるユーザの位置座標(ユーザの左耳の位置座標と右耳の位置座標)とに基づいて、ユーザ位置から見た仮想現実オブジェクトの方向と距離を特定する。音声再生制御部11023−1は、当該特定した仮想現実オブジェクトの方向に基づいて、再生する音声データを複数のチャンネルに分配する分配処理を行って、各チャンネルの音声データを生成する。また、当該特定した仮想現実オブジェクトまでの距離に基づいて、再生する音声データを増幅する増幅処理を行い、各チャンネルからスピーカ11023−2へ出力される音声を生成する。 The audio reproduction control unit 11023-1 is obtained based on the position coordinates of the virtual reality object indicated by the virtual reality object position information and the user state information indicating the user state generated by the user state detection unit 12010. Based on (the position coordinates of the user's left ear and the position coordinates of the right ear), the direction and distance of the virtual reality object viewed from the user position are specified. The audio reproduction control unit 11023-1 performs distribution processing for distributing audio data to be reproduced to a plurality of channels based on the direction of the identified virtual reality object, and generates audio data of each channel. Further, based on the distance to the identified virtual reality object, amplification processing for amplifying the audio data to be reproduced is performed, and audio output from each channel to the speaker 11023-2 is generated.
このように、音声データを分配することで、ユーザには仮想現実オブジェクトで表される人物や動物の方向より音声が聞こえてくるため、実際に仮想現実オブジェクトで表される人物が喋ったり、動物が鳴いたりしているように聞こえる。また、仮想現実オブジェクトまでの距離に基づいて、音声レベルが調整されることで、実際にユーザが見えている仮想現実オブジェクトから音声が発せられているようにユーザには感知される。そのため、ユーザは、本来は現実の世界には存在していない仮想現実オブジェクトで表される人物や動物等が存在している仮想現実の世界により深く引き込まれていくことになる。 In this way, by distributing the audio data, the user can hear the sound from the direction of the person or animal represented by the virtual reality object. Sounds like it sounds. Further, by adjusting the sound level based on the distance to the virtual reality object, the user senses that sound is emitted from the virtual reality object that the user actually sees. Therefore, the user is drawn deeper into the virtual reality world where persons, animals, and the like represented by virtual reality objects that do not originally exist in the real world exist.
なお、仮想現実提示中断制御部11030は、様々な中断理由に基づいて仮想現実を提示する制御を行う場合がある。この場合、ユーザにはどのような理由で仮想現実の提示が強制的に中断されたのかを通知できることが好ましい。当該中断理由を確認したユーザが、当該中断理由が解消するように自ら行動することで再び仮想現実の提示を受けることができるためである。 Note that the virtual reality presentation interruption control unit 11030 may perform control for presenting virtual reality based on various reasons for interruption. In this case, it is preferable that the user can be notified of the reason why the presentation of virtual reality is forcibly interrupted. This is because the user who confirms the reason for the interruption can receive the presentation of the virtual reality again by acting himself so that the reason for the interruption is resolved.
そこで、本実施形態9に係る仮想現実提示システム12000は、図51に示す構成とすると更に良好である。図51に示す仮想現実提示システム12000は、図50の場合と比較して、新たに中断用映像データ選択処理部12070と、中断用音声データ選択処理部12080とを新たに備えることを特徴とする。 Therefore, the virtual reality presentation system 12000 according to the ninth embodiment is more favorable when configured as shown in FIG. The virtual reality presentation system 12000 shown in FIG. 51 is characterized by newly including an interruption video data selection processing unit 12070 and an interruption audio data selection processing unit 12080, as compared with the case of FIG. .
中断用映像データ記憶部12040と、中断用音声データ記憶部12060とは、それぞれ複数種類の中断用映像データと中断用音声データとを記憶している。図52は、当該中断用映像データと中断用音声データをそれぞれ管理する管理ファイルの一例である。 The interruption video data storage unit 12040 and the interruption audio data storage unit 12060 each store a plurality of types of interruption video data and interruption audio data. FIG. 52 is an example of a management file for managing the video data for interruption and the audio data for interruption.
中断用映像データ記憶部12040と中断用音声データ記憶部12060は、それぞれ中断理由に応じた複数の中断用映像データと複数の中断用音声データとを記憶している。 The interruption video data storage unit 12040 and the interruption audio data storage unit 12060 each store a plurality of interruption video data and a plurality of interruption audio data according to the reason for interruption.
仮想現実提示中断制御部11030は、仮想現実提示部11020において仮想現実コンテンツの映像が表示されたり、仮想現実提示用音声が出力されたりすることで仮想現実の提示が行われている場合において、所定の中断事由が発生した場合に、仮想現実の提示を中断する制御を行う。具体的には、仮想現実提示中断制御部11030は、中断用映像データ選択処理部12070と中断用音声データ選択処理部12080に仮想現実提示の中断指示を出す。 The virtual reality presentation interruption control unit 11030 is predetermined when virtual reality presentation is performed by the virtual reality presentation unit 11020 displaying a video of virtual reality content or outputting a virtual reality presentation sound. If the cause of interruption occurs, control to interrupt the presentation of virtual reality is performed. Specifically, the virtual reality presentation interruption control unit 11030 issues a virtual reality presentation interruption instruction to the interruption video data selection processing unit 12070 and the interruption audio data selection processing unit 12080.
ここで、仮想現実提示中断制御部11030は、中断用映像データ選択処理部12070と中断用音声データ選択処理部12080に中断事由を示す情報を含む中断指示信号を出力することで当該指示を行う。 Here, the virtual reality presentation interruption control unit 11030 performs the instruction by outputting an interruption instruction signal including information indicating the interruption reason to the interruption video data selection processing unit 12070 and the interruption audio data selection processing unit 12080.
中断用映像データ選択処理部12070は、仮想現実提示中断制御部11030からの中断指示で示される中断事由に対応する中断用映像データを中断用映像データ記憶部12040の中から選択して読み出し、映像表示制御部11022−1に出力する。 The interruption video data selection processing unit 12070 selects and reads out the interruption video data corresponding to the interruption cause indicated by the interruption instruction from the virtual reality presentation interruption control unit 11030 from the interruption video data storage unit 12040, and reads the video. The data is output to the display control unit 11022-1.
映像表示制御部11022−1は、中断用映像データ選択処理部12070で中断用映像データが読み出された場合に、仮想現実オブジェクトの映像に代えて当該中断用映像データを表示パネル11022−2に表示する制御を行う。 When the interruption video data selection processing unit 12070 reads the interruption video data, the video display control unit 11022-1 displays the interruption video data on the display panel 11022-2 in place of the virtual reality object video. Control the display.
同様に、中断用音声データ選択処理部12080は、仮想現実提示中断制御部11030からの中断指示で示される中断事由に対応する中断用音声データを中断用音声データ記憶部12060の中から選択して読み出し、音声再生制御部11023−1に出力する。 Similarly, the interruption audio data selection processing unit 12080 selects the interruption audio data corresponding to the interruption reason indicated by the interruption instruction from the virtual reality presentation interruption control unit 11030 from the interruption audio data storage unit 12060. Read and output to the audio reproduction control unit 11023-1.
音声再生制御部11023−1は、中断用音声データ選択処理部12080で中断用音声データが読み出された場合に、仮想現実提示用音声データの再生に代えて当該中断用音声データを再生してスピーカ11023−2より出力する制御を行う。 When the interruption audio data selection processing unit 12080 reads the interruption audio data, the audio reproduction control unit 11023-1 reproduces the interruption audio data instead of reproducing the virtual reality presentation audio data. Control to output from the speaker 11023-2 is performed.
当該構成によれば、ユーザなどのような理由で仮想現実の提示が中断されたかを適切に認識することができるため、引き続き仮想現実の世界を堪能したいユーザは、当該中断事由を解消するように行動することで、素早く仮想現実の世界に戻ることができる。 According to this configuration, since it is possible to appropriately recognize whether the presentation of virtual reality has been interrupted for a reason such as a user, a user who wishes to continue to enjoy the virtual reality world should resolve the reason for the interruption. By acting, you can quickly return to the virtual reality world.
なお、この場合、仮想現実提示中断制御部11030は、中断事由が解消した場合に、仮想現実提示部11020に仮想現実の提示を再開させる制御を行う。例えば、仮想現実提示中断制御部11030は、映像表示制御部11022−1に、中断用映像の表示を停止し、映像生成処理部11021で生成される仮想現実オブジェクトの映像を表示パネル11022−2に表示させる指示を行う構成とすると良い。 In this case, the virtual reality presentation interruption control unit 11030 performs control to cause the virtual reality presentation unit 11020 to resume presentation of virtual reality when the interruption reason is resolved. For example, the virtual reality presentation interruption control unit 11030 stops the display of the interruption video to the video display control unit 11022-1, and displays the video of the virtual reality object generated by the video generation processing unit 11021 on the display panel 11022-2. A configuration in which an instruction to display is performed is preferable.
(実施形態10)
ユーザに対する仮想現実の提示を行う場合は、他人が感知している現実の世界とは異なる仮想現実の世界をユーザが感知している一方で、ユーザの行動は、仮想現実の世界だけではなく現実の世界にも影響を与える。従って、当該仮想現実の提示を行う仮想現実提示システムが、ユーザの行動が現実の世界で与える影響を考慮しつつ、仮想現実の提示に関する全体制御を行うことが好ましい。
(Embodiment 10)
When presenting virtual reality to the user, the user perceives a virtual reality world that is different from the real world that others are sensing, while the user's behavior is not only the virtual reality world, Also affects the world. Therefore, it is preferable that the virtual reality presentation system that presents the virtual reality performs overall control regarding the presentation of the virtual reality while considering the influence of the user's action in the real world.
図53は、本実施形態10に係る仮想現実提示システム13000の構成を示すブロック図である。仮想現実提示システム13000は、仮想現実提示システム10000は、周囲状況検知部11010と、仮想現実提示部11020と、仮想現実提示中断制御部11030と、仮想現実提示中断条件記憶部13010と、画像解析処理部13020と、を備える。 FIG. 53 is a block diagram illustrating a configuration of a virtual reality presentation system 13000 according to the tenth embodiment. The virtual reality presentation system 13000, the virtual reality presentation system 10000, the ambient state detection unit 11010, the virtual reality presentation unit 11020, the virtual reality presentation interruption control unit 11030, the virtual reality presentation interruption condition storage unit 13010, and an image analysis process Unit 13020.
本実施形態10に係る仮想現実提示システム13000において、周囲状況検知部11010は、少なくともユーザの周囲を撮影して周囲景色画像を取得する周囲撮影部1011を備える。周囲撮影部1011は、具体的には、ユーザが装着するHMD装置等の仮想現実提示装置に取り付けられたカメラに該当する。当該仮想現実提示装置には、少なくとも複数のカメラが周囲撮影部1011として設置されている。周囲撮影部1011で取得された周囲景色画像は周囲状況情報として画像解析処理部13020に出力される。 In the virtual reality presentation system 13000 according to the tenth embodiment, the surrounding state detection unit 11010 includes a surrounding photographing unit 1011 that photographs at least the surroundings of the user and acquires a surrounding scenery image. Specifically, the ambient photographing unit 1011 corresponds to a camera attached to a virtual reality presentation device such as an HMD device worn by a user. In the virtual reality presentation device, at least a plurality of cameras are installed as the surrounding photographing unit 1011. The surrounding scenery image acquired by the surrounding photographing unit 1011 is output to the image analysis processing unit 13020 as surrounding state information.
画像解析処理部13020は、周囲撮影部1011で撮影されたユーザの周囲の景色が写っている周囲景色画像を解析して所定の情報を抽出する処理を行う。本実施形態10に係る仮想現実提示システム13000において、画像解析処理部13020は、物体距離算出部13021と、物体移動速度算出部13022とを備える。 The image analysis processing unit 13020 performs a process of extracting predetermined information by analyzing the surrounding scenery image in which the surrounding scenery of the user taken by the surrounding photographing unit 1011 is captured. In the virtual reality presentation system 13000 according to the tenth embodiment, the image analysis processing unit 13020 includes an object distance calculation unit 13021 and an object moving speed calculation unit 13022.
物体距離算出部13021は、周囲景色画像に写っている物体の位置を特定する。具体的には、物体距離算出部13021は、周囲景色画像における隣接画素又は隣接ブロックの色差信号や輝度信号等を比較することで、当該周囲景色画像に写っている複数の物体の境界を特定し、特定した物体をラべリングする。物体距離算出部13021は、仮想現実提示装置に設置されている複数の周囲撮影部1011で取得された周囲景色画像について当該境界判定処理及びラべリング処理を行う。物体距離算出部13021は、同一のラベルが付与された物体の画像内位置の差分に基づいて、当該物体までの距離を算出する。ここで、物体距離算出部13021は、当該物体の位置座標を算出する構成とすると更に良好である。物体距離算出部13021は、算出した物体までの距離に関する情報を、物体移動速度算出部13022と、仮想現実提示中断制御部11030の仮想現実提示中断判定処理部11031に出力する。 The object distance calculation unit 13021 specifies the position of the object shown in the surrounding scenery image. Specifically, the object distance calculation unit 13021 identifies boundaries of a plurality of objects shown in the surrounding scene image by comparing color difference signals, luminance signals, and the like of adjacent pixels or blocks in the surrounding scene image. Label the identified object. The object distance calculation unit 13021 performs the boundary determination process and the labeling process on the surrounding scene image acquired by the plurality of surrounding photographing units 1011 installed in the virtual reality presentation device. The object distance calculation unit 13021 calculates the distance to the object based on the difference between the positions in the image of the object with the same label. Here, the object distance calculation unit 13021 is more preferably configured to calculate the position coordinates of the object. The object distance calculation unit 13021 outputs information related to the calculated distance to the object to the object moving speed calculation unit 13022 and the virtual reality presentation interruption determination processing unit 11031 of the virtual reality presentation interruption control unit 11030.
物体移動速度算出部13022は、物体距離算出部13021で算出された物体までの距離の時間変化に基づいて、当該物体のユーザ方向への移動速度を算出する。なお、物体距離算出部13021が、周囲景色画像に写る各物体の位置座標を求める物体位置特定部として機能する場合は、物体移動速度算出部13022は、当該物体の位置座標の時間変化に基づいて、当該物体の移動ベクトルを算出する構成とすると更に良好である。物体移動速度算出部13022は、周囲景色画像に写る物体の移動速度及び移動方向を算出する。物体移動速度算出部13022は、算出した物体の移動速度を仮想現実提示中断制御部11030の仮想現実提示中断判定処理部11031に出力する。物体移動速度算出部13022が当該物体の移動ベクトルを算出する構成である場合は、物体移動速度算出部13022は、仮想現実提示中断制御部11030の仮想現実提示中断判定処理部11031に算出した移動速度及び移動方向を示す情報を出力する。 The object moving speed calculation unit 13022 calculates the moving speed of the object in the user direction based on the temporal change in the distance to the object calculated by the object distance calculation unit 13021. When the object distance calculation unit 13021 functions as an object position specifying unit that obtains the position coordinates of each object that appears in the surrounding scenery image, the object moving speed calculation unit 13022 is based on the time change of the position coordinates of the object. It is even better if the movement vector of the object is calculated. The object moving speed calculation unit 13022 calculates the moving speed and moving direction of the object shown in the surrounding scenery image. The object moving speed calculation unit 13022 outputs the calculated moving speed of the object to the virtual reality presentation interruption determination processing unit 11031 of the virtual reality presentation interruption control unit 11030. When the object movement speed calculation unit 13022 is configured to calculate the movement vector of the object, the object movement speed calculation unit 13022 calculates the movement speed calculated by the virtual reality presentation interruption determination processing unit 11031 of the virtual reality presentation interruption control unit 11030. And information indicating the moving direction is output.
仮想現実提示中断条件記憶部13010は、仮想現実の提示を中断する条件である仮想現実提示中断条件を記憶する。図54は、仮想現実提示中断条件の一例を示している。仮想現実提示中断条件として、複数の条件が仮想現実提示中断条件記憶部13010に記憶されている。 The virtual reality presentation interruption condition storage unit 13010 stores a virtual reality presentation interruption condition that is a condition for interrupting the presentation of virtual reality. FIG. 54 shows an example of the virtual reality presentation interruption condition. A plurality of conditions are stored in the virtual reality presentation interruption condition storage unit 13010 as virtual reality presentation interruption conditions.
仮想現実提示中断制御部11030は、仮想現実提示中断判定処理部11031と、仮想現実提示中断指示部11032と、を備える。 The virtual reality presentation interruption control unit 11030 includes a virtual reality presentation interruption determination processing unit 11031 and a virtual reality presentation interruption instruction unit 11032.
仮想現実提示中断判定処理部11031は、周囲状況検知部11010で検知されたユーザの周囲の状況が仮想現実提示中断条件を満たしているかを判定する。仮想現実提示中断判定処理部11031は、周囲状況検知部11010で新たな検知結果が得られた場合、仮想現実提示中断条件記憶部13010に記憶されている仮想現実提示中断条件を読み出して上記検知結果と比較することで、ユーザの現在の周囲の状況が仮想現実提示中断条件を満たしているかを判定する。 The virtual reality presentation interruption determination processing unit 11031 determines whether or not the situation around the user detected by the surrounding situation detection unit 11010 satisfies the virtual reality presentation interruption condition. The virtual reality presentation interruption determination processing unit 11031 reads out the virtual reality presentation interruption condition stored in the virtual reality presentation interruption condition storage unit 13010 when a new detection result is obtained by the surrounding state detection unit 11010 and reads the detection result. To determine whether the current surrounding situation of the user satisfies the virtual reality presentation interruption condition.
具体的には、仮想現実提示中断判定処理部11031は、周囲状況検知部11010である周囲撮影部1011で撮影された周囲景色画像の画像解析結果で得られる情報が仮想現実提示中断条件を満たしているかを判定する。仮想現実提示中断判定処理部11031は、物体距離算出部13021よりユーザの周囲にある各物体までの距離を示す情報を、また、物体移動速度算出部13022より移動している物体の移動速度を示す情報をそれぞれ入力し、仮想現実提示中断条件と比較することで、仮想現実の提示を中断するための条件を満たしているかを判定する。 Specifically, the virtual reality presentation interruption determination processing unit 11031 satisfies the virtual reality presentation interruption condition when the information obtained from the image analysis result of the surrounding scene image captured by the surrounding photographing unit 1011 which is the surrounding state detection unit 11010 satisfies the virtual reality presentation interruption condition. It is determined whether or not. The virtual reality presentation interruption determination processing unit 11031 indicates information indicating the distance to each object around the user from the object distance calculation unit 13021, and indicates the moving speed of the moving object from the object moving speed calculation unit 13022. Each information is input and compared with the virtual reality presentation interruption condition to determine whether the condition for interrupting the virtual reality presentation is satisfied.
例えば、図5415に示す仮想現実提示中断条件の第6条件には、ユーザ方向への移動速度成分が秒速8m以上の物体があることが中断の条件として設定されている。仮想現実提示中断判定処理部11031は、物体距離算出部13021でユーザまでの距離が求められた各物体の中にユーザの方向への移動速度が秒速8m以上の物体がないかを物体移動速度算出部13022で求められる移動速度に基づいて判定する。 For example, in the sixth condition of the virtual reality presentation interruption condition shown in FIG. 5415, it is set as an interruption condition that there is an object whose moving speed component in the user direction is 8 m / s or more. The virtual reality presentation interruption determination processing unit 11031 calculates an object moving speed as to whether or not there is an object whose moving speed in the direction of the user is 8 m / s or more among the objects for which the distance to the user is obtained by the object distance calculating unit 13021. The determination is made based on the moving speed obtained by the unit 13022.
仮想現実提示中断判定処理部11031は、所定の間隔又は新たに周囲状況検知部11010や画像解析処理部13020より各種情報が入力された場合に、仮想現実提示中断条件として設定されている各条件との比較判定処理を行う。 The virtual reality presentation interruption determination processing unit 11031 receives each condition set as a virtual reality presentation interruption condition when various information is input from a predetermined interval or from the surrounding state detection unit 11010 or the image analysis processing unit 13020. The comparison judgment process is performed.
仮想現実提示中断指示部11032は、仮想現実提示中断判定処理部11031における判定結果に基づいて、仮想現実提示部11020に仮想現実の提示を中断させる指示を出す。例えば、物体移動速度算出部13022で算出された物体の中に秒速14mで移動する物体が存在する場合は、仮想現実の提示を中断するための条件を満たしているため、仮想現実提示中断指示部11032は、仮想現実提示部11020に仮想現実の提示の中断を指示する指示信号を出力する。 The virtual reality presentation interruption instruction unit 11032 issues an instruction to interrupt the virtual reality presentation to the virtual reality presentation unit 11020 based on the determination result in the virtual reality presentation interruption determination processing unit 11031. For example, if there is an object that moves at a speed of 14 m / sec among the objects calculated by the object moving speed calculation unit 13022, the virtual reality presentation interruption instruction unit is satisfied because the condition for interrupting the virtual reality presentation is satisfied. 11032 outputs an instruction signal instructing the virtual reality presentation unit 11020 to interrupt the presentation of the virtual reality.
仮想現実の提示中に上記中断指示を受け取った仮想現実提示部11020は、仮想現実の提示を中断する。例えば、仮想現実提示部11020が仮想現実提示用の映像を表示している場合は、当該映像の表示を中断する。また、仮想現実提示部11020が仮想現実提示用の音声を出力している場合は、当該音声の出力を中断する。 The virtual reality presentation unit 11020 that has received the interruption instruction during the presentation of the virtual reality interrupts the presentation of the virtual reality. For example, when the virtual reality presentation unit 11020 displays a video for virtual reality presentation, the display of the video is interrupted. Further, when the virtual reality presentation unit 11020 outputs a sound for virtual reality presentation, the output of the sound is interrupted.
以上のように、本実施形態10に係る仮想現実提示システム13000によれば、予め様々な中断条件を記憶しておき、周囲状況検知部11010でリアルタイムに検知されるユーザの周囲の状況と当該中断条件を比較することで、適切に仮想現実の提示を制御できる。そのため、ユーザを仮想現実の世界と現実の世界のどちらを感知させるかを切り替えることができ、仮想現実の世界にいるユーザの行動が現実の世界に及ぼす影響を配慮することができる。 As described above, according to the virtual reality presentation system 13000 according to the tenth embodiment, various interruption conditions are stored in advance, and the situation around the user detected in real time by the surrounding situation detection unit 11010 and the interruption. By comparing the conditions, presentation of virtual reality can be appropriately controlled. Therefore, it is possible to switch whether the user senses the virtual reality world or the real world, and it is possible to consider the influence of the action of the user in the virtual reality world on the real world.
なお、仮想現実提示中断条件としては上述した条件に限定されるものではない。例えば、本実施形態10に係る仮想現実提示システム13000は、図55に示す構成とすることも可能である。図55に示す仮想現実提示システム13000において、画像解析処理部13020は、物体距離算出部13021と、物体移動速度算出部13022と、物体特定部13023と、物体種類特定部13024と、物体位置特定部13025と、ユーザ移動速度算出部13026と、を備える。 Note that the virtual reality presentation interruption condition is not limited to the above-described conditions. For example, the virtual reality presentation system 13000 according to the tenth embodiment can be configured as shown in FIG. In the virtual reality presentation system 13000 shown in FIG. 55, the image analysis processing unit 13020 includes an object distance calculating unit 13021, an object moving speed calculating unit 13022, an object specifying unit 13023, an object type specifying unit 13024, and an object position specifying unit. 13025 and a user movement speed calculation unit 13026.
物体特定部13023は、周囲撮影部1011で取得された周囲景色画像に含まれる各物体を画像内における境界判定処理等によって特定し、特定した周囲景色画像内に写る各物体に対してラべリング処理を行う。 The object specifying unit 13023 specifies each object included in the surrounding scenery image acquired by the surrounding photographing unit 1011 by a boundary determination process or the like in the image, and labels each object appearing in the specified surrounding scenery image. Process.
物体種類特定部13024は、物体特定部13023で特定された各物体の種類を特定する。具体的には、物体種類特定部13024は、予め現実の世界にある各物体の特徴パターンを記憶しておき、物体特定部13023で特定された物体と相関値の高い特徴パターンを検出するパターンマッチング処理を行う。物体種類特定部13024は、当該パターンマッチング処理で相関値が所定の基準値以上であった特徴パターンに対応付けられている種類を、当該物体の種類であるとして特定する。 The object type specifying unit 13024 specifies the type of each object specified by the object specifying unit 13023. Specifically, the object type specifying unit 13024 stores the feature patterns of each object in the real world in advance, and performs pattern matching that detects a feature pattern having a high correlation value with the object specified by the object specifying unit 13023. Process. The object type identification unit 13024 identifies the type associated with the feature pattern whose correlation value is equal to or greater than a predetermined reference value in the pattern matching process as the type of the object.
ここで、物体種類特定部13024が特定する物体には、床や壁、人間と言ったものも物体として特定する。また、物体種類特定部13024は、床にある段差等も合わせて検出する構成とすることが好ましい。、物体種類特定部13024は、特定した各物体の種類を示す情報を仮想現実提示中断判定処理部11031に出力する。 Here, the object specified by the object type specifying unit 13024 also specifies a floor, a wall, or a person as an object. In addition, the object type identification unit 13024 is preferably configured to detect a step on the floor together. The object type identification unit 13024 outputs information indicating the type of each identified object to the virtual reality presentation interruption determination processing unit 11031.
物体位置特定部13025は、物体特定部13023で特定された各物体の位置座標を特定する。物体位置特定部13025は、複数の周囲景色画像に写る同一物体の画像内位置の差異に基づいて、当該物体の位置を特定する。 The object position specifying unit 13025 specifies the position coordinates of each object specified by the object specifying unit 13023. The object position specifying unit 13025 specifies the position of the object based on the difference in the position in the image of the same object that appears in the plurality of surrounding scenery images.
物体距離算出部13021は、物体位置特定部13025で求められた物体の位置座標とユーザ位置との差分ベクトルのノルムを算出することで当該物体までの距離を算出する。物体距離算出部13021は、算出した各物体までの距離を示す情報を仮想現実提示中断判定処理部11031に出力する。 The object distance calculation unit 13021 calculates a distance to the object by calculating a norm of a difference vector between the position coordinates of the object obtained by the object position specifying unit 13025 and the user position. The object distance calculation unit 13021 outputs information indicating the calculated distance to each object to the virtual reality presentation interruption determination processing unit 11031.
物体移動速度算出部13022は、物体位置特定部13025で特定される物体の位置座標の時間変化に基づいて、当該物体の移動速度を算出する。物体移動速度算出部13022は、算出した各物体の移動速度をユーザ移動速度算出部13026及び仮想現実提示中断判定処理部11031に出力する。 The object moving speed calculation unit 13022 calculates the moving speed of the object based on the time change of the position coordinates of the object specified by the object position specifying unit 13025. The object movement speed calculation unit 13022 outputs the calculated movement speed of each object to the user movement speed calculation unit 13026 and the virtual reality presentation interruption determination processing unit 11031.
ユーザ移動速度算出部13026は、物体移動速度算出部13022で算出される複数の物体の移動速度に基づいてユーザが移動しているかを特定し、ユーザが移動している場合にユーザの移動速度を算出する。ユーザが移動していると、周囲の全ての物体がユーザの方に相対的に移動していくことになる。従って、複数の物体の移動速度に基づいて、当該物体が移動しているのか、ユーザが移動しているのかを求めることができる。ユーザ移動速度算出部13026は、算出したユーザの移動速度を示す情報を仮想現実提示中断判定処理部11031に出力する。 The user movement speed calculation unit 13026 specifies whether the user is moving based on the movement speeds of a plurality of objects calculated by the object movement speed calculation unit 13022, and determines the user movement speed when the user is moving. calculate. When the user is moving, all the surrounding objects move relatively to the user. Therefore, it can be determined whether the object is moving or the user is moving based on the moving speeds of the plurality of objects. The user movement speed calculation unit 13026 outputs information indicating the calculated user movement speed to the virtual reality presentation interruption determination processing unit 11031.
仮想現実提示中断判定処理部11031は、画像解析処理部13020の各部より出力される各情報が、仮想現実提示中断条件記憶部13010に記憶される仮想現実提示中断条件を満たしているかを判定し、当該判定結果に基づいて仮想現実提示部11020に仮想現実提示の中断指示が行われることになる。 The virtual reality presentation interruption determination processing unit 11031 determines whether each information output from each unit of the image analysis processing unit 13020 satisfies a virtual reality presentation interruption condition stored in the virtual reality presentation interruption condition storage unit 13010, Based on the determination result, the virtual reality presentation unit 11020 is instructed to interrupt the virtual reality presentation.
例えば、仮想現実提示中断判定処理部11031は、図54の第1中断条件に従い、ユーザ移動速度算出部13026で求められたユーザの移動速度と、物体距離算出部13021で求められた各物体までの距離に基づいて、ユーザの移動方向の5m以内の位置に物体があるかを判定する。当該判定の結果、ユーザの移動方向の5m以内の位置に物体がある場合に、仮想現実の提示を中断すると判定する。 For example, the virtual reality presentation interruption determination processing unit 11031 follows the first interruption condition shown in FIG. 54 to obtain the user moving speed calculated by the user moving speed calculation unit 13026 and the objects calculated by the object distance calculation unit 13021. Based on the distance, it is determined whether there is an object at a position within 5 m of the user's moving direction. As a result of the determination, when there is an object at a position within 5 m of the user's moving direction, it is determined that the virtual reality presentation is interrupted.
また、例えば、仮想現実提示中断判定処理部11031は、図54の第2中断条件に従い、物体種類特定部13024で特定される各物体の種類と、物体距離算出部13021で求められる各物体までの距離とに基づいて、ユーザから3m以内の位置に人間がいるかを判定する。当該判定の結果、ユーザから3m以内の位置に人間がいる場合に、仮想現実の提示を中断すると判定する。 Further, for example, the virtual reality presentation interruption determination processing unit 11031 follows the second interruption condition of FIG. 54 to determine the type of each object specified by the object type specifying unit 13024 and the objects obtained by the object distance calculation unit 13021. Based on the distance, it is determined whether a person is present at a position within 3 m from the user. As a result of the determination, it is determined that the presentation of the virtual reality is interrupted when a person is present at a position within 3 m from the user.
また、例えば、仮想現実提示中断判定処理部11031は、図54の第3中断条件に従い、物体移動速度算出部13022で算出される物体の移動速度に基づいて、秒速10m以上の速度で移動している物体がユーザの周囲に存在するかを判定する。当該判定の結果、秒速10m以上の速度で移動している物体がユーザの周囲に存在する場合に、仮想現実の提示を中断すると判定する。 Further, for example, the virtual reality presentation interruption determination processing unit 11031 moves at a speed of 10 m / s or more based on the moving speed of the object calculated by the object moving speed calculation unit 13022 according to the third interruption condition of FIG. It is determined whether a certain object exists around the user. As a result of the determination, when an object moving at a speed of 10 m / s or more is present around the user, it is determined that the presentation of the virtual reality is interrupted.
また、例えば、仮想現実提示中断判定処理部11031は、図54の第4中断条件に従い、ユーザ移動速度算出部13026で算出されるユーザの移動速度に基づいて、ユーザが秒速3m以上で移動しているかを判定する。当該判定の結果、ユーザが秒速3m以上の移動速度で移動している場合に、仮想現実の提示を中断すると判定する。 Further, for example, the virtual reality presentation interruption determination processing unit 11031 follows the fourth interruption condition of FIG. 54, and the user moves at a speed of 3 m / s or more based on the user movement speed calculated by the user movement speed calculation unit 13026. It is determined whether or not. As a result of the determination, it is determined that the virtual reality presentation is interrupted when the user is moving at a moving speed of 3 m / s or more.
また、例えば、仮想現実提示中断判定処理部11031は、図54の第5中断条件に従い、ユーザ移動速度算出部13026で求められたユーザの移動速度と、物体距離算出部13021で求められた各物体までの距離に基づいて、ユーザの移動方向の5m以内の位置に段差があるかを判定する。物体特定部13023は、段差も物体として認識するため、当該判定が可能となる。当該判定の結果、ユーザの移動方向の5m以内の位置に段差がある場合に、仮想現実の提示を中断すると判定する。 Further, for example, the virtual reality presentation interruption determination processing unit 11031 follows the fifth interruption condition of FIG. 54, and the user moving speed obtained by the user moving speed calculating part 13026 and each object obtained by the object distance calculating part 13021. Whether or not there is a step at a position within 5 m in the moving direction of the user. Since the object specifying unit 13023 recognizes a step as an object, the determination can be performed. As a result of the determination, when there is a step at a position within 5 m of the user's moving direction, it is determined that the presentation of virtual reality is interrupted.
また、例えば、仮想現実提示中断判定処理部11031は、図54の第6中断条件に従い、 物体移動速度算出部13022で算出される物体の移動速度に基づいて、ユーザ方向への速度成分が秒速8m以上の速度で移動している物体がユーザの周囲に存在するかを判定する。例えば、速度が速くてもユーザの遠方でユーザに対して平行に高速度で走る車などが存在しても問題となる可能性は低いためである。当該判定の結果、ユーザ方向への速度成分が秒速8m以上の速度で移動している物体がユーザの周囲に存在する場合に、仮想現実の提示を中断すると判定する。 Further, for example, the virtual reality presentation interruption determination processing unit 11031 has a velocity component in the user direction of 8 m / s based on the object movement speed calculated by the object movement speed calculation unit 13022 in accordance with the sixth interruption condition of FIG. It is determined whether an object moving at the above speed exists around the user. For example, even if the speed is high, there is a low possibility of a problem even if there is a car that runs at a high speed parallel to the user at a distance from the user. As a result of the determination, it is determined that the presentation of the virtual reality is interrupted when there is an object around the user whose velocity component in the user direction is moving at a speed of 8 m / s or more.
また、例えば、仮想現実提示中断判定処理部11031は、図54の第7中断条件に従い、ユーザ移動速度算出部13026で算出されるユーザの移動速度と、物体距離算出部13021で算出される物体までの距離とに基づいて、ユーザ移動方向に5秒以内に到達する物体があるかを判定する。例えば、ユーザの前方近くに段差があってもユーザの移動速度が十分小さければ直近の障害となる可能性は低いし、一方、ユーザの前方の遠くに段差があってもユーザの移動速度が十分早ければ障害となる可能性があるためである。当該判定の結果、ユーザ移動方向に5秒以内に到達する物体がある場合に、仮想現実の提示を中断すると判定する。 For example, the virtual reality presentation interruption determination processing unit 11031 follows the seventh interruption condition of FIG. 54 until the user's movement speed calculated by the user movement speed calculation unit 13026 and the object calculated by the object distance calculation unit 13021. Based on the distance, it is determined whether there is an object that reaches the user movement direction within 5 seconds. For example, even if there is a step near the front of the user, if the user's moving speed is sufficiently low, it is unlikely that it will cause an immediate obstacle. This is because it may become an obstacle at the earliest. As a result of the determination, when there is an object that reaches the user movement direction within 5 seconds, it is determined that the presentation of the virtual reality is interrupted.
また、例えば、仮想現実提示中断判定処理部11031は、図54の第8中断条件に従い、物体移動速度算出部13022で求められた物体の移動速度と、物体距離算出部13021で求められた各物体までの距離に基づいて、ユーザ方向への移動速度成分が秒速3m以上の物体であって、ユーザからの距離が20m以内である物体が存在するかを判定する。このように複数の条件を併用して仮想現実の提示の中断を行うかどうかの判定が行われても良い。当該判定の結果、これらの条件を満たす物体がある場合に、仮想現実の提示を中断すると判定する。 Further, for example, the virtual reality presentation interruption determination processing unit 11031 follows the eighth interruption condition of FIG. 54, and the object movement speed obtained by the object movement speed calculation part 13022 and each object obtained by the object distance calculation part 13021. Is determined whether there is an object whose moving speed component in the user direction is 3 m or more per second and whose distance from the user is within 20 m. In this way, it may be determined whether or not to stop presenting virtual reality using a plurality of conditions in combination. As a result of the determination, if there is an object that satisfies these conditions, it is determined that the presentation of the virtual reality is interrupted.
なお、上述した判定条件や入力する情報の種類は一例であり、適宜変更が可能である。例えば、仮想現実提示システム13000は、図56に示す構成とすることも可能である。図56に示す仮想現実提示システム13000は、ユーザの状態を検知するユーザ状態検知部12010、音声を入力する音声入力部13030、ユーザの行動を特定するユーザ行動特定部13040、を備えることを特徴とする。 Note that the above-described determination conditions and types of information to be input are examples, and can be changed as appropriate. For example, the virtual reality presentation system 13000 can be configured as shown in FIG. The virtual reality presentation system 13000 shown in FIG. 56 includes a user state detection unit 12010 that detects a user state, a voice input unit 13030 that inputs voice, and a user behavior specification unit 13040 that specifies user behavior. To do.
図56に示す仮想現実提示システム13000では、ユーザ状態検知部12010は、ユーザ位置検出部12013と、ユーザ移動速度検知部12014と、ユーザ方位検出部12015とを備える。 In the virtual reality presentation system 13000 illustrated in FIG. 56, the user state detection unit 12010 includes a user position detection unit 12013, a user movement speed detection unit 12014, and a user orientation detection unit 12015.
ユーザ位置検出部12013は、例えばユーザが装着する仮想現実提示装置に設置されたGPS受信機であって、定期的にユーザの現在位置を検出して現在位置情報を生成する。ユーザ位置検出部12013は、ユーザの現在位置を示す現在位置情報を仮想現実提示中断判定処理部11031に出力する。 The user position detection unit 12013 is a GPS receiver installed in a virtual reality presentation device worn by the user, for example, and periodically detects the current position of the user and generates current position information. The user position detection unit 12013 outputs current position information indicating the current position of the user to the virtual reality presentation interruption determination processing unit 11031.
ユーザ移動速度検知部12014は、ユーザの移動速度を検知する。ユーザ移動速度検知部12014は、ユーザが装着する仮想現実提示装置に設置された加速度センサ等で得られる加速度情報に基づいて移動速度を検知しても良いし、ユーザ位置検出部12014で検出されるユーザの現在位置の差分から移動速度を検知しても良い。 The user moving speed detection unit 12014 detects the moving speed of the user. The user movement speed detection unit 12014 may detect the movement speed based on acceleration information obtained by an acceleration sensor or the like installed in a virtual reality presentation device worn by the user, or may be detected by the user position detection unit 12014. You may detect a moving speed from the difference of a user's present position.
このように、図56に示す仮想現実提示システム13000は、図55に示す仮想現実提示システム13000と比較して画像解析処理とは異なる方法でユーザの移動速度を取得する。ユーザ移動速度検知部12014は、検知したユーザの移動速度を示す情報を仮想現実提示中断判定処理部11031に出力する。 As described above, the virtual reality presentation system 13000 illustrated in FIG. 56 acquires the moving speed of the user by a method different from the image analysis processing as compared with the virtual reality presentation system 13000 illustrated in FIG. The user moving speed detection unit 12014 outputs information indicating the detected moving speed of the user to the virtual reality presentation interruption determination processing unit 11031.
ユーザ方位検出部12015は、ユーザの向いている方向(方位)を検出する。ユーザ方位検出部12015は、例えば、ユーザが装着する仮想現実提示装置に取り付けられた方位磁石等で構成しても良いし、加速度センサで検知される加速度情報に基づいて、ユーザの方向を検出しても良い。ユーザ方位検出部12015は、検出したユーザの方向を示す情報を仮想現実提示中断判定処理部11031に出力する。 The user orientation detection unit 12015 detects the direction (azimuth) that the user is facing. The user orientation detection unit 12015 may be configured by, for example, an orientation magnet attached to a virtual reality presentation device worn by the user, or detects the user direction based on acceleration information detected by an acceleration sensor. May be. The user orientation detection unit 12015 outputs information indicating the detected user direction to the virtual reality presentation interruption determination processing unit 11031.
音声入力部13030は、周囲の音声を入力する。具体的には、音声入力部13030は、ユーザが装着する仮想現実提示装置に設置されているマイクロフォンとすることができる。 The voice input unit 13030 inputs ambient voice. Specifically, the voice input unit 13030 can be a microphone installed in a virtual reality presentation device worn by the user.
ユーザ行動特定部13040は、周囲状況検知部11010で検知されるユーザの周囲の状況や、音声入力部13030で入力される音声、また、必要に応じてユーザ状態検知部12010で検知されるユーザの状態等に基づいてユーザが現在行っている行動を特定する。 The user action specifying unit 13040 is a user's surroundings detected by the surrounding state detection unit 11010, a voice input by the voice input unit 13030, and a user state detected by the user state detection unit 12010 as necessary. Based on the state or the like, the action that the user is currently performing is specified.
例えば、ユーザ行動特定部13040は、周囲状況検知部11010で取得される周囲景色画像に車のハンドルが写っており、音声入力部13030で入力される音声に車のエンジン音が含まれている場合に、ユーザは車を運転していると特定する。その他、ユーザが通勤している、寝ている、休憩している、仕事をしている、など、ユーザの行動を特定する。ユーザ行動特定部13040は、特定したユーザの行動を示す情報を、仮想現実提示中断判定処理部11031に出力する。 For example, the user action specifying unit 13040 includes a car handle in the surrounding scene image acquired by the surrounding state detection unit 11010, and the voice input by the voice input unit 13030 includes a car engine sound. In addition, the user specifies that he is driving a car. In addition, the user's behavior such as the user commuting, sleeping, resting, or working is specified. The user action specifying unit 13040 outputs information indicating the specified user action to the virtual reality presentation interruption determination processing unit 11031.
仮想現実提示中断判定処理部11031は、図54の第9中断条件に従い、ユーザ位置検出部12013で検出された現在位置が、仮想現実の提示ができない位置範囲であるかを判定する。例えば、駅のホームでは仮想現実の提示が禁止されている場合、当該駅のホームの位置範囲が中断条件として記憶されることになる。図54では、ユーザの現在位置のGPS座標が、緯度38.121〜38.253、経度135.124〜135.131の範囲内である場合に、仮想現実の提示を中断すると判定する。 The virtual reality presentation interruption determination processing unit 11031 determines whether or not the current position detected by the user position detection unit 12013 is a position range where virtual reality cannot be presented according to the ninth interruption condition of FIG. For example, when virtual reality presentation is prohibited at a station platform, the location range of the station platform is stored as an interruption condition. In FIG. 54, when the GPS coordinates of the current position of the user are within the ranges of latitudes 38.121 to 38.253 and longitudes 135.124 to 135.131, it is determined that the presentation of the virtual reality is interrupted.
また、例えば、仮想現実提示中断判定処理部11031は、図54の第10中断条件に従い、ユーザ行動特定部13040で特定されたユーザの現在の行動が車を運転していると言う行動であった場合に、仮想現実の提示を中断すると判定する。 Further, for example, the virtual reality presentation interruption determination processing unit 11031 is an action that the current action of the user specified by the user action specifying part 13040 is driving a car according to the tenth interruption condition of FIG. In this case, it is determined that the presentation of the virtual reality is interrupted.
なお、仮想現実提示中断条件記憶部13010が記憶する仮想現実提示中断条件は、ユーザに提示されている仮想現実の種類に応じて適宜選択される構成とすると良い。 The virtual reality presentation interruption condition stored in the virtual reality presentation interruption condition storage unit 13010 may be appropriately selected according to the type of virtual reality presented to the user.
例えば、「ドラゴンと戦う」と言った内容の仮想現実が提示されているユーザは、体を動かすことが想定されるため、近くに人間がいると問題になることがある。そこで、仮想現実提示中断判定処理部11031は、上記第2中断条件に基づく判定を行う。一方、「家の中に花瓶を飾る」と言った内容の仮想現実が提示されているユーザは、近くに他人がいても問題となる可能性は低い。そこで、仮想現実提示中断判定処理部11031は、上記第2中断条件に基づく判定は行わない。 For example, a user who is presented with a virtual reality of the content of “fighting a dragon” is assumed to move his body, so there may be a problem if there is a person nearby. Therefore, the virtual reality presentation interruption determination processing unit 11031 performs determination based on the second interruption condition. On the other hand, it is unlikely that a user who is presented with a virtual reality of the content “decorate a vase in the house” will be a problem even if there are others nearby. Therefore, the virtual reality presentation interruption determination processing unit 11031 does not perform determination based on the second interruption condition.
このように、各中断条件は、ユーザに提示される仮想現実の種類に応じて決定される構成とすると更に良好である。この場合、仮想現実提示システム13000は、図57の構成を取ることが好ましい。図57に示す仮想現実提示システム13000は、仮想現実管理制御部13050を備える。 Thus, it is even better if each interruption condition is determined according to the type of virtual reality presented to the user. In this case, the virtual reality presentation system 13000 preferably has the configuration shown in FIG. The virtual reality presentation system 13000 shown in FIG. 57 includes a virtual reality management control unit 13050.
仮想現実管理制御部13050は、仮想現実提示部11020が提示する仮想現実の管理や制御を行う。仮想現実管理制御部13050はユーザからの要求等に基づいて、ユーザに提供する仮想現実サービスを決定し、仮想現実提示部11020に当該決定した仮想現実サービスに係る仮想現実を提示するように指示する。 The virtual reality management control unit 13050 performs management and control of the virtual reality presented by the virtual reality presenting unit 11020. Based on a request from the user, the virtual reality management control unit 13050 determines a virtual reality service to be provided to the user, and instructs the virtual reality presenting unit 11020 to present the virtual reality related to the determined virtual reality service. .
また、仮想現実管理制御部13050は、仮想現実提示部11020が提示している仮想現実に係る仮想現実サービスを識別する仮想現実サービス識別番号を仮想現実提示中断判定処理部11031に通知する。 In addition, the virtual reality management control unit 13050 notifies the virtual reality presentation interruption determination processing unit 11031 of a virtual reality service identification number for identifying the virtual reality service related to the virtual reality presented by the virtual reality presenting unit 11020.
各仮想現実サービスには、判定に用いられる中断条件が対応付けられている。図58は、各仮想現実サービスと中断条件との対応関係を管理する管理ファイルである。仮想現実提示中断判定処理部11031は、仮想現実管理制御部13050より仮想現実提示部11020で提示される仮想現実に係る仮想現実サービスを識別する情報を入力した場合、当該管理ファイルを参照して判定処理に用いる中断条件を特定する。例えば、仮想現実サービスがNo:VRS0001で識別される仮想現実サービスである場合は、第1中断条件と第3中断条件を満たしているかどうかの判定処理を行う。このように、提示される仮想現実に応じて適宜判定に用いられる中断条件が選択される構成とすることで不要に中断を発生させることなく、適切な中断処理を行うことが可能となる。 Each virtual reality service is associated with an interruption condition used for determination. FIG. 58 is a management file for managing the correspondence between each virtual reality service and the interruption condition. When the virtual reality presentation interruption determination processing unit 11031 receives information identifying the virtual reality service related to the virtual reality presented by the virtual reality presentation unit 11020 from the virtual reality management control unit 13050, the virtual reality presentation interruption determination processing unit 11031 makes a determination with reference to the management file. Identify the interruption conditions used for processing. For example, when the virtual reality service is a virtual reality service identified by No: VRS0001, a determination process is performed to determine whether the first interruption condition and the third interruption condition are satisfied. As described above, by adopting a configuration in which the interruption condition used for the determination is appropriately selected according to the presented virtual reality, it is possible to perform appropriate interruption processing without causing unnecessary interruption.
また、判定処理に用いられる各中断条件は、仮想現実の提示を受けているユーザに応じて決定される構成とすると更に良好である。各ユーザは予め中断条件を設定しておき、仮想現実提示中断判定処理部11031は、当該ユーザ毎に定まる中断条件を用いて当該ユーザに提示されている仮想現実を中断するかを判定する。このように構成されていても良い。 Further, it is even better if each interruption condition used in the determination process is determined according to the user receiving the virtual reality presentation. Each user sets an interruption condition in advance, and the virtual reality presentation interruption determination processing unit 11031 determines whether to interrupt the virtual reality presented to the user by using an interruption condition determined for each user. It may be configured in this way.
(実施形態11)
仮想現実提示システムを使用しているユーザは、現実の世界とは異なる仮想現実の世界を感知している。この時、ユーザは、自身が感知している世界が人工的に創り出された仮想現実の世界であると疑念を抱いている場合もあれば、現実の世界であると完全に錯覚している場合もある。
(Embodiment 11)
A user using the virtual reality presentation system senses a virtual reality world different from the real world. At this time, the user may be suspicious that the world that he or she perceives is an artificially created virtual reality world, or the user may have the complete illusion that it is a real world There is also.
このことは、仮想現実の提示を受けているユーザがどの程度自身が感知している世界が現実の世界を感知していると錯覚しているかの度合いを示す錯覚度と言う概念を導入することができる。 This introduces the concept of an illusion degree that indicates the degree to which a user receiving virtual reality is perceived as to the extent that the world they perceive is perceiving the real world. Can do.
仮想現実の提示を受けているにも関わらずユーザが自身の感知している世界が現実の世界であると完全に信じきっている場合は、錯覚度が100となる。一方、仮想現実の提示を受けているユーザが、自身が感知している世界が人工的に創り出された仮想現実の世界であることを理解しており、自身が感知しているどの部分が人工的な部分でどの部分が現実の部分であるかを明確に判別可能な状態で認識している場合は、錯覚度は0となる。図59に示すように、仮想現実の提示を受けているユーザは、連続的なこの錯覚度のいずれかの状態に置かれていることになる。 In the case where the user completely believes that the world that the user senses is the real world even though the virtual reality is presented, the illusion degree is 100. On the other hand, the user receiving the presentation of virtual reality understands that the world that he / she senses is a virtual reality world created artificially, and what part he / she senses is artificial. When it is recognized in a state where it can be clearly discriminated which part is a real part, the illusion degree is zero. As shown in FIG. 59, the user who is receiving the presentation of virtual reality is placed in any state of this continuous illusion.
実施形態8〜10で示した仮想現実中断機能は、所定の事由が発生した場合に、ユーザの錯覚度を瞬間的に0に戻し、ユーザを仮想現実の世界から現実の世界に引き戻す処理を行っていることと等価であると言える。 The virtual reality interruption function shown in the eighth to tenth embodiments performs processing to instantaneously return the user's illusion to 0 and pull the user back from the virtual reality world to the real world when a predetermined event occurs. It can be said that it is equivalent to
図60はユーザの錯覚度の時間変化を示している。T0で仮想現実の提示が開始され、T1で仮想現実の提示の中断が、T2で仮想現実の提示の再開が行われた場合を示している。仮想現実の提示が開始されたT0付近では、ユーザは新たに現れた仮想現実オブジェクトで表される物体や人物の存在に違和感を抱くためユーザの錯覚度は低い。しかしながら、時間の経過と共に、当該仮想現実オブジェクトで表される人物等がユーザの動作と連動するように制御され、現実の世界と溶け込むように挙動することで、ユーザは当該仮想現実オブジェクトで表されている人物等が人工的に創り出されている仮想現実オブジェクトであると言うことを忘れ、あたかもそれが現実の人物等であると錯覚しだすようになる。すなわち、錯覚度が上昇していく。 FIG. 60 shows temporal changes in the illusion degree of the user. The virtual reality presentation is started at T0, the virtual reality presentation is interrupted at T1, and the virtual reality presentation is resumed at T2. In the vicinity of T0 where the presentation of virtual reality is started, the user has a sense of incongruity in the presence of an object or a person represented by a newly appearing virtual reality object, so the user's illusion is low. However, with the passage of time, the person represented by the virtual reality object is controlled so as to be interlocked with the user's action and behaves so as to merge with the real world, so that the user is represented by the virtual reality object. Forgetting to say that a person or the like is a virtual reality object that has been artificially created, it becomes as if it is a real person. That is, the illusion degree increases.
ここで、中断事由に付き、T1のタイミングで仮想現実オブジェクトの映像表示が中断されると、ユーザは直ちに現在見ていた仮想現実オブジェクトで表される人物等が、現実の世界のものではなく、人工的に創り出された仮想現実オブジェクトであったことを認識し、錯覚度が0に落ち込む。T2で仮想現実の提示が再開されたとしても、ユーザの錯覚度は下がってしまっていることに加え、再度感知するようになる人物等が仮想現実オブジェクトであると明確に認識してしまっているため、錯覚度がなかなか上がっていかないと言うことになる。 Here, if the video display of the virtual reality object is interrupted at the timing of T1 due to the interruption reason, the user immediately represented by the virtual reality object that is currently viewed is not in the real world, Recognizing that the object was an artificially created virtual reality object, the illusion degree falls to zero. Even if the presentation of virtual reality is resumed at T2, in addition to the user's illusion being reduced, the person who will perceive again is clearly recognized as a virtual reality object. Therefore, it will be said that the degree of illusion does not go up easily.
仮想現実提示システムは、ユーザを現実の世界とは異なる仮想現実の世界に入り込ませることで、現実の世界では物理的制約や社会的制約によって実現不可能な世界を堪能させることを主目的としているため、ユーザの錯覚度が高い状態を維持できることが好ましい。しかしながら、上記仮想現実の中断が頻繁に行われるとユーザの錯覚度が一向に上がらず、ユーザが仮想現実の世界に入り込むと言ったことができないと言う課題が発生していた。 The main purpose of the virtual reality presentation system is to allow the user to enter a virtual reality world that is different from the real world, and to enjoy a world that cannot be realized in the real world due to physical and social constraints. For this reason, it is preferable that a state where the illusion degree of the user is high can be maintained. However, if the virtual reality is frequently interrupted, the illusion of the user does not increase at all, and there is a problem that it cannot be said that the user enters the virtual reality world.
このような課題を鑑み、本実施形態11に係る仮想現実提示システムでは、仮想現実の世界を感知しているユーザの行動が現実の世界に与える影響を考慮しつつ、ユーザが仮想現実の世界を体感し続けることを可能とすることを特徴としている。 In view of such a problem, in the virtual reality presentation system according to the eleventh embodiment, the user moves the virtual reality world while taking into consideration the influence of the action of the user sensing the virtual reality world on the real world. It is characterized by being able to continue to experience it.
図61は、本実施形態11に係る仮想現実提示システム14000の構成を示すブロック図である。仮想現実提示システム14000は、周囲状況検知部11010と、仮想現実提示部11020と、ユーザ状態検知部12010と、注意喚起制御部14010と、を備える。周囲状況検知部11010は、ユーザの周囲の状況を検知し、ユーザ状態検知部12010は、ユーザの現在の状態を検知する。 FIG. 61 is a block diagram illustrating a configuration of a virtual reality presentation system 14000 according to the eleventh embodiment. The virtual reality presentation system 14000 includes an ambient condition detection unit 11010, a virtual reality presentation unit 11020, a user state detection unit 12010, and an alerting control unit 14010. The surrounding state detection unit 11010 detects a state around the user, and the user state detection unit 12010 detects the current state of the user.
仮想現実提示部11020は、映像生成処理部11021と、映像表示部11022と、音声出力部11023と、を備える。映像生成処理部11021は、ユーザ状態検知部12010で検知されるユーザの現在の状態に基づいて仮想現実提示用の映像を生成する。映像表示部11022は、映像生成処理部11021で生成された映像を表示する。音声出力部11023は、映像生成処理部11021が生成する仮想現実用の映像と対応する音声を出力する。 The virtual reality presentation unit 11020 includes a video generation processing unit 11021, a video display unit 11022, and an audio output unit 11023. The video generation processing unit 11021 generates a virtual reality presentation video based on the current state of the user detected by the user state detection unit 12010. The video display unit 11022 displays the video generated by the video generation processing unit 11021. The audio output unit 11023 outputs audio corresponding to the virtual reality video generated by the video generation processing unit 11021.
注意喚起制御部14010は、周囲状況検知部11010で検知されたユーザの周囲の状況に基づいて、映像表示部11022又は音声出力部11023を用いてユーザに注意喚起を行う。 The alerting control unit 14010 alerts the user using the video display unit 11022 or the audio output unit 11023 based on the surroundings of the user detected by the surroundings state detection unit 11010.
例えば、注意喚起制御部14010は、注意喚起用の映像を映像表示部11022に表示させることで注意喚起を行う。この時、映像表示部11022は、映像生成処理部11021で生成される仮想現実用の映像と注意喚起用の映像とを多重して表示することで、仮想現実の提示を中断することなくユーザに注意喚起を行う。 For example, the alerting control unit 14010 alerts the user by displaying an alerting video on the video display unit 11022. At this time, the video display unit 11022 multiplexes and displays the virtual reality video generated by the video generation processing unit 11021 and the video for alerting to the user without interrupting the presentation of the virtual reality. Call attention.
また、例えば、注意喚起制御部14010は、注意喚起用の音声を音声出力部11023に出力させることで注意喚起を行う。この時、音声出力部11023は、仮想現実提示用の音声とと注意喚起用の音声とを多重して出力することで、仮想現実の提示を中断することなくユーザに注意喚起を行う。 Further, for example, the alerting control unit 14010 performs alerting by causing the audio output unit 11023 to output alerting sound. At this time, the voice output unit 11023 alerts the user without interrupting the presentation of the virtual reality by multiplexing and outputting the voice for virtual reality presentation and the voice for alerting.
以上のように、本実施形態11に係る仮想現実提示システム14000によれば、仮想現実の提示を中断することなく、現実の世界における状況に基づく注意喚起をユーザに与える。従って、ユーザの錯覚度を大きく下げることなく、ユーザの行動が現実の世界に与える影響を制御することが可能となる。 As described above, according to the virtual reality presentation system 14000 according to the eleventh embodiment, the user is alerted based on the situation in the real world without interrupting the presentation of the virtual reality. Accordingly, it is possible to control the influence of the user's behavior on the real world without greatly reducing the illusion of the user.
図62は、注意喚起が行われている場合において、現実の世界の景色と、映像表示部11022で表示される映像と、ユーザが感知する景色との時間変化を示している。ユーザの頭部の回転に伴って、タイミングT3より仮想現実オブジェクトである犬の映像が表示され始める。T5のタイミングで注意喚起用の映像が表示されることで注意喚起が行われるが、仮想現実オブジェクトの映像は表示され続ける。従って、注意喚起が行われた状態であっても、ユーザは仮想現実オブジェクトで示される犬がソファーに寝そべっているという仮想現実の世界を感知し続けることになる。 FIG. 62 shows a temporal change between a real world landscape, a video displayed on the video display unit 11022, and a landscape perceived by the user in a case where attention is given. As the user's head rotates, the video of the dog, which is a virtual reality object, starts to be displayed at timing T3. Attention is performed by displaying a video for alerting at the timing of T5, but the video of the virtual reality object continues to be displayed. Therefore, even in the state where the alert is performed, the user continues to sense the virtual reality world where the dog indicated by the virtual reality object is lying on the sofa.
なお、本実施形態11に係る仮想現実提示システム14000は、図63に示す構成とすると更に良好である。図63に示す仮想現実提示システム14000は、周囲状況検知部11010と、仮想現実提示部11020と、ユーザ状態検知部12010と、仮想現実オブジェクト記憶部12020と、仮想現実オブジェクト配置部12030と、仮想現実提示用音声データ記憶部12050と、注意喚起制御部14010と、注意喚起用映像データ記憶部4020と、注意喚起用音声データ記憶部4030と、を備える。 Note that the virtual reality presentation system 14000 according to the eleventh embodiment is more favorable when configured as shown in FIG. A virtual reality presentation system 14000 shown in FIG. 63 includes an ambient state detection unit 11010, a virtual reality presentation unit 11020, a user state detection unit 12010, a virtual reality object storage unit 12020, a virtual reality object placement unit 12030, a virtual reality The audio data storage unit for presentation 12050, the alerting control unit 14010, the video data storage unit for alerting 4020, and the alerting audio data storage unit 4030 are provided.
注意喚起用映像データ記憶部4020は、注意喚起用の映像データを記憶する。また、注意喚起用音声データ記憶部4030は、注意喚起用の音声データを記憶する。 The alerting video data storage unit 4020 stores alerting video data. The alerting voice data storage unit 4030 stores alerting voice data.
仮想現実提示部11020は、映像生成処理部11021と、映像表示部11022と、音声出力部11023を備える。映像表示部11022は、映像表示制御部11022−1と表示パネル11022−2とを備える。音声出力部11023は、音声再生制御部11023−1とスピーカ11023−2とを備える。映像表示制御部11022−1及び音声再生制御部11023−1は、それぞれ注意喚起制御部14010からの指示に従って、それぞれ注意喚起用映像データ記憶部4020と注意喚起用音声データ記憶部4030より注意喚起用の映像データと音声データを読み出して表示及び出力を行う。 The virtual reality presentation unit 11020 includes a video generation processing unit 11021, a video display unit 11022, and an audio output unit 11023. The video display unit 11022 includes a video display control unit 11022-1 and a display panel 11022-2. The audio output unit 11023 includes an audio reproduction control unit 11023-1 and a speaker 11023-2. The video display control unit 11022-1 and the audio reproduction control unit 11023-1 are for alerting from the alerting video data storage unit 4020 and the alerting voice data storage unit 4030, respectively, in accordance with instructions from the alerting control unit 14010. The video data and audio data are read out and displayed and output.
図64は、仮想現実提示部11020の具体的構成を示すブロック図である。当該仮想現実提示部11020において、映像表示制御部11022−1は、映像データ読み出し部11022−1aと、映像多重処理部11022−1bと、を備える。 FIG. 64 is a block diagram showing a specific configuration of the virtual reality presentation unit 11020. In the virtual reality presenting unit 11020, the video display control unit 11022-1 includes a video data reading unit 11022-1a and a video multiplex processing unit 11022-1b.
映像データ読み出し部11022−1aは、注意喚起制御部14010より注意喚起指示を受けると、注意喚起用映像データ記憶部4020より注意喚起用映像データを読み出し、映像多重処理部11022−1bに出力する。 When the video data reading unit 11022-1a receives a warning instruction from the warning control unit 14010, the video data reading unit 11022-1a reads the video data for calling attention from the video data storage unit 4020 for calling attention and outputs it to the video multiplexing processing unit 11022-1b.
映像多重処理部11022−1bは、映像生成処理部11021で生成される仮想現実オブジェクトの映像と、映像データ読み出し部11022−1aで読み出された注意喚起用の映像とを重ねる多重化処理を行い、多重後の映像を表示パネル11022−2で表示する。 The video multiplex processing unit 11022-1b performs a multiplexing process of superimposing the video of the virtual reality object generated by the video generation processing unit 11021 and the alerting video read by the video data reading unit 11022-1a. The multiplexed video is displayed on the display panel 11022-2.
また、音声再生制御部11023−1は、音声データ読み出し部11023−1aと、DA変換処理部11023−1bと、音声多重処理部11023−1cと、を備える。 The audio reproduction control unit 11023-1 includes an audio data reading unit 11023-1a, a DA conversion processing unit 11023-1b, and an audio multiplex processing unit 11023-1c.
音声データ読み出し部11023−1aは、仮想現実提示用音声データ記憶部12050に記憶されている仮想現実提示用音声データを読み出す。音声データ読み出し部11023−1aは、仮想現実オブジェクト配置部12030が仮想空間に配置している仮想現実オブジェクトに関連付けられた仮想現実提示用音声データを読み出し、DA変換処理部11023−1bに出力する。 The audio data reading unit 11023-1a reads the virtual reality presentation audio data stored in the virtual reality presentation audio data storage unit 12050. The audio data reading unit 11023-1a reads the virtual reality presentation audio data associated with the virtual reality object arranged in the virtual space by the virtual reality object arrangement unit 12030, and outputs it to the DA conversion processing unit 11023-1b.
また、音声データ読み出し部11023−1aは、注意喚起制御部14010より注意喚起指示を受けると、注意喚起用音声データ記憶部4030より注意喚起用音声データを読み出し、DA変換処理部11023−1bに出力する。 In addition, when the voice data reading unit 11023-1a receives a warning instruction from the warning control unit 14010, the voice data reading unit 11023-1a reads the warning data from the warning voice data storage unit 4030 and outputs it to the DA conversion processing unit 11023-1b. To do.
DA変換処理部11023−1bは、音声データ読み出し部11023−1aで読み出された仮想現実提示用音声データと、注意環境音声データとをそれぞれデジタル音声データからアナログの音声信号に変換する処理を行う。変換されたアナログ音声信号は、音声多重処理部11023−1cに出力される。 The DA conversion processing unit 11023-1b performs processing for converting the virtual reality presentation audio data read by the audio data reading unit 11023-1a and the attention environment audio data from digital audio data to analog audio signals, respectively. . The converted analog audio signal is output to the audio multiplex processing unit 11023-1c.
音声多重処理部11023−1cは、アナログ音声信号に変換された仮想現実用音声と注意喚起用音声とを重ねる多重化処理を行う。音声多重処理部11023−1cで重ね合された音声はスピーカ11023−2より外部へ放音される。 The sound multiplex processing unit 11023-1c performs a multiplexing process in which the virtual reality sound converted into the analog sound signal and the alerting sound are overlapped. The sound superimposed by the sound multiplex processing unit 11023-1c is emitted to the outside from the speaker 11023-2.
なお、より好ましくは、仮想現実オブジェクト配置部12030が仮想空間に配置している仮想現実オブジェクトの配置位置座標とユーザ状態検知部12010が検知するユーザ状態に基づいて求まるユーザ位置とに基づいて、仮想現実提示用音声を複数のチャンネルに重み付けして分配する音声分配処理部を備える構成とすることが好ましい。この場合、注意喚起用音声は、ユーザ状態や仮想現実オブジェクトの配置位置に関係なく、複数のチャンネルに均等に分配する構成とすることができる。 More preferably, based on the placement position coordinates of the virtual reality object placed in the virtual space by the virtual reality object placement unit 12030 and the user position obtained based on the user state detected by the user state detection unit 12010, It is preferable to include a voice distribution processing unit that weights and distributes the actual presentation voice to a plurality of channels. In this case, the alerting sound can be evenly distributed to a plurality of channels regardless of the user state and the arrangement position of the virtual reality object.
(実施形態12)
ユーザに対する仮想現実の提示を行う場合は、他人が感知している現実の世界とは異なる仮想現実の世界をユーザが感知している一方で、ユーザの行動は、仮想現実の世界だけではなく現実の世界にも影響を与える。従って、当該仮想現実の提示を行う仮想現実提示システムが、ユーザの行動が現実の世界で与える影響を考慮しつつ、仮想現実の提示に関する全体制御を行うことが好ましい。
Embodiment 12
When presenting virtual reality to the user, the user perceives a virtual reality world that is different from the real world that others are sensing, while the user's behavior is not only the virtual reality world, Also affects the world. Therefore, it is preferable that the virtual reality presentation system that presents the virtual reality performs overall control regarding the presentation of the virtual reality while considering the influence of the user's action in the real world.
図65は、本実施形態12に係る仮想現実提示システム15000の構成を示すブロック図である。仮想現実提示システム15000は、仮想現実提示システム10000は、周囲状況検知部11010と、仮想現実提示部11020と、画像解析処理部13020と、注意喚起制御部14010と、注意喚起条件記憶部15010と、を備える。 FIG. 65 is a block diagram illustrating a configuration of a virtual reality presentation system 15000 according to the twelfth embodiment. The virtual reality presentation system 15000 is the same as the virtual reality presentation system 10000, the surrounding state detection unit 11010, the virtual reality presentation unit 11020, the image analysis processing unit 13020, the alerting control unit 14010, the alerting condition storage unit 15010, Is provided.
本実施形態12に係る仮想現実提示システム15000において、周囲状況検知部11010は、少なくともユーザの周囲を撮影して周囲景色画像を取得する周囲撮影部1011を備える。周囲撮影部1011は、具体的には、ユーザが装着するHMD装置等の仮想現実提示装置に取り付けられたカメラに該当する。当該仮想現実提示装置には、少なくとも複数のカメラが周囲撮影部1011として設置されている。周囲撮影部1011で取得された周囲景色画像は周囲状況情報として画像解析処理部13020に出力される。 In the virtual reality presentation system 15000 according to the twelfth embodiment, the surrounding state detection unit 11010 includes a surrounding photographing unit 1011 that photographs at least the surroundings of the user and acquires a surrounding scenery image. Specifically, the ambient photographing unit 1011 corresponds to a camera attached to a virtual reality presentation device such as an HMD device worn by a user. In the virtual reality presentation device, at least a plurality of cameras are installed as the surrounding photographing unit 1011. The surrounding scenery image acquired by the surrounding photographing unit 1011 is output to the image analysis processing unit 13020 as surrounding state information.
画像解析処理部13020は、周囲撮影部1011で撮影されたユーザの周囲の景色が写っている周囲景色画像を解析して所定の情報を抽出する処理を行う。本実施形態12に係る仮想現実提示システム15000において、画像解析処理部13020は、物体距離算出部13021と、物体移動速度算出部13022とを備える。 The image analysis processing unit 13020 performs a process of extracting predetermined information by analyzing the surrounding scenery image in which the surrounding scenery of the user taken by the surrounding photographing unit 1011 is captured. In the virtual reality presentation system 15000 according to the twelfth embodiment, the image analysis processing unit 13020 includes an object distance calculation unit 13021 and an object moving speed calculation unit 13022.
物体距離算出部13021は、周囲景色画像に写っている物体の位置を特定する。具体的には、物体距離算出部13021は、周囲景色画像における隣接画素又は隣接ブロックの色差信号や輝度信号等を比較することで、当該周囲景色画像に写っている複数の物体の境界を特定し、特定した物体をラベリングする。物体距離算出部13021は、仮想現実提示装置に設置されている複数の周囲撮影部1011で取得された周囲景色画像について当該境界判定処理及びラベリング処理を行う。物体距離算出部13021は、同一のラベルが付与された物体の画像内位置の差分に基づいて、当該物体までの距離を算出する。ここで、物体距離算出部13021は、当該物体の位置座標を算出する構成とすると更に良好である。物体距離算出部13021は、算出した物体までの距離に関する情報を、物体移動速度算出部13022と、注意喚起制御部14010の注意喚起判定処理部14011に出力する。 The object distance calculation unit 13021 specifies the position of the object shown in the surrounding scenery image. Specifically, the object distance calculation unit 13021 identifies boundaries of a plurality of objects shown in the surrounding scene image by comparing color difference signals, luminance signals, and the like of adjacent pixels or blocks in the surrounding scene image. Label the identified object. The object distance calculation unit 13021 performs the boundary determination process and the labeling process on the surrounding scene image acquired by the plurality of surrounding photographing units 1011 installed in the virtual reality presentation device. The object distance calculation unit 13021 calculates the distance to the object based on the difference between the positions in the image of the object with the same label. Here, the object distance calculation unit 13021 is more preferably configured to calculate the position coordinates of the object. The object distance calculation unit 13021 outputs information related to the calculated distance to the object to the object moving speed calculation unit 13022 and the attention determination processing unit 14011 of the attention control unit 14010.
物体移動速度算出部13022は、物体距離算出部13021で算出された物体までの距離の時間変化に基づいて、当該物体のユーザ方向への移動速度を算出する。なお、物体距離算出部13021が、周囲景色画像に写る各物体の位置座標を求める物体位置特定部として機能する場合は、物体移動速度算出部13022は、当該物体の位置座標の時間変化に基づいて、当該物体の移動ベクトルを算出する構成とすると更に良好である。物体移動速度算出部13022は、周囲景色画像に写る物体の移動速度及び移動方向を算出する。物体移動速度算出部13022は、算出した物体の移動速度を注意喚起制御部14010の注意喚起判定処理部14011に出力する。物体移動速度算出部13022が当該物体の移動ベクトルを算出する構成である場合は、物体移動速度算出部13022は、注意喚起制御部14010の注意喚起判定処理部14011に算出した移動速度及び移動方向を示す情報を出力する。 The object moving speed calculation unit 13022 calculates the moving speed of the object in the user direction based on the temporal change in the distance to the object calculated by the object distance calculation unit 13021. When the object distance calculation unit 13021 functions as an object position specifying unit that obtains the position coordinates of each object that appears in the surrounding scenery image, the object moving speed calculation unit 13022 is based on the time change of the position coordinates of the object. It is even better if the movement vector of the object is calculated. The object moving speed calculation unit 13022 calculates the moving speed and moving direction of the object shown in the surrounding scenery image. The object moving speed calculation unit 13022 outputs the calculated moving speed of the object to the attention determination processing unit 14011 of the attention control unit 14010. When the object movement speed calculation unit 13022 is configured to calculate the movement vector of the object, the object movement speed calculation unit 13022 uses the movement speed and movement direction calculated by the attention determination processing unit 14011 of the attention control unit 14010. The information shown is output.
注意喚起条件記憶部15010は、仮想現実の提示を注意喚起する条件である注意喚起条件を記憶する。図66は、注意喚起条件の一例を示している。注意喚起条件として、複数の条件が注意喚起条件記憶部15010に記憶されている。 The alerting condition storage unit 15010 stores alerting conditions that are conditions for alerting the presentation of virtual reality. FIG. 66 shows an example of an alerting condition. A plurality of conditions are stored in the alert condition storage unit 15010 as alert conditions.
ここで、注意喚起条件記憶部15010が記憶する注意喚起条件には、上述した仮想現実提示中断条件記憶部13010が記憶する仮想現実提示中断条件と比較して緩い条件が設定されている。 Here, in the alerting condition stored in the alerting condition storage unit 15010, a looser condition is set as compared with the virtual reality presentation suspension condition stored in the virtual reality presentation suspension condition storage unit 13010 described above.
注意喚起制御部14010は、注意喚起判定処理部14011と、注意喚起指示部14012と、を備える。 The alerting control unit 14010 includes an alerting determination processing unit 14011 and an alerting instruction unit 14012.
注意喚起判定処理部14011は、周囲状況検知部11010で検知されたユーザの周囲の状況が注意喚起条件を満たしているかを判定する。注意喚起判定処理部14011は、周囲状況検知部11010で新たな検知結果が得られた場合、注意喚起条件記憶部15010に記憶されている注意喚起条件を読み出して上記検知結果と比較することで、ユーザの現在の周囲の状況が注意喚起条件を満たしているかを判定する。 The alert determination processing unit 14011 determines whether the user's surroundings detected by the ambient state detection unit 11010 satisfy the alerting condition. When a new detection result is obtained by the surroundings state detection unit 11010, the attention determination processing unit 14011 reads out the warning condition stored in the attention condition storage unit 15010 and compares it with the detection result. It is determined whether the current surrounding situation of the user satisfies the alert condition.
具体的には、注意喚起判定処理部14011は、周囲状況検知部11010である周囲撮影部1011で撮影された周囲景色画像の画像解析結果で得られる情報が注意喚起条件を満たしているかを判定する。注意喚起判定処理部14011は、物体距離算出部13021よりユーザの周囲にある各物体までの距離を示す情報を、また、物体移動速度算出部13022より移動している物体の移動速度を示す情報をそれぞれ入力し、注意喚起条件と比較することで、注意喚起するための条件を満たしているかを判定する。 Specifically, the alert determination processing unit 14011 determines whether the information obtained from the image analysis result of the surrounding scene image captured by the ambient photographing unit 1011 that is the ambient condition detection unit 11010 satisfies the alert condition. . The alert determination processing unit 14011 receives information indicating the distance to each object around the user from the object distance calculating unit 13021 and information indicating the moving speed of the moving object from the object moving speed calculating unit 13022. Each is input and compared with the alerting condition to determine whether the alerting condition is satisfied.
例えば、図66に示す注意喚起条件の第6条件には、ユーザ方向への移動速度成分が秒速6m以上の物体があることが注意喚起の条件として設定されている。注意喚起判定処理部14011は、物体距離算出部13021でユーザまでの距離が求められた各物体の中にユーザの方向への移動速度が秒速6m以上の物体がないかを物体移動速度算出部13022で求められる移動速度に基づいて判定する。 For example, in the sixth condition of the alert condition shown in FIG. 66, it is set as an alert condition that there is an object whose moving speed component in the user direction is 6 m / s or more. The attention determination processing unit 14011 determines whether there is an object whose moving speed in the direction of the user is 6 m / s or more among the objects whose distance to the user is obtained by the object distance calculating unit 13021. The determination is made based on the moving speed obtained in step (1).
注意喚起判定処理部14011は、所定の間隔又は新たに周囲状況検知部11010や画像解析処理部13020より各種情報が入力された場合に、注意喚起条件として設定されている各条件との比較判定処理を行う。 The attention determination processing unit 14011 performs comparison determination processing with each condition set as the alerting condition when various information is input from a predetermined interval or from the surrounding state detection unit 11010 or the image analysis processing unit 13020 I do.
注意喚起指示部14012は、注意喚起判定処理部14011における判定結果に基づいて、ユーザに対して注意喚起するための指示を仮想現実提示部11020に出す。例えば、物体移動速度算出部13022で算出された物体の中に秒速7mで移動する物体が存在する場合は、注意喚起を行うための条件を満たしているため、注意喚起指示部14012は、仮想現実提示部11020に注意喚起の実行を指示する指示信号を出力する。 The attention instructing unit 14012 issues an instruction to alert the user to the virtual reality presenting unit 11020 based on the determination result in the attention determining unit 14011. For example, when there is an object moving at a speed of 7 m / sec among the objects calculated by the object moving speed calculation unit 13022, the condition for performing the alert is satisfied, and therefore the alert instruction unit 14012 An instruction signal for instructing the presentation unit 11020 to execute alerting is output.
仮想現実の提示中に上記注意喚起指示を受け取った仮想現実提示部11020は、ユーザに対する注意喚起を行う。例えば、仮想現実提示部11020が仮想現実提示用の映像を表示している場合は、当該仮想現実提示用の映像に注意喚起用の映像をオーバーレイ表示するよう指示する。また、仮想現実提示部11020が仮想現実提示用の音声を出力している場合は、仮想現実提示用音声の出力を多重して再生するよう指示する。 The virtual reality presenting unit 11020 that has received the above-mentioned alerting instruction during the presentation of the virtual reality alerts the user. For example, when the virtual reality presentation unit 11020 displays a virtual reality presentation video, the virtual reality presentation unit 11020 instructs the virtual reality presentation video to be overlaid with a warning video. Further, when the virtual reality presentation unit 11020 outputs a virtual reality presentation sound, the virtual reality presentation unit 11020 instructs to multiplex and reproduce the output of the virtual reality presentation sound.
以上のように、本実施形態12に係る仮想現実提示システム15000によれば、予め様々な注意喚起条件を記憶しておき、周囲状況検知部11010でリアルタイムに検知されるユーザの周囲の状況と当該注意喚起条件を比較することで、適切にユーザに対して注意喚起を行うことができる。そのため、ユーザに対する仮想現実の提示を継続することで、ユーザが仮想現実の世界に留まりつつも、ユーザが現実の世界に与える影響を考慮してユーザに注意喚起を促すことができ、仮想現実の世界にいるユーザの行動が現実の世界に及ぼす影響を配慮することができる。 As described above, according to the virtual reality presentation system 15000 according to the twelfth embodiment, various alerting conditions are stored in advance, and the situation around the user detected in real time by the ambient condition detection unit 11010 By comparing the alerting conditions, it is possible to appropriately alert the user. Therefore, by continuing to present the virtual reality to the user, the user can be alerted in consideration of the influence of the user on the real world while the user stays in the virtual reality world. It is possible to consider the influence of the actions of users in the world on the real world.
なお、注意喚起条件としては上述した条件に限定されるものではない。例えば、本実施形態12に係る仮想現実提示システム15000は、図67に示す構成とすることも可能である。図67に示す仮想現実提示システム15000において、画像解析処理部13020は、物体距離算出部13021と、物体移動速度算出部13022と、物体特定部13023と、物体種類特定部13024と、物体位置特定部13025と、ユーザ移動速度算出部13026と、を備える。 Note that the alerting conditions are not limited to the above-described conditions. For example, the virtual reality presentation system 15000 according to the twelfth embodiment can be configured as shown in FIG. In the virtual reality presentation system 15000 shown in FIG. 67, the image analysis processing unit 13020 includes an object distance calculating unit 13021, an object moving speed calculating unit 13022, an object specifying unit 13023, an object type specifying unit 13024, and an object position specifying unit. 13025 and a user movement speed calculation unit 13026.
物体特定部13023は、周囲撮影部1011で取得された周囲景色画像に含まれる各物体を画像内における境界判定処理等によって特定し、特定した周囲景色画像内に写る各物体に対してラベリング処理を行う。 The object specifying unit 13023 specifies each object included in the surrounding scenery image acquired by the surrounding photographing unit 1011 by boundary determination processing in the image, and performs a labeling process on each object appearing in the specified surrounding scenery image. Do.
物体種類特定部13024は、物体特定部13023で特定された各物体の種類を特定する。具体的には、物体種類特定部13024は、予め現実の世界にある各物体の特徴パターンを記憶しておき、物体特定部13023で特定された物体と相関値の高い特徴パターンを検出するパターンマッチング処理を行う。物体種類特定部13024は、当該パターンマッチング処理で相関値が所定の基準値以上であった特徴パターンに対応付けられている種類を、当該物体の種類であるとして特定する。 The object type specifying unit 13024 specifies the type of each object specified by the object specifying unit 13023. Specifically, the object type specifying unit 13024 stores the feature patterns of each object in the real world in advance, and performs pattern matching that detects a feature pattern having a high correlation value with the object specified by the object specifying unit 13023. Process. The object type identification unit 13024 identifies the type associated with the feature pattern whose correlation value is equal to or greater than a predetermined reference value in the pattern matching process as the type of the object.
ここで、物体種類特定部13024が特定する物体には、床や壁、人間と言ったものも物体として特定する。また、物体種類特定部13024は、床にある段差等も合わせて検出する構成とすることが好ましい。物体種類特定部13024は、特定した各物体の種類を示す情報を注意喚起判定処理部14011に出力する。 Here, the object specified by the object type specifying unit 13024 also specifies a floor, a wall, or a person as an object. In addition, the object type identification unit 13024 is preferably configured to detect a step on the floor together. The object type identification unit 13024 outputs information indicating the type of each identified object to the alert determination processing unit 14011.
物体位置特定部13025は、物体特定部13023で特定された各物体の位置座標を特定する。物体位置特定部13025は、複数の周囲景色画像に写る同一物体の画像内位置の差異に基づいて、当該物体の位置を特定する。 The object position specifying unit 13025 specifies the position coordinates of each object specified by the object specifying unit 13023. The object position specifying unit 13025 specifies the position of the object based on the difference in the position in the image of the same object that appears in the plurality of surrounding scenery images.
物体距離算出部13021は、物体位置特定部13025で求められた物体の位置座標とユーザ位置との差分ベクトルのノルムを算出することで当該物体までの距離を算出する。物体距離算出部13021は、算出した各物体までの距離を示す情報を注意喚起判定処理部14011に出力する。 The object distance calculation unit 13021 calculates a distance to the object by calculating a norm of a difference vector between the position coordinates of the object obtained by the object position specifying unit 13025 and the user position. The object distance calculation unit 13021 outputs information indicating the calculated distance to each object to the attention determination processing unit 14011.
物体移動速度算出部13021は、物体位置特定部13025で特定される物体の位置座標の時間変化に基づいて、当該物体の移動速度を算出する。物体移動速度算出部13021は、算出した各物体の移動速度をユーザ移動速度算出部13026及び注意喚起判定処理部14011に出力する。 The object moving speed calculation unit 13021 calculates the moving speed of the object based on the time change of the position coordinates of the object specified by the object position specifying unit 13025. The object movement speed calculation unit 13021 outputs the calculated movement speed of each object to the user movement speed calculation unit 13026 and the attention determination processing unit 14011.
ユーザ移動速度算出部13026は、物体移動速度算出部13021で算出される複数の物体の移動速度に基づいてユーザが移動しているかを特定し、ユーザが移動している場合にユーザの移動速度を算出する。ユーザが移動していると、周囲の全ての物体がユーザの方に相対的に移動していくことになる。従って、複数の物体の移動速度に基づいて、当該物体が移動しているのか、ユーザが移動しているのかを求めることができる。ユーザ移動速度算出部13026は、算出したユーザの移動速度を示す情報を注意喚起判定処理部14011に出力する。 The user movement speed calculation unit 13026 specifies whether the user is moving based on the movement speeds of a plurality of objects calculated by the object movement speed calculation unit 13021, and determines the user movement speed when the user is moving. calculate. When the user is moving, all the surrounding objects move relatively to the user. Therefore, it can be determined whether the object is moving or the user is moving based on the moving speeds of the plurality of objects. The user movement speed calculation unit 13026 outputs information indicating the calculated user movement speed to the alert determination processing unit 14011.
注意喚起判定処理部14011は、画像解析処理部13020の各部より出力される各情報が、注意喚起条件記憶部15010に記憶される注意喚起条件を満たしているかを判定し、当該判定結果に基づいて仮想現実提示部11020に仮想現実提示に関する注意喚起指示が行われることになる。 The alert determination processing unit 14011 determines whether each information output from each unit of the image analysis processing unit 13020 satisfies the alert condition stored in the alert condition storage unit 15010, and based on the determination result. The virtual reality presentation unit 11020 is instructed to alert the virtual reality presentation.
例えば、注意喚起判定処理部14011は、図66の第1注意喚起条件に従い、ユーザ移動速度算出部13026で求められたユーザの移動速度と、物体距離算出部13021で求められた各物体までの距離に基づいて、ユーザの移動方向の7m以内の位置に物体があるかを判定する。当該判定の結果、ユーザの移動方向の7m以内の位置に物体がある場合に、注意喚起すると判定する。 For example, the alert determination processing unit 14011, according to the first alert condition of FIG. 66, the user's moving speed obtained by the user moving speed calculating unit 13026 and the distance to each object obtained by the object distance calculating unit 13021. Based on the above, it is determined whether there is an object at a position within 7 m in the moving direction of the user. As a result of the determination, if there is an object at a position within 7 m of the user's moving direction, it is determined to call attention.
また、例えば、注意喚起判定処理部14011は、図66の第2注意喚起条件に従い、物体種類特定部13024で特定される各物体の種類と、物体距離算出部13021で求められる各物体までの距離とに基づいて、ユーザから5m以内の位置に人間がいるかを判定する。当該判定の結果、ユーザから5m以内の位置に人間がいる場合に、注意喚起すると判定する。 Further, for example, the attention determination processing unit 14011, according to the second alert condition in FIG. 66, the type of each object specified by the object type specifying unit 13024 and the distance to each object obtained by the object distance calculation unit 13021. Based on the above, it is determined whether there is a person within 5 m from the user. As a result of the determination, if there is a person at a position within 5 m from the user, it is determined to call attention.
また、例えば、注意喚起判定処理部14011は、図66の第3注意喚起条件に従い、物体移動速度算出部13022で算出される物体の移動速度に基づいて、秒速7m以上の速度で移動している物体がユーザの周囲に存在するかを判定する。当該判定の結果、秒速7m以上の速度で移動している物体がユーザの周囲に存在する場合に、注意喚起すると判定する。 For example, the attention determination processing unit 14011 is moving at a speed of 7 m / s or more based on the moving speed of the object calculated by the object moving speed calculating unit 13022 in accordance with the third warning condition of FIG. It is determined whether an object exists around the user. As a result of the determination, when an object moving at a speed of 7 m / s or more is present around the user, it is determined to call attention.
また、例えば、注意喚起判定処理部14011は、図66の第4注意喚起条件に従い、ユーザ移動速度算出部13026で算出されるユーザの移動速度に基づいて、ユーザが秒速2m以上で移動しているかを判定する。当該判定の結果、ユーザが秒速2m以上の移動速度で移動している場合に、注意喚起すると判定する。 Further, for example, whether the user is moving at a speed of 2 m or more per second based on the user's moving speed calculated by the user moving speed calculating unit 13026 according to the fourth warning condition shown in FIG. Determine. As a result of the determination, when the user is moving at a moving speed of 2 m / s or more, it is determined to call attention.
また、例えば、注意喚起判定処理部14011は、図66の第5注意喚起条件に従い、ユーザ移動速度算出部13026で求められたユーザの移動速度と、物体距離算出部13021で求められた各物体までの距離に基づいて、ユーザの移動方向の7m以内の位置に段差があるかを判定する。物体特定部13023は、段差も物体として認識するため、当該判定が可能となる。当該判定の結果、ユーザの移動方向の7m以内の位置に段差がある場合に、注意喚起すると判定する。 In addition, for example, the attention determination processing unit 14011 determines the user's movement speed obtained by the user movement speed calculation unit 13026 and each object obtained by the object distance calculation unit 13021 according to the fifth attention calling condition of FIG. Based on the distance, it is determined whether or not there is a step at a position within 7 m in the moving direction of the user. Since the object specifying unit 13023 recognizes a step as an object, the determination can be performed. As a result of the determination, when there is a step at a position within 7 m of the user's moving direction, it is determined to call attention.
また、例えば、注意喚起判定処理部14011は、図66の第6注意喚起条件に従い、物体移動速度算出部13022で算出される物体の移動速度に基づいて、ユーザ方向への速度成分が秒速6m以上の速度で移動している物体がユーザの周囲に存在するかを判定する。例えば、速度が速くてもユーザの遠方でユーザに対して平行に高速度で走る車などが存在しても問題となる可能性は低いためである。当該判定の結果、ユーザ方向への速度成分が秒速6m以上の速度で移動している物体がユーザの周囲に存在する場合に、注意喚起すると判定する。 In addition, for example, the alert determination processing unit 14011 has a speed component in the user direction of 6 m or more per second based on the moving speed of the object calculated by the object moving speed calculating unit 13022 according to the sixth alerting condition of FIG. It is determined whether an object moving at a speed of is present around the user. For example, even if the speed is high, there is a low possibility of a problem even if there is a car that runs at a high speed parallel to the user at a distance from the user. As a result of the determination, if there is an object around the user whose speed component in the direction of the user is moving at a speed of 6 m / s or more, it is determined to call attention.
また、例えば、注意喚起判定処理部14011は、図66の第7注意喚起条件に従い、ユーザ移動速度算出部13026で算出されるユーザの移動速度と、物体距離算出部13021で算出される物体までの距離とに基づいて、ユーザ移動方向に8秒以内に到達する物体があるかを判定する。例えば、ユーザの前方近くに段差があってもユーザの移動速度が十分小さければ直近の障害となる可能性は低いし、一方、ユーザの前方の遠くに段差があってもユーザの移動速度が十分早ければ障害となる可能性があるためである。当該判定の結果、ユーザ移動方向に8秒以内に到達する物体がある場合に、注意喚起すると判定する。 Also, for example, the alert determination processing unit 14011 follows the seventh alert condition in FIG. 66 to the user moving speed calculated by the user moving speed calculating unit 13026 and the object calculated by the object distance calculating unit 13021. Based on the distance, it is determined whether there is an object that reaches the user movement direction within 8 seconds. For example, even if there is a step near the front of the user, if the user's moving speed is sufficiently low, it is unlikely that it will cause an immediate obstacle. On the other hand, even if there is a step far in front of the user, the user's moving speed is sufficient. This is because it may become an obstacle at the earliest. As a result of the determination, when there is an object that arrives within 8 seconds in the user movement direction, it is determined to call attention.
また、例えば、注意喚起判定処理部14011は、図66の第8注意喚起条件に従い、物体移動速度算出部13022で求められた物体の移動速度と、物体距離算出部13021で求められた各物体までの距離に基づいて、ユーザ方向への移動速度成分が秒速2m以上の物体であって、ユーザからの距離が30m以内である物体が存在するかを判定する。このように複数の条件を併用して仮想現実の提示の注意喚起を行うかどうかの判定が行われても良い。当該判定の結果、これらの条件を満たす物体がある場合に注意喚起すると判定する。 In addition, for example, the attention determination processing unit 14011 performs the object movement speed obtained by the object movement speed calculation unit 13022 and each object obtained by the object distance calculation unit 13021 in accordance with the eighth attention calling condition of FIG. Is determined whether there is an object whose moving speed component in the user direction is 2 m or more per second and whose distance from the user is within 30 m. In this way, it may be determined whether or not to alert the presentation of virtual reality using a plurality of conditions together. As a result of the determination, if there is an object that satisfies these conditions, it is determined to call attention.
なお、上述した判定条件や入力する情報の種類は一例であり、適宜変更が可能である。例えば、仮想現実提示システム15000は、図68に示す構成とすることも可能である。図68に示す仮想現実提示システム15000は、ユーザの状態を検知するユーザ状態検知部12010、音声を入力する音声入力部13030、ユーザの行動を特定するユーザ行動特定部13040、を備えることを特徴とする。 Note that the above-described determination conditions and types of information to be input are examples, and can be changed as appropriate. For example, the virtual reality presentation system 15000 can be configured as shown in FIG. The virtual reality presentation system 15000 shown in FIG. 68 includes a user state detection unit 12010 that detects a user state, a voice input unit 13030 that inputs a voice, and a user behavior identification unit 13040 that identifies a user behavior. To do.
図68に示す仮想現実提示システム15000では、ユーザ状態検知部12010は、ユーザ位置検出部12013と、ユーザ移動速度検知部12014と、ユーザ方位検出部12015とを備える。 In the virtual reality presentation system 15000 shown in FIG. 68, the user state detection unit 12010 includes a user position detection unit 12013, a user movement speed detection unit 12014, and a user orientation detection unit 12015.
ユーザ位置検出部12013は、例えばユーザが装着する仮想現実提示装置に設置されたGPS受信機であって、定期的にユーザの現在位置を検出して現在位置情報を生成する。ユーザ位置検出部12013は、ユーザの現在位置を示す現在位置情報を注意喚起判定処理部14011に出力する。 The user position detection unit 12013 is a GPS receiver installed in a virtual reality presentation device worn by the user, for example, and periodically detects the current position of the user and generates current position information. The user position detection unit 12013 outputs current position information indicating the current position of the user to the alert determination processing unit 14011.
ユーザ移動速度検知部12014は、ユーザの移動速度を検知する。ユーザ移動速度検知部12014は、ユーザが装着する仮想現実提示装置に設置された加速度センサ等で得られる加速度情報に基づいて移動速度を検知しても良いし、ユーザ位置検出部12014で検出されるユーザの現在位置の差分から移動速度を検知しても良い。 The user moving speed detection unit 12014 detects the moving speed of the user. The user movement speed detection unit 12014 may detect the movement speed based on acceleration information obtained by an acceleration sensor or the like installed in a virtual reality presentation device worn by the user, or may be detected by the user position detection unit 12014. You may detect a moving speed from the difference of a user's present position.
このように、図68に示す仮想現実提示システム15000は、図67に示す仮想現実提示システム15000と比較して画像解析処理とは異なる方法でユーザの移動速度を取得する。ユーザ移動速度検知部12014は、検知したユーザの移動速度を示す情報を注意喚起判定処理部14011に出力する。 As described above, the virtual reality presentation system 15000 shown in FIG. 68 acquires the moving speed of the user by a method different from the image analysis processing as compared with the virtual reality presentation system 15000 shown in FIG. The user movement speed detection unit 12014 outputs information indicating the detected movement speed of the user to the alert determination processing unit 14011.
ユーザ方位検出部12015は、ユーザの向いている方位を検出する。ユーザ方位検出部12015は、例えば、ユーザが装着する仮想現実提示装置に取り付けられた方位磁石等で構成しても良いし、加速度センサで検知される加速度情報に基づいて、ユーザの方向を検知しても良い。ユーザ方位検出部12015は、検出したユーザの方位を示す情報を注意喚起判定処理部14011に出力する。 The user orientation detection unit 12015 detects the orientation that the user is facing. The user orientation detection unit 12015 may be configured with, for example, an orientation magnet attached to a virtual reality presentation device worn by the user, or detects the user direction based on acceleration information detected by an acceleration sensor. May be. The user orientation detection unit 12015 outputs information indicating the detected user orientation to the alert determination processing unit 14011.
音声入力部13030は、周囲の音声を入力する。具体的には、音声入力部13030は、ユーザが装着する仮想現実提示装置に設置されているマイクロフォンとすることができる。 The voice input unit 13030 inputs ambient voice. Specifically, the voice input unit 13030 can be a microphone installed in a virtual reality presentation device worn by the user.
ユーザ行動特定部13040は、周囲状況検知部11010で検知されるユーザの周囲の状況や、音声入力部13030で入力される音声、また、必要に応じてユーザ状態検知部12010で検知されるユーザの状態等に基づいてユーザが現在行っている行動を特定する。 The user action specifying unit 13040 is a user's surroundings detected by the surrounding state detection unit 11010, a voice input by the voice input unit 13030, and a user state detected by the user state detection unit 12010 as necessary. Based on the state or the like, the action that the user is currently performing is specified.
例えば、ユーザ行動特定部13040は、周囲状況検知部11010で取得される周囲景色画像に車のハンドルが写っており、音声入力部13030で入力される音声に車のエンジン音が含まれている場合に、ユーザは車を運転していると特定する。その他、ユーザが通勤している、寝ている、休憩している、仕事をしている、など、ユーザの行動を特定する。ユーザ行動特定部13040は、特定したユーザの行動を示す情報を、注意喚起判定処理部14011に出力する。 For example, the user action specifying unit 13040 includes a car handle in the surrounding scene image acquired by the surrounding state detection unit 11010, and the voice input by the voice input unit 13030 includes a car engine sound. In addition, the user specifies that he is driving a car. In addition, the user's behavior such as the user commuting, sleeping, resting, or working is specified. The user behavior specifying unit 13040 outputs information indicating the specified user behavior to the alert determination processing unit 14011.
注意喚起判定処理部14011は、図66の第9注意喚起条件に従い、ユーザ位置検出部12013で検出された現在位置が、注意喚起すべき位置範囲であるかを判定する。例えば、駅のホームでは仮想現実の提示に注意が必要であるとされている場合、当該駅のホームの位置範囲が注意喚起条件として記憶されることになる。図66では、ユーザの現在位置のGPS座標が、緯度38.110〜38.253、経度135.120〜135.140の範囲内である場合に、注意喚起すると判定する。 The attention determination processing unit 14011 determines whether or not the current position detected by the user position detection unit 12013 is a position range to be alerted according to the ninth alert condition in FIG. For example, when it is assumed that attention is required for presentation of virtual reality at a station platform, the location range of the station platform is stored as an alert condition. In FIG. 66, when the GPS coordinates of the current position of the user are within the range of latitudes 38.10 to 38.253 and longitudes 135.120 to 135.140, it is determined to call attention.
また、例えば、注意喚起判定処理部14011は、図66の第10注意喚起条件に従い、ユーザ行動特定部13040で特定されたユーザの現在の行動が車を運転していると言う行動であった場合に注意喚起すると判定する。 In addition, for example, the alert determination processing unit 14011, according to the tenth alert condition in FIG. 66, is the action that the user's current action specified by the user action specifying unit 13040 is driving a car. It is determined to call attention to.
なお、注意喚起条件記憶部15010が記憶する注意喚起条件は、ユーザに提示されている仮想現実の種類に応じて適宜選択される構成とすると良い。 Note that the alerting condition stored in the alerting condition storage unit 15010 may be appropriately selected according to the type of virtual reality presented to the user.
例えば、「ドラゴンと戦う」と言った内容の仮想現実が提示されているユーザは、体を動かすことが想定されるため、近くに人間がいると問題になることがある。そこで、注意喚起判定処理部14011は、上記第2注意喚起条件に基づく判定を行う。一方、「家の中に花瓶を飾る」と言った内容の仮想現実が提示されているユーザは、近くに他人がいても問題となる可能性は低い。そこで、注意喚起判定処理部14011は、上記第2注意喚起条件に基づく判定は行わない。 For example, a user who is presented with a virtual reality of the content of “fighting a dragon” is assumed to move his body, so there may be a problem if there is a person nearby. Therefore, the alert determination processing unit 14011 performs determination based on the second alert condition. On the other hand, it is unlikely that a user who is presented with a virtual reality of the content “decorate a vase in the house” will be a problem even if there are others nearby. Therefore, the alert determination processing unit 14011 does not perform determination based on the second alert condition.
このように、各注意喚起条件は、ユーザに提示される仮想現実の種類に応じて決定される構成とすると更に良好である。この場合、仮想現実提示システム15000は、図69の構成を取ることが好ましい。図69に示す仮想現実提示システム15000は、仮想現実管理制御部13050を備える。 Thus, it is even better if each alerting condition is determined according to the type of virtual reality presented to the user. In this case, the virtual reality presentation system 15000 preferably has the configuration shown in FIG. A virtual reality presentation system 15000 shown in FIG. 69 includes a virtual reality management control unit 13050.
仮想現実管理制御部13050は、仮想現実提示部11020が提示する仮想現実の管理や制御を行う。仮想現実管理制御部13050はユーザからの要求等に基づいて、ユーザに提供する仮想現実サービスを決定し、仮想現実提示部11020に当該決定した仮想現実サービスに係る仮想現実を提示するように指示する。 The virtual reality management control unit 13050 performs management and control of the virtual reality presented by the virtual reality presenting unit 11020. Based on a request from the user, the virtual reality management control unit 13050 determines a virtual reality service to be provided to the user, and instructs the virtual reality presenting unit 11020 to present the virtual reality related to the determined virtual reality service. .
また、仮想現実管理制御部13050は、仮想現実提示部11020が提示している仮想現実に係る仮想現実サービスを識別する仮想現実サービス識別番号を注意喚起判定処理部14011に通知する。 In addition, the virtual reality management control unit 13050 notifies the alert determination processing unit 14011 of a virtual reality service identification number for identifying the virtual reality service related to the virtual reality presented by the virtual reality presenting unit 11020.
各仮想現実サービスには、判定に用いられる注意喚起条件が対応付けられている。例えば、注意喚起判定処理部14011は、仮想現実管理制御部13050より仮想現実提示部11020で提示される仮想現実に係る仮想現実サービスを識別する情報を入力した場合、判定に用いられる注意喚起条件を管理する管理ファイルを参照して判定処理に用いる注意喚起条件を特定する。例えば、仮想現実サービスがNo:VRS0001で識別される仮想現実サービスである場合は、第2注意喚起条件と第5注意喚起条件を満たしているかどうかの判定処理を行う。このように、提示される仮想現実に応じて適宜判定に用いられる注意喚起条件が選択される構成とすることで不要に注意喚起を発生させることなく、適切な注意喚起処理を行うことが可能となる。 Each virtual reality service is associated with an alert condition used for determination. For example, when the information for identifying the virtual reality service related to the virtual reality presented by the virtual reality presenting unit 11020 is input from the virtual reality management control unit 13050, the alert determination processing unit 14011 sets the alert condition used for the determination. Identify the alert condition used for the judgment process by referring to the management file to be managed. For example, if the virtual reality service is a virtual reality service identified by No: VRS0001, a determination process is performed to determine whether the second alert condition and the fifth alert condition are satisfied. In this way, it is possible to perform appropriate alerting processing without causing unnecessary alerting by adopting a configuration in which the alerting condition used for determination is appropriately selected according to the virtual reality presented Become.
また、判定処理に用いられる各注意喚起条件は、仮想現実の提示を受けているユーザに応じて決定される構成とすると更に良好である。各ユーザは予め注意喚起条件を設定しておき、注意喚起判定処理部14011は、当該ユーザ毎に定まる注意喚起条件を用いて当該ユーザに提示されている仮想現実を注意喚起するかを判定する。このように構成されていても良い。 In addition, it is even better if each alerting condition used in the determination process is determined according to the user receiving the virtual reality presentation. Each user sets an alerting condition in advance, and the alerting determination processing unit 14011 determines whether to alert the virtual reality presented to the user using the alerting condition determined for each user. It may be configured in this way.
また、判定に用いられた注意喚起条件と、注意喚起方法とが対応付けられている構成とすることが更に好ましい。例えば、注意喚起指示部14012は、図70に示すように注意喚起判定処理部14011でヒットした注意喚起条件と仮想現実提示部11020で行われる注意喚起方法との対応関係を纏めた管理ファイルを参照して、仮想現実提示部11020に注意喚起を指示する。 In addition, it is more preferable that the alerting condition used for the determination is associated with the alerting method. For example, as shown in FIG. 70, the attention instructing unit 14012 refers to a management file that summarizes the correspondence between the alerting conditions hit by the attention determination processing unit 14011 and the alerting method performed by the virtual reality presenting unit 11020. Then, the virtual reality presentation unit 11020 is instructed to call attention.
図70において、図66に示す第1注意喚起条件である「ユーザの移動方向の7m以内の位置に物体があること」を満たしたと注意喚起判定処理部14011で判定された場合、注意喚起指示部14012は、格納アドレス(x0000000001)に格納されている注意喚起用映像データWm023.jpgを読み出して3秒間の間、表示パネル11022−2に表示するよう映像表示制御部11022−1に指示する。 In FIG. 70, when it is determined by the attention determination processing unit 14011 that “there is an object at a position within 7 m of the moving direction of the user” which is the first attention condition shown in FIG. 14012 instructs the video display control unit 11022-1 to read the alerting video data Wm023.jpg stored in the storage address (x0000000001) and display it on the display panel 11022-2 for 3 seconds.
また、図66に示す第4注意喚起条件である「ユーザが秒速2m以上で移動していること」を満たしたと注意喚起判定処理部14011で判定された場合、注意喚起指示部14012は、格納アドレス(x0000010001)に格納されている注意喚起用映像データWm059.jpgを読み出し、当該第4注意喚起条件が解消するまでの間、表示パネル11022−2に表示するよう映像表示制御部11022−1に指示すると共に、格納アドレス(x1100010001)に格納されている注意喚起用音声データWm59.mp3を読み出し、当該第4注意喚起条件が解消するまでの間、繰り返し再生し続けるよう音声再生制御部11023−1に指示する。注意喚起判定処理部14011における判定の結果、画像解析処理の結果等に基づいて注意喚起条件が解消している場合は、注意喚起指示部14012は、映像表示制御部11022−1や音声再生制御部11023−1に注意喚起の停止を指示する。 When the alert determination processing unit 14011 determines that the user is moving at a speed of 2 m / s or more as the fourth alert condition shown in FIG. 66, the alert instruction unit 14012 stores the storage address The video display control unit 11022-1 is instructed to read the video data Wm059.jpg stored in (x0000010001) and display it on the display panel 11022-2 until the fourth warning condition is canceled. At the same time, the audio data Wm59.mp3 stored in the storage address (x1100010001) is read, and the audio reproduction control unit 11023-1 is continuously reproduced until the fourth alerting condition is canceled. Instruct. As a result of the determination in the alert determination processing unit 14011, if the alert condition is eliminated based on the result of the image analysis process, the alert instructing unit 14012 displays the video display control unit 11022-1, audio playback control unit, and the like. 11023-1 is instructed to stop alerting.
このように構成することで、ユーザに対して単に「注意してください」と言ったメッセージを出すのではなく、前方に障害があると判定された場合は、「前方に障害があるので注意してください」と言った形態の注意喚起を行うことができ、また、車等の移動体が後方から接近していると判定された場合は、「後方より時速40kmの車が接近しています。注意して下さい。」と言った形態の注意喚起を行うことができ、また、ユーザが車を運転していると判定された場合は、「車を運転しながらの仮想現実サービス利用は推奨されておりません。」と言った形態の注意喚起を行うことができる。従って、ユーザは、具体的な注意喚起の内容に基づいて、現実の世界での影響が低減されるように回避行動をとることで、仮想現実の世界を堪能しつつも現実の世界への影響を管理することができる。 With this configuration, instead of simply issuing a message saying “Please be careful” to the user, if it is determined that there is a failure ahead, “Be careful because there is a failure ahead. If you find that a moving object such as a car is approaching from behind, a car with a speed of 40 km / h is approaching from behind. If you decide that the user is driving a car, use the virtual reality service while driving a car is recommended. It is possible not to call it. ” Therefore, based on the specific content of the alert, the user can avoid the virtual world by taking avoidance action so that the impact in the real world is reduced. Can be managed.
(実施形態13)
実施形態11、12に係る仮想現実提示システムは、実施形態8〜10に係る仮想現実提示システムと比較して、仮想現実の世界に入り込んでいるユーザを現実の世界まで戻すことなく、現実の世界に対する影響を管理することで仮想現実の世界と現実の世界との調和を図っている。
(Embodiment 13)
The virtual reality presentation system according to the eleventh and twelfth embodiments is compared with the virtual reality presentation system according to the eighth to tenth embodiments, without returning the user who has entered the virtual reality world to the real world. The virtual reality world and the real world are harmonized by managing the impact on
ここで、仮想現実の世界にいるユーザの立場からすると、できるだけ仮想現実の世界に対する錯覚度を下げることなく、現実の世界に対する影響が管理されることが好ましい。しかしながら、仮想現実の世界とは関係のない注意喚起用のウィンドウが表示したり、仮想現実の世界とは関係のない電子音やガイド音声などの音声が再生される形態で注意喚起を行ったりすると、ユーザの意識が仮想現実の世界からずれてしまい、仮想現実の提示を中断する場合と比較した場合は、錯覚度の低下が抑えられるものの、幾ばくかの錯覚度の低下は避けられないという課題が残存することになる。そこで本実施形態13に係る仮想現実提示システムは、仮想現実の世界を体験しているユーザの錯覚度の低下を抑えつつ、適切にユーザに対して現実の世界への影響を抑える注意喚起を行うことを特徴とする。 Here, from the viewpoint of the user in the virtual reality world, it is preferable that the influence on the real world is managed without reducing the illusion of the virtual reality world as much as possible. However, if an alert window that is not related to the virtual reality world is displayed, or an alert such as an electronic sound or guide voice that is not related to the virtual reality world is played, When compared with the case where the user's consciousness deviates from the virtual reality world and the presentation of the virtual reality is interrupted, the decrease in the illusion degree is suppressed, but some decrease in the illusion degree is unavoidable Will remain. Therefore, the virtual reality presentation system according to the thirteenth embodiment appropriately alerts the user to suppress the influence on the real world while suppressing a decrease in the illusion degree of the user experiencing the virtual reality world. It is characterized by that.
図71は、本実施形態13に係る仮想現実提示システム16000の構成を示すブロック図である。仮想現実提示システム16000は、周囲状況検知部11010と、仮想現実提示部11020と、ユーザ状態検知部12010と、仮想現実オブジェクト配置部12030と、仮想現実管理制御部13050と、仮想現実コンテンツ記憶部16010と、仮想現実オブジェクト挙動制御部16020と、を備える。 FIG. 71 is a block diagram illustrating a configuration of a virtual reality presentation system 16000 according to the thirteenth embodiment. The virtual reality presentation system 16000 includes an ambient condition detection unit 11010, a virtual reality presentation unit 11020, a user state detection unit 12010, a virtual reality object placement unit 12030, a virtual reality management control unit 13050, and a virtual reality content storage unit 16010. And a virtual reality object behavior control unit 16020.
仮想現実管理制御部13050は、ユーザに対する仮想現実の提示の開始処理や終了処理を行うことで、各ユーザにそれぞれ提示している仮想現実を管理する。仮想現実管理制御部13050は、ユーザからの仮想現実の提示の要求などに基づいてユーザに対する仮想現実の提示を開始する場合、仮想現実コンテンツ記憶部16010より読み出した制御プログラムを実行することで、仮想現実オブジェクト配置部12030と、仮想現実オブジェクト挙動制御部16020にそれぞれ仮想現実の提示の開始に必要となる指示を出す。 The virtual reality management control unit 13050 manages the virtual reality presented to each user by performing a virtual reality presentation start process and an end process for the user. The virtual reality management control unit 13050 executes the control program read from the virtual reality content storage unit 16010 to start virtual reality when starting presentation of virtual reality to the user based on a virtual reality presentation request from the user. Instructions necessary for starting the presentation of virtual reality are issued to the real object placement unit 12030 and the virtual reality object behavior control unit 16020, respectively.
仮想現実コンテンツ記憶部16010は、仮想現実の提示に用いられる仮想現実コンテンツを記憶する。仮想現実コンテンツは、図72に示すように、仮想現実オブジェクトのモデルデータや音声データの他、仮想現実の提示のために実行される仮想現実制御プログラムが含まれる。 The virtual reality content storage unit 16010 stores virtual reality content used for presentation of virtual reality. As shown in FIG. 72, the virtual reality content includes a virtual reality control program executed for presentation of virtual reality in addition to model data and audio data of the virtual reality object.
仮想現実制御プログラムは、大きく分けて、仮想現実メイン制御プログラムと、仮想現実サブ制御プログラムと、仮想現実オブジェクト人格制御プログラムと、仮想現実オブジェクト挙動制御プログラムと、に分類される。図73は、仮想現実制御プログラムの階層構造を示している。 Virtual reality control programs are roughly classified into a virtual reality main control program, a virtual reality sub-control program, a virtual reality object personality control program, and a virtual reality object behavior control program. FIG. 73 shows the hierarchical structure of the virtual reality control program.
仮想現実オブジェクト挙動制御プログラムは、仮想空間に配置されている仮想現実オブジェクトの挙動を制御するためのプログラムであって、仮想現実オブジェクト人格制御プログラムによって読み出される。例えば、仮想現実オブジェクトが人間オブジェクトである場合、仮想現実オブジェクト挙動制御プログラムAは、右膝の関節ポイントを少し折り曲げ、口元のテキスチャーデータを笑顔のテキスチャーデータに段階的に変更すると言った制御を行うプログラムである。一方、仮想現実オブジェクト挙動制御プログラムNは、のけぞるように腰の関節ポイントを折り曲げ、右肩と右ひじの関節ポイントを所定量回転させることで右腕を前に突き出すと言った制御を行う。当該挙動制御プログラムが実行されることで、フレーム経過に伴って仮想空間に配置されているオブジェクトの外観形状が変化していく。 The virtual reality object behavior control program is a program for controlling the behavior of the virtual reality object arranged in the virtual space, and is read by the virtual reality object personality control program. For example, when the virtual reality object is a human object, the virtual reality object behavior control program A performs a control such that the joint point of the right knee is slightly bent and the texture data of the mouth is gradually changed to the smile texture data. It is a program. On the other hand, the virtual reality object behavior control program N performs control such that the hip joint point is bent so as to slide, and the right arm and the right elbow joint point are rotated by a predetermined amount to project the right arm forward. By executing the behavior control program, the appearance shape of the object arranged in the virtual space changes as the frame progresses.
仮想現実オブジェクト挙動制御プログラムは、更に通常時の仮想現実の提示に実行される通常時用仮想現実オブジェクト挙動制御プログラムと、注意喚起時に実行される注意喚起用仮想現実オブジェクト挙動制御プログラムと、を備える。 The virtual reality object behavior control program further includes a normal-time virtual reality object behavior control program that is executed to present virtual reality at a normal time, and a caution virtual reality object behavior control program that is executed at the time of alerting .
仮想現実オブジェクト人格制御プログラムは、仮想現実サブ制御プログラムによって読み出されるプログラムであって、仮想空間に配置されている仮想現実オブジェクトに対する入力と出力との対応関係を制御する。 The virtual reality object personality control program is a program read by the virtual reality sub-control program, and controls the correspondence between the input and output for the virtual reality object arranged in the virtual space.
仮想現実サブ制御プログラムは、仮想現実メイン制御プログラムによって適宜呼び出されるプログラムであり、提供する仮想現実サービスと対応している。仮想現実サブ制御プログラムは、提供中の仮想現実サービスに用いる仮想現実オブジェクトを仮想空間に読み出して配置する制御や、予め設定されている順序に従って仮想現実オブジェクト挙動制御プログラムを直接読み出して、仮想現実オブジェクトに所定の挙動を行わせる制御を行う。 The virtual reality sub-control program is a program that is appropriately called by the virtual reality main control program, and corresponds to the provided virtual reality service. The virtual reality sub-control program reads the virtual reality object used for the virtual reality service being provided in the virtual space, or directly reads out the virtual reality object behavior control program according to a preset order, Control is performed to perform a predetermined behavior.
仮想現実メイン制御プログラムは、仮想現実サービス毎に対応するプログラムであって、仮想現実サービスの提供開始に当たり、第1に実行されるプログラムである。仮想現実メイン制御プログラムが実行されることで、当該プログラムに対応する仮想現実サービスのための仮想空間の設定や環境設定が行われる。 The virtual reality main control program is a program corresponding to each virtual reality service, and is a program executed first when the provision of the virtual reality service is started. By executing the virtual reality main control program, the virtual space setting and environment setting for the virtual reality service corresponding to the program are performed.
仮想現実オブジェクト配置部12030は、仮想現実管理制御部13050における仮想現実の提示開始指示に基づいて、提示する仮想現実に用いられる仮想現実オブジェクトを仮想現実コンテンツ記憶部16010より読み出して仮想空間内の所定の位置に配置する。 The virtual reality object placement unit 12030 reads out a virtual reality object used for the virtual reality to be presented from the virtual reality content storage unit 16010 based on the virtual reality presentation start instruction in the virtual reality management control unit 13050, and performs predetermined processing in the virtual space. Place at the position.
仮想現実オブジェクト挙動制御部16020は、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。仮想現実オブジェクト挙動制御部16020は、仮想現実コンテンツ記憶部16010より仮想現実オブジェクト挙動制御プログラムを実行することで、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。当該仮想現実オブジェクト挙動制御部16020によって、仮想空間内で外観形状が変化していく仮想現実オブジェクトの映像を映像生成処理部11021が生成し、映像表示部11022で表示する。 The virtual reality object behavior control unit 16020 controls the behavior of the virtual reality object arranged in the virtual space. The virtual reality object behavior control unit 16020 executes the virtual reality object behavior control program from the virtual reality content storage unit 16010, thereby controlling the behavior of the virtual reality object arranged in the virtual space. The virtual reality object behavior control unit 16020 generates a video of the virtual reality object whose appearance shape changes in the virtual space, and the video display processing unit 11022 displays the video.
また、仮想現実オブジェクト挙動制御部16020は、仮想現実オブジェクトの音声データを仮想現実コンテンツ記憶部16010より読み出して音声再生制御部11023−1に出力し、仮想現実の提示に係る音声を再生させる。 Also, the virtual reality object behavior control unit 16020 reads the audio data of the virtual reality object from the virtual reality content storage unit 16010 and outputs the audio data to the audio reproduction control unit 11023-1, thereby reproducing the audio related to the presentation of the virtual reality.
仮想現実オブジェクト挙動制御部16020は、仮想現実管理制御部13050からの指示に基づいて、通常時用仮想現実オブジェクト挙動制御プログラムを実行することで、仮想空間に配置されている仮想現実オブジェクトの挙動を制御する。 The virtual reality object behavior control unit 16020 executes the normal-time virtual reality object behavior control program based on an instruction from the virtual reality management control unit 13050, thereby changing the behavior of the virtual reality object arranged in the virtual space. Control.
一方、仮想現実オブジェクト挙動制御部16020は、注意喚起制御部14010より仮想現実オブジェクトを用いた注意喚起を行う指示を受け取った場合、当該指示に基づいて注意喚起用仮想現実オブジェクト制御プログラムを仮想現実コンテンツ記憶部16010より読み出して実行する。このように、仮想現実オブジェクト挙動制御部16020は、現在提示中の仮想現実で用いられている仮想現実オブジェクトを用いてユーザに対する注意喚起を行う。 On the other hand, when the virtual reality object behavior control unit 16020 receives an instruction to perform attention using a virtual reality object from the attention control unit 14010, the virtual reality object behavior control unit 16020 generates a virtual reality object control program for alerting based on the instruction. The program is read from the storage unit 16010 and executed. As described above, the virtual reality object behavior control unit 16020 alerts the user using the virtual reality object used in the currently presented virtual reality.
図74は、注意喚起制御部14010が実行する注意喚起制御処理の流れを示すフローチャート図である。注意喚起制御部14010は、周囲の状況が更新された場合(ステップS1101でYes)、注意喚起を行うかどうかの判定処理を実行する。なお注意喚起制御部14010は、周囲状況検知部11010で新たに周囲状況情報が生成された場合等に周囲の状況が更新されたと判断しても良いし、予め定められた時間間隔が経過した場合に周囲の状況が更新されたと判断しても良い。 FIG. 74 is a flowchart showing the flow of the alerting control process executed by the alerting control unit 14010. When the surrounding situation is updated (Yes in step S1101), the alerting control unit 14010 executes determination processing for determining whether or not alerting is performed. Note that the alert control unit 14010 may determine that the surrounding situation has been updated, for example, when the surrounding situation information is newly generated by the surrounding situation detection unit 11010, or when a predetermined time interval has elapsed. It may be determined that the surrounding situation has been updated.
注意喚起制御部14010は、周囲状況検知部11010より入力した周囲状況情報に基づいて、注意喚起を行うかどうかの判定処理を実行する(ステップS1102)。例えば、注意喚起制御部14010は、入力した周囲状況情報と、予め設定されている注意喚起条件とを比較することで、ユーザの現在の周囲の状況が注意喚起条件を満たしているかを判定する。 The alerting control unit 14010 executes determination processing for determining whether or not alerting is performed based on the ambient state information input from the ambient state detection unit 11010 (step S1102). For example, the alert control unit 14010 determines whether or not the current surrounding situation of the user satisfies the alert condition by comparing the input ambient condition information with a preset alert condition.
ステップS1102における判定の結果、注意喚起条件を満たしていない場合(ステップS1103でNo)、ステップS1101に戻り、次の周囲状況の更新まで待機する。 As a result of the determination in step S1102, if the alert condition is not satisfied (No in step S1103), the process returns to step S1101 and waits for the next update of the surrounding situation.
一方、ステップS1102における判定の結果、注意喚起条件を満たしている場合(ステップS1103でYes)、注意喚起制御部14010は、現在既に注意喚起を行っているかを判定する(ステップS1104)。 On the other hand, if the result of determination in step S1102 is that the alert condition is satisfied (Yes in step S1103), the alert controller 14010 determines whether alert has already been performed (step S1104).
当該判定の結果、現在既に注意喚起を行っている場合、例えば、過去のタイミングで注意喚起条件を満たしていると判定されて注意喚起が行われている場合は(ステップS1104でYes)、ステップS1101に戻って次の更新タイミングまで待機する。 As a result of the determination, if an alert has already been issued, for example, if it is determined that an alert condition has been satisfied at a past timing and an alert has been issued (Yes in step S1104), step S1101 Return to and wait until the next update timing.
一方、現在注意喚起を行っていない場合は(ステップS1104でNo)、注意喚起制御部14010は、仮想現実オブジェクトを用いた注意喚起の実行を指示する(ステップS1105)。 On the other hand, when alerting is not currently performed (No in step S1104), the alerting control unit 14010 instructs execution of alerting using a virtual reality object (step S1105).
図75は、仮想現実オブジェクト配置処理の流れを示すフローチャート図である。仮想現実オブジェクト配置部12030は、仮想空間に新たに仮想現実オブジェクトを配置するかを判定する(ステップS1201)。例えば、仮想現実オブジェクト配置部12030は、仮想現実管理制御部13050から仮想現実オブジェクト配置指示があったかどうかに基づいて仮想現実オブジェクトを配置するかを判定する。仮想現実管理制御部13050は、例えば時間経過やユーザ状態、周囲状況の変化等に応じて仮想現実サービスを進行させることで、新たな仮想現実オブジェクトの配置指示を出す。 FIG. 75 is a flowchart showing the flow of the virtual reality object placement process. The virtual reality object placement unit 12030 determines whether to newly place a virtual reality object in the virtual space (step S1201). For example, the virtual reality object placement unit 12030 determines whether to place a virtual reality object based on whether a virtual reality object placement instruction has been received from the virtual reality management control unit 13050. The virtual reality management control unit 13050 issues a virtual reality object placement instruction by advancing the virtual reality service in accordance with, for example, the passage of time, the user state, and the change in the surrounding situation.
ステップS1201で仮想現実オブジェクトを新たに配置すると判定した場合に、仮想現実オブジェクト配置部12030は、仮想現実コンテンツ記憶部16010より仮想現実オブジェクトを読み出して仮想空間に配置する(ステップS1202)。 When it is determined in step S1201 that a virtual reality object is newly arranged, the virtual reality object placement unit 12030 reads the virtual reality object from the virtual reality content storage unit 16010 and places it in the virtual space (step S1202).
次に、仮想現実オブジェクト配置部12030は、現在仮想空間に配置している仮想現実オブジェクトを仮想空間から削除するかを判定する(ステップS1203)。 Next, the virtual reality object arrangement unit 12030 determines whether or not to delete the virtual reality object currently arranged in the virtual space from the virtual space (step S1203).
ステップS1203で仮想現実オブジェクトを仮想空間から削除すると判定した場合に、仮想現実オブジェクト配置部12030は、削除すると決定した仮想現実オブジェクトを仮想空間から削除し、ステップS1201に戻る(ステップS1204)。 If it is determined in step S1203 that the virtual reality object is to be deleted from the virtual space, the virtual reality object placement unit 12030 deletes the virtual reality object determined to be deleted from the virtual space, and returns to step S1201 (step S1204).
このように、既に仮想空間に配置する必要が無くなった仮想現実オブジェクトを適宜削除していくことで、仮想現実の提示に用いられる仮想現実オブジェクトだけが仮想空間に残り、当該仮想現実オブジェクトに係る映像表示や音声再生が行われる。 In this way, by deleting virtual reality objects that no longer need to be placed in the virtual space as appropriate, only the virtual reality objects used for presenting the virtual reality remain in the virtual space, and the video related to the virtual reality object Display and audio playback are performed.
図76は、仮想現実オブジェクトの挙動制御処理の流れを示すフローチャート図である。仮想現実オブジェクト挙動制御部16020は、仮想現実オブジェクトの挙動制御指示が出されているかを判定する(ステップS1301)。仮想現実管理制御部13050において実行される仮想現実メイン制御プログラムや仮想現実サブ制御プログラムに基づいて当該指示が仮想現実オブジェクト挙動制御部16020に出される。 FIG. 76 is a flowchart showing the flow of a virtual reality object behavior control process. The virtual reality object behavior control unit 16020 determines whether or not a virtual reality object behavior control instruction has been issued (step S1301). The instruction is issued to the virtual reality object behavior control unit 16020 based on the virtual reality main control program and the virtual reality sub-control program executed in the virtual reality management control unit 13050.
仮想現実オブジェクト挙動制御部16020は、当該指示を受けた場合に、指示されている通常時用仮想現実オブジェクト挙動制御プログラムを仮想現実オブジェクト記憶部12020から読み出して実行する(ステップS1302)。ここで、通常時用仮想現実オブジェクト挙動制御プログラムは、ユーザに対して提供される仮想現実サービスを実行するために用いられるプログラムである。 When receiving the instruction, the virtual reality object behavior control unit 16020 reads the instructed normal-time virtual reality object behavior control program from the virtual reality object storage unit 12020 and executes it (step S1302). Here, the normal-time virtual reality object behavior control program is a program used to execute a virtual reality service provided to the user.
ここで、注意喚起制御部14010より割り込み指示が入った場合(ステップS1303でYes)、仮想現実オブジェクト挙動制御部16020は、仮想現実コンテンツ記憶部16010の中から指示されている注意喚起用仮想現実オブジェクト挙動制御プログラムを読み出して実行する(ステップS1304)。 Here, when an interrupt instruction is input from the alerting control unit 14010 (Yes in step S1303), the virtual reality object behavior control unit 16020 indicates the alerting virtual reality object instructed from the virtual reality content storage unit 16010. The behavior control program is read and executed (step S1304).
ここで、注意喚起用仮想現実オブジェクト挙動制御プログラムは、注意喚起制御部14010において、予め設定されている注意喚起条件を満たしたと判定された場合に、ユーザに提供中の仮想現実サービスに基づく通常時仮想現実オブジェクト挙動制御プログラムに割り込んで優先的に実行されるプログラムである。 Here, the virtual reality object behavior control program for alerting is a normal time based on the virtual reality service being provided to the user when the alert controller 14010 determines that the alerting condition set in advance is satisfied. It is a program that is executed preferentially by interrupting the virtual reality object behavior control program.
例えば、「ギリシャの偉大な哲学者アリストテレスが30分間身振り手振りで哲学の講義をする」という内容の仮想現実サービスがユーザに提供されているとする。この場合、仮想現実コンテンツ記憶部16010には、当該アリストテレスを模した仮想現実オブジェクトのモデルデータやアリストテレスの声を模した当該講義内容の音声データ、また、当該アリストテレスの仮想現実オブジェクトを動作させる仮想現実制御プログラムが記憶されている。 For example, it is assumed that the user is provided with a virtual reality service in which “Great Greek philosopher Aristotle gives a philosophy lecture by gesturing for 30 minutes”. In this case, the virtual reality content storage unit 16010 stores virtual reality object model data imitating the Aristotle, audio data of the lecture content imitating Aristotle's voice, and virtual reality that operates the virtual reality object of the Aristotle. A control program is stored.
ユーザからの当該仮想現実サービスの利用要求に基づいて、仮想現実管理制御部13050は、当該仮想現実サービスに係る仮想現実メイン制御プログラム及びサブ制御プログラムを読み出して実行することで仮想空間を設定し、仮想現実オブジェクト配置部12030は、当該仮想空間にアリストテレスの仮想現実オブジェクトを読み出して配置する。 Based on the use request of the virtual reality service from the user, the virtual reality management control unit 13050 sets the virtual space by reading and executing the virtual reality main control program and the sub control program related to the virtual reality service, The virtual reality object placement unit 12030 reads and places the Aristotle virtual reality object in the virtual space.
仮想現実オブジェクト挙動制御部16020は、仮想現実管理制御部13050が実行するサブ制御プログラムに基づいて出される指示に従って、適宜仮想現実コンテンツ記憶部16010より仮想現実オブジェクト挙動制御プログラムを実行することで、仮想空間に配置している仮想現実オブジェクトの外観形状を変化させていく。当該仮想現実オブジェクトの映像が映像生成処理部11021で生成される。また、仮想現実オブジェクト挙動制御部16020は、当該アリストテレスの仮想現実オブジェクトが喋る講義内容の音声データを仮想現実コンテンツ記憶部16010より読み出して、音声再生制御部11023−1に送る。音声再生制御部11023−1は、当該送られてきた音声データを、ユーザ状態検知部12010で検知されるユーザ位置と、仮想現実オブジェクト配置部12030が配置する仮想現実オブジェクト位置との相対位置関係に基づいて複数の音声チャンネルに分配してDA変換を行い、スピーカ11023−2より放音する。 The virtual reality object behavior control unit 16020 executes the virtual reality object behavior control program from the virtual reality content storage unit 16010 as appropriate according to an instruction issued based on the sub-control program executed by the virtual reality management control unit 13050. The appearance shape of the virtual reality object arranged in the space is changed. A video of the virtual reality object is generated by the video generation processing unit 11021. Also, the virtual reality object behavior control unit 16020 reads the audio data of the lecture content that the virtual reality object of the Aristotle reads from the virtual reality content storage unit 16010 and sends it to the audio reproduction control unit 11023-1. The audio reproduction control unit 11023-1 has the relative position relationship between the user position detected by the user state detection unit 12010 and the virtual reality object position arranged by the virtual reality object arrangement unit 12030 for the transmitted audio data. Based on this, it is distributed to a plurality of audio channels, DA conversion is performed, and sound is emitted from the speaker 11023-2.
このような処理が継続されることで、ユーザの視界に表されている仮想現実オブジェクトで表されるアリストテレスが自分の目の前で講義をしている映像と音声がユーザに感知される。 By continuing such processing, the user senses the video and audio in which Aristotle, who is represented by the virtual reality object represented in the user's field of view, lectures in front of his / her eyes.
このように仮想現実サービスが提供されている状況において、注意喚起制御部14010によって注意喚起条件を満たしたと判定された場合に、講義用の仮想現実オブジェクト挙動制御プログラムが一旦停止され、代わりに注意喚起用仮想現実オブジェクト挙動制御プログラムが実行される。 In the situation where the virtual reality service is provided in this way, when the alert control unit 14010 determines that the alert condition is satisfied, the virtual reality object behavior control program for lecture is temporarily stopped and alerted instead. A virtual reality object behavior control program is executed.
例えば、注意喚起制御部14010において、前方に障害があると判定された場合は、仮想現実オブジェクト挙動制御部16020は、現在提示されているアリストテレスの仮想現実オブジェクトに「前方に障害があるので注意してください」と言ったジェスチャーと音声を発せさせる注意喚起用仮想現実オブジェクト制御プログラムを読み込んで実行する。 For example, if the alert control unit 14010 determines that there is a failure ahead, the virtual reality object behavior control unit 16020 indicates that the currently presented Aristotle virtual reality object is “There is a failure ahead. Please read and execute the virtual reality object control program for alerting that makes a gesture and sound like "Please do".
また、例えば、注意喚起制御部14010において、車等の移動体が後方から接近していると判定された場合は、仮想現実オブジェクト挙動制御部16020は、現在提示されているアリストテレスの仮想現実オブジェクトに「後方より時速40kmの車が接近しています。注意して下さい。」と言ったジェスチャーと音声を発せさせる注意喚起用仮想現実オブジェクト制御プログラムを読み込んで実行する。 Further, for example, when the alert control unit 14010 determines that a moving body such as a car is approaching from behind, the virtual reality object behavior control unit 16020 displays the virtual reality object of Aristotle that is currently presented. Read and execute a virtual reality object control program for alerting that makes a gesture and voice saying “A car at 40 km / h is approaching from behind.
仮想現実オブジェクト挙動制御部16020は、注意喚起が終了した場合に(ステップS1305でYes)、停止している通常時用仮想現実オブジェクト挙動制御プログラムの実行を再開する(ステップS1306)。一方、注意喚起が終了していない場合は(ステップS1305でNo)、注意喚起用仮想現実オブジェクト挙動プログラムを実行し続ける。 When the alerting is finished (Yes in step S1305), the virtual reality object behavior control unit 16020 resumes execution of the stopped virtual reality object behavior control program for normal time (step S1306). On the other hand, when the alerting is not finished (No in step S1305), the alerting virtual reality object behavior program is continuously executed.
以上説明したように、本実施形態13に係る仮想現実提示システムによれば、仮想現実提示用に使用している仮想現実オブジェクトを用いてユーザに注意喚起を行う。すなわち、仮想現実の世界を感知しているユーザの行動が現実の世界へ与える影響を抑えるようにする注意喚起を、現実の世界ではなく仮想現実の世界の中で行うように制御する。例えば、ユーザを現実の世界で右方向に動かしたい場合は、仮想現実オブジェクトがユーザに対して右方向に動くように話しかけることでユーザの行動を管理する。 As described above, according to the virtual reality presentation system according to the thirteenth embodiment, the user is alerted using the virtual reality object used for virtual reality presentation. That is, control is performed so that alerting to suppress the influence of the action of the user who senses the virtual reality world on the real world is performed in the virtual reality world instead of the real world. For example, when the user wants to move the user in the right direction in the real world, the user's behavior is managed by talking to the user so that the virtual reality object moves in the right direction.
当該構成によれば、ユーザは仮想現実の世界の中で行われる注意喚起に基づいて現実の世界での影響を抑えるように行動しているため、ユーザの仮想現実の世界に対する錯覚度が低下することを防ぐことができる。 According to the said structure, since the user is acting so that the influence in the real world may be suppressed based on the alerting performed in the virtual reality world, the degree of illusion of the user in the virtual reality world decreases. Can be prevented.
このように、ユーザに提供される仮想現実サービスに割り込む形で、仮想現実サービスで使用している仮想現実オブジェクトを用いて注意喚起を実行することで、ユーザの錯覚度が注意喚起によって上がったり下がったりすることを防ぐことができ、ユーザは安定的に仮想現実の世界を堪能することができる。 In this way, by executing the alert using the virtual reality object used in the virtual reality service while interrupting the virtual reality service provided to the user, the illusion degree of the user is increased or decreased by the alert. The user can stably enjoy the virtual reality world.
なお、仮想現実オブジェクトを利用する注意喚起を行ってもユーザの行動による影響が改善されない場合は、注意喚起制御部14010は、実施形態11、12に示した仮想現実オブジェクトを用いない形態の注意喚起を行う構成としても良い。それでもユーザの行動による影響が改善されない場合は、実施形態8〜10で示した仮想現実の提示の中断が行われる構成とすると更に良好である。 Note that if the influence by the user's action is not improved even if the alert using the virtual reality object is performed, the alert controller 14010 does not use the virtual reality object shown in the eleventh and twelfth embodiments. It is good also as a structure which performs. If the influence of the user's action is not improved, it is even better if the virtual reality presentation shown in Embodiments 8 to 10 is interrupted.
すなわち、注意喚起判定処理部14011は、周囲状況検知部11010で検知される周囲の状況やユーザ状態検知部12010で検知されるユーザの状態が第1種の注意喚起条件を満たしているかの判定を行う。第1種の注意喚起は緊急度が低い注意喚起である。当該判定の結果注意喚起条件を満たしていると判定した場合は、現在仮想空間に配置している仮想現実オブジェクトの挙動を変化させる所定の注意喚起プログラムであるメッソドを実行することで、仮想現実の世界側で注意喚起を行う。この時、当該注意喚起条件は、現在ユーザに提供している仮想現実サービスの種類に応じて複数の注意喚起条件が注意喚起条件記憶部15010に記憶されていることが好ましい。注意喚起判定処理部14011は、周囲状況検知部11010で検知される周囲の状況やユーザ状態検知部12010で検知されるユーザの状態が現在ユーザに提供している仮想現実サービスに対して設定されている注意喚起条件を満たしているかの判定を行う構成となる。なお、当該注意喚起条件は仮想現実サービスそのものに設定されていても良いし、当該仮想現実サービスが属するクラスに対して設定されていても良い。また、仮想現実オブジェクトに対して実行される注意喚起用プログラムに該当するメッソドは、周囲状況検知部11010で検知される周囲の状況やユーザ状態検知部12010で検知されるユーザの状態に基づいて適切なメソッドが選択される構成とすると良い。すなわち、仮想現実オブジェクト挙動制御部16020は、注意喚起部14010において仮想現実オブジェクトによる注意喚起を行うと判定された場合に、周囲状況検知部11010で検知される周囲の状況やユーザ状態検知部12010で検知されるユーザの状態に基づいて決定される注意喚起に応じたメッソドを実行することで仮想現実オブジェクトを用いた注意喚起を行う。 That is, the alert determination processing unit 14011 determines whether the surrounding state detected by the ambient state detection unit 11010 and the user state detected by the user state detection unit 12010 satisfy the first type of alert condition. Do. The first type of alert is an alert with a low degree of urgency. If it is determined that the alert condition is satisfied as a result of the determination, the virtual reality object is executed by executing a method that is a predetermined alert program that changes the behavior of the virtual reality object currently placed in the virtual space. Raise attention on the world side. At this time, it is preferable that a plurality of alert conditions are stored in the alert condition storage unit 15010 according to the type of virtual reality service currently provided to the user. The alert determination processing unit 14011 is set for the virtual reality service currently provided to the user by the surrounding state detected by the surrounding state detection unit 11010 and the user state detected by the user state detection unit 12010. It is configured to determine whether or not the alerting condition is satisfied. Note that the alerting condition may be set for the virtual reality service itself or may be set for the class to which the virtual reality service belongs. In addition, the method corresponding to the alerting program executed for the virtual reality object is appropriate based on the surrounding state detected by the surrounding state detection unit 11010 and the user state detected by the user state detection unit 12010. It is recommended to select a method that selects the correct method. That is, the virtual reality object behavior control unit 16020 uses the surrounding state detected by the surrounding state detection unit 11010 and the user state detection unit 12010 when the attention calling unit 14010 determines that the virtual reality object is to call attention. Attention using the virtual reality object is performed by executing a method corresponding to the attention determined based on the detected user state.
また、注意喚起判定処理部14011は、周囲状況検知部11010で検知される周囲の状況やユーザ状態検知部12010で検知されるユーザの状態が第2種の注意喚起条件を満たしているかの判定を行う。第2種の注意喚起は緊急度が高い注意喚起である。当該判定の結果、注意喚起条件を満たしていると判定した場合は、映像表示制御部11022−1は、注意喚起用映像データを注意喚起用映像データ記憶部4020より読み出し、映像生成処理部11021で生成される仮想現実オブジェクトの映像データに多重する処理を行う。当該現在仮想空間に配置している仮想現実オブジェクトの挙動を変化させる所定の注意喚起プログラムであるメッソドを実行することで、仮想現実の世界側で注意喚起を行う。注意喚起用映像は、仮想空間に配置された仮想現実オブジェクトを描画することで得られる映像ではないため、非仮想現実映像となる。したがって、ユーザの頭部や視線が変化した場合、仮想現実オブジェクトを描画することにより映像生成処理部11021で生成される仮想現実用の映像は変化するものの、注意喚起用映像は表示パネル11022−2の同一位置に表示され続けることになる。 Further, the alert determination processing unit 14011 determines whether the surrounding state detected by the ambient state detection unit 11010 and the user state detected by the user state detection unit 12010 satisfy the second type of alert condition. Do. The second type of alert is an alert with a high degree of urgency. As a result of the determination, if it is determined that the alerting condition is satisfied, the video display control unit 11022-1 reads the alerting video data from the alerting video data storage unit 4020, and the video generation processing unit 11021 A process of multiplexing the video data of the generated virtual reality object is performed. The virtual reality world side is alerted by executing a method that is a predetermined alerting program for changing the behavior of the virtual reality object currently arranged in the virtual space. The alerting video is not a video obtained by drawing a virtual reality object arranged in the virtual space, and thus is a non-virtual reality video. Therefore, when the user's head or line of sight changes, the virtual reality video generated by the video generation processing unit 11021 changes by drawing the virtual reality object, but the alerting video is displayed on the display panel 11022-2. Will continue to be displayed at the same position.
また、仮想現実提示中断判定処理部11031は、周囲状況検知部11010で検知される周囲の状況やユーザ状態検知部12010で検知されるユーザの状態が仮想現実提示中断条件を満たしているかの判定を行う。仮想現実提示中断条件は緊急度が最も高い条件である。当該判定の結果、仮想現実提示中断条件を満たしていると判定した場合は、映像表示制御部11022−1は、映像生成処理部11021で生成される仮想現実用の映像を表示パネル11022−2に表示することを中断する。 In addition, the virtual reality presentation interruption determination processing unit 11031 determines whether the surrounding state detected by the surrounding state detection unit 11010 and the user state detected by the user state detection unit 12010 satisfy the virtual reality presentation interruption condition. Do. The virtual reality presentation interruption condition is the condition with the highest degree of urgency. If it is determined that the virtual reality presentation interruption condition is satisfied as a result of the determination, the video display control unit 11022-1 displays the virtual reality video generated by the video generation processing unit 11021 on the display panel 11022-2. Stop displaying.
このように、複数の段階に応じて注意喚起及び仮想現実の提示中断が行われるように制御される構成とすることで、適切な仮想現実の提示が実現できる。 In this way, by adopting a configuration in which alerting and virtual reality presentation are interrupted according to a plurality of stages, it is possible to realize appropriate virtual reality presentation.
また、注意喚起の仕方としては、例えば右前方より車が接近している場合に、表示パネル11022−2の右側に仮想現実オブジェクトの映像が表示されている場合には、仮想現実オブジェクトを左側に歩かせてユーザの右側の視界が確保できるように仮想現実オブジェクトの挙動を制御するように構成しても良い。 Also, as a method of alerting, for example, when a vehicle is approaching from the right front and the video of the virtual reality object is displayed on the right side of the display panel 11022-2, the virtual reality object is moved to the left side. The behavior of the virtual reality object may be controlled so that the right field of view of the user can be secured by walking.
(実施形態14)
実施形態8〜13に示す仮想現実提示システムでは、仮想現実の提示の中断又は注意喚起を行うことで、ユーザの行動が現実の世界に与える影響を管理している。すなわち、実施形態8〜10ではユーザの錯覚度を0に下げることで、ユーザの意識を現実の世界に戻しているのに対し、実施形態11、12では錯覚度を下げることなくユーザの意識が現実の世界にも間接的に行き渡るようにしている。
(Embodiment 14)
In the virtual reality presentation systems shown in the eighth to thirteenth embodiments, the influence of the user's action on the real world is managed by interrupting or alerting the presentation of the virtual reality. That is, in Embodiments 8 to 10, the user's consciousness is returned to the real world by reducing the user's illusion degree to 0, whereas in Embodiments 11 and 12, the user's consciousness is reduced without reducing the illusion degree. It tries to indirectly reach the real world.
図37からも分かる様に、仮想現実の提示とは、ユーザが感知する情報の一部又は全部を人工的な情報に置換することで、人工的に創り出される仮想現実の世界を現実の世界であるようにユーザが錯覚させることである。 As can be seen from FIG. 37, the presentation of virtual reality is the replacement of part or all of the information perceived by the user with artificial information, thereby replacing the virtual reality world created artificially with the real world. It is as if the user has an illusion.
従って、現実の世界からの情報量を少なくし、仮想現実提示装置からの情報を多くすればするほど、ユーザが感知する世界における仮想現実度は増加していくことになる。例えば、図77に示す(a)では、仮想現実提示装置からユーザに提示される情報は0であり、したがってユーザが感知する世界は現実の世界そのものである。一方、(b)では、現実の世界からの情報のうち30%程度が遮断され、仮想現実提示装置からの情報で補完されている。従って、ユーザが感知する世界は仮想現実の世界である。但し、70%の情報は、現実の世界の情報をそのまま用いているため、仮想現実の世界における仮想現実度は比較的低い。一方、(c)では、90%の情報が置き換えられており、ユーザが感知する世界の殆どは人工的に作られたものであり、仮想現実度は高いことになる。 Therefore, as the amount of information from the real world is reduced and the information from the virtual reality presentation device is increased, the virtual reality in the world sensed by the user increases. For example, in (a) shown in FIG. 77, the information presented to the user from the virtual reality presentation device is 0, and therefore the world sensed by the user is the real world itself. On the other hand, in (b), about 30% of the information from the real world is blocked and supplemented with information from the virtual reality presentation device. Therefore, the world perceived by the user is a virtual reality world. However, since 70% of information uses information in the real world as it is, the virtual reality in the virtual reality world is relatively low. On the other hand, in (c), 90% of the information is replaced, and most of the world that the user senses is artificially created, and the virtual reality is high.
ユーザに対する注意喚起とは、仮想現実の世界にいるユーザの意識を現実の世界に向けるように仕向けることであり、当該制御を行うことで仮想現実の世界にいるユーザの行動が与える現実世界への影響を緩和することが目的である。そのためには、錯覚度をコントロールすることではなく、仮想現実度を制御することでユーザの注意を現実の世界に振り向ける構成とできることが好ましい。このように、本実施形態14に係る仮想現実提示システムは、ユーザに提示する仮想現実における仮想現実度を制御することで、仮想現実の世界を感知しているユーザの行動が現実の世界に与える影響を管理する点を特徴としている。 Alerting the user means directing the user's consciousness in the virtual reality world to the real world. By performing this control, the user's action in the virtual reality world gives to the real world. The purpose is to mitigate the impact. For this purpose, it is preferable that the configuration is such that the user's attention is directed to the real world by controlling the virtual reality instead of controlling the illusion. As described above, in the virtual reality presentation system according to the fourteenth embodiment, by controlling the virtual reality degree in the virtual reality presented to the user, the action of the user who senses the virtual reality world is given to the real world. It is characterized by managing impacts.
図78は、本実施形態14に係る仮想現実提示システム17000の構成を示すブロック図である。仮想現実提示システム17000は、周囲状況検知部11010と、仮想現実提示部11020と、仮想現実度管理部17010とを備える。 FIG. 78 is a block diagram illustrating a configuration of a virtual reality presentation system 17000 according to the fourteenth embodiment. The virtual reality presentation system 17000 includes an ambient condition detection unit 11010, a virtual reality presentation unit 11020, and a virtual reality management unit 17010.
仮想現実度とは、ユーザに提示される仮想現実の世界と現実の世界とのずれの大きさを示す。例えば、図38に示す仮想現実の世界Bは現実の世界とのオーバーラップが大きく、図77に示す(b)のようにユーザが感知する仮想現実の世界の大部分が現実の世界からの情報であることを示しており、このような仮想現実の世界の仮想現実度は低いことになる。一方、図38に示す仮想現実の世界Fは現実の世界とのオーバーラップが小さく、図77に示す(c)のようにユーザが感知する仮想現実の世界の大部分が仮想現実提示装置が創り出す人工的な情報であることを示しており、このような仮想現実の世界の仮想現実度は高いことになる。 The virtual reality degree indicates the magnitude of deviation between the virtual reality world presented to the user and the real world. For example, the virtual reality world B shown in FIG. 38 has a large overlap with the real world, and most of the virtual reality world sensed by the user as shown in FIG. 77B is information from the real world. In other words, the virtual reality in such a virtual reality world is low. On the other hand, the virtual reality world F shown in FIG. 38 has a small overlap with the real world, and the virtual reality presentation device creates most of the virtual reality world sensed by the user as shown in FIG. 77C. This indicates that the information is artificial information, and the virtual reality in such a virtual reality world is high.
仮想現実度Rdは、ユーザが現実の世界から受け取る情報の情報量をINRとし、仮想現実提示装置が提示する人工的な情報の情報量をINAとして場合に、Rd={INA/(INR+INA)}×100で表される量であると定義する。 The virtual reality level Rd is Rd = {INA / (INR + INA)} when the amount of information received by the user from the real world is INR and the amount of artificial information presented by the virtual reality presentation device is INA. It is defined as an amount represented by x100.
なお、より正確な仮想現実度Rdの算出式は、ユーザの現実の世界の環境と、人工的に提示される仮想現実用の映像や音声との相関値による補正を行うことで定義することが好ましい。なお、上記補正を行う方が良い理由は、ユーザが現在動物園にいる場合に、キリンの仮想現実オブジェクトの映像を表示する場合にユーザが感じる仮想現実の世界と、ユーザが自宅にいる場合にキリンの仮想現実オブジェクトの映像を表示する場合にユーザが感じる仮想現実の世界では、非日常性と言う観点で大きく異なり、ユーザの錯覚度が後者は低くなるためである。錯覚度が低くなったユーザは、仮想現実の世界が提示されていても、それが偽りの映像であることを認識しており、ユーザの注意は現実の世界の方に強く向かうため、仮想現実度が下がることになる。なお、ここでは、この観点については省略し、仮想現実度Rdは上記式で単純化し、8ビットで表されるよう256段階表示した値を本明細書で言うところの仮想現実度であるものとして説明する。 It should be noted that a more accurate calculation formula for the virtual reality Rd can be defined by performing correction based on a correlation value between the user's real-world environment and artificially presented virtual reality video and audio. preferable. The reason why it is better to perform the above correction is that when the user is currently in the zoo, the virtual reality world felt by the user when displaying the video of the virtual reality object of the giraffe and when the user is at home This is because the virtual reality world felt by the user when displaying the video of the virtual reality object is greatly different from the viewpoint of unusualness, and the latter has a low illusion of the user. Users with low illusions recognize that even if a virtual reality world is presented, it is a false image, and the user's attention is strongly directed toward the real world, so virtual reality The degree will go down. Here, this point of view is omitted, and the virtual reality Rd is simplified by the above formula, and the value displayed in 256 levels as represented by 8 bits is the virtual reality as referred to in this specification. explain.
仮想現実度管理部17010は、周囲状況検知部11010やユーザ状態検知部12010で検知される各情報に基づいて、仮想現実提示部11020で提示可能な仮想現実の仮想現実度を設定する。 The virtual reality management unit 17010 sets the virtual reality of the virtual reality that can be presented by the virtual reality presenting unit 11020 based on each information detected by the surrounding situation detection unit 11010 and the user state detection unit 12010.
例えば、ユーザが自宅に一人でいる場合には、現実の世界から大きく外れた仮想現実の世界をユーザが感知していたとしても、ユーザの行動が現実の世界に与える影響は小さいため問題はない。一方、ユーザが公共の場にいる場合は、ユーザが感知する仮想現実の世界と、他人がいる現実の世界とのずれが大きい場合には、仮想現実の世界に適合するようにユーザが行った行動内容が現実の世界に与える影響が大きくなる可能性が高まる。また、ユーザが止まっている場合は、当該ユーザが感知する仮想現実の世界が現実の世界と大きくずれていても問題にならない場合であっても、ユーザが高速で移動している場合にはユーザが仮想現実の世界に適合するように行動していても、現実の世界では問題となる場合がある。 For example, when the user is alone at home, even if the user perceives a virtual reality world that is significantly different from the real world, there is no problem because the influence of the user's action on the real world is small. . On the other hand, when the user is in a public place, if the difference between the virtual reality world perceived by the user and the real world where there is another person is large, the user has made it to fit the virtual reality world The possibility that the content of the action will have a greater impact on the real world increases. In addition, when the user is stopped, even if it does not matter if the virtual reality world sensed by the user is significantly different from the real world, if the user is moving at high speed, Even if they act to fit the virtual reality world, it can be a problem in the real world.
そこで、仮想現実度管理部17010は、ユーザ状態や周囲状況に基づいて、仮想現実提示部11020が提示する仮想現実の世界と現実の世界との乖離度合を示す仮想現実度を管理する。仮想現実度は、例えば256段階で表される。仮想現実度0は、ユーザが感知する情報のすべてが現実の世界の情報であり、仮想現実提示装置が映像の表示や音声の再生を全く行っていないことを示している。一方、仮想現実度256は、ユーザの目の前に配置されている表示パネル11022−2に表示される映像の全てが人工的に創り出された映像であり、現実の世界の音声を遮断した状態でスピーカ11023−2よ人工的に創り出された音声が放音されていることを示している。 Therefore, the virtual reality management unit 17010 manages the virtual reality indicating the degree of divergence between the virtual reality world presented by the virtual reality presenting unit 11020 and the real world based on the user state and the surrounding situation. The virtual reality is expressed in, for example, 256 levels. The virtual reality degree 0 indicates that all of the information sensed by the user is information in the real world, and the virtual reality presentation device does not display video or play audio at all. On the other hand, the virtual reality 256 is an image in which all the images displayed on the display panel 11022-2 arranged in front of the user's eyes are artificially created, and the sound in the real world is blocked. It shows that the sound created artificially by the speaker 11023-2 is emitted.
なお、人間は聴覚よりも視覚による情報取得の割合が大きいため、例えば256段階のうち、映像による仮想現実度は192段階であり、音声による仮想現実度は64段階で表される。例えば、音声の再生を全く行わず、表示パネル11022−2の全体に現実の世界からの光を遮断した状態で人工的な映像を表示する場合の仮想現実度は192となり、一方、表示パネル11022−2には一切人工的な映像を表示せず、現実の世界の音声を遮断して人工的な音声を再生している場合の仮想現実度は64となる。このように、仮想現実度は、ユーザが仮想現実提示装置から受け取る情報のうち、人工的な情報の割合の大きさを示していることになる。 Note that since humans have a higher rate of visual information acquisition than auditory sense, for example, out of 256 levels, the virtual reality level by video is 192 levels, and the virtual reality level by sound is expressed by 64 levels. For example, the virtual reality is 192 in the case where an artificial image is displayed in a state where light from the real world is blocked on the entire display panel 11022-2 without playing any sound, whereas the display panel 11022 is displayed. -2 does not display any artificial video, and the virtual reality is 64 when the real world voice is cut off and the artificial voice is reproduced. Thus, the virtual reality degree indicates the size of the proportion of artificial information in the information received by the user from the virtual reality presentation device.
仮想現実提示部11020は、仮想現実度管理部17010が管理する仮想現実度に適合するように仮想現実の提示を行う。例えば、仮想現実度管理部17010で、提示可能な仮想現実度が100として設定されている場合は、仮想現実提示部11020は、当該仮想現実度以下に収まる様に仮想現実を提示する。従って、この場合には、仮想現実提示部11020は、表示パネル11022−2全体に仮想現実オブジェクトの映像を表示することはできないことになる。仮想現実提示部11020は、仮想現実オブジェクトに係る映像と音声との情報量をコントロールしながら仮想現実の提示を行う。 The virtual reality presentation unit 11020 presents virtual reality so as to match the virtual reality managed by the virtual reality management unit 17010. For example, when the virtual reality degree that can be presented is set as 100 in the virtual reality degree management unit 17010, the virtual reality presentation unit 11020 presents the virtual reality so as to be less than or equal to the virtual reality degree. Therefore, in this case, the virtual reality presentation unit 11020 cannot display the video of the virtual reality object on the entire display panel 11022-2. The virtual reality presentation unit 11020 presents virtual reality while controlling the information amount of video and audio related to the virtual reality object.
以上のように、本実施形態14に係る仮想現実提示システム17000は、ユーザの状態又はユーザの周囲の状況に基づいて、提示する仮想現実の仮想現実度を制御することを特徴とする。従って、周囲状況等に基づいてユーザの注意を現実の世界に向けたい場合は、仮想現実度を下げて、仮想現実提示部11020からユーザに提示される相対的な情報量を下げる制御を行う。すなわち、現実の世界から感知する情報量を人工的な情報と比較して相対的に上げる制御を行う。当該構成とすることで仮想現実の提示を継続しつつもユーザの行動が現実の世界に与える影響を考慮することができる。 As described above, the virtual reality presentation system 17000 according to the fourteenth embodiment is characterized in that the virtual reality degree of the virtual reality to be presented is controlled based on the state of the user or the situation around the user. Therefore, when it is desired to direct the user's attention to the real world based on the surrounding situation or the like, control is performed to lower the virtual reality and lower the relative amount of information presented from the virtual reality presentation unit 11020 to the user. That is, control is performed to relatively increase the amount of information sensed from the real world compared to artificial information. With this configuration, it is possible to consider the influence of the user's action on the real world while continuing to present the virtual reality.
なお、仮想現実提示システム17000は、図79に示す構成とすると更に良好である。図79に示す仮想現実提示システム17000は、周囲状況検知部11010と、仮想現実提示部11020と、ユーザ状態検知部12010と、仮想現実オブジェクト配置部12030と、音声入力部13030と、仮想現実管理制御部13050と、仮想現実コンテンツ記憶部16010と、仮想現実オブジェクト挙動制御部16020と、仮想現実度管理部17010と、を備える。 Note that the virtual reality presentation system 17000 is even better when configured as shown in FIG. The virtual reality presentation system 17000 shown in FIG. 79 includes an ambient state detection unit 11010, a virtual reality presentation unit 11020, a user state detection unit 12010, a virtual reality object placement unit 12030, a voice input unit 13030, and virtual reality management control. Unit 13050, virtual reality content storage unit 16010, virtual reality object behavior control unit 16020, and virtual reality management unit 17010.
仮想現実度管理部17010は、提示可能仮想現実度算出処理部17011と、提示予定仮想現実度算出処理部17012と、提示用仮想現実度分配処理部17013と、仮想現実度削減割合指示部17014と、を備える。 The virtual reality management unit 17010 includes a presentable virtual reality calculation processing unit 17011, a scheduled virtual reality calculation processing unit 17012, a presentation virtual reality distribution processing unit 17013, and a virtual reality reduction ratio instruction unit 17014. .
提示可能仮想現実度算出処理部17011は、周囲状況検知部11010で検知されたユーザの周囲の状況やユーザ状態検知部12010で検知されたユーザの状態に基づいて、ユーザに提示可能な仮想現実の仮想現実度を算出する。なお、提示可能仮想現実度算出処理部17011は、ユーザに提供される仮想現実サービスに応じて当該提供可能な仮想現実の仮想現実度を算出する構成としても良い。例えば、提示可能仮想現実度算出処理部17011は、ユーザに提供している仮想現実サービスと、周囲状況検知部11010で検知されたユーザの周囲の状況やユーザ状態検知部12010で検知されたユーザの状態に基づいて、ユーザに提示可能な仮想現実の仮想現実度を算出する。 The presentable virtual reality calculation processing unit 17011 is a virtual reality that can be presented to the user based on the user's surroundings detected by the surrounding state detection unit 11010 and the user's state detected by the user state detection unit 12010. Calculate virtual reality. The presentable virtual reality calculation processing unit 17011 may be configured to calculate the virtual reality of the virtual reality that can be provided according to the virtual reality service provided to the user. For example, the presentable virtual reality calculation processing unit 17011 includes the virtual reality service provided to the user, the user's surrounding state detected by the surrounding state detection unit 11010, and the user state detected by the user state detection unit 12010. Based on the state, the virtual reality of virtual reality that can be presented to the user is calculated.
提示予定仮想現実度算出処理部17012は、映像生成処理部11021で生成された映像データと、仮想現実オブジェクト挙動制御部16020より音声再生制御部11023−1に送られる音声データとを入力し、現在提示が予定されている仮想現実の仮想現実度を算出する。 The scheduled presentation virtual reality calculation processing unit 17012 receives the video data generated by the video generation processing unit 11021 and the audio data sent from the virtual reality object behavior control unit 16020 to the audio reproduction control unit 11023-1. The virtual reality degree of the virtual reality scheduled to be presented is calculated.
提示可能仮想現実度分配処理部17013は、提示予定仮想現実度算出処理部17012で求められた提示が予定される仮想現実度に基づいて、提示可能仮想現実度算出処理部17011で算出された仮想現実度を分配する処理を行う。 The presentable virtual reality distribution processing unit 17013 uses the virtual reality calculated by the presentable virtual reality calculation processing unit 17011 based on the virtual reality expected to be presented obtained by the scheduled presentation virtual reality calculation processing unit 17012. Process to distribute the reality.
例えば、提示可能仮想現実度算出処理部17011で算出された提示可能仮想現実度が120であり、提示予定仮想現実度算出処理部17012で算出された映像に係る提示予定仮想現実度が80、音声に係る提示予定仮想現実度が30であったとする。この場合、提示予定仮想現実度の合計が提示可能仮想現実度を下回っているため、提示可能仮想現実度分配処理部17013は、現状のまま提示できると判断する。 For example, the presentable virtual reality calculated by the presentable virtual reality calculation processing unit 17011 is 120, the scheduled presentation virtual reality related to the video calculated by the planned presentation virtual reality calculation processing unit 17012 is 80, audio It is assumed that the presentation planned virtual reality related to is 30. In this case, since the total of the presentation-scheduled virtual reality levels is lower than the presentable virtual reality level, the presentable virtual reality distribution processing unit 17013 determines that the present status can be presented as it is.
一方、例えば、提示可能仮想現実度算出処理部17011で算出された提示可能仮想現実度が90であり、提示予定仮想現実度算出処理部17012で算出された映像に係る提示予定仮想現実度が70、音声に係る提示予定仮想現実度が30であったとする。この場合、提示予定仮想現実度の合計が提示可能仮想現実度を上回っているため、提示可能仮想現実度分配処理部17013は、現状のまま仮想現実を提示することはできない判断する。 On the other hand, for example, the presentable virtual reality calculated by the presentable virtual reality calculation processing unit 17011 is 90, and the scheduled presentation virtual reality related to the video calculated by the planned presentation virtual reality calculation processing unit 17012 is 70. Suppose that the virtual reality degree to be presented related to the voice is 30. In this case, since the total of the virtual realities scheduled to be presented exceeds the virtual reality that can be presented, the presentable virtual reality distribution processing unit 17013 determines that virtual reality cannot be presented as it is.
この場合、提示可能仮想現実度分配処理部17013は、現在提示が予定されている70+30=100の仮想現実度を提示可能仮想現実度90以下となるように、提示可能仮想現実度を映像用と音声用に分配する。 In this case, the presentable virtual reality distribution processing unit 17013 sets the presentable virtual reality to be for video so that the virtual reality of 70 + 30 = 100 currently scheduled to be presented is equal to or less than the presentable virtual reality 90. Distribute for audio.
例えば、提示可能仮想現実度分配処理部17013は、90/100の割合をかけて映像用の仮想現実度を63、音声用の仮想現実度を27に設定する。 For example, the presentable virtual reality distribution processing unit 17013 sets a virtual reality for video to 63 and a virtual reality for audio to 27 by multiplying a ratio of 90/100.
また、別の方法として、提示可能仮想現実度分配処理部17013は、映像用に仮想現実度を多く割り当てるように分配する。例えば、提示可能仮想現実度分配処理部17013は、映像用の仮想現実度は70をそのまま維持し、音声用に仮想現実度20を割り当てる。 As another method, the presentable virtual reality distribution processing unit 17013 distributes the virtual reality so that more virtual reality is allocated for video. For example, the presentable virtual reality distribution processing unit 17013 maintains the virtual reality for video 70 as it is, and assigns the virtual reality 20 for audio.
仮想現実度削減割合指示部17014は、提示可能仮想現実度分配処理部17013で決定された提示可能仮想現実度の分配に従って、仮想現実度削減割合として映像表示制御部11022−1と音声再生制御部11023−1に指示する。例えば、上記第1の例では削減割合は共に10%であるとして指示し、上記第2の例では、映像表示制御部11022−1には、削減割合は0%を、音声再生制御部11023−1には削減割合を33.3%であるとして指示する。 The virtual reality reduction ratio instructing unit 17014 includes the video display control unit 11022-1 and the audio reproduction control unit as virtual reality reduction ratios according to the distribution of the presentable virtual reality determined by the presentable virtual reality distribution processing unit 17013. 11023-1. For example, in the first example, it is instructed that both the reduction ratios are 10%. In the second example, the video display control unit 11022-1 has a reduction ratio of 0%, and the audio reproduction control unit 11023- 1 is instructed that the reduction ratio is 33.3%.
映像表示制御部11022−1は、映像生成処理部11021で生成された仮想現実オブジェクトの映像に対して、仮想現実度削減割合指示部17014より指示された仮想現実度の削減割合に基づく補正処理を行う。また、音声再生制御部11023−1は、仮想現実オブジェクト挙動制御部16020より送られてくる音声データに対して、仮想現実度削減割合指示部17014より指示された仮想現実度の削減割合に基づく補正処理を行う。ここで、音声再生制御部11023−1は、具体的な補正処理として音声レベルを下げる処理を行う。 The video display control unit 11022-1 performs a correction process based on the virtual reality reduction ratio instructed by the virtual reality reduction ratio instruction unit 17014 on the virtual reality object video generated by the video generation processing unit 11021. Do. Further, the audio reproduction control unit 11023-1 corrects the audio data sent from the virtual reality object behavior control unit 16020 based on the virtual reality reduction ratio instructed by the virtual reality reduction ratio instruction unit 17014. Process. Here, the audio reproduction control unit 11023-1 performs a process of lowering the audio level as a specific correction process.
図80は、仮想現実提示部11020の具体的構成を示したブロック図である。映像表示制御部11022−1は、映像補正処理部11022−1cを備える。映像補正処理部11022−1cは、映像生成処理部11021で生成された仮想現実オブジェクトの映像に対して、補正処理を行い、補正処理後の映像を表示パネル11022−2に表示する制御を行う。映像補正処理部11022−1cは、具体的に映像生成処理部11021で生成された仮想現実オブジェクトの映像に対して輝度を下げる補正処理を行ったり、映像に含まれる仮想現実オブジェクトのうち重要度が低い仮想現実オブジェクトを映像の中から取り除いたりするといった補正処理を行う。 FIG. 80 is a block diagram showing a specific configuration of the virtual reality presenting unit 11020. The video display control unit 11022-1 includes a video correction processing unit 11022-1c. The video correction processing unit 11022-1c performs correction processing on the video of the virtual reality object generated by the video generation processing unit 11021, and performs control to display the video after the correction processing on the display panel 11022-2. Specifically, the video correction processing unit 11022-1c performs a correction process for reducing the luminance of the video of the virtual reality object generated by the video generation processing unit 11021, or the importance level of the virtual reality objects included in the video is high. Correction processing such as removing a low virtual reality object from the video is performed.
音声再生制御部11023−1は、第1DA変換処理部11023−1dと、第1分配処理部11023−1eと、第1増幅処理部11023−1fと、第2DA変換処理部11023−1gと、第2分配処理部11023−1hと、第2増幅処理部11023−1iと、再生音声合成処理部11023−1jとを備える。 The audio reproduction control unit 11023-1 includes a first DA conversion processing unit 11023-1d, a first distribution processing unit 11023-1e, a first amplification processing unit 11023-1f, a second DA conversion processing unit 11023-1g, A two-distribution processing unit 11023-1h, a second amplification processing unit 11023-1i, and a reproduction speech synthesis processing unit 11023-1j.
第1DA変換処理部11023−1dは、仮想現実オブジェクト挙動制御部16020より送られてくる仮想現実提示用の音声データをアナログ音声信号に変換する。 The first DA conversion processing unit 11023-1d converts the audio data for virtual reality presentation sent from the virtual reality object behavior control unit 16020 into an analog audio signal.
第1分配処理部11023−1eは、ユーザ状態検知部12010で検知されたユーザの現在位置と、仮想現実オブジェクト配置部12030で配置されている仮想現実オブジェクトの位置とに基づいて、変換したアナログ音声信号を複数のチャンネルに分配する。 The first distribution processing unit 11023-1 e converts the analog audio converted based on the current position of the user detected by the user state detection unit 12010 and the position of the virtual reality object arranged by the virtual reality object arrangement unit 12030. Distribute the signal to multiple channels.
第1増幅処理部11023−1fは、分配された各チャンネルの音声を仮想現実度削減割合指示部17014から指示された削減割合に基づいて利得調整を行う。例えば、音声再生に対する仮想現実度の割り当てが少ない場合は、当該削減割合に応じて音声レベルを下げる調整を行う。 The first amplification processing unit 11023-1 f performs gain adjustment on the distributed audio of each channel based on the reduction ratio instructed from the virtual reality reduction ratio instruction unit 17014. For example, when the virtual reality level for audio reproduction is small, adjustment is performed to lower the audio level according to the reduction ratio.
第2DA変換処理部11023−1gは、音声入力部13030より送られてくる現実の世界の音声を集音して得られた音声データをアナログ音声信号に変換する。仮想現実提示装置には、ユーザの周囲の音声を集音するマイクロフォンが音声入力部13030として備え付けられている。当該マイクロフォンで集音されてAD変換で生成されたデジタル音声データに対して、DA変換を行うことでアナログ音声信号に戻す処理を行う。 The second DA conversion processing unit 11023-1 g converts audio data obtained by collecting real world audio sent from the audio input unit 13030 into an analog audio signal. The virtual reality presentation device is provided with a microphone that collects the voice around the user as the voice input unit 13030. The digital audio data collected by the microphone and generated by AD conversion is subjected to processing for returning to an analog audio signal by performing DA conversion.
第2分配処理部11023−1hは、変換したアナログ音声信号を複数のチャンネルに分配する。音声入力部13030として備え付けられているマイクロフォンが1つしかない場合は、位置分解能がないため、当該音声入力部13030で入力された音声を全てのチャンネルに均等に分配する。一方、音声入力部13030として複数のマイクロフォンが備え付けられている場合は、各音声の到来方向に合わせて当該音声入力部13030で入力された音声を各チャンネルに均等に分配する。 The second distribution processing unit 11023-1h distributes the converted analog audio signal to a plurality of channels. When there is only one microphone provided as the audio input unit 13030, since there is no position resolution, the audio input by the audio input unit 13030 is equally distributed to all channels. On the other hand, when a plurality of microphones are provided as the voice input unit 13030, the voice input by the voice input unit 13030 is equally distributed to each channel in accordance with the arrival direction of each voice.
第2増幅処理部11023−1iは、分配された各チャンネルの音声に対して利得調整を行う。例えば、ユーザが自ら設定する増幅率や、第1増幅処理部11023−1fにおける増幅率との兼ね合いで定まる増幅率で、音声入力部13030系統で入力された音声を増幅する。 The second amplification processor 110233-1i performs gain adjustment on the distributed audio of each channel. For example, the voice input by the voice input unit 13030 is amplified with an amplification factor determined by a gain set by the user himself / herself and an amplification factor in the first amplification processing unit 11023-1f.
再生音声合成処理部11023−1jは、第1増幅処理部11023−fと第2増幅処理部11023−jでそれぞれ増幅された各チャンネルの音声を合成し、スピーカ11023−2に出力する。スピーカ11023−2は、ユーザの現実の世界における周囲の音声に、仮想現実度調整が行われた仮想現実提示用の音声を重畳した状態で放音する。 The reproduction speech synthesis processing unit 11023-1j synthesizes the audio of each channel amplified by the first amplification processing unit 11023-f and the second amplification processing unit 11023-j, and outputs the synthesized speech to the speaker 11023-2. The speaker 11023-2 emits sound in a state where the sound for virtual reality presentation that has been adjusted for virtual reality is superimposed on the surrounding sound in the real world of the user.
当該構成によれば、ユーザの周囲の状況に基づいてユーザに提示される情報量が調整されるため、ユーザの注意を仮想現実の世界と現実の世界のどちらに向けるかを制御することができる。 According to this configuration, since the amount of information presented to the user is adjusted based on the situation around the user, it is possible to control whether the user's attention is directed to the virtual reality world or the real world. .
図81は、映像補正処理部11022−1cにおける映像補正処理で得られる映像と、ユーザが感知する景色とを示している。図81の(a)は、映像生成処理部11021で生成される映像に仮想現実オブジェクトが含まれておらず、従ってユーザは現実の世界をそのまま見ていることになるため仮想現実度は0である。現実の世界ではユーザの左右にそれぞれソファーが配置されている。 FIG. 81 shows a video obtained by the video correction processing in the video correction processing unit 11022-1c and a scene sensed by the user. In FIG. 81 (a), the virtual reality object is zero because the virtual reality object is not included in the video generated by the video generation processing unit 11021, and the user sees the real world as it is. is there. In the real world, sofas are arranged on the left and right sides of the user.
図81の(b)では、仮想空間にライオンの仮想現実オブジェクトと犬の仮想現実オブジェクトが配置されており、映像生成処理部11021は、これらの仮想現実オブジェクトの映像を生成する。仮想空間における描画用の視点位置及び視線方向は、ユーザの状態に基づいて制御されるため、当該仮想現実オブジェクトで表されるライオンと犬がそれぞれソファーに寝そべっているようにユーザには感知される。当該ライオンと犬が寝そべっている仮想現実の世界の仮想現実度は120であるとする。 In (b) of FIG. 81, a virtual reality object of a lion and a virtual reality object of a dog are arranged in the virtual space, and the video generation processing unit 11021 generates videos of these virtual reality objects. Since the drawing viewpoint position and line-of-sight direction in the virtual space are controlled based on the user's state, the user senses that the lion and the dog represented by the virtual reality object are lying on the sofa, respectively. . It is assumed that the virtual reality degree of the virtual reality world where the lion and the dog lie is 120.
ユーザ状態や周囲状況に基づいて、提示可能仮想現実度分配処理部17013が映像用に割り当てる仮想現実度が120を超えている場合は、補正処理を行うことなく表示可能であるため、映像表示制御部11022−1の映像補正処理部11022−1cは、仮想現実度に基づく補正処理を行わず、図81(b)で示される映像がそのまま表示パネル11022−2に表示される。 Based on the user status and the surrounding situation, when the virtual reality distribution processing unit 17013 that can be presented for video exceeds 120, it can be displayed without performing correction processing. The video correction processing unit 11022-1c of the unit 11022-1 does not perform the correction process based on the virtual reality, and the video shown in FIG. 81B is displayed on the display panel 11022-2 as it is.
一方、ユーザ状態や周囲状況に基づいて、提示可能仮想現実度分配処理部17013が映像用に割り当てる仮想現実度が120を下回っている場合は、そのまま表示パネル11022−2で表示することができない。そのため、映像表示制御部11022−1の映像補正処理部11022−1cは、映像生成処理部11021で生成された仮想現実オブジェクトの映像について仮想現実度を下げる補正処理を行う。 On the other hand, if the virtual reality allocated by the presentable virtual reality distribution processing unit 17013 for video is lower than 120 based on the user state and the surrounding situation, it cannot be displayed on the display panel 11022-2 as it is. Therefore, the video correction processing unit 11022-1c of the video display control unit 11022-1 performs a correction process for reducing the virtual reality degree for the video of the virtual reality object generated by the video generation processing unit 11021.
図81(c)では、映像補正処理部11022−1cは、映像に含まれる2つの仮想現実オブジェクトのうち、犬の仮想現実オブジェクトの映像部分を削除する補正処理を行っている。当該補正処理によって、補正後の映像の仮想現実度は120から100に下がっている。提示可能仮想現実度分配処理部17013が映像用に割り当てる仮想現実度が100以上であるならば、当該犬の映像が削除された補正後の映像が表示パネル11022−2に送られて表示される。 In FIG. 81 (c), the video correction processing unit 11022-1c performs correction processing for deleting the video part of the virtual reality object of the dog among the two virtual reality objects included in the video. By the correction process, the virtual reality of the corrected video is lowered from 120 to 100. If the virtual reality allocated by the presentable virtual reality distribution processing unit 17013 for the video is 100 or more, the corrected video from which the video of the dog is deleted is sent to the display panel 11022-2 and displayed. .
ここで、提示可能仮想現実度分配処理部17013が映像用に割り当てる仮想現実度が100未満であるならば、上記補正処理ではいまだ仮想現実度の条件を満たしていないことになる。そこで、映像補正処理部11022−1cは、仮想現実オブジェクトの映像の輝度を下げる補正処理を行う。 Here, if the virtual reality allocated by the presentable virtual reality distribution processing unit 17013 for video is less than 100, the correction processing still does not satisfy the condition of virtual reality. Therefore, the video correction processing unit 11022-1c performs a correction process for reducing the luminance of the video of the virtual reality object.
図81(d)では、残っているライオンの仮想現実オブジェクトの映像における輝度が下げられているため、表示パネル11022−2において仮想現実オブジェクトの映像が表示されている部分の奥になる現実の世界の物体が透けて見えている。すなわち、ユーザが取得する情報は、現実の世界からの情報が増えている。図81(d)では、当該輝度低減による補正処理が行われたことにより、仮想現実度が60まで下がっており、表示が可能となっている。 In FIG. 81 (d), since the luminance in the video of the remaining lion virtual reality object is lowered, the real world behind the portion where the video of the virtual reality object is displayed on the display panel 11022-2. The object is visible. That is, the information acquired by the user is increasing from the real world. In FIG. 81 (d), the virtual reality level has dropped to 60 due to the correction processing by the luminance reduction, and display is possible.
なお、映像生成処理部11021で生成された映像における仮想現実度が基準値よりも超えている場合に行われる補正処理としては、先に仮想現実オブジェクトの一部を削除する構成とするものに限られるものではなく、先に仮想現実オブジェクト全体の輝度を下げることで、現実の世界からの光が仮想現実オブジェクトと重なった状態でユーザの目に入るようにし、ユーザの注意が現実の世界の方へ行くように制御されていても良い。 Note that the correction processing performed when the virtual reality in the video generated by the video generation processing unit 11021 exceeds the reference value is limited to a configuration in which a part of the virtual reality object is first deleted. Instead, the brightness of the entire virtual reality object is lowered first so that the light from the real world can enter the user's eyes in a state where it overlaps the virtual reality object. It may be controlled to go to.
また、どの位置に配置されている仮想現実オブジェクトの輝度を下げたり映像内から削除したりするかは、ユーザの周囲の状況やユーザ状態に基づいて決定される構成とすると更に良好である。 In addition, it is better if the configuration in which the brightness of the virtual reality object arranged at which position is lowered or deleted from the video is determined based on the situation around the user and the user state.
例えば、ユーザの左前方から車が接近していることにより、仮想現実提示システムがユーザの注意を当該車に向けたい場合に、ユーザの右側に表示されている犬の仮想現実オブジェクトの映像を削除したり、輝度を下げたりしても、ユーザの注意は、問題となっている当該車の方向には向けられない。この場合、ユーザの左側に配置されているライオンの仮想現実オブジェクトの映像における輝度を下げ、当該ライオンを透過してその背後から迫っている車をユーザが適切に見えるようにすることが好ましい。 For example, if the vehicle approaches from the left front of the user, and the virtual reality presentation system wants to direct the user's attention to the vehicle, the video of the dog virtual reality object displayed on the right side of the user is deleted. Even if the brightness is reduced, the user's attention is not directed to the direction of the car in question. In this case, it is preferable to reduce the brightness in the image of the virtual reality object of the lion arranged on the left side of the user so that the user can appropriately see the car passing through the lion and approaching from behind.
そこで、仮想現実度管理部17010は、映像用として提示可能な仮想現実度を算出するのではなく、映像を複数の領域に分割し、映像表示領域1、映像表示領域2、・・・映像表示領域Nと言った形で各映像表示領域に対して提示可能な仮想現実度を算出して映像補正処理部11022−1cに通知する構成とすると更に良好である。 Therefore, the virtual reality management unit 17010 does not calculate the virtual reality that can be presented for video, but divides the video into a plurality of areas, and displays video display area 1, video display area 2,. It is further preferable that the virtual reality that can be presented to each video display area in the form of the area N is calculated and notified to the video correction processing unit 11022-1c.
この場合、例えばユーザの左前方から車が接近している場合であっても、表示パネル11022−2に左半分に仮想現実オブジェクトの映像が含まれていない場合は、例え右半分に仮想現実度の高い仮想現実オブジェクトの映像が表示されていても、各映像表示領域で提供可能仮想現実度を満たしているため、そのまま補正処理を行うことなく映像表示が可能となる。 In this case, for example, even when the vehicle is approaching from the left front of the user, if the video panel of the virtual reality object is not included in the left half of the display panel 11022-2, the virtual reality degree is displayed in the right half, for example. Even if a video of a high virtual reality object is displayed, since the virtual reality that can be provided in each video display area is satisfied, the video can be displayed without performing correction processing as it is.
図82は、領域別に分かれた提示可能仮想現実度と、提示予定仮想現実度と、補正後仮想現実度との関係を示している。提示可能仮想現実度算出処理部17011は、周囲状況やユーザ状態などに基づいて、9分割された表示パネル11022−2における各表示領域について提示可能な仮想現実度を算出する。図82では、ユーザの左下足元付近に障害物があるため、左下あたりで提示可能な仮想現実度が右下あたりで提示可能な仮想現実度と比較して小さくなっている。 FIG. 82 shows the relationship among the presentable virtual reality, the presentation-scheduled virtual reality, and the corrected virtual reality that are divided by region. The presentable virtual reality calculation processing unit 17011 calculates the virtual reality that can be presented for each display area in the nine-divided display panel 11022-2 based on the surrounding situation, the user state, and the like. In FIG. 82, since there is an obstacle near the user's lower left foot, the virtual reality that can be presented around the lower left is smaller than the virtual reality that can be presented around the lower right.
提示予定仮想現実度算出部17012は、映像生成処理部11021で生成された仮想現実オブジェクトの映像について、上記表示領域毎の仮想現実度を提示予定仮想現実度として算出する。図82では、生成された映像において、左の方にライオンの仮想現実オブジェクトの映像が、右の方に犬の仮想現実オブジェクトの映像が含まれており、当該仮想現実オブジェクトの映像が含まれる領域では、仮想現実度が高くなっている。 The scheduled presentation virtual reality calculation unit 17012 calculates the virtual reality for each display area as the presentation scheduled virtual reality for the video of the virtual reality object generated by the video generation processing unit 11021. In FIG. 82, in the generated video, the video of the lion's virtual reality object is included on the left side, and the video of the dog's virtual reality object is included on the right side, and the video image of the virtual reality object is included. Then, the virtual reality degree is high.
ここで、提示可能仮想現実度算出部17011によって、左列下段及び中列下段における提示可能仮想現実度はそれぞれ0に設定されており、当該領域における映像生成処理部11021で生成された仮想現実オブジェクトの映像は、それぞれ仮想現実度が12、5であるためそのまま表示することはできない。そこで、映像補正処理部11022−1cは、当該領域の仮想現実度を提示可能仮想現実度である0となるように補正する。 Here, the presentable virtual reality degree in the lower left column and the lower middle column is set to 0 by the presentable virtual reality calculation unit 17011, and the virtual reality object generated by the video generation processing unit 11021 in the region Cannot be displayed as they are because the virtual reality levels are 12 and 5, respectively. Therefore, the video correction processing unit 11022-1c corrects the virtual reality level of the area to be 0, which is the presentable virtual reality level.
ここで、仮想現実度0は、仮想現実に関する提示がされていないことを意味しているため、映像補正処理部11022−1cは、当該領域の仮想現実オブジェクトの輝度を0に設定する。 Here, since the virtual reality degree 0 means that no presentation regarding the virtual reality is made, the video correction processing unit 11022-1c sets the luminance of the virtual reality object in the area to 0.
また、左側中段の提示可能仮想現実度は10であるのに対し、映像生成処理部11021で生成された映像の仮想現実度は33であり、このまま表示することはできない。そこで、映像補正処理部11022−1cは、当該左側中段の領域に含まれる仮想現実オブジェクトであるライオンの映像の輝度を仮想現実度が10となるまで下げることで、当該ライオンを透過する形で背後にある現実の世界の物体が見えるようになっている。 In addition, while the virtual reality degree that can be presented in the left middle stage is 10, the virtual reality degree of the video generated by the video generation processing unit 11021 is 33 and cannot be displayed as it is. Therefore, the video correction processing unit 11022-1c reduces the brightness of the video of the lion, which is a virtual reality object included in the left middle region, until the virtual reality level becomes 10, thereby transmitting the lion behind. You can see the objects in the real world.
一方、右側に配置されている犬の仮想現実オブジェクトについては、提示可能仮想現実度を下回っているため、映像生成処理部11021で生成された映像のまま仮想現実度に基づく補正することなく表示することが可能である。 On the other hand, since the virtual reality object of the dog arranged on the right side is lower than the presentable virtual reality level, the video generated by the video generation processing unit 11021 is displayed without correction based on the virtual reality level. It is possible.
なお、上記説明では、映像補正処理部11022−1cは、仮想現実オブジェクトの輝度を下げることで、ユーザに提示される映像の仮想現実度を下げる構成としたがこれに限定されるものではない。ユーザに対して仮想現実の提示を行う仮想現実提示装置の構成に従って、適宜変更が可能である。 In the above description, the video correction processing unit 11022-1c is configured to reduce the virtual reality of the video presented to the user by reducing the luminance of the virtual reality object, but the present invention is not limited to this. Changes can be made as appropriate according to the configuration of the virtual reality presentation device that presents virtual reality to the user.
例えば、表示パネル11022−2を少なくとも備える仮想現実提示装置が透過型HMD装置であって、外界から照射される光の量を制御する液晶パネル等が配置されている場合、映像補正処理部11022−1は、当該外界から照射される光の量を増やすことで、相対的に現実の世界からの情報を人工的に創り出された仮想現実オブジェクトの映像からの情報と比較して情報量が増えるように制御しても良い。 For example, when the virtual reality presentation device including at least the display panel 11022-2 is a transmissive HMD device and a liquid crystal panel or the like that controls the amount of light emitted from the outside world is disposed, the video correction processing unit 11022- First, by increasing the amount of light emitted from the outside world, the information amount is relatively increased compared to the information from the image of the virtual reality object that has been created artificially. You may control to.
なお、仮想現実提示装置が透過型ディスプレイではない場合は、映像撮影部1011で撮影された映像と仮想現実オブジェクトの映像を合成して表示パネルで表示される構成とすると良い。この場合、映像撮影部1011で撮影された映像と仮想現実オブジェクトの映像との合成における重み付けを変化させ、仮想現実オブジェクトの映像に隠れる部分における現実の世界の映像が透けて見えるように構成すると良い。 In the case where the virtual reality presentation device is not a transmissive display, it is preferable that the video captured by the video imaging unit 1011 and the video of the virtual reality object are combined and displayed on the display panel. In this case, it is preferable to change the weighting in the synthesis of the video shot by the video shooting unit 1011 and the video of the virtual reality object so that the video of the real world in the portion hidden in the video of the virtual reality object can be seen through. .
なお、上記説明では仮想現実オブジェクトの映像の輝度を制御することでユーザに提示する仮想現実度が提示可能な仮想現実度内に収まるように制御する場合について説明したがこれに限定するものではない。例えば、仮想現実度削減割合指示部17014は、仮想空間に配置されている仮想現実オブジェクトの数または容量などを削除する指示を仮想現実オブジェクト配置部12030に出すことにより、ユーザに提示される仮想現実の仮想現実度が提示可能仮想現実度内に収まるように制御する構成としても良い。 In the above description, a case has been described in which the virtual reality level to be presented to the user is controlled to fall within the virtual reality level that can be presented by controlling the luminance of the video of the virtual reality object. However, the present invention is not limited to this. . For example, the virtual reality reduction ratio instructing unit 17014 gives an instruction to delete the number or capacity of virtual reality objects arranged in the virtual space to the virtual reality object arranging unit 12030, so that the virtual reality presented to the user is displayed. The virtual reality may be controlled so as to be within the presentable virtual reality.
(実施形態15)
実施形態8〜14に係る仮想現実提示システムを構成する各種機能は、ユーザが装着する仮想現実提示装置に単独で備えられる構成を取ることが想定される一方、実施形態1〜7で説明したように一部の処理を外部サーバに担当させる構成とすることが好ましい場合がある。
(Embodiment 15)
While various functions constituting the virtual reality presentation system according to the eighth to fourteenth embodiments are assumed to be configured to be provided independently in the virtual reality presentation device worn by the user, as described in the first to seventh embodiments. In some cases, it may be preferable to have an external server in charge of part of the processing.
図83は、本実施形態15に係る仮想現実提示システム18000の構成を示すブロック図である。仮想現実提示システム18000は、仮想現実提示装置18100と、仮想現実サービス提供サーバ18200と、契約者情報記憶データベース18300と、仮想現実コンテンツ記憶データベース18400と、を備える。 FIG. 83 is a block diagram illustrating a configuration of the virtual reality presentation system 18000 according to the fifteenth embodiment. The virtual reality presentation system 18000 includes a virtual reality presentation device 18100, a virtual reality service providing server 18200, a contractor information storage database 18300, and a virtual reality content storage database 18400.
仮想現実提示装置18100は、ユーザが頭部に装着する装置であってユーザの目の前方に表示パネルが配置されるヘッドマウントディスプレイ(HMD)装置やユーザの目に装着するコンタクトレンズ型装置、ユーザの眼球に埋込むインプラント型装置やユーザの脳に電極形式で埋込むインプラント型装置などである。 The virtual reality presentation device 18100 is a device worn by the user on the head, a head mounted display (HMD) device in which a display panel is arranged in front of the user's eyes, a contact lens type device worn by the user's eyes, a user An implantable device that is implanted in the human eyeball, or an implantable device that is implanted in the user's brain in the form of an electrode.
また、仮想現実提示装置18100は、非透過型HMD装置であっても良い。この場合、視線カメラで撮影された映像に仮想現実提示用の映像を合成した映像を表示パネルに表示する。 The virtual reality presentation device 18100 may be a non-transparent HMD device. In this case, a video obtained by synthesizing a video for presenting virtual reality with a video taken by the line-of-sight camera is displayed on the display panel.
この場合、注意喚起を行わない通常時では、仮想現実オブジェクトの表示位置では、視線カメラで撮影された映像を下位レイヤー、仮想現実オブジェクトの映像を上位レイヤーとして2つの映像を合成して映像が表示パネルで表示される。一方、注意喚起時には、仮想現実オブジェクトの表示位置において、仮想現実オブジェクトの映像における画素データと、視線カメラで撮影された映像の画素データとを合成した画素データを表示する。 In this case, in the normal time when no alert is given, the video is displayed by combining the two videos with the video captured by the line-of-sight camera as the lower layer and the video of the virtual reality object as the upper layer at the virtual reality object display position. Displayed in a panel. On the other hand, at the time of alerting, pixel data obtained by synthesizing the pixel data in the video of the virtual reality object and the pixel data of the video taken by the line-of-sight camera is displayed at the display position of the virtual reality object.
例えば、仮想現実オブジェクトが表示される所定の座標(x、y)において、映像生成処理部で生成される仮想現実オブジェクトの映像の画素データが(Y1、U1、V1)であり、当該座標における視線カメラで撮影された映像の画素データが(Y2、U2、V2)であったとする。注意喚起を行わない通常時では、仮想現実オブジェクトの配置位置が視線カメラで撮影された映像に写る物体よりもユーザ側にある場合は、表示パネルにおける当該座標で表される画素データは(Y1,U1、V1)となり、一方、視線カメラで撮影された映像に写る物体が、仮想現実オブジェクトの配置位置よりもユーザ側になる場合は、表示パネルにおける当該座標で表される画素データは(Y2,U2,V2)となる。 For example, at predetermined coordinates (x, y) at which the virtual reality object is displayed, the pixel data of the video of the virtual reality object generated by the video generation processing unit is (Y1, U1, V1), and the line of sight at the coordinates It is assumed that the pixel data of the video imaged by the camera is (Y2, U2, V2). In a normal time without alerting, when the placement position of the virtual reality object is closer to the user side than the object shown in the video captured by the line-of-sight camera, the pixel data represented by the coordinates on the display panel is (Y1, On the other hand, when the object shown in the video captured by the line-of-sight camera is closer to the user side than the arrangement position of the virtual reality object, the pixel data represented by the coordinates on the display panel is (Y2, U2, V2).
ここで、注意喚起制御部における注意喚起処理によって注意喚起が行われる場合、仮想現実オブジェクトがユーザ側にある場合であっても、当該座標で表される画素データは、(Y1,U1,V1)ではなく((αY1+(1−α)Y2、βU1+(1−β)U2)、γV1+(1−γ)V2)となる。ここで、α、β、γはそれぞれ0≦α、β、γ≦1である。 Here, when alerting is performed by the alerting process in the alerting control unit, even when the virtual reality object is on the user side, the pixel data represented by the coordinates is (Y1, U1, V1). (([Alpha] Y1 + (1- [alpha]) Y2, [beta] U1 + (1- [beta]) U2), [gamma] V1 + (1- [gamma]) V2). Here, α, β, and γ are 0 ≦ α, β, and γ ≦ 1, respectively.
図84は、当該非透過型HMD装置において、注意喚起のレベルに応じて表示パネルで表示される映像を示している。図84に示すように、ユーザはソファーが置かれた部屋の中におり、非透過型HMD装置の前方にユーザの視線と対応するように配置されている視線カメラ(前方カメラ)で当該部屋の景色が撮影されている。また、映像生成処理部において象の仮想現実オブジェクトの映像が生成されている。 FIG. 84 shows an image displayed on the display panel in accordance with the level of alerting in the non-transmissive HMD device. As shown in FIG. 84, the user is in the room where the sofa is placed, and the line-of-sight camera (front camera) arranged so as to correspond to the line of sight of the user in front of the non-transparent HMD device. Scenery is taken. Also, an image of the elephant virtual reality object is generated in the image generation processing unit.
非透過型HMD装置が備える映像表示制御部は、当該視線カメラで撮影された映像と、映像生成処理部で生成された仮想現実オブジェクトの映像を合成して表示用映像を生成し、表示パネルに表示する制御を行う。ここでは、仮想現実オブジェクトである象がソファー上に立つように制御された位置に配置されている。 The video display control unit included in the non-transmissive HMD device generates a display video by combining the video captured by the line-of-sight camera and the video of the virtual reality object generated by the video generation processing unit. Control the display. Here, the elephant, which is a virtual reality object, is arranged at a controlled position so as to stand on the sofa.
ここで、注意喚起制御部が行う注意喚起要否の判定の結果、弱レベルの注意喚起を行うとして判定された場合に、映像表示制御部は、上記αを1から0.8に変更して2つの映像を合成し、表示用映像を生成する。図84からも分かる様に、仮想現実オブジェクトの画素位置において、視線カメラで撮影された映像の成分が混ざった値が当該位置の画素データとなるため、仮想現実オブジェクトである象の映像に透けるように、背後にある現実の世界の物体である樹木が薄く見えている。 Here, when it is determined that the weak alert level is to be issued as a result of the determination of necessity of alerting performed by the alert controller, the video display controller changes the α from 1 to 0.8. Two images are combined to generate a display image. As can be seen from FIG. 84, at the pixel position of the virtual reality object, the value obtained by mixing the components of the image captured by the line-of-sight camera becomes pixel data at the position, so that it can be seen through the image of the elephant that is the virtual reality object. In addition, the tree that is the object of the real world behind is faintly visible.
一方、注意喚起制御部が行う注意喚起要否の判定の結果、中レベルの注意喚起を行うとして判定された場合に、映像表示制御部は、上記αを0.6に変更して2つの映像を合成し、表示用映像を生成する。この場合、1−α=0.4の割合で現実の世界の景色の映像が混ざるため、象である仮想現実オブジェクトを透けて背後の樹木等の姿がより明確にユーザの目に入ってくるため、ユーザは普通に前方を眺めている場合であっても、現実の世界からの情報をより多く取得していることになり、ユーザの注意が現実の世界により向けられることになる。 On the other hand, as a result of determining whether or not the alerting control is required, the video display control unit changes the α to 0.6 and changes the two videos when it is determined that the middle level alerting is performed. Are combined to generate a display video. In this case, since images of the real world scene are mixed at a rate of 1−α = 0.4, the appearance of trees and the like behind the virtual reality object that is an elephant enters the user's eyes more clearly. Therefore, even when the user is normally looking forward, the user has acquired more information from the real world, and the user's attention is directed to the real world.
一方、注意喚起制御部が行う注意喚起要否の判定の結果、強レベルの注意喚起を行うとして判定された場合に、映像表示制御部は、上記αを0.4に変更して2つの映像を合成し、表示用映像を生成する。そのため、象である仮想現実オブジェクトよりもその背後にある樹木等の映像がユーザにはより強く印象付けられ、現実の世界に対する注意がより強くなる。 On the other hand, as a result of the determination of necessity of alerting performed by the alerting control unit, when it is determined that the strong alerting is performed, the video display control unit changes the above α to 0.4 and changes the two videos. Are combined to generate a display video. Therefore, an image of a tree or the like behind the virtual reality object that is an elephant is more impressed by the user, and attention to the real world is stronger.
このように注意喚起制御部は、注意喚起の強さに基づいて当該α、β、γの値を変更する制御を行い、映像表示制御部に含まれる画像合成処理部において、仮想現実オブジェクトの映像と視線カメラで撮影された映像とが、各座標において上記式に従って合成される。 In this way, the alerting control unit performs control to change the values of α, β, and γ based on the strength of alerting, and in the image composition processing unit included in the video display control unit, the video of the virtual reality object And the video imaged by the line-of-sight camera are combined according to the above formula at each coordinate.
注意喚起制御部は、ユーザの移動速度が速い場合や、ユーザの近くに障害物がある場合、ユーザ方向に接近する移動体の速度が速い場合などに、必要となる注意喚起の強さを大きく設定する。すなわち、注意喚起制御部は、上記α、β、γの値を大きく設定することで、仮想現実オブジェクトの映像よりも視線カメラで撮影された現実の世界の映像を強調して表示パネルに表示させる制御を行う。 The alerting control unit increases the required alerting strength when the user's moving speed is fast, when there is an obstacle near the user, or when the moving body approaching the user's direction is fast, etc. Set. In other words, the attention control unit sets the values of α, β, and γ to be larger, and emphasizes and displays the real world video captured by the line-of-sight camera on the display panel than the virtual reality object video. Take control.
なお、上記注意喚起に伴って行われる映像合成で制御される係数は輝度信号Yの係数αだけであっても良いし、色差信号U,Vに対する係数β、γに対する係数も制御される構成としても良い。 It should be noted that the coefficient controlled by the video composition performed in conjunction with the above alerting may be only the coefficient α of the luminance signal Y, and the coefficients β and γ for the color difference signals U and V are also controlled. Also good.
仮想現実提示装置18100は、インターネット等の通信網10を介して仮想現実サービス提供サーバ18200と接続されている。 The virtual reality presentation device 18100 is connected to the virtual reality service providing server 18200 via the communication network 10 such as the Internet.
仮想現実サービス提供サーバ18200は、通信網10を介して仮想現実提示装置18100に仮想現実サービスを提供する。 The virtual reality service providing server 18200 provides a virtual reality service to the virtual reality presentation device 18100 via the communication network 10.
契約者情報記憶データベース18300には、当該仮想現実サービスの提供を受ける各ユーザの情報が契約者情報として記憶されており、当該契約者情報で示されるユーザが利用可能な仮想現実サービスを仮想現実サービス提供サーバ18200は、ユーザに対して提供する。 In the contractor information storage database 18300, information of each user who receives the provision of the virtual reality service is stored as contractor information, and the virtual reality service available to the user indicated by the contractor information is the virtual reality service. The providing server 18200 provides the user.
仮想現実コンテンツ記憶データベース18400は、仮想現実サービスに用いられる仮想現実コンテンツを記憶する。仮想現実サービス提供サーバ18200は、ユーザに提供する仮想現実サービスに係る仮想現実コンテンツを仮想現実コンテンツ記憶データベース18400より読み出して実行することで仮想現実提示装置18100を装着しているユーザに仮想現実を提示する。 The virtual reality content storage database 18400 stores virtual reality content used for the virtual reality service. The virtual reality service providing server 18200 presents virtual reality to the user wearing the virtual reality presentation device 18100 by reading out and executing the virtual reality content related to the virtual reality service provided to the user from the virtual reality content storage database 18400. To do.
このように、実施形態8〜14で説明した仮想現実提示システムが備える各種機能は、ユーザが装着する仮想現実提示装置18100と仮想現実サービス提供サーバ18200のどちらかに配置される構成とすることができる。ここで、仮想現実提示装置18100は、実施形態1〜7で説明した仮想現実提示装置100と対応し、仮想現実サービス提供サーバ18200は、実施形態1〜7で説明した仮想現実サービス提供サーバ1300、2300、4300と対応している。例えば、上述した周囲状況検知部11010、ユーザ状態検知部12010、映像表示部11022、音声出力部11023、音声入力部3030などの各種機能は仮想現実提示装置18100側に実装し、仮想現実映像生成処理部11021、仮想現実提示中断制御部11030、仮想現実オブジェクト記憶部12020、仮想現実オブジェクト配置部12030、中断用映像データ記憶部12040、仮想現実提示用音声データ記憶部12050、中断用音声データ記憶部12060、中断用映像データ選択処理部12070、中断用音声データ選択処理部12080、仮想現実提示中断条件記憶部13010、画像解析処理部13020、ユーザ行動特定部13040、仮想現実管理制御部13050、注意喚起制御部14010、注意喚起用映像データ記憶部14020、注意喚起用音声データ記憶部14030、注意喚起条件記憶部15010、仮想現実コンテンツ記憶部16010、仮想現実オブジェクト挙動制御部16020、仮想現実度管理部17010、などの機能は仮想現実サービス提供サーバ18200側に実装される構成としても良い。 As described above, the various functions included in the virtual reality presentation system described in the eighth to fourteenth embodiments may be configured to be arranged in either the virtual reality presentation device 18100 or the virtual reality service providing server 18200 worn by the user. it can. Here, the virtual reality presentation device 18100 corresponds to the virtual reality presentation device 100 described in the first to seventh embodiments, and the virtual reality service providing server 18200 includes the virtual reality service providing server 1300 described in the first to seventh embodiments. 2300, 4300. For example, various functions such as the ambient state detection unit 11010, the user state detection unit 12010, the video display unit 11022, the audio output unit 11023, and the audio input unit 3030 described above are implemented on the virtual reality presentation device 18100 side, and virtual reality video generation processing is performed. Unit 11021, virtual reality presentation suspension control unit 11030, virtual reality object storage unit 12020, virtual reality object placement unit 12030, video data storage unit for suspension 12040, audio data storage unit for virtual reality presentation 12050, audio data storage unit for suspension 12060 , Video data selection processing unit 12070 for interruption, audio data selection processing unit 12080 for interruption, virtual reality presentation interruption condition storage unit 13010, image analysis processing unit 13020, user action specifying unit 13040, virtual reality management control unit 13050, alert control Part 14010, note Functions such as the alerting video data storage unit 14020, the alerting voice data storage unit 14030, the alerting condition storage unit 15010, the virtual reality content storage unit 16010, the virtual reality object behavior control unit 16020, and the virtual reality management unit 17010 The configuration may be implemented on the virtual reality service providing server 18200 side.
なお、外部光の入射状態を制御するLCDを備える構成である場合は、仮想現実度の補正を、LCDを用いた輝度の制御ではなく、LCDから入射される光量の制御で行っても良い。 In the case of a configuration including an LCD that controls the incident state of external light, the virtual reality correction may be performed by controlling the amount of light incident from the LCD instead of controlling the luminance using the LCD.
例えば、仮想現実提示装置18100は、外部光を制御するLCDを備える透過型ディスプレイを備えるHMD装置であって、映像生成処理部11021で生成される仮想現実オブジェクトの映像に対応する位置の外部光を遮断するようにLCDを制御する。 For example, the virtual reality presentation device 18100 is an HMD device that includes a transmissive display including an LCD that controls external light, and emits external light at a position corresponding to the video of the virtual reality object generated by the video generation processing unit 11021. Control the LCD to shut off.
すなわち、仮想現実提示装置18100は、ユーザ前方から入射される自然光の透過量を制御して映像を生成する第1表示機構と、光源ランプより入射される光の透過量を制御して映像を生成する第2表示機構と、第1表示機構で生成される映像と第2表示機構で生成される映像とを合成する合成機構とを備え、これら2つの表示機構によってそれぞれ生成される映像が合わさった映像がユーザに提示される。 In other words, the virtual reality presentation device 18100 generates a video by controlling the transmission amount of natural light incident from the front of the user and generating a video by controlling the transmission amount of light incident from the light source lamp. A second display mechanism that combines the video generated by the first display mechanism and the video generated by the second display mechanism, and the images generated by the two display mechanisms are combined. The video is presented to the user.
仮想現実提示装置18100において、ユーザ状態検知部は、ユーザの移動速度を検知し、検知された移動速度に基づいて、第2表示機構で生成される仮想現実オブジェクトの映像に対応する位置における第1表示機構の映像を制御する。移動速度が早ければ、当該仮想現実オブジェクトの映像に対応する位置の第1表示機構における光の透過量を上げる制御を行い、ユーザの移動速度が遅い場合に、光の透過量を下げる制御を行う。 In the virtual reality presentation device 18100, the user state detection unit detects the moving speed of the user, and based on the detected moving speed, the first state at a position corresponding to the video of the virtual reality object generated by the second display mechanism. Control the video of the display mechanism. If the moving speed is fast, control is performed to increase the light transmission amount in the first display mechanism at the position corresponding to the video of the virtual reality object, and control is performed to decrease the light transmission amount when the user's moving speed is slow. .
(実施形態16)
上述の実施形態で説明したように、仮想現実提示システムにおいては、仮想現実野世界にいるユーザに対して現実の世界の状況等に基づいて注意喚起を行うことや仮想現実サービスの提供を中断する構成を備えることが好ましい。ここで、注意喚起や中断に関する判断として高度な処理を求める場合は多くの処理リソースを必要とするため仮想現実サービス提供サーバ側で行う方が好ましい一方、簡易な処理で行える判断であればユーザが装着している仮想現実提示装置側で行う方が好ましい場合がある。したがって、状況に応じて使い分け出来るように両側に当該機能を実装していることが好ましい。
(Embodiment 16)
As described in the above-described embodiment, in the virtual reality presentation system, the user in the virtual reality field is alerted based on the situation in the real world and the provision of the virtual reality service is interrupted. It is preferable to have a configuration. Here, when a high-level process is required as a determination regarding alerting or interruption, it is preferable to perform the process on the virtual reality service providing server side because it requires a large amount of processing resources. In some cases, it is preferable to perform the operation on the attached virtual reality presentation device. Therefore, it is preferable to mount the function on both sides so that it can be used properly according to the situation.
図85は、本実施形態16の仮想現実提示システムの全体構成を示すブロック図である。仮想現実提示システムは、仮想現実提示装置800と、契約者情報記憶データベース3100と、仮想現実コンテンツ記憶データベース3200と、仮想現実サービス提供サーバ3300と、中断・注意喚起条件記憶データベース3600と、を備える。 FIG. 85 is a block diagram showing the overall configuration of the virtual reality presentation system of the sixteenth embodiment. The virtual reality presentation system includes a virtual reality presentation device 800, a contractor information storage database 3100, a virtual reality content storage database 3200, a virtual reality service providing server 3300, and an interruption / warning condition storage database 3600.
仮想現実提示装置800は、ユーザ状態検知部110と、周囲状況検知部120と、通信部130と、表示制御部140と、仮想現実提示制御部260と、表示部150と、音声入力部370と、音声再生制御部380と、音声出力部390と、中断・注意喚起条件記憶部810と、中断・注意喚起用コンテンツ記憶部820と、を具備する。 The virtual reality presentation device 800 includes a user state detection unit 110, an ambient state detection unit 120, a communication unit 130, a display control unit 140, a virtual reality presentation control unit 260, a display unit 150, and a voice input unit 370. , An audio reproduction control unit 380, an audio output unit 390, an interruption / attention calling condition storage unit 810, and an interruption / attention calling content storage unit 820.
ユーザ状態検知部110は、仮想現実提示装置800を使用しているユーザの状態を検知してユーザ状態情報を生成する。具体的には、ユーザ状態検知部110は、ユーザの頭部の傾きを検知する傾きセンサ111、ユーザの頭部の加速度を検知する加速度センサ、ユーザの脳波状態を検知する脳波センサ114、ユーザの現在位置を検出するユーザ一検出部115、ユーザの移動速度を検出するユーザ移動速度検出部116などで構成される。なお、ユーザ状態検知部110としては、その他ユーザの発汗量や血圧、体温、心拍数などを検知する生体センサやユーザの眼球の動きを検知する眼球センサなどによって構成されていても良い。 The user state detection unit 110 detects the state of the user who is using the virtual reality presentation device 800 and generates user state information. Specifically, the user state detection unit 110 includes an inclination sensor 111 that detects the inclination of the user's head, an acceleration sensor that detects acceleration of the user's head, an electroencephalogram sensor 114 that detects the user's brain wave state, A user detection unit 115 that detects the current position, a user movement speed detection unit 116 that detects the movement speed of the user, and the like. Note that the user state detection unit 110 may include other biosensors that detect the amount of sweating, blood pressure, body temperature, heart rate, etc. of the user, eyeball sensors that detect the movement of the user's eyeball, and the like.
周囲状況検知部120は、仮想現実提示装置800を使用しているユーザの周囲の状況を検知して周囲状況情報を生成する。具体的には、周囲状況検知部120は、ユーザの頭部が向いている方向に設置されてユーザの視線に対応する画像を撮影する視線カメラ121、仮想現実提示装置800の両側面や後方に設置され、ユーザの両側や後方の画像を撮影する周囲カメラ、周囲の気温を測定する気温センサ123などで構成される。 The surrounding state detection unit 120 detects the surrounding state of the user who is using the virtual reality presentation device 800 and generates the surrounding state information. Specifically, the surrounding state detection unit 120 is installed in the direction in which the user's head is facing, and the line-of-sight camera 121 that captures an image corresponding to the user's line of sight, on both sides and the back of the virtual reality presentation device 800 An ambient camera that is installed and captures images of both sides and the rear of the user, an air temperature sensor 123 that measures the ambient air temperature, and the like.
音声入力部370は、ユーザが発する音声や周囲の音声を入力する。 The voice input unit 370 inputs voices uttered by the user and surrounding voices.
通信部130は、ユーザ状態検知部110で生成されたユーザ状態情報や周囲状況検知部120で生成された周囲状況情報、音声入力部370で入力された音声を仮想現実サービス提供サーバ3300へ送信する。また、通信部130は、仮想現実サービス提供サーバより送信されてくる仮想現実オブジェクトの映像データや音声データ、その他仮想現実提示の中断指示や注意喚起指示を受信する。 The communication unit 130 transmits the user status information generated by the user status detection unit 110, the ambient status information generated by the ambient status detection unit 120, and the voice input by the voice input unit 370 to the virtual reality service providing server 3300. . In addition, the communication unit 130 receives video data and audio data of a virtual reality object transmitted from the virtual reality service providing server, and other virtual reality presentation interruption instructions and alerting instructions.
表示制御部140は、通信部130で受信された仮想現実オブジェクトの映像データを復号して仮想現実オブジェクトの映像を表示部150に表示する制御を行う。 The display control unit 140 performs control to decode the video data of the virtual reality object received by the communication unit 130 and display the video of the virtual reality object on the display unit 150.
表示部150は、表示制御部140からの制御に従って仮想現実オブジェクトの映像を表示することでユーザに対して仮想現実を提示する。 The display unit 150 presents the virtual reality to the user by displaying the video of the virtual reality object according to the control from the display control unit 140.
音声再生制御部380は、通信部130で受信された仮想現実オブジェクトの音声データを復号して仮想現実オブジェクトの音声を音声出力部390より出力する制御を行う。 The sound reproduction control unit 380 performs control to decode the sound data of the virtual reality object received by the communication unit 130 and output the sound of the virtual reality object from the sound output unit 390.
音声出力部390は、音声再生制御部380からの制御に従って仮想現実オブジェクトの音声を出力することでユーザに対して仮想現実を提示する。 The audio output unit 390 presents the virtual reality to the user by outputting the sound of the virtual reality object according to the control from the audio reproduction control unit 380.
中断・注意喚起条件設定部810は、ユーザに対する仮想現実の提示を中断したり、仮想現実を提示しつつもユーザに対して注意喚起を行ったりする場合の条件を設定する。中断・注意喚起条件設定部810は、ユーザからの操作に基づいて当該設定を行っても良いし、仮想現実サービス提供サーバ3300側からの指示に基づいて行っても良い。 The interruption / warning condition setting unit 810 sets a condition for interrupting the presentation of virtual reality to the user or performing alerting to the user while presenting the virtual reality. The interruption / warning condition setting unit 810 may perform the setting based on an operation from the user, or may perform the setting based on an instruction from the virtual reality service providing server 3300 side.
中断・注意喚起条件記憶部820は、中断・注意喚起条件設定部810で設定されたユーザに対する仮想現実の提示を中断したり仮想現実を提示しつつもユーザに対して注意喚起を行ったりする場合の条件を記憶する。なお、中断・注意喚起条件記憶部820は、中断・注意喚起条件設定部810による設定処理を実行すること無く、デフォルトとして当該ユーザに対する仮想現実の提示を中断したり仮想現実を提示しつつもユーザに対して注意喚起を行ったりする条件を記憶していても良い。 When the interruption / attention calling condition storage unit 820 interrupts the presentation of virtual reality to the user set by the interruption / attention calling condition setting unit 810 or alerts the user while presenting the virtual reality Memorize the conditions. The interruption / attention condition storage unit 820 does not execute the setting process by the interruption / attention condition setting unit 810, and the user is interrupted by presenting the virtual reality or presenting the virtual reality as a default. You may memorize the conditions to call attention to.
中断・注意喚起用コンテンツ記憶部830は、ユーザに対する仮想現実の提示を中断する場合に表示する画像や音声、また注意喚起を行う場合に表示する画像や音声を中断・注意喚起用コンテンツとして記憶する。 The interruption / attention content storage unit 830 stores, as interruption / attention content, images and sounds to be displayed when the virtual reality presentation to the user is interrupted, and images and sounds to be displayed at the time of alerting. .
仮想現実提示制御部260は、表示部150や音声出力部390でユーザに対して提示される仮想現実をせい御する。仮想現実提示制御部260は、仮想現実中断・注意喚起判定処理部261と仮想現実提示中断・注意喚起制御処理部262を具備する。 The virtual reality presentation control unit 260 controls the virtual reality presented to the user by the display unit 150 and the audio output unit 390. The virtual reality presentation control unit 260 includes a virtual reality interruption / attention determination processing unit 261 and a virtual reality presentation interruption / attention control processing unit 262.
仮想現実提示中断・注意喚起判定処理部261は、現在ユーザに対して提示している仮想現実を中断したり、仮想現実を提示しつつも注意喚起を行ったりするかを判定する処理を行う。具体的には、ユーザ状態検知部110で生成されるユーザ状態情報や周囲状況検知部120で生成される周囲状況情報、音声入力部370で入力される音声などと、中断・注意喚起条件記憶部820で記憶されている中断・注意喚起条件とを比較することで、仮想現実の提示の中断や注意喚起を行うかどうかを判定する処理を行う。 The virtual reality presentation interruption / attention calling determination processing unit 261 performs a process of determining whether to interrupt the virtual reality currently being presented to the user or to perform alerting while presenting the virtual reality. Specifically, the user status information generated by the user status detection unit 110, the ambient status information generated by the ambient status detection unit 120, the voice input by the voice input unit 370, and the interruption / attention condition storage unit By comparing the interruption / attention calling conditions stored at 820, a process for determining whether to interrupt or alert the virtual reality presentation is performed.
なお、当該仮想現実提示中断・注意喚起判定処理部261で行われる判定処理は、後述する仮想現実サービス提供サーバ3300側が備える仮想現実提示中断・注意喚起判定処理部1324で行われる判定処理とは、用いる情報や条件が異なっている。仮想現実提示中断・注意喚起判定処理部261では、緊急性の高い条件について判定処理を行う構成とすることが好ましい。例えば、仮想現実提示中断・注意喚起判定処理部261は、加速度センサ112で所定の基準値以上の加速度が検知された場合や、ユーザの移動速度が所定の基準値を超えた場合に、仮想現実の提示の中断や注意喚起を行うと判定する。当該加速度や移動速度の所定の基準値が中断・注意喚起条件として中断・注意喚起条件記憶部820に記憶されている。 Note that the determination process performed in the virtual reality presentation interruption / attention determination processing unit 261 is the determination process performed at the virtual reality presentation interruption / attention determination processing unit 1324 provided on the virtual reality service providing server 3300 described later. Different information and conditions are used. The virtual reality presentation interruption / attention determination processing unit 261 preferably performs a determination process for highly urgent conditions. For example, the virtual reality presentation interruption / attention alert determination processing unit 261 detects the virtual reality when the acceleration sensor 112 detects an acceleration that is equal to or higher than a predetermined reference value or when the user's moving speed exceeds a predetermined reference value. It is determined that the presentation will be interrupted or alerted. Predetermined reference values for the acceleration and the moving speed are stored in the interruption / attention condition storage unit 820 as interruption / attention conditions.
仮想現実提示中断・注意喚起制御処理部262は仮想現実提示中断・注意喚起判定処理部261における判定結果や、通信部130で受信される中断指示または注意喚起指示に基づいて、ユーザに対する仮想現実の提示を中断したり注意喚起したりする制御を行う。 Based on the determination result in the virtual reality presentation interruption / attention call determination processing unit 261 and the interruption instruction or attention instruction received by the communication unit 130, the virtual reality presentation interruption / attention control processing unit 262 Control to interrupt the presentation or to call attention.
具体的には、仮想現実提示中断・注意喚起制御処理部262は、仮想現実提示中断・注意喚起判定処理部261で仮想現実の提示を中断すると判定された場合か通信部130で仮想現実の提示の中断指示が受信された場合に、仮想現実の提示を中断する制御を行う。より具体的には、仮想現実提示中断・注意喚起制御処理部262は、表示制御部140に対して仮想現実オブジェクトの映像を表示部150で表示することを中断する指示を出したり、音声再生制御部380に仮想現実オブジェクトの音声を音声出力部390から出力することを中断したりする制御を行う。また、仮想現実提示中断・注意喚起制御処理部262は、中断・注意喚起用コンテンツ記憶部830より中断用の画像や音声を読み出し、表示部150で表示したり音声出力部390から出力したりするように表示制御部140や音声再生制御部380に指示を行う。 Specifically, the virtual reality presentation interruption / attention control processing unit 262 determines whether the virtual reality presentation interruption / attention determination processing unit 261 interrupts the virtual reality presentation or the communication unit 130 presents the virtual reality. When the interruption instruction is received, the virtual reality presentation is controlled to be interrupted. More specifically, the virtual reality presentation interruption / attention control processing unit 262 instructs the display control unit 140 to interrupt the display of the video of the virtual reality object on the display unit 150, or performs sound reproduction control. The unit 380 is controlled to interrupt the output of the sound of the virtual reality object from the sound output unit 390. In addition, the virtual reality presentation interruption / attention calling control processing unit 262 reads out the interruption image and sound from the interruption / attention calling content storage unit 830 and displays the image or sound on the display unit 150 or output from the audio output unit 390. Thus, the display control unit 140 and the audio reproduction control unit 380 are instructed.
また、仮想現実提示中断・注意喚起制御処理部262は、仮想現実提示中断・注意喚起判定処理部261で注意喚起を行うと判定された場合か通信部130で注意喚起指示が受信された場合に、ユーザに対して注意喚起を行うための制御を行う。 Also, the virtual reality presentation interruption / warning control processing unit 262 determines that the virtual reality presentation suspension / warning determination processing unit 261 determines to call attention or when the communication unit 130 receives a warning instruction. Control for alerting the user is performed.
より具体的には、仮想現実提示中断・注意喚起制御処理部262は、表示制御部140に対して仮想現実オブジェクトの映像を表示部150で表示しつつも中断・注意喚起用コンテンツ記憶部830より注意喚起用の画像を読み出し、仮想現実オブジェクトの映像に当該注意喚起用の画像を多重して表示部150で表示する制御を指示する。表示制御部140は、当該指示に基づいて、仮想現実オブジェクトの映像と注意喚起用の画像を多重して表示部150に表示する制御を行う。 More specifically, the virtual reality presentation interruption / warning control processing unit 262 displays the video of the virtual reality object on the display unit 150 while displaying the video of the virtual reality object on the display unit 150 from the interrupt / warning content storage unit 830. An instruction for reading the attention image is read out, and a control to multiplex the image for the attention image on the video of the virtual reality object and display it on the display unit 150 is instructed. Based on the instruction, the display control unit 140 performs control to multiplex and display the virtual reality object video and the alert image on the display unit 150.
また、仮想現実提示中断・注意喚起制御処理部262は、音声再生制御部380に対して仮想現実オブジェクトの音声を音声出力部390から出力しつつも中断・注意喚起用コンテンツ記憶部830より注意喚起用の音声を読み出し、仮想現実オブジェクトの音声に当該注意喚起用の音声を多重して音声出力部390より出力する制御を指示する。音声再生制御部380は、当該指示に基づいて、仮想現実オブジェクトの音声と注意喚起用の音声を多重して音声出力部390より出力する制御を行う。 Further, the virtual reality presentation interruption / warning control processing unit 262 alerts the audio reproduction control unit 380 from the interruption / warning content storage unit 830 while outputting the sound of the virtual reality object from the audio output unit 390. And a control to multiplex the alerting sound with the sound of the virtual reality object and output from the sound output unit 390 is instructed. Based on the instruction, the sound reproduction control unit 380 performs control to multiplex the sound of the virtual reality object and the alerting sound and output from the sound output unit 390.
次に、仮想現実サービス提供システム側について説明する。仮想現実サービス提供サーバ3300は、通信部1310と、仮想現実サービス提供管理部1320と、表示映像生成処理部1350と、画像解析処理部2360と、音声解析処理部3380と、仮想現実サービス制御部3330と仮想現実オブジェクト挙動制御部3370と、再生音声生成処理部3390と、を具備する。 Next, the virtual reality service providing system side will be described. The virtual reality service providing server 3300 includes a communication unit 1310, a virtual reality service provision management unit 1320, a display video generation processing unit 1350, an image analysis processing unit 2360, an audio analysis processing unit 3380, and a virtual reality service control unit 3330. And a virtual reality object behavior control unit 3370 and a reproduction sound generation processing unit 3390.
仮想現実サービス提供管理部1320は、仮想現実サービス開始処理部1321と、仮想現実サービス提供終了処理部1322と、仮想現実提示中断・注意喚起判定処理部1324と、仮想現実提示中断・注意喚起指示部1325を備える。 The virtual reality service provision management unit 1320 includes a virtual reality service start processing unit 1321, a virtual reality service provision end processing unit 1322, a virtual reality presentation interruption / attention determination processing unit 1324, and a virtual reality presentation interruption / attention instruction unit. 1325.
仮想現実提示中断・注意喚起判定処理部1324は、通信部1310で受信されたユーザ状態情報や周囲状況情報、また、当該周囲状況情報に対する画像解析処理部2360による画像解析処理の結果や通信部1310で受信された音声に対する音声解析処理部3380による音声解析処理の結果に基づいて、仮想現実の提示を中断したり、注意喚起を行ったりするかの判定処理を行う。具体的には、仮想現実提示中断・注意喚起判定処理部1324は、中断・注意喚起条件記憶データベース3600に記憶されている条件と、これらの入力情報とを比較することで、中断条件や注意喚起条件を満たしているかを判定する処理を行う。 The virtual reality presentation interruption / attention calling determination processing unit 1324 receives the user status information and the ambient situation information received by the communication unit 1310, and the result of the image analysis processing performed by the image analysis processing unit 2360 on the ambient status information and the communication unit 1310. Based on the result of the voice analysis processing performed by the voice analysis processing unit 3380 on the voice received in step S3, the process of determining whether to interrupt the presentation of virtual reality or to call attention is performed. Specifically, the virtual reality presentation interruption / attention calling determination processing unit 1324 compares the conditions stored in the interruption / attention calling condition storage database 3600 with these input information, so that the interruption condition and the attention attraction are obtained. Processing to determine whether the condition is satisfied is performed.
仮想現実提示中断・注意喚起指示部1325は、仮想現実提示中断・注意喚起判定処理部1324で仮想現実提示の中断または注意喚起を行うと判定された場合に、中断指示または注意喚起指示を通信部1310経由で仮想現実提示制御部260へ行う。 When the virtual reality presentation suspension / attention calling instruction unit 1325 determines that the virtual reality presentation suspension / attention calling determination processing unit 1324 interrupts or alerts the virtual reality presentation, the virtual reality presentation suspension / attention calling instruction unit 1325 transmits a suspension instruction or attention attraction instruction to the communication unit. This is performed to the virtual reality presentation control unit 260 via 1310.
また、仮想現実提示中断・注意喚起指示部1325は、仮想現実オブジェクトを用いた注意喚起を行うと仮想現実提示中断・注意喚起判定処理部1324によって判定された場合、仮想現実サービス制御部3300や仮想現実オブジェクト挙動制御部3370に対して注意喚起用の指示を行う。当該指示を受け取った仮想現実オブジェクト挙動制御部3370は、現在仮想空間に配置している仮想現実オブジェクトに対して注意喚起用の挙動をさせる処理を実行することで、仮想現実オブジェクトの挙動を通じてユーザに対して注意喚起を行う。すなわち、表示映像生成処理部1350において、当該注意喚起用の挙動をする仮想現実オブジェクトの映像データが生成されるため、当該映像データを表示制御部140が復号して表示部150に仮想現実オブジェクトが注意喚起用の挙動を行っている映像を表示することでユーザに対して注意喚起が行われる。また、仮想空間に注意喚起用に使用可能な仮想現実オブジェクトが配置されていない場合は、当該注意喚起指示を受け取った仮想現実サービス制御部3330が仮想現実コンテンツ記憶データベース3200より注意喚起用の仮想現実オブジェクトを読み出して仮想空間に配置し、当該新たに仮想空間に配置された仮想現実オブジェクトを用いて注意喚起を行う構成としても良い。表示映像生成処理部1350では当該注意喚起用の仮想現実オブジェクトの映像データが生成され、また再生音生成処理部3390では、当該注意喚起用の音声データが生成される。 Further, when the virtual reality presentation interruption / attention calling instruction unit 1325 determines that the virtual reality presentation interruption / attention calling determination processing unit 1324 performs the attention using the virtual reality object, the virtual reality service control unit 3300 and the virtual reality service control unit 3300 An instruction for alerting the real object behavior control unit 3370 is issued. Upon receiving the instruction, the virtual reality object behavior control unit 3370 executes a process for causing the virtual reality object currently arranged in the virtual space to be alerted, thereby allowing the user to perform the behavior through the behavior of the virtual reality object. Call attention to it. That is, in the display video generation processing unit 1350, video data of the virtual reality object that behaves for the attention is generated, so that the display control unit 140 decodes the video data and the virtual reality object is displayed on the display unit 150. The user is alerted by displaying a video that is performing a behavior for alerting. When a virtual reality object that can be used for alerting is not arranged in the virtual space, the virtual reality service control unit 3330 that has received the alerting instruction receives virtual reality for alerting from the virtual reality content storage database 3200. A configuration may be adopted in which an object is read out and placed in a virtual space, and alerting is performed using the virtual reality object newly placed in the virtual space. The display video generation processing unit 1350 generates video data of the virtual reality object for alerting, and the reproduction sound generation processing unit 3390 generates audio data for alerting.
なお、当該注意喚起用に用いられる所定の仮想現実オブジェクトや注意喚起用の仮想現実オブジェクト挙動制御プログラム(メソッド又はサブルーチンなど)や注意喚起用の音声データは、提供される仮想現実サービス毎に設定・記憶されていても良いし、当該システムが一意に設定・記憶していても良い。好ましくは、仮想現実提示中断・注意喚起判定処理部1324で該当すると判定された注意喚起条件毎に対応する仮想現実オブジェクトが仮想現実コンテンツ記憶データベース3200より読み出されて仮想空間に配置される構成としたり、当該対応する注意喚起用の仮想現実オブジェクト挙動制御プログラムが実行されたりすることで仮想現実オブジェクトを用いた注意喚起用の映像データが表示映像生成処理部1350で生成される構成としたり、注意喚起用の音声データが仮想現実コンテンツ記憶データベース3200より読み出されて再生音声生成処理部3390で注意喚起用の音声データが生成される構成とすると良い。 The predetermined virtual reality object used for alerting, the alerting virtual reality object behavior control program (method or subroutine, etc.) and alerting voice data are set and set for each provided virtual reality service. It may be stored, or the system may be uniquely set and stored. Preferably, the virtual reality object corresponding to each alert condition determined to be applicable by the virtual reality presentation interruption / attention determination processing unit 1324 is read from the virtual reality content storage database 3200 and arranged in the virtual space. Or by executing the corresponding virtual reality object behavior control program for alerting, the display video generation processing unit 1350 generates alerting video data using the virtual reality object. It is preferable that the audio data for calling is read from the virtual reality content storage database 3200 and the audio data for calling is generated by the reproduction audio generation processing unit 3390.
なお、仮想現実提示中断・注意喚起判定処理部1324は、ユーザに対して提供している仮想現実サービスの種類(クラス)・内容や当該ユーザが中断・注意喚起用に設定している設定情報に基づいて、中断・注意喚起条件記憶データベース3600より対応する中断・注意喚起条件を読み出し、入力されるユーザ状態情報や周囲状況情報、画像解析処理の結果や音声解析処理の結果と比較することで判定を行う構成とすると更に良好である。 The virtual reality presentation interruption / attention determination processing unit 1324 displays the type (class) / content of the virtual reality service provided to the user and the setting information set for interruption / attention by the user. Based on the interruption / attention condition storage database 3600, the corresponding interruption / attention conditions are read out and compared with the input user status information, surrounding situation information, image analysis processing result, and voice analysis processing result. It is even better if the construction is performed.
ここで、上述した仮想現実サービス提供中断処理部1323は、現在提供中の仮想現実サービス自体の提供を中断する処理を行うのに対し、仮想現実提示中断・注意喚起指示部1325は、仮想現実サービスの提供は継続しつつも、仮想現実の提示を一時的に中断する指示を行う点で異なる。 Here, the virtual reality service provision interruption processing unit 1323 described above performs processing for interrupting provision of the virtual reality service itself that is currently being provided, whereas the virtual reality presentation suspension / attention instruction unit 1325 is a virtual reality service. However, it is different in that an instruction to temporarily interrupt the presentation of virtual reality is given.
なお、仮想現実提示中断・注意喚起判定処理部1324は、上述した仮想現実提示中断判定処理部11031や注意喚起判定処理部14011と同一の機能を有する。また仮想現実提示中断・注意喚起指示部1325は、仮想現実提示中断指示部11032や注意喚起指示部14012と同一の機能を有する。また、中断・注意喚起条件記憶データベース3600は、仮想現実中断条件記憶部13010や注意喚起条件記憶部15010と同一の機能を有する。 Note that the virtual reality presentation interruption / attention calling determination processing unit 1324 has the same functions as the virtual reality presentation interruption determination processing unit 11031 and the attention attraction determination processing unit 14011 described above. The virtual reality presentation interruption / attention instruction unit 1325 has the same functions as the virtual reality presentation interruption instruction unit 11032 and the attention instruction unit 14012. The interruption / attention calling condition storage database 3600 has the same functions as the virtual reality interruption condition storage unit 13010 and the attention calling condition storage unit 15010.
以上説明したように、本実施形態16に関する仮想現実提示システムは、仮想現実提示装置と仮想現実サービス提供サーバを少なくとも備え、仮想現実提示装置はユーザの状態または周囲の状況と第1種の中断条件または第1種の注意喚起条件に基づいて、ユーザに対する仮想現実の提示を中断するかどうかの判定処理を実行したり仮想現実が提示されているユーザに対して注意喚起を行うかどうかの判定処理を実行したりする第1種判定処理部を具備し、ユーザの状態または周囲の状況と第2種の中断条件または第2種の注意喚起条件に基づいて、ユーザに対する仮想現実の提示を中断するかどうかの判定処理を行ったり仮想現実が提示されているユーザに対して注意喚起を行うかどうかの判定処理を実行したり第2種判定処理部を具備する。また、仮想現実提示装置は、仮想現実提示装置が備える第1種判定処理部と仮想現実サービス提供サーバが備える第2種判定処理部のいずれかで仮想現実の提示を中断すると判定された場合に、仮想現実オブジェクトの映像表示を停止したり、仮想現実オブジェクトの音声出力を停止したりすることで仮想現実の提示を中断する制御を行う。また、仮想現実提示装置は、仮想現実提示装置が備える第1種判定処理部と仮想現実サービス提供サーバが備える第2種判定処理部のいずれかで注意喚起を行うと判定された場合に、注意喚起用の画像を表示したり、注意喚起用の音声を出力したりすることで仮想現実の提示しながらユーザに対して注意喚起を行う制御を行う。また、仮想現実サービス提供サーバは、仮想現実サービス提供サーバが備える第2種判定処理部で仮想現実オブジェクトを用いた注意喚起を行うと判定された場合に、仮想空間に配置されている仮想現実オブジェクトに対して注意喚起用の挙動を行わせたり注意喚起用の仮想現実オブジェクトを仮想空間に配置したりすることで、仮想現実オブジェクトを用いた注意喚起用の映像や音声を生成する。仮想現実提示装置は、当該仮想現実オブジェクトを用いた注意喚起用の映像や音声を表示したり、出力したりすることで仮想現実の提示しながらユーザに対して注意喚起を行う制御を行う。 As described above, the virtual reality presentation system according to the sixteenth embodiment includes at least a virtual reality presentation device and a virtual reality service providing server, and the virtual reality presentation device includes the user state or the surrounding situation and the first type of interruption condition. Alternatively, based on the first type of alerting condition, a process for determining whether to interrupt the presentation of virtual reality to the user or a process for determining whether to alert the user who is presented with virtual reality is performed. And the virtual reality presentation to the user is interrupted based on the state of the user or the surrounding situation and the second type interruption condition or the second type alert condition. A determination process for determining whether or not to alert a user who is presented with virtual reality, or a second type determination processing unit . In addition, when the virtual reality presentation device determines that the virtual reality presentation is interrupted by either the first type determination processing unit provided in the virtual reality presentation device or the second type determination processing unit provided in the virtual reality service providing server. Then, control for interrupting presentation of virtual reality is performed by stopping video display of the virtual reality object or stopping audio output of the virtual reality object. In addition, the virtual reality presentation device is cautioned when it is determined to alert one of the first type determination processing unit provided in the virtual reality presentation device and the second type determination processing unit provided in the virtual reality service providing server. Control is performed to alert the user while displaying virtual reality by displaying an image for alerting or outputting alerting sound. In addition, the virtual reality service providing server is a virtual reality object arranged in the virtual space when it is determined that the second type determination processing unit included in the virtual reality service providing server performs alerting using the virtual reality object. A video or sound for alerting using a virtual reality object is generated by performing a behavior for alerting or arranging a virtual reality object for alerting in a virtual space. The virtual reality presentation device performs control for alerting the user while presenting the virtual reality by displaying or outputting a video or sound for alerting using the virtual reality object.
例えば、仮想現実提示装置800側の仮想現実提示中断・注意喚起判定処理部261で行われる第1種の判定処理としては、例えば、ユーザ状態検知部110が備えるユーザ移動速度検出部116で検出されるユーザの移動速度を図54のNo:C004の「ユーザの移動速度が秒速3m以上でないこと」という中断条件と比較することで当該中断条件を満たしていないかを判定し、仮想現実サービス提供サーバ3300側の仮想現実提示中断・注意喚起判定処理部1324では、ユーザ状態情報や周囲状況情報や画像解析処理部2360における画像解析結果や音声解析処理部3380における音声解析結果と図54に示す他の中断条件とを比較することで当該中断条件を満たしていないかを判定する構成としても良い。 For example, as the first type determination process performed by the virtual reality presentation interruption / attention calling determination processing unit 261 on the virtual reality presentation device 800 side, for example, it is detected by the user movement speed detection unit 116 included in the user state detection unit 110. 54 is compared with the interruption condition “No user movement speed is 3 m / s or more” of No: C004 in FIG. 54 to determine whether the interruption condition is satisfied, and the virtual reality service providing server In the virtual reality presentation interruption / attention calling determination processing unit 1324 on the 3300 side, the user state information, the surrounding state information, the image analysis result in the image analysis processing unit 2360, the voice analysis result in the voice analysis processing unit 3380, and other types shown in FIG. It is good also as a structure which determines whether the said interruption condition is not satisfied by comparing with interruption conditions.
また、例えば、仮想現実提示装置800側の仮想現実提示中断・注意喚起判定処理部261で行われる第1種の判定処理としては、例えば、ユーザ状態検知部110が備えるユーザ移動速度検出部116で検出されるユーザの移動速度を図66のNo:W009の「ユーザの位置が緯度38・・・経度135・・・でないこと」という注意喚起条件と比較することで当該注意喚起条件を満たしていないかを判定し、仮想現実サービス提供サーバ3300側の仮想現実提示中断・注意喚起判定処理部1324では、ユーザ状態情報や周囲状況情報や画像解析処理部2360における画像解析結果や音声解析処理部3380における音声解析結果と図66に示す他の注意喚起条件とを比較することで当該注意喚起条件を満たしていないかを判定する構成としても良い。 For example, as a first type of determination process performed by the virtual reality presentation interruption / attention determination processing unit 261 on the virtual reality presentation device 800 side, for example, the user movement speed detection unit 116 included in the user state detection unit 110 may be used. The detected moving speed of the user is not satisfied by comparing it with the warning condition “No user position is latitude 38... Longitude 135... In the virtual reality presentation interruption / attention calling determination processing unit 1324 on the virtual reality service providing server 3300 side, the user state information, the surrounding state information, the image analysis result in the image analysis processing unit 2360, and the voice analysis processing unit 3380 A structure for determining whether or not the alert condition is satisfied by comparing the voice analysis result with another alert condition shown in FIG. It may be.
これらの場合、対応する中断条件や注意喚起条件がそれぞれ中断・注意喚起条件記憶部820と、中断・注意喚起条件記憶部データベース3600に記憶されていることになる。 In these cases, the corresponding interruption condition and alerting condition are stored in the interrupting / noticeing condition storage unit 820 and the interrupting / noticeing condition storage unit database 3600, respectively.
このように、仮想現実提示装置800側では緊急度が高い中断条件・注意喚起条件や比較的小さい処理で行うことができる中断条件・注意喚起条件との比較判定処理を行い、判定結果に基づいて仮想現実の提示中断や、注意喚起を行う構成とし、仮想現実サービス提供サーバ3300側では画像解析処理や音声解析処理など比較的大きい処理が必要となる中断条件・注意喚起条件との比較判定処理を行う構成とすると良い。このように必要となる処理の量や中断・注意喚起が求められる迅速度に応じて、判定処理を仮想現実提示装置側と仮想現実サービス提供サーバ側に分担することでより適切な中断・注意喚起を行うことができる。 In this way, the virtual reality presentation device 800 side performs the comparison determination process with the interruption condition / warning condition having a high degree of urgency and the interruption condition / warning condition that can be performed with relatively small processing, and based on the determination result. The virtual reality presentation is interrupted and alerted, and the virtual reality service providing server 3300 performs comparison determination processing with the interrupting condition / alerting condition that requires relatively large processing such as image analysis processing and voice analysis processing. It is good to have a configuration to do. Depending on the amount of processing required and the speed with which interruption / warning is required, the decision processing is shared between the virtual reality presentation device side and the virtual reality service providing server side for more appropriate interruption / warning It can be performed.
以上、実施形態8〜16で説明したように、本発明に係る仮想現実システムは、仮想現実の世界をユーザに提示する仮想現実提示システムあって、ユーザが仮想現実の世界を感知して行動する際に、当該ユーザの行動が現実の世界に対して与える影響をコントロールする構成とすることができる。 As described above in Embodiments 8 to 16, the virtual reality system according to the present invention is a virtual reality presentation system that presents a virtual reality world to the user, and the user acts by sensing the virtual reality world. In this case, the influence of the user's action on the real world can be controlled.
また、上述した各実施形態は、本発明の一実施例を示したものであり、適宜変更が可能である。例えば、上述した各実施形態を組み合わせることが可能である。 Moreover, each embodiment mentioned above shows one Example of this invention, and can be changed suitably. For example, the above-described embodiments can be combined.
また、上述した仮想現実提示システムにおいて、映像生成処理部は、ユーザが装着する仮想現実提示装置側に設けられていても良いし、仮想現実サービス提供サーバ側に設けられていても良い。この場合、仮想現実提示装置は、取得したユーザ状態情報や周囲状況情報を仮想現実サービス提供サーバ側へ通信部より無線送信し、仮想現実サービス提供サーバで生成された仮想現実オブジェクトの映像の符号化データを当該通信部で無線受信する構成となる。仮想現実提示装置において、映像表示制御部は通信部で無線受信された上記仮想現実オブジェクトの映像符号化データに対して復号処理を行い、復号後の映像を表示パネルに表示する。 In the virtual reality presentation system described above, the video generation processing unit may be provided on the virtual reality presentation device side worn by the user, or may be provided on the virtual reality service providing server side. In this case, the virtual reality presentation device wirelessly transmits the acquired user state information and surrounding state information to the virtual reality service providing server side from the communication unit, and encodes the video of the virtual reality object generated by the virtual reality service providing server. The data is wirelessly received by the communication unit. In the virtual reality presentation device, the video display control unit performs a decoding process on the video encoded data of the virtual reality object wirelessly received by the communication unit, and displays the decoded video on the display panel.
また、上述した仮想現実提示システムにおいて、注意喚起制御部や仮想現実提示中断制御部は仮想現実提示装置内に組み込まれていても良いし、仮想現実サービス提供サーバ側に配置されていても良い。この場合、仮想現実提示装置の通信部より無線送信されたユーザ状態情報や周囲状況情報に基づいて仮想現実の提示の中断を行うかどうかの判定処理や、注意喚起を行うかどうかの判定処理を仮想現実サービス提供サーバ側で実行する。 In the virtual reality presentation system described above, the alerting control unit and the virtual reality presentation interruption control unit may be incorporated in the virtual reality presentation device or may be arranged on the virtual reality service providing server side. In this case, a determination process for determining whether to interrupt the presentation of virtual reality based on user state information and ambient condition information wirelessly transmitted from the communication unit of the virtual reality presentation device and a determination process for determining whether to perform alerting are performed. It is executed on the virtual reality service providing server side.
また、上記説明では、映像を表示する表示パネルとしてLCD(Liquid Crystal Display)を用いる場合について説明したが、これに限定されるものではない。例えば、OELD(Organic Electro-Luminescence Display)を用いても良いし、その他の映像表示ディスプレイを用いることができる。 In the above description, a case where an LCD (Liquid Crystal Display) is used as a display panel for displaying an image has been described. However, the present invention is not limited to this. For example, OELD (Organic Electro-Luminescence Display) may be used, and other video display displays may be used.
また、仮想現実提示装置には、ユーザの左目と右目の前方にそれぞれ配置される2つの表示パネルが設けられていることが好ましく、上述した視点制御部は当該ユーザの左目と右目にそれぞれ対応した視点の位置及び方向を制御し、映像生成処理部において、2つの表示パネルにそれぞれ表示する映像を生成する構成とすることが好ましい。 Further, the virtual reality presentation device is preferably provided with two display panels respectively arranged in front of the user's left eye and right eye, and the viewpoint control unit described above corresponds to the user's left eye and right eye, respectively. It is preferable to control the position and direction of the viewpoint and generate a video to be displayed on each of the two display panels in the video generation processing unit.
また、上述した色空間はYUV系列であるものとして説明したが、RGB系列やCMY系列やその他の色空間で制御等が行われていても良い。この場合、表示制御部等で行われる輝度の制御は、明度の制御やR成分の制御等で代用されることも当然可能である。 Further, although the above-described color space is described as being a YUV series, control or the like may be performed in an RGB series, a CMY series, or other color spaces. In this case, the luminance control performed by the display control unit or the like can naturally be substituted by brightness control, R component control, or the like.
また、上述した各部はハードウェアによって実現されていても良いし、CPU(Central Processing Unit)等のプロセッサにプログラムを実行させることにより、ハードウェアとソフトウェアの協働で実現されていても良い。 Each unit described above may be realized by hardware, or may be realized by cooperation of hardware and software by causing a processor such as a CPU (Central Processing Unit) to execute a program.
また、上述した仮想現実提示装置は、仮想現実以外の情報を表示するHMD装置としても利用することが可能である。 The virtual reality presentation device described above can also be used as an HMD device that displays information other than virtual reality.
なお、上述したユーザ状態検知部や周囲状況検知部は、ユーザが身に着ける仮想現実提示装置に配置されているものに限定されるものではない。例えば、図86に示すように、仮想現実の提示を受けたいユーザが仮想現実提示装置を身に着けた状態で仮想現実体験ドームに入り、仮想現実の提示を受ける構成とすることもできる。仮想現実体験ドームには、ユーザの状態を検知するセンサやユーザの周囲の状況を検知するセンサが複数設けられており、当該センサで検知された情報は、仮想現実サービス提供サーバへ送られる。 Note that the above-described user state detection unit and surrounding state detection unit are not limited to those arranged in the virtual reality presentation device worn by the user. For example, as shown in FIG. 86, a user who wants to receive a virtual reality presentation can enter the virtual reality experience dome with the virtual reality presentation device and receive the virtual reality presentation. The virtual reality experience dome is provided with a plurality of sensors for detecting the state of the user and sensors for detecting the situation around the user, and information detected by the sensor is sent to the virtual reality service providing server.
また、仮想現実提示装置は、頭部に装着するHMD装置と、頭部以外の上半身に装着する制御処理装置とが接続ケーブルで接続される構成とすることができる。頭部に装着するHMD装置側にはできるだけ少ない機能のみを搭載し、バッテリーやCPU等は制御処理装置側に配置する。制御処理装置は、腰に巻きつけるように装着する構成としても良いし、肩から背負う構成としても良い。当該構成とすることで、ユーザに疲労感を感じさせることなく長時間の仮想現実の世界の堪能が可能となる。但し、バッテリー技術の進歩又は半導体集積技術の進歩により、長時間使用可能な小型バッテリーをHMD装置に搭載可能であれば、HMD装置に当該小型バッテリーを搭載する形態の方が、装着性が高まるため好ましい。 Further, the virtual reality presentation device can be configured such that the HMD device worn on the head and the control processing device worn on the upper body other than the head are connected by a connection cable. Only as few functions as possible are mounted on the HMD device mounted on the head, and a battery, a CPU, and the like are disposed on the control processing device side. The control processing device may be configured to be worn around the waist or may be configured to be supported from the shoulder. With this configuration, it is possible to enjoy the virtual reality world for a long time without causing the user to feel tired. However, if a small battery that can be used for a long time can be mounted on the HMD device due to the advancement of the battery technology or the semiconductor integration technology, the form in which the small battery is mounted on the HMD device is more easily mounted. preferable.
また、上述した各実施形態は、本発明の一実施例を示したものであり、適宜変更が可能である。例えば、上述した各実施形態を組み合わせることが可能である。 Moreover, each embodiment mentioned above shows one Example of this invention, and can be changed suitably. For example, the above-described embodiments can be combined.
また、上記説明では、少なくともユーザの目の前方に配置される表示部(表示パネル)に仮想現実オブジェクトの映像を表示することで仮想現実を提示する場合について説明したがこれに限定されるものではない。例えば、位置分解能を有する磁場発生装置をユーザの脳に照射することで、脳内の特定の領域を刺激してユーザが眼球を通じることなく映像を視ることができる構成としても良い。但し、この場合、少なくとも脳内の現在の神経ネットワークの結合構成等を予め把握しておく必要がある。しかしながら、究極的には、仮想現実提示装置はユーザの脳に直接刺激を与える構成に到達するものと考えられる。 Further, in the above description, the case where the virtual reality is presented by displaying the video of the virtual reality object on at least the display unit (display panel) arranged in front of the user's eyes is described, but the present invention is not limited to this. Absent. For example, by irradiating a user's brain with a magnetic field generator having position resolution, a specific region in the brain can be stimulated so that the user can view an image without passing through the eyeball. However, in this case, it is necessary to grasp in advance at least the current neural network connection configuration in the brain. However, ultimately, it is considered that the virtual reality presentation device reaches a configuration that directly stimulates the user's brain.
また、上述した周囲状況検知部としては、音響ソナーや超音波センサを用いることも可能である。また、周囲状況検知部は、他人の現在位置を示す位置情報を取得することで、ユーザの周囲の状況として、ユーザの周囲にいている人間の存在を検知する構成としても良い。他人の位置情報は、例えば当該他人が所有している携帯端末で取得される位置情報を入手する構成としても良い。その他、車に取り付けられた電磁波発生装置から放射される電磁波に基づいて周囲を走っている車の存在を検知しても良い。 In addition, as the above-described ambient condition detection unit, an acoustic sonar or an ultrasonic sensor can be used. Further, the surrounding state detection unit may be configured to detect the presence of a human being around the user as the surrounding state of the user by acquiring position information indicating the current position of another person. For example, the position information of another person may be obtained by acquiring position information acquired by a mobile terminal owned by the other person. In addition, the presence of a vehicle running around the vehicle may be detected based on an electromagnetic wave radiated from an electromagnetic wave generator attached to the vehicle.
また、上述した仮想現実提示装置は、仮想現実以外の情報を表示するHMD装置としても利用することが可能である。 The virtual reality presentation device described above can also be used as an HMD device that displays information other than virtual reality.
また、本発明は以下の形態を取ることが可能である。
(付記1)(システム基本設計)
複数の仮想現実オブジェクトを記憶する仮想現実オブジェクト記憶手段と、
ユーザが利用可能な仮想現実サービスを示す情報を記憶する利用可能仮想現実サービス情報記憶手段と、
前記ユーザが利用する仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶手段より読み出す仮想現実オブジェクト読み出し手段と、
ユーザの周囲の状況を示す周囲状況情報に基づいて、仮想現実空間における前記仮想現実オブジェクトの配置位置を決定する仮想現実オブジェクト配置位置決定手段と、
ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて、ユーザが頭部に装着するヘッドマウントディスプレイ装置の表示パネルに表示される映像を生成する表示映像生成手段と、
を備える仮想現実サービス提供システム。
(付記2)(システム基本設計)
前記ヘッドマウントディスプレイ装置より前記周囲状況情報と前記ユーザ状態情報を受信する受信手段と、
前記表示映像生成手段で生成された映像を符号化する映像符号化手段と、
前記符号化された映像を前記ヘッドマウントディスプレイ装置へ送信する送信手段と、
を更に備える付記1に記載の仮想現実サービス提供システム。
(付記3)(視線カメラ)
前記周囲状況情報として、前記ヘッドマウントディスプレイ装置は、前方を撮影することで前方景色画像を取得する視線カメラを備えることを特徴とする、
付記1又は2に記載の仮想現実サービス提供システム。
(付記4)(周囲カメラ)
前記周囲状況情報として、前記ヘッドマウントディスプレイ装置は、前記視線カメラの撮影範囲外の方向を撮影することで周囲景色画像を取得する周囲カメラを備えることを特徴とする、
付記3に記載の仮想現実サービス提供システム。
(付記5)(傾きセンサ)
前記ユーザ状態情報として、前記ヘッドマウントディスプレイ装置は、ユーザの頭部の傾きを検知することで傾き情報を取得する傾きセンサを備えることを特徴とする、
付記1〜4のいずれか1項に記載の仮想現実サービス提供システム。
(付記6)(加速度センサ)
前記ユーザ状態情報として、前記ヘッドマウントディスプレイ装置は、ユーザの頭部の移動に伴う加速度を検知することで加速度情報を取得する加速度センサを備えることを特徴とする、
付記1〜5のいずれか1項に記載の仮想現実サービス提供システム。
(付記7)(方位センサ)
前記ユーザ状態情報として、前記ヘッドマウントディスプレイ装置は、ユーザの頭部が向いている方位を検知することで方位情報を取得する方位センサを備えることを特徴とする、
付記1〜6のいずれか1項に記載の仮想現実サービス提供システム。
(付記8)(位置情報:GPS)
前記ユーザ状態情報として、前記ヘッドマウントディスプレイ装置は、ユーザの位置を検出することで位置情報を取得する位置情報取得部を備えることを特徴とする、
付記1〜7のいずれか1項に記載の仮想現実サービス提供システム。
(付記9)(ユーザ音声入力)
前記ヘッドマウントディスプレイ装置は、ユーザが発する音声を入力してユーザ音声情報を生成するユーザ音声入力部を備えることを特徴とする、
付記1〜8のいずれか1項に記載の仮想現実サービス提供システム。
(付記10)(ユーザ音声入力)
前記ヘッドマウントディスプレイ装置は、ユーザの周囲の音声を入力して周囲音声情報を生成する周囲音声入力部を備えることを特徴とする、
付記1〜9のいずれか1項に記載の仮想現実サービス提供システム。
(付記11)(仮想現実サービス提供開始)
前記ユーザに仮想現実サービスの提供を開始することを決定する仮想現実サービス開始決定手段を備え、
前記仮想現実サービス開始決定手段で仮想現実サービスの提供を開始すると決定された場合に、前記仮想現実オブジェクト読み出し手段は、前記ユーザに提供する仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶手段より読み出すことを特徴とする付記1〜10のいずれか1項に記載の仮想現実サービス提供システム。
(付記12)(ユーザからの要求に応じてサービス開始)
前記受信手段は、仮想現実サービスの提供開始を要求するサービス開始要求を受信し、
前記仮想現実サービス開始決定手段は、前記受信手段で前記サービス開始要求が受信された場合に、前記サービス開始要求の要求元ユーザに仮想現実サービスの提供を開始すると決定する、
付記11に記載の仮想現実サービス提供システム。
(付記13)(音声で開始要求を入力)
前記受信手段は、ヘッドマウントディスプレイ装置で入力されたユーザの音声を含むユーザ音声情報を受信し、
前記ユーザ音声情報に含まれるユーザの音声を解析してコンテキストを取得するコンテキスト取得手段を更に備え、
前記仮想現実サービス開始決定手段は、前記コンテキスト取得手段で取得されたコンテキストが仮想現実サービスの開始を要求するものである場合に、前記ユーザに仮想現実サービスの提供を開始すると決定する、
付記11に記載の仮想現実サービス提供システム。
(付記14)(仮想現実サービス提供開始可否判定)
前記仮想現実サービスの提供を開始するための条件となるサービス提供開始条件を記憶するサービス提供開始条件記憶手段を備え、
前記仮想現実サービス開始決定手段は、前記受信手段で受信された周囲状況情報が示すユーザの周囲の状況が前記サービス提供開始条件を満たしている場合に、前記ユーザに仮想現実サービスの提供を開始すると決定する、
付記11〜13のいずれか1項に記載の仮想現実サービス提供システム。
(付記15)(サービス開始可能位置)
前記サービス提供開始条件記憶手段は、前記仮想現実サービスの提供を開始するための条件として、前記仮想現実サービスの提供を受けることができる位置範囲を示すサービス利用可能位置範囲を記憶し、
前記受信手段は、前記周囲状況情報として、少なくとも前記ユーザの現在の位置を示す位置情報を受信し、
前記仮想現実サービス開始決定手段は、前記受信手段で受信された周囲状況情報である前記位置情報が示すユーザの現在位置が前記サービス利用可能位置範囲内である場合に、前記ユーザに仮想現実サービスの提供を開始すると決定する、
付記14に記載の仮想現実サービス提供システム。
(付記16)(仮想現実サービス提供開始通知)
前記送信手段は、前記仮想現実サービス開始決定手段で前記ユーザに仮想現実サービスの提供を開始すると決定された場合に、前記仮想現実サービスの提供の開始を通知するサービス開始通知情報を前記ユーザのヘッドマウントディスプレイ装置へ送信する、
付記11〜15のいずれか1項に記載の仮想現実サービス提供システム。
(付記17)(仮想現実サービス提供終了)
前記ユーザに提供中の仮想現実サービスを終了することを決定する仮想現実サービス終了決定手段を備え、
前記仮想現実サービス終了決定手段で仮想現実サービスの提供を終了すると決定された場合に、前記仮想現実オブジェクト読み出し手段は、前記ユーザが利用可能な仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶手段より読み出すことを特徴とする付記1〜16のいずれか1項に記載の仮想現実サービス提供システム。
(付記18)(仮想現実サービス提供終了通知)
前記送信手段は、前記仮想現実サービス終了決定手段で前記ユーザに提供中の仮想現実サービスの提供を終了すると決定された場合に、前記仮想現実サービスの提供の終了を通知するサービス終了通知情報を前記ユーザのヘッドマウントディスプレイ装置へ送信する、
付記17に記載の仮想現実サービス提供システム。
(付記19)(ユーザからの要求に応じてサービス終了)
前記受信手段は、仮想現実サービスの提供終了を要求するサービス終了要求を受信し、
前記仮想現実サービス終了決定手段は、前記受信手段で前記サービス終了要求が受信された場合に、前記サービス終了要求の要求元ユーザに提供中の仮想現実サービスの提供を終了すると決定する、
付記17又は18に記載の仮想現実サービス提供システム。
(付記20)(音声で終了要求を入力)
前記受信手段は、ヘッドマウントディスプレイ装置で入力されたユーザの音声を含むユーザ音声情報を受信し、
前記ユーザ音声情報に含まれるユーザの音声を解析してコンテキストを取得するコンテキスト取得手段を更に備え、
前記仮想現実サービス終了決定手段は、前記コンテキスト取得手段で取得されたコンテキストが仮想現実サービスの終了を要求するものである場合に、前記ユーザに提供中の仮想現実サービスの提供を終了すると決定する、
付記17〜19のいずれか1項に記載の仮想現実サービス提供システム。
(付記21)(仮想現実サービス提供終了可否判定)
前記ユーザに提供中の前記仮想現実サービスの提供を終了するための条件となるサービス提供終了条件を記憶するサービス提供終了条件記憶手段を備え、
前記仮想現実サービス終了決定手段は、前記受信手段で受信された周囲状況情報が示すユーザの周囲の状況が前記サービス提供終了条件を満たしている場合に、前記ユーザに仮想現実サービスの提供を終了すると決定する、
付記17〜20のいずれか1項に記載の仮想現実サービス提供システム。
(付記22)(サービス終了位置)
前記サービス提供終了条件記憶手段は、前記サービス提供終了条件として、前記仮想現実サービスの提供を受けることができる位置範囲を示すサービス利用可能位置範囲を記憶し、
前記受信手段は、前記周囲状況情報として、少なくとも前記ユーザの現在の位置を示す位置情報を受信し、
前記仮想現実サービス終了決定手段は、前記受信手段で受信された周囲状況情報である前記位置情報が示すユーザの現在位置が前記サービス利用可能位置範囲外となった場合に、前記ユーザに仮想現実サービスの提供を終了すると決定する、
付記21に記載の仮想現実サービス提供システム。
(付記23)(仮想現実サービス提供中断)
前記ユーザに提供中の前記仮想現実サービスの提供を中断するための条件となるサービス提供中断条件を記憶するサービス提供中断条件記憶手段と、
前記受信手段で受信された周囲状況情報が示すユーザの周囲の状況が前記サービス提供中断条件を満たしている場合に、前記ユーザに提供中の仮想現実サービスの提供を中断する処理を行うサービス提供中断処理手段と、
を備える付記1〜22のいずれか1項に記載の仮想現実サービス提供システム。
(付記24)(映像生成中断指示)
前記サービス提供中断処理手段は、前記表示映像生成手段に前記映像の生成の中断を指示する映像生成中断指示情報を生成し、
前記表示映像生成手段は、前記映像生成中断指示情報に基づいて、前記映像の生成を中断する、
付記23に記載の仮想現実サービス提供システム。
(付記25)(映像送信中断指示)
前記サービス提供中断処理手段は、前記表示映像生成手段で生成された前記映像の送信中断を指示する映像送信中断指示情報を生成し、
前記送信手段は、前記映像送信中断指示情報に基づいて、前記表示映像生成手段が生成した前記映像を前記ヘッドマウントディスプレイ装置へ送信することを中断する、
付記23に記載の仮想現実サービス提供システム。
(付記26)(仮想現実サービス提供中断指示)
前記サービス提供中断処理手段は、前記表示映像生成手段で生成された前記映像の表示の中断を指示する映像表示中断指示情報を生成し、
前記送信手段は、前記サービス提供中断処理手段で生成された前記映像表示中断指示情報を前記ヘッドマウントディスプレイ装置へ送信する、
付記23に記載の仮想現実サービス提供システム。
(付記27)(位置による中断)
前記サービス提供中断条件記憶手段は、前記サービス提供中断条件として、前記仮想現実サービスの提供を受けることができる位置範囲を示すサービス利用可能位置範囲を記憶し、
前記受信手段は、前記周囲状況情報として、少なくとも前記ユーザの現在の位置を示す位置情報を受信し、
前記仮想現実サービス中断処理手段は、前記受信手段で受信された周囲状況情報である前記位置情報が示すユーザの現在位置が前記サービス利用可能位置範囲外となった場合に、前記ユーザに仮想現実サービスの提供を中断する処理を行う、
付記23〜付記26のいずれか1項に記載の仮想現実サービス提供システム。
(付記28)(物体接近による中断)
前記サービス提供中断条件記憶手段は、前記サービス提供中断条件として、ユーザに接近する物体の速度と距離に関する条件を記憶し、
前記受信手段は、前記周囲状況情報として、少なくとも前記ユーザの周囲の景色を撮影した周囲景色画像を受信し、
前記サービス提供中断処理手段は、前記周囲景色画像に含まれる物体のユーザに対する速度とユーザまでの距離とが、それぞれ前記サービス提供中断条件として記憶されている前記速度よりも早く、前記距離よりも近い場合に、前記ユーザに提供中の仮想現実サービスの提供を中断する処理を行う、
付記23〜26のいずれか1項に記載の仮想現実サービス提供システム。
(付記29)(動的仮想現実オブジェクト)
仮想現実空間に配置されている前記仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト制御手段を備え、
前記表示映像生成手段は、前記ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて決定される表示位置に、前記仮想現実オブジェクト制御手段によって挙動が制御される前記仮想現実オブジェクトが表示される映像を生成する、
付記1〜27のいずれか1項に記載の仮想現実サービス提供システム。
(付記30)(周囲状況による挙動制御)
前記仮想現実オブジェクト制御手段は、前記周囲状況情報に基づいて前記仮想現実オブジェクトの挙動を制御する、
付記29に記載の仮想現実サービス提供システム。
(付記31)(音声による挙動制御)
前記受信手段は、ヘッドマウントディスプレイ装置で入力された音声を含む音声情報を受信し、
前記音声情報に含まれる音声を解析してコンテキストを取得するコンテキスト取得手段を更に備え、
前記仮想現実オブジェクト制御手段は、前記コンテキスト取得手段で取得されたコンテキストに基づいて、前記仮想現実空間に配置されている前記仮想現実オブジェクトの挙動を制御する、
付記29に記載の仮想現実サービス提供システム。
(付記32)(照度による光学補正)
ユーザの周囲の明るさを示す周囲照度情報に基づいて前記仮想現実空間に配置された前記仮想現実オブジェクトの明るさを補正する光学補正手段を備え、
前記表示映像生成手段は、前記ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて決定される表示位置に、前記光学補正手段によって明るさの補正が行われた前記仮想現実オブジェクトが表示される映像を生成する、
付記1〜31のいずれか1項に記載の仮想現実サービス提供システム。
(付記33)(配置位置における照度による光学補正)
前記周囲状況情報として、前記ヘッドマウントディスプレイ装置で撮影されたユーザの周囲の景色の画像に基づいて、前記仮想現実オブジェクトが配置されている仮想現実空間の位置に対応する位置における光照射状況を特定する光照射状況特定手段と、
前記特定された前記光照射状況に基づいて、仮想現実空間に配置された前記仮想現実オブジェクトの明るさを補正する光学補正手段と、
を備え、
前記表示映像生成手段は、前記ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて決定される表示位置に、前記光学補正手段によって明るさの補正が行われた前記仮想現実オブジェクトが表示される映像を生成する、
付記1〜31のいずれか1項に記載の仮想現実サービス提供システム。
(付記34)(仮想現実オブジェクトの音声合成)
前記仮想現実オブジェクトに対応付けられた複数の音声要素データを記憶する音声要素記憶手段と、
前記周囲状況情報又はヘッドマウントディスプレイ装置で入力された音声情報に基づいて、前記仮想現実オブジェクトが発する音声の内容を決定する音声決定手段と、
前記決定された音声の内容に従って前記音声要素データを結合することで、前記仮想現実オブジェクトから発せられる音声を生成する音声生成手段と、
を備える付記1〜33のいずれか1項に記載の仮想現実サービス提供システム。
(付記35)(音声再生仮想現実オブジェクト)
仮想現実空間における前記仮想現実オブジェクトの配置位置に基づいて、前記生成された音声を、前記ヘッドマウントディスプレイ装置のスピーカから出力される複数のチャンネルの音声に変換する音声変換手段と、
を備える付記34に記載の仮想現実サービス提供システム。
(付記36)(方法基本設計)
複数の仮想現実オブジェクトを記憶する仮想現実オブジェクト記憶データベースと、ユーザが利用可能な仮想現実サービスを示す情報を記憶する利用可能仮想現実サービス情報記憶データベースと、を備える仮想現実サービス提供システムで用いられる仮想現実サービス提供方法であって、
前記利用可能仮想現実サービス情報記憶データベースに記憶される前記ユーザが利用可能な仮想現実サービスを示す情報に基づいて、前記ユーザが利用する仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶データベースより読み出す仮想現実オブジェクト読み出しステップと、
ユーザの周囲の状況を示す周囲状況情報に基づいて、前記読み出した仮想現実オブジェクトの仮想現実空間における配置位置を決定する仮想現実オブジェクト配置位置決定ステップと、
ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて、ユーザが頭部に装着するヘッドマウントディスプレイ装置の表示パネルに表示される映像を生成する表示映像生成ステップと、を備える仮想現実サービス提供方法。
(付記101)(システム基本設計)
ユーザの周囲の状況を検知する周囲状況検知手段と、
仮想現実の提示を行う仮想現実提示手段と、
前記検知されたユーザの周囲の状況に基づいて、仮想現実の提示を中断する制御を行う仮想現実提示中断制御手段と、
を備える仮想現実提示システム。
(付記102)(システム基本設計)
仮想現実の提示を中断する条件である中断条件を記憶する中断条件記憶手段を更に備え、
前記仮想現実提示中断制御手段は、
前記検知されたユーザの周囲の状況が前記中断条件を満たしているかを判定する仮想現実提示中断判定手段と、
前記判定結果に基づいて、前記仮想現実提示手段に前記仮想現実の提示を中断させる指示を出す仮想現実提示中断指示手段と、
を備え、
前記仮想現実提示手段は、前記指示を受けた場合に仮想現実の提示を中断する、
付記101に記載の仮想現実提示システム。
(付記103)(仮想現実オブジェクト)
仮想現実オブジェクトを記憶する仮想現実オブジェクト記憶手段を更に備え、
前記仮想現実提示手段は、前記仮想現実オブジェクトの映像を表示することで仮想現実の提示を行う、
付記101又は102に記載の仮想現実提示システム。
(付記104)(レンダリング映像生成)
ユーザの状態を検知するユーザ状態検知手段と、
前記仮想現実オブジェクト記憶手段に記憶されている仮想現実オブジェクトを読み出して仮想空間に配置する仮想現実オブジェクト配置手段と、
前記ユーザ状態検知手段で求められるユーザの状態に基づいて求められる視点位置及び視線方向に基づいて、仮想空間に配置されている前記仮想現実オブジェクトを描画することで、前記仮想現実オブジェクトの2次元映像を生成する映像生成処理手段と、
を備え、
前記仮想現実提示手段は、前記生成された映像を表示することで仮想現実の提示を行う、
付記103に記載の仮想現実提示システム。
(付記105)(中断映像)
仮想現実の提示を中断することを示す中断映像データを記憶する中断映像データ記憶手段を更に備え、
前記仮想現実提示中断手段は、前記仮想現実提示手段に前記中断映像データを表示させる指示を行うことで仮想現実の提示を中断する制御を行う、
付記103又は104に記載の仮想現実提示システム。
(付記106)(音声)
前記仮想現実オブジェクトと関連付けされた音声データを記憶する音声データ記憶手段を更に備え、
前記仮想現実提示手段は、前記音声データを再生することで仮想現実の提示を行う、
付記101〜105のいずれか1項に記載の仮想現実提示システム。
(付記107)(中断音声)
仮想現実の提示を中断することを示す中断音声データを記憶する中断映像データ記憶手段を更に備え、
前記仮想現実提示中断手段は、前記仮想現実提示手段に前記中断音声データを再生させる指示を行うことで仮想現実の提示を中断する制御を行う、
付記106に記載の仮想現実提示システム。
(付記108)(物体移動速度)
前記周囲状況検知手段は、少なくともユーザの周囲を撮影して周囲画像を取得する複数の周囲撮影手段を備え、
前記周囲画像に写っている物体の移動速度を算出する物体移動速度算出手段と、
を更に備え、
前記仮想現実提示中断制御手段は、
前記物体の移動速度が所定の基準速度を超えている場合に、仮想現実の提示を中断する制御を行う、
付記101〜107のいずれか1項に記載の仮想現実提示システム。
(付記109)(物体相対移動速度)
前記物体移動速度算出手段は、前記物体のユーザ方向の移動速度成分を算出し、
前記仮想現実提示中断制御手段は、
前記物体のユーザ方向の移動速度成分が所定の基準速度を超えている場合に、仮想現実の提示を中断する制御を行う、
付記108に記載の仮想現実提示システム。
(付記110)(物体移動速度)
前記周囲画像に写っている物体までの距離を算出する物体距離算出手段を更に備え、
前記仮想現実提示中断制御手段は、所定の距離以内にある物体の移動速度又はユーザの方向の移動速度成分が所定の基準速度を超えている場合に、仮想現実の提示を中断する制御を行う、
付記109に記載の仮想現実提示システム。
(付記111)(衝突時間)
前記周囲状況検知手段は、少なくともユーザの周囲を撮影して周囲画像を取得する複数の周囲撮影手段を備え、
前記周囲画像に写っている物体までの距離を算出する物体距離算出手段と、
前記物体までの距離の変化に基づいて前記物体の移動速度を算出する物体移動速度算出手段と、
前記物体までの距離と前記物体の移動速度とに基づいて、ユーザ位置までの到達時間を推定する到達時間推定手段と、
を更に備え、
前記仮想現実提示中断制御手段は、
前記到達時間が所定の時間以内である場合に、仮想現実の提示を中断する制御を行う、
付記101〜107のいずれか1項に記載の仮想現実提示システム。
(付記112)(進行方向障害)
前記周囲状況検知手段は、少なくともユーザの周囲を撮影して周囲画像を取得する複数の周囲撮影手段を備え、
ユーザの移動を検知するユーザ移動検知手段と、
前記周囲画像に基づいて、ユーザの移動方向に障害が存在するかを判定する障害判定手段を更に備え、
前記仮想現実提示中断制御手段は、前記ユーザの移動方向に障害が存在すると判定された場合に仮想現実の提示を中断する制御を行う、
付記101〜107のいずれか1項に記載の仮想現実提示システム。
(付記113)(進行方向障害)
ユーザの移動速度を算出するユーザ移動速度算出手段と、
前記ユーザの移動方向に存在する物体又は段差までの距離を算出する物体・段差距離算出手段と、
を更に備え、
前記障害判定手段は、前記ユーザの移動速度と、前記ユーザの移動方向に存在する物体又は段差までの距離と、に基づいて前記ユーザの移動方向に障害が存在するかを判定する、
付記112に記載の仮想現実提示システム。
(付記114)(進行方向障害)
前記障害判定手段は、前記ユーザの移動方向に存在する物体又は段差までの距離を前記移動速度で除算した値が所定の基準値以下である場合に、ユーザの移動方向に障害が存在すると判定する、
付記113に記載の仮想現実提示システム。
(付記115)(方法基本設計)
ユーザの周囲の状況を検知する周囲状況検知ステップと、
仮想現実の提示を行う仮想現実提示ステップと、
前記検知されたユーザの周囲の状況に基づいて、仮想現実の提示を中断する制御を行う仮想現実提示中断制御ステップと、
を備える仮想現実提示方法。
(付記116)(システム基本設計)
ユーザの周囲の状況を検知する周囲状況検知手段と、
ユーザの状態を検知するユーザ状態検知手段と、
前記ユーザの状態に基づいて、仮想現実オブジェクトの映像を生成する映像生成手段と、
前記生成された映像を表示する映像表示手段と、
前記仮想現実オブジェクトと関連付けられた音声を出力する音声出力手段と、
前記検知されたユーザの周囲の状況に基づいて、前記映像表示手段又は前記音声出力手段を用いて前記ユーザに注意喚起を行う注意喚起手段と、
を備える仮想現実提示システム。
(付記117)(注意喚起判定)
注意喚起を行う条件である注意喚起条件を記憶する注意喚起条件記憶手段を更に備え、
前記注意喚起手段は、
前記検知されたユーザの周囲の状況が前記注意喚起条件を満たしているかを判定する注意喚起判定手段と、
前記判定結果に基づいて、前記映像表示手段に注意喚起用の映像を表示させる制御又は前記音声出力手段に注意喚起用の音声を出力させる指示を行う注意喚起指示手段と、
を備える付記101に記載の仮想現実提示システム。
(付記118)(注意喚起判定)
前記注意喚起条件記憶手段は、複数の注意喚起条件を記憶し、
前記注意喚起判定手段は、前記検知されたユーザの周囲の状況が前記複数の注意喚起条件のいずれかを満たしているかを判定し、
前記注意喚起指示手段は、前記注意喚起条件を満たしたと判定された場合に、前記注意喚起条件に対応付けられている注意喚起用の映像を前記表示手段に表示させる指示又は前記注意喚起条件に対応付けられている注意喚起用の音声を前記音声出力手段に出力させる指示を行う、
付記117に記載の仮想現実提示システム。
(付記119)(注意喚起判定)
前記注意喚起指示手段は、前記判定結果に基づいて、前記音声出力手段に、前記仮想現実オブジェクトに関連付けされた注意喚起用の音声を出力させる指示を行う、
付記117に記載の仮想現実提示システム。
(付記20)(注意喚起判定)
前記仮想現実オブジェクトに関連付けされた注意喚起用の音声データと、前記仮想現実オブジェクトに関連付けされていない注意喚起用の音声データとを記憶する注意喚起データ記憶手段を備え、
前記注意喚起制御手段は、前記映像生成手段が生成している映像の仮想現実オブジェクトに関連付けられた注意喚起用の音声データが前記注意喚起データ記憶手段に記憶されている場合は、前記前記映像生成手段が生成している映像の仮想現実オブジェクトに関連付けられた注意喚起用の音声データを読み出して、前記音声出力手段に、前記仮想現実オブジェクトに関連付けされた注意喚起用の音声を出力させる制御を行い、前記映像生成手段が生成している映像の仮想現実オブジェクトに関連付けられた注意喚起用の音声データが前記注意喚起データ記憶手段に記憶されていない場合は、前記前記映像生成手段が生成している映像の仮想現実オブジェクトに関連付けられた注意喚起用の音声データを読み出して前記音声出力手段に、前記仮想現実オブジェクトに関連付けされていない注意喚起用の音声を出力させる制御を行う、
付記118に記載の仮想現実提示システム。
(付記121)(注意喚起判定)
前記注意喚起手段は、映像生成手段で生成される仮想現実オブジェクトの映像の輝度又は明度を下げる補正を行うことで前記注意喚起を行う、
付記116〜119にいずれか1項に記載の仮想現実システム。
(付記122)(装置基本設計)
ユーザの周囲の状況を検知する周囲状況検知手段と、
ユーザの状態を検知するユーザ状態検知手段と、
前記ユーザの状態に基づいて生成される仮想現実オブジェクトの映像を表示する映像表示手段と、
前記仮想現実オブジェクトと関連付けられた音声を出力する音声出力手段と、
前記検知されたユーザの周囲の状況に基づいて、前記映像表示手段又は前記音声出力手段を用いて前記ユーザに注意喚起を行う注意喚起手段と、
を備える仮想現実提示装置。
(付記123)(装置基本設計)
前記ユーザの状態を示すユーザ状態情報と前記ユーザの周囲の状況を示す周囲状況情報とを送信する送信手段と、
前記送信されたユーザ状態情報と周囲状況情報とに基づいて生成された前記仮想現実オブジェクトの映像符号化データを受信する受信手段と、
を更に備え、
前記映像表示手段は、前記受信手段で受信された映像符号化データを復号してる仮想現実オブジェクトの映像を表示する、
付記116に記載の仮想現実提示装置。
(付記124)(注意喚起判定)
ユーザの周囲の状況を検知する周囲状況検知ステップと、
ユーザの状態を検知するユーザ状態検知ステップと、
前記ユーザの状態に基づいて仮想現実オブジェクトの映像を生成する映像生成ステップと、
前記生成された映像を表示する映像表示ステップと、
前記仮想現実オブジェクトと関連付けられた音声を出力する音声出力ステップと、
前記検知されたユーザの周囲の状況に基づいて、注意喚起を行う注意喚起ステップと、
を備える仮想現実提示方法。
The present invention can take the following forms.
(Appendix 1) (Basic system design)
Virtual reality object storage means for storing a plurality of virtual reality objects;
Available virtual reality service information storage means for storing information indicating virtual reality services available to the user;
Virtual reality object reading means for reading out a virtual reality object used for a virtual reality service used by the user from the virtual reality object storage means;
Virtual reality object placement position determining means for determining the placement position of the virtual reality object in the virtual reality space, based on ambient situation information indicating a situation around the user;
Display image generation means for generating an image to be displayed on a display panel of a head mounted display device worn by a user on the head based on user state information indicating a user state and an arrangement position of the virtual reality object;
A virtual reality service providing system.
(Appendix 2) (Basic system design)
Receiving means for receiving the ambient status information and the user status information from the head-mounted display device;
Video encoding means for encoding the video generated by the display video generation means;
Transmitting means for transmitting the encoded video to the head mounted display device;
The virtual reality service providing system according to appendix 1, further comprising:
(Appendix 3) (Gaze Camera)
As the surrounding state information, the head-mounted display device includes a line-of-sight camera that acquires a front scene image by photographing the front.
The virtual reality service providing system according to appendix 1 or 2.
(Appendix 4) (Ambient camera)
As the surrounding state information, the head mounted display device includes a surrounding camera that obtains a surrounding scene image by photographing a direction outside the photographing range of the line-of-sight camera.
The virtual reality service providing system according to Appendix 3.
(Appendix 5) (Tilt sensor)
As the user status information, the head mounted display device includes an inclination sensor that acquires inclination information by detecting the inclination of the user's head,
The virtual reality service providing system according to any one of appendices 1 to 4.
(Appendix 6) (Acceleration sensor)
As the user state information, the head mounted display device includes an acceleration sensor that acquires acceleration information by detecting acceleration accompanying movement of the user's head,
The virtual reality service providing system according to any one of appendices 1 to 5.
(Appendix 7) (Direction sensor)
As the user status information, the head mounted display device includes an orientation sensor that acquires orientation information by detecting an orientation in which a user's head is facing,
The virtual reality service providing system according to any one of appendices 1 to 6.
(Appendix 8) (Location information: GPS)
As the user status information, the head mounted display device includes a position information acquisition unit that acquires position information by detecting the position of the user.
The virtual reality service providing system according to any one of appendices 1 to 7.
(Appendix 9) (User voice input)
The head mounted display device includes a user voice input unit that inputs a voice uttered by a user and generates user voice information.
The virtual reality service providing system according to any one of appendices 1 to 8.
(Appendix 10) (User voice input)
The head mounted display device includes an ambient audio input unit that inputs ambient audio of a user and generates ambient audio information.
The virtual reality service providing system according to any one of appendices 1 to 9.
(Appendix 11) (Virtual reality service provision start)
Comprising virtual reality service start determining means for determining to start providing virtual reality service to the user,
When the virtual reality service start determining means determines to start providing the virtual reality service, the virtual reality object reading means stores the virtual reality object used for the virtual reality service provided to the user as the virtual reality object storage means. The virtual reality service providing system according to any one of supplementary notes 1 to 10, wherein the virtual reality service providing system is further read out.
(Supplementary note 12) (Service starts in response to user request)
The receiving means receives a service start request for requesting to start providing virtual reality service;
The virtual reality service start determining means determines that the provision of the virtual reality service to the requesting user of the service start request is started when the receiving means receives the service start request;
The virtual reality service providing system according to attachment 11.
(Supplementary note 13) (Start request input by voice)
The receiving means receives user voice information including a user voice input by a head-mounted display device,
Further comprising context acquisition means for analyzing a user's voice included in the user voice information and acquiring a context;
The virtual reality service start determination means determines to start providing the virtual reality service to the user when the context acquired by the context acquisition means is a request to start a virtual reality service;
The virtual reality service providing system according to attachment 11.
(Supplementary Note 14) (Determining availability of provision of virtual reality service)
Service provision start condition storage means for storing a service provision start condition as a condition for starting provision of the virtual reality service;
The virtual reality service start determining means starts providing the virtual reality service to the user when the surrounding situation of the user indicated by the surrounding situation information received by the receiving means satisfies the service provision start condition. decide,
The virtual reality service providing system according to any one of appendices 11 to 13.
(Supplementary note 15) (Service startable position)
The service provision start condition storage means stores a service available position range indicating a position range where the provision of the virtual reality service can be received as a condition for starting the provision of the virtual reality service,
The receiving means receives at least position information indicating the current position of the user as the ambient state information,
The virtual reality service start determination unit is configured to notify the user of the virtual reality service when the current position of the user indicated by the position information, which is the surrounding state information received by the receiving unit, is within the service available position range. Decide to start offering,
The virtual reality service providing system according to appendix 14.
(Supplementary Note 16) (Virtual Reality Service Provision Start Notification)
The transmission means sends service start notification information for notifying the start of provision of the virtual reality service to the user when the virtual reality service start determining means determines to start providing the virtual reality service to the user. Send to the mount display device,
The virtual reality service providing system according to any one of appendices 11 to 15.
(Supplementary note 17) (End of provision of virtual reality service)
A virtual reality service end determining means for determining to end the virtual reality service being provided to the user;
When it is determined by the virtual reality service end determining means that the provision of the virtual reality service is ended, the virtual reality object reading means stores the virtual reality object used for the virtual reality service available to the user in the virtual reality object storage. The virtual reality service providing system according to any one of appendices 1 to 16, wherein the virtual reality service providing system is read out from the means.
(Supplementary note 18) (Virtual reality service provision end notification)
When the virtual reality service termination determining unit determines to terminate the provision of the virtual reality service being provided to the user, the transmitting unit transmits service termination notification information for notifying the termination of the provision of the virtual reality service. Send to the user's head-mounted display device,
The virtual reality service providing system according to appendix 17.
(Supplementary note 19) (Service terminated upon user request)
The receiving means receives a service termination request for requesting termination of provision of the virtual reality service;
The virtual reality service termination determining means determines that the provision of the virtual reality service being provided to the requesting user of the service termination request is terminated when the service termination request is received by the receiving means;
The virtual reality service providing system according to appendix 17 or 18.
(Supplementary note 20) (Enter end request by voice)
The receiving means receives user voice information including a user voice input by a head-mounted display device,
Further comprising context acquisition means for analyzing a user's voice included in the user voice information and acquiring a context;
The virtual reality service termination determination means determines to terminate provision of the virtual reality service being provided to the user when the context acquired by the context acquisition means is a request for termination of the virtual reality service;
The virtual reality service providing system according to any one of appendices 17 to 19.
(Supplementary Note 21) (Determining whether or not virtual reality service provision is complete)
Service provision end condition storage means for storing a service provision end condition that is a condition for terminating provision of the virtual reality service being provided to the user;
The virtual reality service termination determining means terminates the provision of the virtual reality service to the user when the surrounding environment of the user indicated by the ambient situation information received by the receiving means satisfies the service provision termination condition. decide,
The virtual reality service providing system according to any one of appendices 17 to 20.
(Appendix 22) (Service end position)
The service provision end condition storage means stores a service available position range indicating a position range where the provision of the virtual reality service can be received as the service provision end condition,
The receiving means receives at least position information indicating the current position of the user as the ambient state information,
The virtual reality service termination determining means is configured to provide the user with a virtual reality service when the current position of the user indicated by the position information, which is ambient information received by the receiving means, is outside the service available position range. To end providing
The virtual reality service providing system according to attachment 21.
(Supplementary note 23) (Suspension of virtual reality service provision)
Service provision interruption condition storage means for storing a service provision interruption condition which is a condition for interrupting provision of the virtual reality service being provided to the user;
Service provision interruption for performing a process of interrupting provision of the virtual reality service being provided to the user when a situation around the user indicated by the ambient condition information received by the receiving unit satisfies the service provision interruption condition Processing means;
The virtual reality service providing system according to any one of appendices 1 to 22, comprising:
(Supplementary Note 24) (Video generation interruption instruction)
The service provision interruption processing means generates video generation interruption instruction information instructing the display video generation means to interrupt generation of the video,
The display video generation means interrupts generation of the video based on the video generation interruption instruction information;
The virtual reality service providing system according to attachment 23.
(Appendix 25) (Video transmission interruption instruction)
The service provision interruption processing means generates video transmission interruption instruction information instructing transmission interruption of the video generated by the display video generation means,
The transmission means interrupts transmission of the video generated by the display video generation means to the head mounted display device based on the video transmission interruption instruction information.
The virtual reality service providing system according to attachment 23.
(Supplementary note 26) (Virtual reality service provision interruption instruction)
The service provision interruption processing means generates video display interruption instruction information for instructing interruption of display of the video generated by the display video generation means,
The transmission means transmits the video display interruption instruction information generated by the service provision interruption processing means to the head mounted display device;
The virtual reality service providing system according to attachment 23.
(Appendix 27) (Interruption by position)
The service provision interruption condition storage means stores a service available position range indicating a position range where the provision of the virtual reality service can be received as the service provision interruption condition,
The receiving means receives at least position information indicating the current position of the user as the ambient state information,
The virtual reality service interruption processing means provides the user with a virtual reality service when the current position of the user indicated by the position information, which is the surrounding information received by the receiving means, is outside the service available position range. Process to interrupt the provision of
27. The virtual reality service providing system according to any one of supplementary notes 23 to 26.
(Appendix 28) (Interruption due to object approach)
The service provision interruption condition storage means stores, as the service provision interruption condition, a condition relating to the speed and distance of an object approaching the user,
The receiving means receives, as the ambient state information, an ambient landscape image obtained by capturing at least a landscape around the user,
The service provision interruption processing means is configured such that the speed of the object included in the surrounding scenery image and the distance to the user are faster than the speed stored as the service provision interruption condition and closer to the distance, respectively. A process of interrupting provision of the virtual reality service being provided to the user,
27. The virtual reality service providing system according to any one of appendices 23 to 26.
(Supplementary Note 29) (Dynamic Virtual Reality Object)
Virtual reality object control means for controlling the behavior of the virtual reality object arranged in the virtual reality space,
The display video generation means has the virtual reality whose behavior is controlled by the virtual reality object control means at a display position determined based on user state information indicating the state of the user and an arrangement position of the virtual reality object. Generate a video that displays the object,
The virtual reality service providing system according to any one of appendices 1 to 27.
(Appendix 30) (Behavior control according to ambient conditions)
The virtual reality object control means controls the behavior of the virtual reality object based on the surrounding situation information.
The virtual reality service providing system according to attachment 29.
(Appendix 31) (Behavior control by voice)
The receiving means receives audio information including audio input by a head mounted display device,
Further comprising context acquisition means for analyzing a voice included in the voice information and acquiring a context;
The virtual reality object control means controls the behavior of the virtual reality object arranged in the virtual reality space based on the context acquired by the context acquisition means;
The virtual reality service providing system according to attachment 29.
(Supplementary Note 32) (Optical correction by illuminance)
Optical correction means for correcting the brightness of the virtual reality object arranged in the virtual reality space based on ambient illuminance information indicating the brightness of the user's surroundings,
The display video generation means is a virtual display in which brightness correction is performed by the optical correction means at a display position determined based on user state information indicating the state of the user and an arrangement position of the virtual reality object. Generate video that displays real objects,
The virtual reality service providing system according to any one of appendices 1 to 31.
(Supplementary Note 33) (Optical Correction by Illuminance at Arrangement Position)
As the ambient state information, the light irradiation state at a position corresponding to the position of the virtual reality space where the virtual reality object is arranged is specified based on an image of a landscape around the user taken by the head mounted display device Means for identifying the light irradiation status,
Optical correction means for correcting the brightness of the virtual reality object arranged in the virtual reality space based on the specified light irradiation state;
With
The display video generation means is a virtual display in which brightness correction is performed by the optical correction means at a display position determined based on user state information indicating the state of the user and an arrangement position of the virtual reality object. Generate video that displays real objects,
The virtual reality service providing system according to any one of appendices 1 to 31.
(Supplementary Note 34) (Speech synthesis of virtual reality object)
Audio element storage means for storing a plurality of audio element data associated with the virtual reality object;
Sound determining means for determining the content of sound emitted by the virtual reality object based on the ambient information or sound information input by the head-mounted display device;
Sound generating means for generating sound emitted from the virtual reality object by combining the sound element data according to the determined sound content;
The virtual reality service providing system according to any one of appendices 1 to 33, comprising:
(Supplementary Note 35) (Sound reproduction virtual reality object)
Audio conversion means for converting the generated audio into audio of a plurality of channels output from a speaker of the head-mounted display device based on an arrangement position of the virtual reality object in the virtual reality space;
34. The virtual reality service providing system according to supplementary note 34.
(Appendix 36) (Basic method design)
Virtual used in a virtual reality service providing system comprising: a virtual reality object storage database that stores a plurality of virtual reality objects; and an available virtual reality service information storage database that stores information indicating virtual reality services that can be used by a user. A real service providing method,
Based on the information indicating the virtual reality service available to the user stored in the available virtual reality service information storage database, the virtual reality object used for the virtual reality service used by the user is retrieved from the virtual reality object storage database. A virtual reality object reading step for reading;
A virtual reality object placement position determining step for determining a placement position of the read virtual reality object in the virtual reality space based on ambient situation information indicating a situation around the user;
A display image generation step for generating an image to be displayed on a display panel of a head mounted display device worn by the user based on user state information indicating a user state and an arrangement position of the virtual reality object; A virtual reality service providing method.
(Appendix 101) (System basic design)
Ambient condition detection means for detecting the situation of the user's surroundings,
Virtual reality presentation means for presenting virtual reality;
Virtual reality presentation interruption control means for performing control to interrupt the presentation of virtual reality based on the detected situation around the user;
A virtual reality presentation system comprising:
(Appendix 102) (Basic system design)
An interruption condition storage means for storing an interruption condition that is a condition for interrupting the presentation of virtual reality;
The virtual reality presentation interruption control means includes
Virtual reality presentation interruption determination means for determining whether the detected situation around the user satisfies the interruption condition;
Based on the determination result, virtual reality presentation interruption instruction means for instructing the virtual reality presentation means to interrupt the presentation of the virtual reality;
With
The virtual reality presenting means interrupts the presentation of virtual reality when receiving the instruction;
The virtual reality presentation system according to attachment 101.
(Supplementary Note 103) (Virtual Reality Object)
Virtual reality object storage means for storing the virtual reality object,
The virtual reality presentation means presents virtual reality by displaying a video of the virtual reality object.
The virtual reality presentation system according to attachment 101 or 102.
(Appendix 104) (Rendering video generation)
User status detection means for detecting the user status;
Virtual reality object placement means for reading a virtual reality object stored in the virtual reality object storage means and placing it in a virtual space;
A two-dimensional image of the virtual reality object is drawn by drawing the virtual reality object arranged in the virtual space based on the viewpoint position and the line-of-sight direction obtained based on the user state obtained by the user state detection means. Video generation processing means for generating
With
The virtual reality presentation means presents virtual reality by displaying the generated video.
The virtual reality presentation system according to attachment 103.
(Appendix 105) (Interrupted video)
Further comprising interrupted video data storage means for storing interrupted video data indicating that the presentation of virtual reality is interrupted,
The virtual reality presentation interruption means performs control to interrupt the presentation of virtual reality by instructing the virtual reality presentation means to display the interruption video data.
The virtual reality presentation system according to attachment 103 or 104.
(Appendix 106) (Voice)
Voice data storage means for storing voice data associated with the virtual reality object;
The virtual reality presentation means presents virtual reality by reproducing the audio data.
The virtual reality presentation system according to any one of appendices 101 to 105.
(Supplementary note 107) (Interruption voice)
Further comprising interrupted video data storage means for storing interrupted audio data indicating that the virtual reality presentation is interrupted,
The virtual reality presentation interruption means performs control to interrupt the presentation of virtual reality by instructing the virtual reality presentation means to reproduce the interruption voice data.
The virtual reality presentation system according to attachment 106.
(Supplementary Note 108) (Object Movement Speed)
The ambient condition detection unit includes a plurality of ambient imaging units that capture at least a user's surroundings and acquire a surrounding image,
An object moving speed calculating means for calculating a moving speed of an object shown in the surrounding image;
Further comprising
The virtual reality presentation interruption control means includes
When the moving speed of the object exceeds a predetermined reference speed, control to interrupt the presentation of virtual reality is performed.
108. A virtual reality presentation system according to any one of appendices 101 to 107.
(Appendix 109) (Object relative movement speed)
The object moving speed calculating means calculates a moving speed component of the object in the user direction,
The virtual reality presentation interruption control means includes
When the moving speed component in the user direction of the object exceeds a predetermined reference speed, control to interrupt the presentation of virtual reality is performed.
The virtual reality presentation system according to attachment 108.
(Supplementary Note 110) (Object Movement Speed)
An object distance calculating means for calculating a distance to an object shown in the surrounding image;
The virtual reality presentation interruption control means performs control to interrupt the presentation of virtual reality when the moving speed of an object within a predetermined distance or the moving speed component in the direction of the user exceeds a predetermined reference speed,
The virtual reality presentation system according to attachment 109.
(Appendix 111) (Collision time)
The ambient condition detection unit includes a plurality of ambient imaging units that capture at least a user's surroundings and acquire a surrounding image,
An object distance calculating means for calculating a distance to an object shown in the surrounding image;
Object moving speed calculating means for calculating the moving speed of the object based on a change in the distance to the object;
Arrival time estimation means for estimating the arrival time to the user position based on the distance to the object and the moving speed of the object;
Further comprising
The virtual reality presentation interruption control means includes
When the arrival time is within a predetermined time, control to interrupt the presentation of virtual reality,
108. A virtual reality presentation system according to any one of appendices 101 to 107.
(Supplementary note 112) (Advancing direction obstacle)
The ambient condition detection unit includes a plurality of ambient imaging units that capture at least a user's surroundings and acquire a surrounding image,
User movement detection means for detecting user movement;
A failure determining means for determining whether a failure exists in the moving direction of the user based on the surrounding image;
The virtual reality presentation interruption control means performs control to interrupt the presentation of virtual reality when it is determined that there is a failure in the movement direction of the user.
108. A virtual reality presentation system according to any one of appendices 101 to 107.
(Supplementary note 113) (Advancing direction obstacle)
User moving speed calculating means for calculating the moving speed of the user;
An object / step distance calculating means for calculating a distance to the object or step existing in the moving direction of the user;
Further comprising
The obstacle determination means determines whether a failure exists in the movement direction of the user based on the moving speed of the user and a distance to an object or a step existing in the movement direction of the user.
The virtual reality presentation system according to attachment 112.
(Appendix 114) (Advancing direction obstacle)
The obstacle determination means determines that there is an obstacle in the user's moving direction when a value obtained by dividing a distance to an object or a step existing in the user's moving direction by the moving speed is equal to or less than a predetermined reference value. ,
The virtual reality presentation system according to attachment 113.
(Appendix 115) (Basic method design)
An ambient condition detection step for detecting an ambient condition of the user;
A virtual reality presentation step for presenting virtual reality;
A virtual reality presentation interruption control step for performing control to interrupt the presentation of virtual reality based on the detected situation around the user;
A virtual reality presentation method comprising:
(Appendix 116) (System Basic Design)
Ambient condition detection means for detecting the situation of the user's surroundings,
User status detection means for detecting the user status;
Video generation means for generating a video of a virtual reality object based on the state of the user;
Video display means for displaying the generated video;
Audio output means for outputting audio associated with the virtual reality object;
Based on the detected situation around the user, attention calling means for calling attention to the user using the video display means or the audio output means;
A virtual reality presentation system comprising:
(Appendix 117) (Awareness judgment)
It further includes a warning condition storage means for storing a warning condition that is a condition for performing a warning,
The alerting means is:
Attention determination means for determining whether or not the detected situation around the user satisfies the alert condition;
Based on the determination result, attention instructing instruction means for performing an instruction to display a warning image on the image display means or to output a sound for attention to the sound output means,
The virtual reality presentation system according to attachment 101, comprising:
(Appendix 118) (Awareness determination)
The alert condition storage means stores a plurality of alert conditions,
The alert determination unit determines whether the detected situation around the user satisfies any of the plurality of alert conditions,
The attention instructing means corresponds to an instruction to display on the display means an image for alerting that is associated with the alerting condition when it is determined that the alerting condition is satisfied, or to the alerting condition Instructing the voice output means to output a warning sound attached to the voice output means;
The virtual reality presentation system according to attachment 117.
(Appendix 119) (Awareness judgment)
The attention instructing means instructs the sound output means to output a sound for attention associated with the virtual reality object based on the determination result.
The virtual reality presentation system according to attachment 117.
(Appendix 20) (Awareness judgment)
A reminder data storage means for storing alert sound data associated with the virtual reality object and alert sound data not associated with the virtual reality object;
When the alert data storage means stores the alert data associated with the virtual reality object of the video generated by the video generation means, the alert control means generates the video The control unit reads out the alert sound data associated with the virtual reality object of the video generated by the means, and causes the sound output means to output the alert sound associated with the virtual reality object. When the alerting sound data associated with the virtual reality object of the video generated by the video generation means is not stored in the warning data storage means, the video generation means generates The alerting sound data associated with the virtual reality object of the video is read, and the temporary output is sent to the sound output means. Performs control to output the sound for alerting that is not associated with a real object,
The virtual reality presentation system according to attachment 118.
(Supplementary Note 121) (Caution to call attention)
The alerting means performs the alerting by performing correction to reduce the luminance or brightness of the video of the virtual reality object generated by the video generating means.
120. The virtual reality system according to any one of appendices 116 to 119.
(Supplementary Note 122) (Basic design of equipment)
Ambient condition detection means for detecting the situation of the user's surroundings,
User status detection means for detecting the user status;
Video display means for displaying a video of a virtual reality object generated based on the state of the user;
Audio output means for outputting audio associated with the virtual reality object;
Based on the detected situation around the user, attention calling means for calling attention to the user using the video display means or the audio output means;
A virtual reality presentation device.
(Supplementary Note 123) (Basic design of equipment)
Transmitting means for transmitting user status information indicating the status of the user and ambient status information indicating the status of the user;
Receiving means for receiving video encoded data of the virtual reality object generated based on the transmitted user state information and ambient state information;
Further comprising
The video display means displays a video of a virtual reality object obtained by decoding the video encoded data received by the receiving means;
The virtual reality presentation device according to attachment 116.
(Appendix 124) (Awareness determination)
An ambient condition detection step for detecting an ambient condition of the user;
A user status detection step for detecting a user status;
A video generation step of generating a video of a virtual reality object based on the state of the user;
A video display step for displaying the generated video;
An audio output step for outputting audio associated with the virtual reality object;
An alerting step for alerting based on the detected situation around the user;
A virtual reality presentation method comprising:
本発明は、クリエイティビティーの高い仮想現実の世界の提供などに幅広く利用可能である。 The present invention can be widely used to provide a virtual reality world with high creativity.
100 仮想現実提示装置 110 ユーザ状態検知部
111 傾きセンサ 112 加速度センサ
113 現在位置検出部 114 脳波センサ
120 周囲状況検知部
121 視線カメラ 121−1 レンズ群
121−2 絞り機構 121−3 固体撮像素子
122 周囲カメラ 123 気温センサ
130 通信部 131 無線送信部
132 無線受信部 140 表示制御部
141 映像復号処理部 142 映像合成処理部
143 視界映像生成処理部 144 境界特定処理部
150 表示部 151a ライト表示パネル
151b レフト表示パネル 152 光源
153 導光板 154 LCD
155a レンズ群 155b PLC
155c 第1反射ミラー 155d R反射ダイクロイックミラー
155e G反射ダイクロイックミラー 155f 第2反射ミラー
155g 第3反射ミラー 155h 第1液晶パネル
155j クロスダイクロプリズム 155k 第4反射ミラー
155m 第2液晶パネル 155n 第3液晶パネル
155p ガルバノミラー 155q 照射窓
200 仮想現実提示装置 260 仮想現実提示制御部
261 仮想現実提示中断・注意喚起判定処理部
262 仮想現実提示中断・注意喚起制御処理部
300 HMD装置(仮想現実提示装置) 301a ライトフレーム
301b レフトフレーム 301c センターフレーム
302 フロントパネル 370 音声入力部
371 ユーザマイクロフォン 372 周囲マイクロフォン
380 音声再生制御部 390 音声出力部
391a ライトスピーカ 391b レフトスピーカ
410 ユーザ状態検知部 420 仮想現実コンテンツ記憶部
430 視点制御部 440 描画処理部
450 表示部 510 周囲状況検知部
520 光源制御部 610 物体位置特定部
710 仮想現実管理部 720 仮想空間設定部
730 仮想現実オブジェクト配置部 740 仮想現実オブジェクト挙動制御部
800 仮想現実提示装置
810 中断・注意喚起条件設定部 820 中断・注意喚起条件記憶部
830 中断・注意喚起用コンテンツ記憶部
1000 仮想現実サービス提供システム
1100 利用可能仮想現実サービス情報記憶DB
1200 仮想現実オブジェクト記憶DB
1300 仮想現実サービス提供サーバ
1310 通信部 1311 受信部
1312 送信部 1320 仮想現実サービス提供管理部
1321 仮想現実サービス提供開始処理部
1322 仮想現実サービス提供終了処理部
1323 仮想現実サービス提供中断処理部
1324 仮想現実提示中断・注意喚起判定処理部
1325 仮想現実提示中断・注意喚起指示部
1330 仮想現実オブジェクト読み出し部
1340 仮想現実オブジェクト配置位置決定部
1350 表示映像生成処理部 1351 視点制御部
1352 光源制御部 1353 描画処理部
1354 映像符号化処理部
2000 仮想現実サービス提供システム
2300 仮想現実サービス提供サーバ
2360 画像解析処理部 2361 物体位置特定部
2362 光学成分抽出部 2363 移動速度算出部
2400 仮想現実サービス利用条件記憶DB
3000 仮想現実サービス提供システム
3100 契約者情報記憶DB
3200 仮想現実コンテンツ記憶DB
3300 仮想現実サービス提供サーバ
3330 仮想現実サービス制御部
3370 仮想現実オブジェクト挙動制御部
3380 音声解析処理部 3381 音声レベル抽出部
3382 感情要素抽出部 3383 コンテキスト取得部
3390 再生音声生成処理部 3500 セーブデータ記憶DB
3600 中断・注意喚起条件記憶DB
4000 仮想現実提示システム 5000 仮想現実提示システム
6000 仮想現実提示システム 7000 仮想現実提示システム
10000 仮想現実提示システム 11010 周囲状況検知部
11020 仮想現実提示部 11021 映像生成処理部
11021−1 視点制御部 11021−2 描画処理部
11021−3 光源制御部 11022 映像表示部
11022−1 映像表示制御部 11022−1a 映像データ読み出し部
11022−1b 映像多重処理部 11022−1c 映像補正処理部
11022−2 表示パネル
11023 音声出力部 11023−1 音声再生制御部
11023−1a 音声データ読み出し部
11023−1b DA変換処理部 11023−1c 音声多重処理部
11023−1d 第1DA変換処理部 11023−1e 第1分配処理部
11023−1f 第1増幅処理部 11023−1g 第2DA変換処理部
11023−1h 第1分配処理部 11023−1i 第2増幅処理部
11023−1j 再生音声合成処理部 11023−2 スピーカ
11030 仮想現実提示中断制御部 11031 仮想現実提示中断判定処理部
11032 仮想現実提示中断指示部
12000 仮想現実提示システム 12010 ユーザ状態検知部
12011 傾きセンサ 12012 加速度センサ
12013 ユーザ位置検出部 12014 ユーザ移動速度検出部
12015 ユーザ方位検出部
12020 仮想現実オブジェクト記憶部 12030 仮想現実オブジェクト配置部
12040 中断用映像データ記憶部
12050 仮想現実提示用音声データ記憶部
12060 中断用音声データ記憶部 12070 中断用映像データ選択処理部
12080 中断用音声データ選択処理部
13000 仮想現実提示システム 13010 仮想現実提示中断条件記憶部
13020 画像解析処理部 13021 物体距離算出部
13022 物体移動速度算出部 13023 物体特定部
13024 物体種類特定部 13025 物体位置特定部
13026 ユーザ移動速度算出部 13030 音声入力部
13040 ユーザ行動特定部 13050 仮想現実管理制御部
14000 仮想現実提示システム 14010 注意喚起制御部
14011 注意喚起判定処理部 14012 注意喚起指示部
15000 仮想現実提示システム 15010 注意喚起条件記憶部
16000 仮想現実提示システム 16010 仮想現実コンテンツ記憶部
16020 仮想現実オブジェクト挙動制御部
17000 仮想現実提示システム 17010 仮想現実度管理部
17011 提示可能仮想現実度算出処理部
17012 提示予定仮想現実度算出処理部
17013 提示可能仮想現実度分配処理部
17014 仮想現実度削減割合指示部(割り当て仮想現実度通知部)
18000 仮想現実提示システム
18100 仮想現実提示装置
18200 仮想現実サービス提供サーバ 18300 契約者情報記憶データベース
18400 仮想現実コンテンツ記憶データベース
DESCRIPTION OF SYMBOLS 100 Virtual reality presentation apparatus 110 User state detection part 111 Inclination sensor 112 Acceleration sensor 113 Current position detection part 114 Electroencephalogram sensor 120 Ambient condition detection part 121 Gaze camera 121-1 Lens group 121-2 Aperture mechanism 121-3 Solid-state image sensor 122 Ambient Camera 123 Temperature sensor 130 Communication unit 131 Wireless transmission unit 132 Wireless reception unit 140 Display control unit 141 Video decoding processing unit 142 Video composition processing unit 143 View image generation processing unit 144 Boundary specification processing unit 150 Display unit 151a Right display panel 151b Left display Panel 152 Light source 153 Light guide plate 154 LCD
155a Lens group 155b PLC
155c first reflecting mirror 155d R reflecting dichroic mirror 155e G reflecting dichroic mirror 155f second reflecting mirror 155g third reflecting mirror 155h first liquid crystal panel 155j cross dichroic prism 155k fourth reflecting mirror 155m second liquid crystal panel 155n third liquid crystal panel 155p Galvano mirror 155q Irradiation window 200 Virtual reality presentation device 260 Virtual reality presentation control unit 261 Virtual reality presentation interruption / attention determination processing unit 262 Virtual reality presentation interruption / attention control processing unit 300 HMD device (virtual reality presentation device) 301a Light frame 301b Left frame 301c Center frame 302 Front panel 370 Audio input unit 371 User microphone 372 Peripheral microphone 380 Audio reproduction control unit 390 Audio output Unit 391a right speaker 391b left speaker 410 user state detection unit 420 virtual reality content storage unit 430 viewpoint control unit 440 drawing processing unit 450 display unit 510 ambient state detection unit 520 light source control unit 610 object position specifying unit 710 virtual reality management unit 720 virtual Space setting unit 730 Virtual reality object placement unit 740 Virtual reality object behavior control unit 800 Virtual reality presentation device 810 Interruption / attention condition setting unit 820 Interruption / attention condition storage unit 830 Interruption / attention content storage unit 1000 Virtual reality service Provision System 1100 Available Virtual Reality Service Information Storage DB
1200 Virtual reality object storage DB
1300 Virtual reality service provision server 1310 Communication unit 1311 Reception unit 1312 Transmission unit 1320 Virtual reality service provision management unit 1321 Virtual reality service provision start processing unit 1322 Virtual reality service provision end processing unit 1323 Virtual reality service provision interruption processing unit 1324 Virtual reality presentation Suspension / attention calling determination processing unit 1325 Virtual reality presentation suspension / attention calling instruction unit 1330 Virtual reality object reading unit 1340 Virtual reality object placement position determination unit 1350 Display video generation processing unit 1351 Viewpoint control unit 1352 Light source control unit 1353 Drawing processing unit 1354 Video encoding processor
2000 Virtual reality service providing system 2300 Virtual reality service providing server 2360 Image analysis processing unit 2361 Object position specifying unit 2362 Optical component extracting unit 2363 Movement speed calculating unit 2400 Virtual reality service use condition storage DB
3000 Virtual Reality Service Providing System 3100 Contractor Information Storage DB
3200 Virtual reality content storage DB
3300 Virtual reality service provision server
3330 Virtual Reality Service Control Unit 3370 Virtual Reality Object Behavior Control Unit 3380 Audio Analysis Processing Unit 3381 Audio Level Extraction Unit 3382 Emotion Element Extraction Unit 3383 Context Acquisition Unit 3390 Playback Audio Generation Processing Unit 3500 Save Data Storage DB
3600 Suspension / Warning Condition Memory DB
4000 Virtual reality presenting system 5000 Virtual reality presenting system 6000 Virtual reality presenting system 7000 Virtual reality presenting system 10000 Virtual reality presenting system 11010 Ambient condition detecting unit 11020 Virtual reality presenting unit 11021 Video generation processing unit 11021-1 Viewpoint controlling unit 11021-2 Drawing Processing unit 11021-3 Light source control unit 11022 Video display unit 11022-1 Video display control unit 11022-1a Video data reading unit 11022-1b Video multiplex processing unit 11022-1c Video correction processing unit 11022-2 Display panel 11023 Audio output unit 11023 -1 audio reproduction control unit 11023-1a audio data reading unit 11023-1b DA conversion processing unit 11023-1c audio multiplex processing unit 11023-1d first DA conversion processing unit 11023- 1e 1st distribution process part 11023-1f 1st amplification process part 11023-1g 2nd DA conversion process part 11023-1h 1st distribution process part 11023-1i 2nd amplification process part 11023-1j reproduction | regeneration voice synthesizing process part 11023-2 speaker 11030 Virtual reality presentation interruption control unit 11031 Virtual reality presentation interruption determination processing unit 11032 Virtual reality presentation interruption instruction unit 12000 Virtual reality presentation system 12010 User state detection unit 12011 Inclination sensor 12012 Acceleration sensor 12013 User position detection unit 12014 User movement speed detection unit 12015 User orientation detection unit 12020 Virtual reality object storage unit 12030 Virtual reality object placement unit 12040 Video data storage unit for interruption
12050 Virtual reality presentation audio data storage unit 12060 Interruption audio data storage unit 12070 Interruption video data selection processing unit 12080 Interruption audio data selection processing unit 13000 Virtual reality presentation system 13010 Virtual reality presentation interruption condition storage unit 13020 Image analysis processing unit 13021 Object distance calculating unit 13022 Object moving speed calculating unit 13023 Object specifying unit 13024 Object type specifying unit 13025 Object position specifying unit 13026 User moving speed calculating unit 13030 Voice input unit 13040 User action specifying unit 13050 Virtual reality management control unit 14000 Virtual reality presentation System 14010 Attention Awareness Control Unit 14011 Attention Awareness Determination Processing Unit 14012 Attention Awareness Instructing Unit 15000 Virtual Reality Presenting System 15010 Attention Awareness Condition Storage Unit 16000 Virtual Reality Presenting System 16010 Virtual reality content storage unit 16020 Virtual reality object behavior control unit 17000 Virtual reality presentation system 17010 Virtual reality management unit 17011 Presentable virtual reality calculation processing unit 17012 Presented virtual reality calculation processing unit 17013 Presentable virtual reality distribution Processing unit 17014 Virtual reality reduction ratio instruction unit (allocation virtual reality notification unit)
18000 Virtual reality presentation system 18100 Virtual reality presentation device 18200 Virtual reality service providing server 18300 Contractor information storage database 18400 Virtual reality content storage database
Claims (20)
ユーザが利用可能な仮想現実サービスを示す情報を記憶する利用可能仮想現実サービス情報記憶手段と、
前記ユーザが利用する仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶手段より読み出す仮想現実オブジェクト読み出し手段と、
ユーザの周囲の状況を示す周囲状況情報に基づいて、仮想現実空間における前記仮想現実オブジェクトの配置位置を決定する仮想現実オブジェクト配置位置決定手段と、
ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて、ユーザが頭部に装着するヘッドマウントディスプレイ装置の表示パネルに表示される映像を生成する表示映像生成手段と、
を備える仮想現実サービス提供システム。 Virtual reality object storage means for storing a plurality of virtual reality objects;
Available virtual reality service information storage means for storing information indicating virtual reality services available to the user;
Virtual reality object reading means for reading out a virtual reality object used for a virtual reality service used by the user from the virtual reality object storage means;
Virtual reality object placement position determining means for determining the placement position of the virtual reality object in the virtual reality space, based on ambient situation information indicating a situation around the user;
Display image generation means for generating an image to be displayed on a display panel of a head mounted display device worn by a user on the head based on user state information indicating a user state and an arrangement position of the virtual reality object;
A virtual reality service providing system.
前記表示映像生成手段で生成された映像を符号化する映像符号化手段と、
前記符号化された映像を前記ヘッドマウントディスプレイ装置へ送信する送信手段と、
を更に備える請求項1に記載の仮想現実サービス提供システム。 Receiving means for receiving the ambient status information and the user status information from the head-mounted display device;
Video encoding means for encoding the video generated by the display video generation means;
Transmitting means for transmitting the encoded video to the head mounted display device;
The virtual reality service providing system according to claim 1, further comprising:
前記仮想現実サービス開始決定手段で仮想現実サービスの提供を開始すると決定された場合に、前記仮想現実オブジェクト読み出し手段は、前記ユーザに提供する仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶手段より読み出すことを特徴とする請求項又は2に記載の仮想現実サービス提供システム。 Comprising virtual reality service start determining means for determining to start providing virtual reality service to the user,
When the virtual reality service start determining means determines to start providing the virtual reality service, the virtual reality object reading means stores the virtual reality object used for the virtual reality service provided to the user as the virtual reality object storage means. The virtual reality service providing system according to claim 2, wherein the virtual reality service providing system is further read out.
前記ユーザ音声情報に含まれるユーザの音声を解析してコンテキストを取得するコンテキスト取得手段を更に備え、
前記仮想現実サービス開始決定手段は、前記コンテキスト取得手段で取得されたコンテキストが仮想現実サービスの開始を要求するものである場合に、前記ユーザに仮想現実サービスの提供を開始すると決定する、
請求項3に記載の仮想現実サービス提供システム。 The receiving means receives user voice information including a user voice input by a head-mounted display device,
Further comprising context acquisition means for analyzing a user's voice included in the user voice information and acquiring a context;
The virtual reality service start determination means determines to start providing the virtual reality service to the user when the context acquired by the context acquisition means is a request to start a virtual reality service;
The virtual reality service providing system according to claim 3.
前記仮想現実サービス開始決定手段は、前記受信手段で受信された周囲状況情報が示すユーザの周囲の状況が前記サービス提供開始条件を満たしている場合に、前記ユーザに仮想現実サービスの提供を開始すると決定する、
請求項3又は4に記載の仮想現実サービス提供システム。 Service provision start condition storage means for storing a service provision start condition as a condition for starting provision of the virtual reality service;
The virtual reality service start determining means starts providing the virtual reality service to the user when the surrounding situation of the user indicated by the surrounding situation information received by the receiving means satisfies the service provision start condition. decide,
The virtual reality service providing system according to claim 3 or 4.
前記受信手段は、前記周囲状況情報として、少なくとも前記ユーザの現在の位置を示す位置情報を受信し、
前記仮想現実サービス開始決定手段は、前記受信手段で受信された周囲状況情報である前記位置情報が示すユーザの現在位置が前記サービス提供可能位置範囲内である場合に、前記ユーザに仮想現実サービスの提供を開始すると決定する、
請求項5に記載の仮想現実サービス提供システム。 The service provision start condition storage means stores a service provisionable position range indicating a position range where the provision of the virtual reality service can be received as a condition for starting the provision of the virtual reality service,
The receiving means receives at least position information indicating the current position of the user as the ambient state information,
The virtual reality service start determining unit is configured to notify the user of the virtual reality service when the current position of the user indicated by the position information, which is the surrounding state information received by the receiving unit, is within the service available position range. Decide to start offering,
The virtual reality service providing system according to claim 5.
仮想空間に配置されている前記仮想現実オブジェクトの挙動を制御する仮想現実オブジェクト制御手段を備え、
前記表示映像生成手段は、前記ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて決定される表示位置に、前記仮想現実オブジェクト制御手段によって挙動が制御される前記仮想現実オブジェクトが表示される映像を生成する、
請求項1乃至6のいずれか1項に記載の仮想現実サービス提供システム。 (Dynamic virtual reality object)
Virtual reality object control means for controlling the behavior of the virtual reality object arranged in a virtual space,
The display video generation means has the virtual reality whose behavior is controlled by the virtual reality object control means at a display position determined based on user state information indicating the state of the user and an arrangement position of the virtual reality object. Generate a video that displays the object,
The virtual reality service providing system according to any one of claims 1 to 6.
前記受信手段は、ヘッドマウントディスプレイ装置で入力された音声を含む音声情報を受信し、
前記音声情報に含まれる音声を解析してコンテキストを取得するコンテキスト取得手段を更に備え、
前記仮想現実オブジェクト制御手段は、前記コンテキスト取得手段で取得されたコンテキストに基づいて、前記仮想現実空間に配置されている前記仮想現実オブジェクトの挙動を制御する、
請求項7に記載の仮想現実サービス提供システム。 (Behavior control by voice)
The receiving means receives audio information including audio input by a head mounted display device,
Further comprising context acquisition means for analyzing a voice included in the voice information and acquiring a context;
The virtual reality object control means controls the behavior of the virtual reality object arranged in the virtual reality space based on the context acquired by the context acquisition means;
The virtual reality service providing system according to claim 7.
複数の仮想現実オブジェクトを記憶する仮想現実オブジェクト記憶データベースと、ユーザが利用可能な仮想現実サービスを示す情報を記憶する利用可能仮想現実サービス情報記憶データベースと、を備える仮想現実サービス提供システムで用いられる仮想現実サービス提供方法であって、
前記利用可能仮想現実サービス情報記憶データベースに記憶される前記ユーザが利用可能な仮想現実サービスを示す情報に基づいて、前記ユーザが利用する仮想現実サービスに用いる仮想現実オブジェクトを前記仮想現実オブジェクト記憶データベースより読み出す仮想現実オブジェクト読み出しステップと、
ユーザの周囲の状況を示す周囲状況情報に基づいて、前記読み出した仮想現実オブジェクトの仮想現実空間における配置位置を決定する仮想現実オブジェクト配置位置決定ステップと、
ユーザの状態を示すユーザ状態情報と前記仮想現実オブジェクトの配置位置とに基づいて、ユーザが頭部に装着するヘッドマウントディスプレイ装置の表示パネルに表示される映像を生成する表示映像生成ステップと、を備える仮想現実サービス提供方法。 (Method basic design)
Virtual used in a virtual reality service providing system comprising: a virtual reality object storage database that stores a plurality of virtual reality objects; and an available virtual reality service information storage database that stores information indicating virtual reality services that can be used by a user. A real service providing method,
Based on the information indicating the virtual reality service available to the user stored in the available virtual reality service information storage database, the virtual reality object used for the virtual reality service used by the user is retrieved from the virtual reality object storage database. A virtual reality object reading step for reading;
A virtual reality object placement position determining step for determining a placement position of the read virtual reality object in the virtual reality space based on ambient situation information indicating a situation around the user;
A display image generation step for generating an image to be displayed on a display panel of a head mounted display device worn by the user based on user state information indicating a user state and an arrangement position of the virtual reality object; A virtual reality service providing method.
ユーザの状態を検知するユーザ状態検知手段と、
前記ユーザの状態に基づいて、仮想現実オブジェクトの映像を生成する映像生成手段と、
前記生成された映像を表示する映像表示手段と、
前記仮想現実オブジェクトと関連付けられた音声を出力する音声出力手段と、
少なくとも前記検知されたユーザの周囲の状況に基づいて、前記映像表示手段又は前記音声出力手段を用いて前記ユーザに注意喚起を行う注意喚起手段と、
を備える仮想現実提示システム。 Ambient condition detection means for detecting the situation of the user's surroundings,
User status detection means for detecting the user status;
Video generation means for generating a video of a virtual reality object based on the state of the user;
Video display means for displaying the generated video;
Audio output means for outputting audio associated with the virtual reality object;
Alerting means for alerting the user using the video display means or the audio output means based on at least the detected situation of the surroundings of the user;
A virtual reality presentation system comprising:
前記注意喚起手段は、
前記検知されたユーザの周囲の状況が前記注意喚起条件を満たしているかを判定する注意喚起判定手段と、
前記判定結果に基づいて、前記映像表示手段に注意喚起用の映像を表示させる制御又は前記音声出力手段に注意喚起用の音声を出力させる指示を行う注意喚起指示手段と、
を備える請求項10に記載の仮想現実提示システム。 It further includes a warning condition storage means for storing a warning condition that is a condition for performing a warning,
The alerting means is:
Attention determination means for determining whether or not the detected situation around the user satisfies the alert condition;
Based on the determination result, attention instructing instruction means for performing an instruction to display a warning image on the image display means or to output a sound for attention to the sound output means,
The virtual reality presentation system according to claim 10, comprising:
前記注意喚起判定手段は、前記検知されたユーザの周囲の状況が前記複数の注意喚起条件のいずれかを満たしているかを判定し、
前記注意喚起指示手段は、前記注意喚起条件を満たしたと判定された場合に、前記注意喚起条件に対応付けられている注意喚起用の映像を前記表示手段に表示させる指示又は前記注意喚起条件に対応付けられている注意喚起用の音声を前記音声出力手段に出力させる指示を行う、
請求項11に記載の仮想現実提示システム。 The alert condition storage means stores a plurality of alert conditions,
The alert determination unit determines whether the detected situation around the user satisfies any of the plurality of alert conditions,
The attention instructing means corresponds to an instruction to display on the display means an image for alerting that is associated with the alerting condition when it is determined that the alerting condition is satisfied, or to the alerting condition Instructing the voice output means to output a warning sound attached to the voice output means;
The virtual reality presentation system according to claim 11.
請求項11又は12に記載の仮想現実提示システム。 The attention instructing means instructs the sound output means to output a sound for attention associated with the virtual reality object based on the determination result.
The virtual reality presentation system according to claim 11 or 12.
請求項10乃至13のいずれか1項に記載の仮想現実提示システム。 The alerting means controls the behavior of the virtual reality object so that the displayed virtual reality object alerts the user,
The virtual reality presentation system according to any one of claims 10 to 13.
請求項10乃至13のいずれか1項に記載の仮想現実システム。 The alerting means performs the alerting by performing correction to reduce the luminance or brightness of the video of the virtual reality object generated by the video generating means.
The virtual reality system according to any one of claims 10 to 13.
請求項10乃至13のいずれか1項に記載の仮想現実システム。 The alerting means performs the alerting by performing control to increase the amount of light transmitted from a position corresponding to the display position of the virtual reality object in the video display means.
The virtual reality system according to any one of claims 10 to 13.
前記注意喚起手段は、前記周囲状況検知手段で取得された前方景色画像に基づいて、ユーザの前方に障害物が存在するかを判定し、前記判定の結果、障害物が存在すると判定された場合にユーザに対する注意喚起を行う、
請求項10乃至16のいずれか1項に記載の仮想現実提示システム。 The ambient condition detection means captures at least the front of the user and obtains a front view image,
The alerting means determines whether there is an obstacle in front of the user based on the forward scenery image acquired by the surrounding condition detection means, and if the result of the determination is that there is an obstacle Alert the user to
The virtual reality presentation system according to any one of claims 10 to 16.
前記注意喚起手段は、前記周囲状況検知手段で取得された周囲景色画像に基づいて、ユーザから所定の距離以内に人間が存在するかを判定し、前記判定の結果、人間が存在すると判定された場合にユーザに対する注意喚起を行う、
請求項10乃至16のいずれか1項に記載の仮想現実提示システム。 The ambient condition detection means captures a surrounding scene image by photographing the surroundings of the user,
The alerting means determines whether a person exists within a predetermined distance from the user based on the surrounding scenery image acquired by the surrounding state detection means, and as a result of the determination, it is determined that a person exists. Alert the user in case
The virtual reality presentation system according to any one of claims 10 to 16.
ユーザの状態を検知するユーザ状態検知手段と、
前記ユーザの状態に基づいて生成される仮想現実オブジェクトの映像を表示する映像表示手段と、
前記仮想現実オブジェクトと関連付けられた音声を出力する音声出力手段と、
少なくとも前記検知されたユーザの周囲の状況に基づいて、前記映像表示手段又は前記音声出力手段を用いて前記ユーザに注意喚起を行う注意喚起手段と、
を備える仮想現実提示装置。 Ambient condition detection means for detecting the situation of the user's surroundings,
User status detection means for detecting the user status;
Video display means for displaying a video of a virtual reality object generated based on the state of the user;
Audio output means for outputting audio associated with the virtual reality object;
Alerting means for alerting the user using the video display means or the audio output means based on at least the detected situation of the surroundings of the user;
A virtual reality presentation device.
ユーザの状態を検知するユーザ状態検知ステップと、
前記ユーザの状態に基づいて仮想現実オブジェクトの映像を生成する映像生成ステップと、
前記生成された映像を表示する映像表示ステップと、
前記仮想現実オブジェクトと関連付けられた音声を出力する音声出力ステップと、
少なくとも前記検知されたユーザの周囲の状況に基づいて、注意喚起を行う注意喚起ステップと、
を備える仮想現実提示方法。 An ambient condition detection step for detecting an ambient condition of the user;
A user status detection step for detecting a user status;
A video generation step of generating a video of a virtual reality object based on the state of the user;
A video display step for displaying the generated video;
An audio output step for outputting audio associated with the virtual reality object;
An alerting step for alerting at least based on the detected surroundings of the user;
A virtual reality presentation method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014171038A JP2016045814A (en) | 2014-08-25 | 2014-08-25 | Virtual reality service providing system and virtual reality service providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014171038A JP2016045814A (en) | 2014-08-25 | 2014-08-25 | Virtual reality service providing system and virtual reality service providing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016045814A true JP2016045814A (en) | 2016-04-04 |
Family
ID=55636296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014171038A Pending JP2016045814A (en) | 2014-08-25 | 2014-08-25 | Virtual reality service providing system and virtual reality service providing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016045814A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008210A1 (en) * | 2016-07-04 | 2018-01-11 | ソニー株式会社 | Information processing device, information processing method, and program |
CN108833937A (en) * | 2018-05-30 | 2018-11-16 | 华为技术有限公司 | Method for processing video frequency and device |
US10371953B2 (en) | 2016-09-26 | 2019-08-06 | Canon Kabushiki Kaisha | Image display system and information processing apparatus and control methods thereof |
WO2020022734A1 (en) * | 2018-07-23 | 2020-01-30 | 삼성전자 주식회사 | Wearable electronic device for controlling, on basis of remaining battery capacity, transmittance of transparent member and output luminance of projector, and operation method thereof |
WO2020231215A1 (en) * | 2019-05-16 | 2020-11-19 | 주식회사 삼십구도씨 | Method, system, and non-transitory computer-readable recording medium for providing content comprising augmented reality object by using plurality of devices |
CN112106020A (en) * | 2018-05-03 | 2020-12-18 | 苹果公司 | Method and apparatus for sound processing of a synthetic reality setting |
WO2023080767A1 (en) * | 2021-11-02 | 2023-05-11 | 삼성전자 주식회사 | Wearable electronic device displaying virtual object and method for controlling same |
KR20230085429A (en) * | 2021-12-07 | 2023-06-14 | 주식회사 엔가든 | Virtual reality clinical simulation system and virtual reality clinical simulation method for infection control in isolation ward |
CN116688479A (en) * | 2023-06-07 | 2023-09-05 | 廊坊市珍圭谷科技有限公司 | Athletics control device based on brain wave signals |
US12073017B2 (en) | 2021-11-02 | 2024-08-27 | Samsung Electronics Co., Ltd. | Wearable electronic device for displaying virtual object on a surface of a real object and method of controlling the same |
-
2014
- 2014-08-25 JP JP2014171038A patent/JP2016045814A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008210A1 (en) * | 2016-07-04 | 2018-01-11 | ソニー株式会社 | Information processing device, information processing method, and program |
US10371953B2 (en) | 2016-09-26 | 2019-08-06 | Canon Kabushiki Kaisha | Image display system and information processing apparatus and control methods thereof |
CN112106020A (en) * | 2018-05-03 | 2020-12-18 | 苹果公司 | Method and apparatus for sound processing of a synthetic reality setting |
US12120493B2 (en) | 2018-05-03 | 2024-10-15 | Apple Inc. | Method and device for sound processing for a synthesized reality setting |
CN112106020B (en) * | 2018-05-03 | 2024-05-10 | 苹果公司 | Method and apparatus for sound processing of synthetic reality scenes |
US11902350B2 (en) | 2018-05-30 | 2024-02-13 | Huawei Technologies Co., Ltd. | Video processing method and apparatus |
CN108833937A (en) * | 2018-05-30 | 2018-11-16 | 华为技术有限公司 | Method for processing video frequency and device |
WO2020022734A1 (en) * | 2018-07-23 | 2020-01-30 | 삼성전자 주식회사 | Wearable electronic device for controlling, on basis of remaining battery capacity, transmittance of transparent member and output luminance of projector, and operation method thereof |
US11295641B2 (en) | 2018-07-23 | 2022-04-05 | Samsung Electronics Co., Ltd. | Wearable electronic device for controlling, on basis of remaining battery capacity, transmittance of transparent member and output luminance of projector, and operation method |
WO2020231215A1 (en) * | 2019-05-16 | 2020-11-19 | 주식회사 삼십구도씨 | Method, system, and non-transitory computer-readable recording medium for providing content comprising augmented reality object by using plurality of devices |
US12073017B2 (en) | 2021-11-02 | 2024-08-27 | Samsung Electronics Co., Ltd. | Wearable electronic device for displaying virtual object on a surface of a real object and method of controlling the same |
WO2023080767A1 (en) * | 2021-11-02 | 2023-05-11 | 삼성전자 주식회사 | Wearable electronic device displaying virtual object and method for controlling same |
KR102579540B1 (en) * | 2021-12-07 | 2023-09-18 | 주식회사 엔가든 | Virtual reality clinical simulation system and virtual reality clinical simulation method for infection control in isolation ward |
KR20230085429A (en) * | 2021-12-07 | 2023-06-14 | 주식회사 엔가든 | Virtual reality clinical simulation system and virtual reality clinical simulation method for infection control in isolation ward |
CN116688479B (en) * | 2023-06-07 | 2024-02-06 | 廊坊市珍圭谷科技有限公司 | Athletics control device based on brain wave signals |
CN116688479A (en) * | 2023-06-07 | 2023-09-05 | 廊坊市珍圭谷科技有限公司 | Athletics control device based on brain wave signals |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11977670B2 (en) | Mixed reality system for context-aware virtual object rendering | |
US11863845B2 (en) | Geometry matching in virtual reality and augmented reality | |
US12143690B2 (en) | Cinematic mastering for virtual reality and augmented reality | |
JP7109408B2 (en) | Wide range simultaneous remote digital presentation world | |
JP2016045814A (en) | Virtual reality service providing system and virtual reality service providing method | |
JP2016045815A (en) | Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method | |
JP2014187559A (en) | Virtual reality presentation system and virtual reality presentation method | |
JP6298563B1 (en) | Program and method for providing virtual space by head mounted device, and information processing apparatus for executing the program | |
JP2014164537A (en) | Virtual reality service providing system and virtual reality service providing method | |
US20240153226A1 (en) | Information processing apparatus, information processing method, and program | |
JP2014182597A (en) | Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method | |
JP2014182719A (en) | Virtual reality presentation system, and virtual reality presentation method | |
JP2014170330A (en) | Virtual reality presentation system, virtual reality presentation method and virtual reality presentation device | |
JP2019012509A (en) | Program for providing virtual space with head-mounted display, method, and information processing apparatus for executing program | |
EP4080907A1 (en) | Information processing device and information processing method | |
US20240331317A1 (en) | Information processing device, information processing system and method | |
US20240420718A1 (en) | Voice processing for mixed reality |