[go: up one dir, main page]

JP7260763B2 - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP7260763B2
JP7260763B2 JP2019059435A JP2019059435A JP7260763B2 JP 7260763 B2 JP7260763 B2 JP 7260763B2 JP 2019059435 A JP2019059435 A JP 2019059435A JP 2019059435 A JP2019059435 A JP 2019059435A JP 7260763 B2 JP7260763 B2 JP 7260763B2
Authority
JP
Japan
Prior art keywords
inquiry
unit
information processing
terminal
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019059435A
Other languages
Japanese (ja)
Other versions
JP2020160796A (en
Inventor
一希 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixi Inc
Original Assignee
Mixi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixi Inc filed Critical Mixi Inc
Priority to JP2019059435A priority Critical patent/JP7260763B2/en
Publication of JP2020160796A publication Critical patent/JP2020160796A/en
Priority to JP2023051891A priority patent/JP7469723B2/en
Application granted granted Critical
Publication of JP7260763B2 publication Critical patent/JP7260763B2/en
Priority to JP2024049936A priority patent/JP7656239B2/en
Priority to JP2025038557A priority patent/JP2025078863A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and program.

従来、仮想的な空間(仮想空間)を、例えばスマートフォンに代表される携帯情報端末に表示しユーザに呈示する仮想現実(Virtual Reality、VR)技術が実用化されている。近年、例えば携帯情報端末を特定の場所に向けると、人工的なキャラクタ若しくは構造物、又は、撮像等によって取り込んだ動植物若しくは構造物を携帯情報端末に表示しユーザに呈示する拡張現実(Augmented Reality、AR)技術が注目されている。以下では、人工的なキャラクタ若しくは構造物、又は、撮像画像を纏めてオブジェクトと記す。 2. Description of the Related Art Conventionally, a virtual reality (VR) technology has been put into practical use, in which a virtual space (virtual space) is displayed on a mobile information terminal typified by a smart phone and presented to a user. In recent years, for example, when a mobile information terminal is pointed at a specific place, an artificial character or structure, or an animal, plant, or structure captured by imaging or the like is displayed on the mobile information terminal and presented to the user. AR) technology is attracting attention. Below, an artificial character or structure, or a captured image is collectively referred to as an object.

例えば、特許文献1には、ユーザのタッチ操作による入力操作で仮想空間内に配置されたオブジェクトを操作する技術に関する情報処理装置、及びプログラムが開示されている。 For example, Patent Literature 1 discloses an information processing device and a program related to a technique of operating an object arranged in a virtual space by an input operation by a user's touch operation.

特開2017-176764号公報JP 2017-176764 A

本発明の課題の一つは、仮想空間内に配置されたオブジェクトの問い合わせに対し、端末の動きに基づいて応答可能にすることにある。 One of the objects of the present invention is to make it possible to respond to inquiries about objects placed in virtual space based on the movement of the terminal.

プログラムであって、オブジェクトが配置された仮想空間の少なくとも一部を端末に含まれる表示部に表示することと、所定の処理に関する問い合わせを出力することと、表示部に前記オブジェクトの少なくとも一部が表示されているとき、端末の動きに基づいて問い合わせに対する入力を受け付けることと、問い合わせに対する入力に基づいて所定の処理を実行することと、をコンピュータに実行させる。 A program comprising: displaying at least a portion of a virtual space in which an object is arranged on a display unit included in a terminal; outputting an inquiry regarding predetermined processing; and displaying at least a portion of the object on the display unit When displayed, the computer is caused to receive an input to an inquiry based on the movement of the terminal and execute a predetermined process based on the input to the inquiry.

オブジェクトに複数の動作モードのいずれかが設定されることと、オブジェクトに所定のモードが設定され、オブジェクトから問い合わせが出力されるとき、所定の処理が実行されることと、をコンピュータに実行させてもよい。 causing a computer to set one of a plurality of operation modes to an object; and executing a predetermined process when a predetermined mode is set to the object and a query is output from the object good too.

仮想空間には、複数のオブジェクトが配置されることと、複数の前記オブジェクトの各々に対応して複数の動作モードのいずれかが設定されることと、端末の動きに基づいて問い合わせに対する入力を受け付けることと、問い合わせに対する入力に基づいて所定の処理を実行することと、をコンピュータに実行させてもよい。 A plurality of objects are arranged in the virtual space, one of a plurality of operation modes is set corresponding to each of the plurality of objects, and an input to an inquiry is accepted based on the movement of the terminal. and executing a predetermined process based on the input to the inquiry.

端末の動きは、オブジェクトが配置された仮想空間の少なくとも一部と、撮像部で撮像された画像とを合成した画像から決定されてもよい。 The motion of the terminal may be determined from an image obtained by synthesizing at least part of the virtual space in which the object is arranged and the image captured by the imaging unit.

端末の動きに基づいて、所定の処理を実行させる場合、撮像部で撮影された画像は固定されること、をコンピュータに実行させてもよい。 When executing predetermined processing based on the movement of the terminal, the computer may be caused to fix the image captured by the imaging unit.

所定の処理は、端末の動きを示すパラメータの変化量が所定の範囲にある場合、端末の動きに基づいて実行されること、をコンピュータに実行させてもよい。 The computer may be caused to execute the predetermined processing based on the movement of the terminal when the amount of change in the parameter indicating the movement of the terminal is within a predetermined range.

情報処理装置であって、オブジェクトが配置された仮想空間の少なくとも一部を端末に表示させる表示制御部と、所定の処理に関する問い合わせを出力する問い合わせ出力部と、端末に表示されているオブジェクトの少なくとも一部が表示されているとき、端末の動きに基づいて問い合わせに対する入力を受け付け、問い合わせに対する入力に基づいて所定の処理を実行させる実行部と、を備える。 An information processing device, comprising: a display control unit for displaying on a terminal at least part of a virtual space in which an object is arranged; an inquiry output unit for outputting an inquiry regarding predetermined processing; an execution unit that receives an input to the inquiry based on the movement of the terminal when the part is displayed, and executes a predetermined process based on the input to the inquiry.

本発明の一実施形態によれば、仮想空間内に配置されたオブジェクトの問い合わせに対し、端末の動きに基づいて応答可能である。 According to one embodiment of the present invention, it is possible to respond to queries of objects placed in the virtual space based on the movement of the terminal.

本発明の一実施形態に係る情報処理システムを示すブロック図である。1 is a block diagram showing an information processing system according to one embodiment of the present invention; FIG. (A)は本発明の一実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。(B)は本発明の一実施形態に係る情報処理装置が有する機能構成を示すブロック図である。1A is a block diagram showing the hardware configuration of an information processing apparatus according to one embodiment of the present invention; FIG. 3B is a block diagram showing the functional configuration of the information processing apparatus according to one embodiment of the present invention; FIG. 本発明の一実施形態に係るオブジェクトが配置された仮想空間を示す図である。FIG. 4 is a diagram showing a virtual space in which objects are arranged according to an embodiment of the present invention; (A)、(B)、(C)及び(D)は本発明の一実施形態に係る情報処理装置の構成を示す平面図である。1A, 1B, 1C and 1D are plan views showing the configuration of an information processing apparatus according to an embodiment of the present invention; FIG. (A)、(B)、(C)及び(D)は本発明の一実施形態に係る情報処理装置の動きを示す斜視図である。(A), (B), (C) and (D) are perspective views showing the movement of the information processing apparatus according to one embodiment of the present invention. 本発明の一実施形態に係る処理方法を示すフローチャートである。4 is a flowchart illustrating a processing method according to one embodiment of the present invention; 本発明の一実施形態に係る処理方法を示すフローチャートである。4 is a flowchart illustrating a processing method according to one embodiment of the present invention; 本発明の一実施形態に係る複数のオブジェクトが配置された仮想空間を示す図である。FIG. 4 is a diagram showing a virtual space in which a plurality of objects are arranged according to one embodiment of the present invention; 本発明の一実施形態に係る処理方法を示すフローチャートである。4 is a flowchart illustrating a processing method according to one embodiment of the present invention; (A)は本発明の一実施形態に係るオブジェクトが配置された仮想空間を示す平面図である。(B)は本発明の一実施形態に係る撮像された画像を示す平面図である。(C)は本発明の一実施形態に係る仮想空間と撮像された画像とを重ねた図を示す平面図である。(A) is a plan view showing a virtual space in which objects are arranged according to one embodiment of the present invention. (B) is a plan view showing a captured image according to one embodiment of the present invention. (C) is a plan view showing a diagram in which a virtual space and a captured image are superimposed according to one embodiment of the present invention.

以下、本発明の実施形態を、図面等を参照しながら説明する。但し、本発明は多くの異なる態様で実施することが可能であり、以下に例示する実施の形態の記載内容に限定して解釈されるものではない。また、本明細書と各図において、既出の図に関して前述したものと同様の要素には、同一の符号(または数字の後にA、B、-1、-2などを付した符号)を付して、詳細な説明を適宜省略することがある。なお、各要素に対する「第1」、「第2」と付記された文字は、各要素を区別するために用いられる便宜的な標識であり、特段の説明がない限りそれ以上の意味を有さない。
1.第1実施形態
1-1.情報処理システム
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings and the like. However, the present invention can be implemented in many different aspects and should not be construed as being limited to the description of the embodiments exemplified below. Also, in this specification and each figure, the same reference numerals (or numerals followed by A, B, -1, -2, etc.) are attached to elements similar to those described above with respect to previous figures. Therefore, detailed description may be omitted as appropriate. The letters "first" and "second" for each element are convenient signs used to distinguish each element, and unless otherwise explained, have a further meaning. do not have.
1. First Embodiment 1-1. Information processing system

図1は、本発明の一実施形態に係る情報処理システム1を示すブロック図である。情報処理システム1は、サーバ20、複数の情報処理装置10、及び通信回線などのネットワーク40、を備える。 FIG. 1 is a block diagram showing an information processing system 1 according to one embodiment of the invention. The information processing system 1 includes a server 20, a plurality of information processing apparatuses 10, and a network 40 such as a communication line.

本発明の一実施形態に係る情報処理システム1は、一例として、ユーザが部屋に入室するとき、仮想空間に配置されたオブジェクトの問い合わせによって、部屋の電気を点灯するか否かを制御することができる。上記一例の概要を説明する。仮想空間に配置されたオブジェクトは待機モードと問い合わせモードとが設定されている。オブジェクトは通常は待機モードに設定されている。ユーザがオブジェクトの問い合わせに対して情報処理装置10を動かすことによって、情報処理装置10又はオブジェクトは電気を点灯するか否かを実行する。 For example, when a user enters a room, the information processing system 1 according to one embodiment of the present invention can control whether or not to turn on lights in the room based on an inquiry from an object placed in the virtual space. can. An outline of the above example will be described. A standby mode and an inquiry mode are set for objects placed in the virtual space. Objects are normally set to wait mode. When the user moves the information processing device 10 in response to the object's inquiry, the information processing device 10 or the object executes whether or not to turn on the light.

本発明の一実施形態において、動作モードとは、例えば、待機モード、問い合わせモードなど、情報処理装置10又はオブジェクトの状態を示す。ここで、待機モードは、情報処理装置10又はオブジェクトが、ユーザ又はサーバ20からの指示(入力)を待っているモードであり、また、通話、ネットワーク接続などの通信、又は撮像などのように、ユーザが情報処理装置10を通常使用するモードのことである。また、問い合わせモードは、例えば、オブジェクトがユーザに問い合わせ、質問、又は対話などを行うモードである。 In one embodiment of the present invention, the operation mode indicates a state of the information processing device 10 or an object, such as standby mode, inquiry mode, or the like. Here, the standby mode is a mode in which the information processing apparatus 10 or an object waits for an instruction (input) from the user or the server 20. It is a mode in which the user normally uses the information processing apparatus 10 . Inquiry mode is, for example, a mode in which an object inquires, questions, or interacts with a user.

本発明の一実施形態において、所定の処理とは、例えば、上記の電気を点灯するための一連の処理のことである。以降において、所定の処理は、部屋の電気を点灯するか否かを制御することを一例に、説明される。 In one embodiment of the present invention, the predetermined process is, for example, a series of processes for turning on the electricity. Hereinafter, the predetermined processing will be explained using an example of controlling whether or not to turn on the lights in the room.

図1において、サーバ20は、ネットワーク40を介して、情報処理装置10にプログラムを提供するコンピュータである。また、サーバ20は、ネットワーク40を介して、情報処理装置10に各種のサービスを提供するコンピュータである。各種のサービスには、例えば、SNS(Social Networking Service)、及び各種アプリケーションのインストールファイルの提供が含まれていてもよい。例えば、情報処理装置10からサーバ20にアプリケーション又はプログラムの提供に関する問い合わせがあった場合、サーバ20はアプリケーションのインストールファイル又はプログラムを情報処理装置10に提供してもよい。ユーザは、情報処理装置10にアプリケーションをインストールし、情報処理装置10にインストールされたアプリケーションを利用することで、ネットワーク40を経由しサーバ20に接続することができる。また、情報処理装置10は、提供されたプログラムに基づいて、所定の処理を実行する。なお、図1において、サーバ20は1つの装置として図示されているが、サーバ20は複数の装置で構成されていてもよい。また、サーバ20は、オブジェクト、仮想空間、撮像、問い合わせ出力(よいですか?、はい又はいいえ)などの画像情報又は映像情報、プログラム、及びプログラムの動作において必要となるパラメータなどの情報を格納する記憶装置を有してもよい。 In FIG. 1, server 20 is a computer that provides programs to information processing apparatus 10 via network 40 . Also, the server 20 is a computer that provides various services to the information processing apparatus 10 via the network 40 . Various services may include, for example, SNS (Social Networking Service) and provision of installation files for various applications. For example, when the server 20 receives an inquiry about provision of an application or program from the information processing device 10 , the server 20 may provide the information processing device 10 with an installation file of the application or the program. A user can connect to the server 20 via the network 40 by installing an application on the information processing device 10 and using the application installed on the information processing device 10 . The information processing device 10 also executes a predetermined process based on the provided program. Although the server 20 is illustrated as one device in FIG. 1, the server 20 may be composed of a plurality of devices. In addition, the server 20 stores information such as image information or video information such as objects, virtual space, imaging, inquiry output (are you sure?, yes or no), programs, and parameters required for the operation of the programs. It may have a storage device.

情報処理装置10は、例えば、スマートフォンやタブレットなどの携帯情報端末、携帯型ゲーム機、又はパーソナルコンピュータである。なお、複数の情報処理装置10は、互いに通信が可能である。
1-2.情報処理装置10のハードウェア構成100
The information processing device 10 is, for example, a mobile information terminal such as a smart phone or a tablet, a mobile game machine, or a personal computer. Note that the plurality of information processing apparatuses 10 can communicate with each other.
1-2. Hardware configuration 100 of information processing device 10

図2(A)は、本発明の一実施形態に係る情報処理装置10のハードウェア構成100を示す図である。ハードウェア構成100は、携帯情報端末に含まれる。ハードウェア構成100は、通信部101、操作部103、表示部105、撮像部107、制御部109、記憶部111及び検出部113を備える。 FIG. 2A is a diagram showing the hardware configuration 100 of the information processing apparatus 10 according to one embodiment of the invention. Hardware configuration 100 is included in a personal digital assistant. A hardware configuration 100 includes a communication unit 101 , an operation unit 103 , a display unit 105 , an imaging unit 107 , a control unit 109 , a storage unit 111 and a detection unit 113 .

通信部101は、情報処理装置10に含まれる通信インターフェースである。本発明の一実施形態では、情報処理装置10は通信部101を介することで、ネットワーク40を経由してサーバ20と接続される。そして、情報処理装置10はサーバ20との間で情報の送受信を行う。また、情報処理装置10はネットワーク40を経由して、他の情報処理装置10と接続されてもよい。本発明の一実施形態において、情報はデータと置き換えてもよい。 The communication unit 101 is a communication interface included in the information processing device 10 . In one embodiment of the present invention, the information processing device 10 is connected to the server 20 via the network 40 via the communication unit 101 . The information processing device 10 transmits and receives information to and from the server 20 . Also, the information processing device 10 may be connected to another information processing device 10 via the network 40 . In one embodiment of the invention, information may be replaced with data.

操作部103は、例えば、ボタン、又はタッチセンサ等のユーザインタフェースである。操作部103は、インターフェースに対してユーザの操作が入力されたことを検出すると、ユーザの操作の入力に対応する各種制御信号を制御部109に出力する。本発明の一実施形態では、操作部103は、例えば、タッチセンサである。 The operation unit 103 is, for example, a user interface such as buttons or a touch sensor. When the operation unit 103 detects that a user's operation is input to the interface, the operation unit 103 outputs various control signals corresponding to the input of the user's operation to the control unit 109 . In one embodiment of the invention, the operation unit 103 is, for example, a touch sensor.

表示部105は、情報処理装置10を構成する筐体内に一体となって備えられる。表示部105は、例えば、液晶表示パネル又はEL(Electroluminescence)表示パネルである。表示部105は、オブジェクトが配置された仮想空間のうちの一部領域を表示する。詳細は後述されるが、仮想空間には、一つのオブジェクトが配置されてもよいし、複数のオブジェクトが配置されてもよい。例えば、図3に示されるように、仮想空間305のうちの一部領域310Aには、オブジェクト300が配置される。また、仮想空間305のうちの一部領域310Bには、オブジェクト300が配置されていない。 The display unit 105 is provided integrally within a housing that constitutes the information processing apparatus 10 . The display unit 105 is, for example, a liquid crystal display panel or an EL (Electroluminescence) display panel. The display unit 105 displays a partial area of the virtual space in which the object is arranged. Although details will be described later, one object may be placed in the virtual space, or a plurality of objects may be placed. For example, as shown in FIG. 3, an object 300 is arranged in a partial area 310A of the virtual space 305 . Also, the object 300 is not arranged in the partial area 310B of the virtual space 305 .

撮像部107は、光を電気信号に変換する撮像素子を有し、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサを含む。撮像部107は、例えば、カメラである。撮像部107は、制御部109から出力される撮像制御信号に基づいて、駆動される。撮像部107は、撮像した画像情報や映像情報を、制御部109、記憶部111又はサーバ20に出力する。 The imaging unit 107 has an imaging element that converts light into an electrical signal, and includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor and a CCD (Charge Coupled Device) image sensor. The imaging unit 107 is, for example, a camera. The imaging unit 107 is driven based on imaging control signals output from the control unit 109 . The imaging unit 107 outputs the captured image information and video information to the control unit 109 , the storage unit 111 or the server 20 .

制御部109は、演算処理回路を有し、演算処理回路を用いてプログラムを実行する。なお、本明細書等において、演算処理回路は、例えば、プロセッサ、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などの演算処理可能な回路である。なお、制御部109は、サーバ20に格納されているプログラムを、通信部101を介して受信してもよい。 The control unit 109 has an arithmetic processing circuit and executes a program using the arithmetic processing circuit. In this specification and the like, an arithmetic processing circuit is, for example, a circuit capable of arithmetic processing such as a processor, a CPU (Central Processing Unit), or a GPU (Graphics Processing Unit). Note that the control unit 109 may receive the program stored in the server 20 via the communication unit 101 .

記憶部111は、情報の恒久的な保持及び情報の書き換えが可能な記憶装置である。記憶部111は、例えば、不揮発性メモリである。記憶部111は、オブジェクト、仮想空間、撮像、問い合わせ出力(よいですか?、はい又はいいえ)などの画像情報又は映像情報、オブジェクトに設定された動作モードに関する情報、プログラム、及びプログラムの動作において必要となるパラメータなどの情報を格納する。記憶部111は、情報の一時的な保持に用いられる書き換え可能な記憶装置を有してもよい。書き換え可能な記憶装置は、例えば、揮発性メモリ、SRAM(Static Random Access Memory)又はDRAM(Dynamicc Random Access Memory)である。記憶部111は、記憶部111に格納されているプログラムの展開領域、及びプログラムの動作において出力された情報などの中間データ等を記憶する格納領域として用いられてもよい。 The storage unit 111 is a storage device capable of permanently holding information and rewriting information. Storage unit 111 is, for example, a non-volatile memory. The storage unit 111 stores image information or video information such as objects, virtual space, imaging, inquiry output (are you sure?, yes or no), information about the operation mode set for the object, programs, and programs necessary for the operation of the programs. Stores information such as parameters that become The storage unit 111 may have a rewritable storage device used for temporarily holding information. A rewritable storage device is, for example, a volatile memory, an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory). The storage unit 111 may be used as a development area for the programs stored in the storage unit 111 and a storage area for storing intermediate data such as information output during the operation of the programs.

検出部113は、情報処理装置10の動きを検出し、問い合わせに対する入力を受け付ける。具体的には、検出部113は、問い合わせ出力部205から問い合わせ出力信号が出力されると、ユーザが情報処理装置10に入力した指示を検出する。検出部113が、ユーザにより情報処理装置10に入力された指示を検出することは、ユーザの応答を検出すること、又は、ユーザが情報処理装置10に与える動きを検出することと言い換えてもよい。検出部113は、例えば、角速度センサ(ジャイロセンサ)、地磁気センサ、又は加速度センサなど、ユーザが情報処理装置10に与える動きを検出可能なセンサを有する。例えば、検出部113が角速度センサを有する場合、検出部113は、問い合わせ出力部205から問い合わせ出力信号が出力されると、ユーザが情報処理装置10を上下に動かした動きを角速度センサで検出する。
1-3.情報処理装置10が有する機能構成200
The detection unit 113 detects motion of the information processing device 10 and receives an input to an inquiry. Specifically, when the inquiry output signal is output from the inquiry output unit 205 , the detection unit 113 detects an instruction input to the information processing apparatus 10 by the user. Detecting an instruction input by the user to the information processing apparatus 10 by the detection unit 113 may be rephrased as detecting a user's response or detecting a movement given to the information processing apparatus 10 by the user. . The detection unit 113 has a sensor such as an angular velocity sensor (gyro sensor), a geomagnetism sensor, or an acceleration sensor that can detect a movement given to the information processing device 10 by the user. For example, when the detection unit 113 has an angular velocity sensor, when the inquiry output signal is output from the inquiry output unit 205 , the detection unit 113 detects the motion of the user moving the information processing apparatus 10 up and down with the angular velocity sensor.
1-3. Functional Configuration 200 of Information Processing Device 10

図2(B)は、本発明の一実施形態に係るプログラムを実行した情報処理装置10が有する機能構成200を示す図である。機能構成200は、制御部109に含まれる。機能構成200は、表示制御部201、設定部203、問い合わせ出力部205、及び実行部209を備える。 FIG. 2B is a diagram showing a functional configuration 200 of the information processing apparatus 10 executing the program according to one embodiment of the present invention. A functional configuration 200 is included in the control unit 109 . A functional configuration 200 includes a display control unit 201 , a setting unit 203 , a query output unit 205 and an execution unit 209 .

設定部203は、オブジェクトに複数の動作モードのいずれかを設定する機能を有する。設定部203は、ユーザによる操作部103でのタッチ操作によって、操作部103から動作モードを設定する指示(設定制御信号)を受付ける。設定部203は、設定制御信号を受付けると、待機モード及び問い合わせモードをオブジェクトに設定する。また、設定部203は、問い合わせ出力部205から問い合わせ出力信号を受付けると、オブジェクトの状態を待機モードから問い合わせモードに遷移させる。設定部203は、オブジェクトを問い合わせモードに遷移させると、遷移信号を問い合わせ出力部205に出力する。 The setting unit 203 has a function of setting one of a plurality of operation modes for an object. Setting unit 203 receives an instruction (setting control signal) to set an operation mode from operation unit 103 by a user's touch operation on operation unit 103 . Upon receiving the setting control signal, the setting unit 203 sets the standby mode and inquiry mode to the object. Further, upon receiving the inquiry output signal from the inquiry output unit 205, the setting unit 203 causes the state of the object to transition from the standby mode to the inquiry mode. When the setting unit 203 transitions the object to the inquiry mode, the setting unit 203 outputs a transition signal to the inquiry output unit 205 .

問い合わせ出力部205は、表示部105に所定の処理に関する問い合わせを出力する機能を有する。問い合わせ出力部205は、問い合わせ出力信号を、表示制御部201、設定部203及び動作判定部207に出力する。例えば、ユーザが部屋に入室すると、部屋に設けられた人感センサが反応し、人感センサがサーバにセンサ信号を出力する。サーバはセンサ信号を受付けると、問い合わせ出力部205に検知信号を出力する。問い合わせ出力部205は、サーバから検知信号を受付ける。また、問い合わせ出力部205は、サーバから検知信号を受付けると、問い合わせ出力信号(電気を点灯するか否かの信号)を表示制御部201、設定部203及び動作判定部207に出力する。 The inquiry output unit 205 has a function of outputting an inquiry regarding predetermined processing to the display unit 105 . The inquiry output unit 205 outputs an inquiry output signal to the display control unit 201 , the setting unit 203 and the operation determination unit 207 . For example, when a user enters a room, a human sensor provided in the room reacts, and the human sensor outputs a sensor signal to the server. When the server receives the sensor signal, it outputs a detection signal to the inquiry output unit 205 . The inquiry output unit 205 receives a detection signal from the server. Further, upon receiving the detection signal from the server, the inquiry output unit 205 outputs an inquiry output signal (a signal indicating whether or not to turn on the electricity) to the display control unit 201 , the setting unit 203 and the operation determination unit 207 .

動作判定部207は、検出部113による情報処理装置10の動きの検出結果から、問い合わせに対する入力を判定する機能を有する。具体的には、動作判定部207は、検出部113による情報処理装置10の動きから、問い合わせに対する入力が行われたのか否かを判定し、判定した結果を実行部209に出力する。例えば、動作判定部207は、検出部113による情報処理装置10の動きから、問い合わせに対する入力が行われたと判定する場合、入力検出信号を実行部209に出力する。例えば、動作判定部207は、検出部113による情報処理装置10の動きから、問い合わせに対する入力が行われないと判定する場合、入力未検出信号を実行部209に出力する。例えば、情報処理装置10の上下左右の動きから問い合わせに対する入力を判定する入力検出信号又は入力未検出信号は情報処理装置10で処理され、情報処理装置10の傾きから問い合わせに対する入力を判定する入力検出信号又は入力未検出信号は、サーバ20で処理されてもよい。 The motion determination unit 207 has a function of determining an input to an inquiry based on the motion detection result of the information processing apparatus 10 by the detection unit 113 . Specifically, the motion determination unit 207 determines whether or not an inquiry has been input based on the motion of the information processing apparatus 10 detected by the detection unit 113 , and outputs the determination result to the execution unit 209 . For example, when the motion determination unit 207 determines from the motion of the information processing apparatus 10 by the detection unit 113 that an input to the inquiry has been made, the motion determination unit 207 outputs an input detection signal to the execution unit 209 . For example, when the motion determination unit 207 determines from the motion of the information processing apparatus 10 by the detection unit 113 that an input for the inquiry has not been made, the motion determination unit 207 outputs an input non-detection signal to the execution unit 209 . For example, an input detection signal or an input non-detection signal that determines an input to an inquiry from the vertical and horizontal movements of the information processing device 10 is processed by the information processing device 10, and an input detection that determines an input to the inquiry from the tilt of the information processing device 10. Signals or input undetected signals may be processed at server 20 .

実行部209は、動作判定部207から出力される入力検出信号又は入力未検出信号を受付け、所定の処理を実行する機能を有する。実行部209は、動作判定部207から入力検出信号又は入力未検出信号を出力受付けると、所定の処理を実行する信号(実行制御信号)を出力する。例えば、実行部209が、動作判定部207から電気を点灯する信号(入力検出信号)を受付けると、実行制御信号を部屋の電気を点灯させるスイッチに出力する。そして、部屋の電気が点灯される。実行部209は、実行制御信号をサーバ20に出力してもよい。そして、サーバ20は、実行制御信号を受付けると、部屋の電気を制御する信号を部屋の電気を点灯させるスイッチに出力し、部屋の電気が点灯されてもよい。 The execution unit 209 has a function of receiving an input detection signal or an input non-detection signal output from the motion determination unit 207 and executing predetermined processing. The execution unit 209 outputs a signal (execution control signal) for executing a predetermined process upon receiving an input detection signal or an input non-detection signal from the motion determination unit 207 . For example, when the execution unit 209 receives a signal (input detection signal) to turn on the lights from the action determination unit 207, it outputs an execution control signal to a switch that turns on the lights in the room. Then the lights in the room are turned on. The execution unit 209 may output an execution control signal to the server 20 . Then, upon receiving the execution control signal, the server 20 may output a signal for controlling the electricity in the room to the switch for turning on the electricity in the room, and the electricity in the room may be turned on.

表示制御部201は、表示部105に画像情報又は映像情報を表示するための機能を有する。具体的には、表示制御部201は、表示部105に表示する画像情報又は映像情報を制御する。例えば、表示制御部201は、操作部103から表示制御信号を受付けると、オブジェクトが配置された仮想空間のうちの一部領域に関係する画像情報、撮像部107によって撮像された画像情報又は映像情報を表示部105に出力する。また、例えば、表示制御部201は、問い合わせ出力部205から電気を点灯するか否かの信号を出力されると、問い合わせ出力(よいですか?、はい又はいいえなど)を表示部105に出力する。 The display control unit 201 has a function of displaying image information or video information on the display unit 105 . Specifically, the display control unit 201 controls image information or video information displayed on the display unit 105 . For example, when the display control unit 201 receives a display control signal from the operation unit 103, the display control unit 201 receives image information related to a partial area of the virtual space in which the object is arranged, image information captured by the imaging unit 107, or video information. is output to the display unit 105 . Further, for example, when the display control unit 201 outputs a signal indicating whether or not to turn on the light from the inquiry output unit 205, the display control unit 201 outputs an inquiry output (Are you sure?, Yes or No, etc.) to the display unit 105. .

ここで、サーバ20が、機能構成200のうちの一部を備えており、機能構成200のうちの一部の機能を実行してもよい。
1-4.問い合わせの出力
Here, the server 20 may include a portion of the functional configuration 200 and execute a portion of the functions of the functional configuration 200 .
1-4. query output

図4を参照し、本発明の一実施形態に係る問い合わせの出力について説明する。図4(A)、図4(B)、図4(C)及び図4(D)は、本発明の一実施形態に係る情報処理装置10の構成を示す平面図である。図1乃至図3と同一、又は類似する構成については説明を省略することがある。 Referring to FIG. 4, query output according to one embodiment of the present invention will be described. 4A, 4B, 4C, and 4D are plan views showing the configuration of the information processing apparatus 10 according to one embodiment of the present invention. Descriptions of configurations that are the same as or similar to those in FIGS. 1 to 3 may be omitted.

図4(A)、図4(B)、図4(C)及び図4(D)に示されるように、情報処理装置10は、表示部105及び撮像部107を有する。図4(A)、図4(B)、図4(C)及び図4(D)において、表示部105及び撮像部107以外のハードウェア構成の記載は省略される。 As shown in FIGS. 4A, 4B, 4C, and 4D, the information processing apparatus 10 has a display unit 105 and an imaging unit 107. FIG. 4A, 4B, 4C, and 4D, description of the hardware configuration other than the display unit 105 and the imaging unit 107 is omitted.

図4(A)に示されるように、表示部105は、オブジェクト300が配置された仮想空間のうちの一部領域310Aを表示する。表示部105は、仮想空間のうちの一部領域310におけるオブジェクト300の一部を表示してもよい。例えば、オブジェクト300の腰よりも上を表示してもよいし、オブジェクト300の顔を表示してもよい。 As shown in FIG. 4A, the display unit 105 displays a partial area 310A of the virtual space in which the object 300 is arranged. The display unit 105 may display a part of the object 300 in a partial area 310 in the virtual space. For example, the part above the waist of the object 300 may be displayed, or the face of the object 300 may be displayed.

また、図4(A)は、表示制御部201が、操作部103から表示制御信号を出力されるとき、オブジェクト300が配置される仮想空間305のうちの一部領域に関係する画像情報を表示部105に出力した図である。また、図4(A)は、オブジェクト300は問い合わせモードに遷移された状態であるが、問い合わせを出力していない状態を示す図でもある。 4A shows image information related to a partial area of the virtual space 305 in which the object 300 is arranged when the display control unit 201 outputs a display control signal from the operation unit 103. FIG. 3 is a diagram output to a unit 105; FIG. FIG. 4A also shows a state in which the object 300 has been transitioned to the inquiry mode, but no inquiry has been output.

図4(B)に示されるように、表示部105は、オブジェクト300が配置されていない仮想空間のうちの一部領域320Bを表示することもある。 As shown in FIG. 4B, the display unit 105 may display a partial area 320B of the virtual space in which the object 300 is not arranged.

図4(C)に示されるように、表示部105は、図4(A)の画像に加え、問い合わせ出力330を表示する。図4(C)は、表示制御部201が、問い合わせ出力部205から問い合わせ出力信号を出力されるとき、問い合わせ出力(よいですか?)を表示部105に出力した図である。 As shown in FIG. 4C, display unit 105 displays query output 330 in addition to the image in FIG. 4A. FIG. 4C is a diagram in which the display control unit 201 outputs an inquiry output (Are you sure?) to the display unit 105 when the inquiry output unit 205 outputs an inquiry output signal.

図4(D)に示されるように、表示部105は、問い合わせ出力330-1に対して、さらに問い合わせ出力330-2をずらして重ねて表示することもある。図4(D)は、表示制御部201が、問い合わせ出力部205から問い合わせ出力信号を2回出力されるとき、問い合わせ出力(よいですか?)を表示部105に出力した図である。
1-5.問い合わせに対する入力
As shown in FIG. 4(D), the display unit 105 may display the query output 330-2 on top of the query output 330-1 while shifting the query output 330-2. FIG. 4D is a diagram in which the display control unit 201 outputs an inquiry output (Are you sure?) to the display unit 105 when the inquiry output unit 205 outputs the inquiry output signal twice.
1-5. Input for inquiry

図5(A)、図5(B)、図5(C)及び図5(D)を参照し、本発明の一実施形態に係る問い合わせに対する入力について説明する。図5(A)、図5(B)、図5(C)及び図5(D)は、本発明の一実施形態に係るプログラムを実行する情報処理装置の動きを示す斜視図である。図1乃至図4と同一、又は類似する構成については説明を省略することがある。本明細書等において、問い合わせに対する入力は端末の動きと呼ばれることもある。図5(A)、図5(B)、図5(C)及び図5(D)において、情報処理装置10の表示部105の表示面105Aを、単に表示面105Aと呼ぶ。 5(A), 5(B), 5(C), and 5(D), input for a query according to an embodiment of the present invention will be described. 5(A), 5(B), 5(C) and 5(D) are perspective views showing the movement of the information processing apparatus that executes the program according to one embodiment of the present invention. Descriptions of configurations that are the same as or similar to those in FIGS. 1 to 4 may be omitted. In this specification and the like, an input to an inquiry is sometimes referred to as a movement of the terminal. 5A, 5B, 5C, and 5D, the display surface 105A of the display unit 105 of the information processing apparatus 10 is simply referred to as the display surface 105A.

図5(A)は、表示面105Aの左右方向(AB方向)に略垂直な法線Eに対して略平行な方向(上下方向)に、情報処理装置10を動かすことによって、問い合わせに対する入力が行われる場合を示す図である。図5(B)は、表示面105Aの上下方向(CD方向)に略垂直な法線Fに対して略平行な方向(左右方向)に、情報処理装置10を動かすことによって、問い合わせに対する入力が行われる場合を示す図である。図5(C)は、情報処理装置10を、表示面105AのAB方向に略垂直な法線Gに対して傾くように動かすことによって、問い合わせに対する入力が行われる場合を示す図である。図5(D)は、情報処理装置10を、表示面105AのCD方向に略垂直な法線Hに対して傾くように動かすことによって、問い合わせに対する入力が行われる場合を示す図である。本明細書等において、左右方向をAとBに沿った方向で示し、上下方向をCとDに沿った方向で示す。図1乃至図4と同一、又は類似する構成については説明を省略することがある。 In FIG. 5A, an input to an inquiry is made by moving the information processing apparatus 10 in a direction (vertical direction) substantially parallel to a normal line E substantially perpendicular to the horizontal direction (AB direction) of the display surface 105A. It is a figure which shows the case where it is performed. In FIG. 5B, an input to an inquiry is made by moving the information processing device 10 in a direction (horizontal direction) substantially parallel to a normal line F substantially perpendicular to the vertical direction (CD direction) of the display surface 105A. It is a figure which shows the case where it is performed. FIG. 5C is a diagram showing a case where an inquiry is input by moving the information processing apparatus 10 so as to be tilted with respect to a normal line G substantially perpendicular to the AB direction of the display surface 105A. FIG. 5D is a diagram showing a case where an inquiry is input by moving the information processing apparatus 10 so as to be tilted with respect to a normal line H substantially perpendicular to the CD direction of the display surface 105A. In this specification and the like, the horizontal direction is indicated by the direction along A and B, and the vertical direction is indicated by the direction along C and D. Descriptions of configurations that are the same as or similar to those in FIGS. 1 to 4 may be omitted.

図5(A)に示されるように、ユーザが情報処理装置10を、所定の第1条件を満たす範囲の移動量d1で上下に動かした場合、検出部113(図2(A))はユーザが情報処理装置10を上下に動かした動きを検出する。検出部113が情報処理装置10の動きを検出すると、動作判定部207(図2(B))は入力検出信号を実行部209に出力する。一方、ユーザが情報処理装置10を、所定の第1条件を満たさない範囲の移動量d1で上下に動かした場合、検出部113が情報処理装置10の動きを検出すると、動作判定部207は入力未検出信号を実行部209に出力する。実行部209は、再度、問い合わせに対する入力を促す。これによって、例えば、表示部105は、図4(C)に示された問い合わせ出力と同様の画像を表示する。また、図4(D)に示されるように、表示部105は、問い合わせ出力330-1に対して、さらに問い合わせ出力330-2をずらして重ねて表示してもよい。 As shown in FIG. 5A, when the user moves the information processing apparatus 10 up and down by a movement amount d1 within a range that satisfies a predetermined first condition, the detection unit 113 (FIG. 2A) is detected by the user. detects the motion of moving the information processing apparatus 10 up and down. When the detection unit 113 detects the motion of the information processing device 10 , the motion determination unit 207 (FIG. 2B) outputs an input detection signal to the execution unit 209 . On the other hand, when the user moves the information processing device 10 up and down by a movement amount d1 within a range that does not satisfy the predetermined first condition, when the detection unit 113 detects the movement of the information processing device 10, the motion determination unit 207 inputs A non-detection signal is output to execution unit 209 . The execution unit 209 again prompts for the input of the inquiry. As a result, for example, the display unit 105 displays an image similar to the query output shown in FIG. 4(C). Further, as shown in FIG. 4D, the display unit 105 may display the inquiry output 330-2 on the inquiry output 330-1 while shifting the inquiry output 330-2.

図5(B)に示されるように、ユーザが情報処理装置10を、所定の第2条件を満たす範囲の移動量d2で左右に動かした場合、検出部113が情報処理装置10の動きを検出すると、動作判定部207は入力検出信号を実行部209に出力する。一方、ユーザが情報処理装置10を、所定の第2条件を満たさない範囲の移動量d2で左右に動かした場合、検出部113が情報処理装置10の動きを検出すると、動作判定部207は入力未検出信号を実行部209に出力する。実行部209は、再度、問い合わせに対する入力を促す。 As shown in FIG. 5B , when the user moves the information processing device 10 left or right by a movement amount d2 within a range that satisfies the second condition, the detection unit 113 detects the movement of the information processing device 10 . Then, the motion determination section 207 outputs an input detection signal to the execution section 209 . On the other hand, when the user moves the information processing device 10 left or right by a movement amount d2 within a range that does not satisfy the second condition, when the detection unit 113 detects the movement of the information processing device 10, the motion determination unit 207 inputs A non-detection signal is output to execution unit 209 . The execution unit 209 again prompts for the input of the inquiry.

図5(C)に示されるように、ユーザが情報処理装置10を、角度θxが所定の第3条件を満たす範囲で傾けた場合、検出部113が情報処理装置10の動きを検出すると、動作判定部207は入力検出信号を実行部209に出力する。一方、ユーザが情報処理装置10を、角度θxが所定の第3条件を満たさない範囲で傾けた場合、検出部113が情報処理装置10の動きを検出すると、動作判定部207は入力未検出信号を実行部209に出力する。実行部209は、再度、問い合わせに対する入力を促す。 As shown in FIG. 5C , when the user tilts the information processing device 10 within a range where the angle θx satisfies the third condition, the detection unit 113 detects the movement of the information processing device 10 and the motion is detected. The determination unit 207 outputs the input detection signal to the execution unit 209 . On the other hand, when the user tilts the information processing device 10 in a range where the angle θx does not satisfy the third condition, when the detection unit 113 detects the movement of the information processing device 10, the motion determination unit 207 outputs an input undetected signal. to the execution unit 209 . The execution unit 209 again prompts for the input of the inquiry.

図5(D)に示されるように、ユーザが情報処理装置10を、角度θyが所定の第4条件を満たす範囲で傾けた場合、検出部113が情報処理装置10の動きを検出すると、動作判定部207は入力検出信号を実行部209に出力する。一方、ユーザが情報処理装置10を、角度θyが所定の第4条件を満たさない範囲で傾けた場合、検出部113が情報処理装置10の動きを検出すると、動作判定部207は入力未検出信号を実行部209に出力する。実行部209は、再度、問い合わせに対する入力を促す。 As shown in FIG. 5D , when the user tilts the information processing apparatus 10 within a range where the angle θy satisfies the predetermined fourth condition, the detection unit 113 detects the motion of the information processing apparatus 10 and the motion is detected. The determination unit 207 outputs the input detection signal to the execution unit 209 . On the other hand, when the user tilts the information processing device 10 in a range where the angle θy does not satisfy the fourth condition, when the detection unit 113 detects the movement of the information processing device 10, the motion determination unit 207 outputs an input undetected signal. to the execution unit 209 . The execution unit 209 again prompts for the input of the inquiry.

例えば、問い合わせに対する入力が実行される場合、撮像部107の駆動は停止される。また、問い合わせに対する入力が実行される場合、表示部105に表示される撮像部107によって撮像された画像は固定されてもよいし、撮像部107が撮像する画像は表示部105に表示されなくなってもよい。これによって、ユーザが情報処理装置10を通常使用する動きと、ユーザが情報処理装置10を動かすことで、ユーザがオブジェクトの問い合わせに対する入力を行うことと、を区別することができる。したがって、ユーザがオブジェクトの問い合わせに対する入力するときの誤動作が抑制される。
1-6.プログラムを実行するための処理方法
For example, when an inquiry is input, driving of the imaging unit 107 is stopped. Further, when the input for the inquiry is executed, the image captured by the imaging unit 107 displayed on the display unit 105 may be fixed, or the image captured by the imaging unit 107 may not be displayed on the display unit 105. good too. This makes it possible to distinguish between the user's normal use of the information processing device 10 and the user's input in response to an object inquiry by moving the information processing device 10 . Therefore, erroneous operation when the user inputs an object inquiry is suppressed.
1-6. Processing method for executing the program

図1、図2、図4、図5、図6及び図7を参照し、本発明の一実施形態に係る処理方法について説明する。図6及び図7は、本発明の一実施形態に係る処理方法を示すフローチャートである。図1乃至図5と同一、又は類似する構成については説明を省略することがある。 A processing method according to an embodiment of the present invention will be described with reference to FIGS. 1, 2, 4, 5, 6 and 7. FIG. 6 and 7 are flowcharts illustrating a processing method according to one embodiment of the present invention. Descriptions of configurations that are the same as or similar to those in FIGS. 1 to 5 may be omitted.

情報処理装置10は、プログラムを実行すると、所定の処理を開始する。例えば、情報処理装置10は、ユーザの指示によってアプリケーションを起動する。初めに、設定部203(図2(B))において、オブジェクトに待機モード及び問い合わせモードが設定される(ステップ501(S501))。 The information processing apparatus 10 starts a predetermined process when executing the program. For example, the information processing apparatus 10 activates an application according to a user's instruction. First, in the setting unit 203 (FIG. 2(B)), the standby mode and inquiry mode are set for the object (step 501 (S501)).

ステップ503(S503)において、例えば、ユーザが操作部103をタッチ操作することによって、情報処理装置10は、サーバ20から表示制御部201(図2(B))に、複数の動作モードのいずれかを設定されたオブジェクト及び仮想空間の画像データを読み出す。表示制御部201は、読み出したオブジェクト及び仮想空間の画像データに基づき仮想空間にオブジェクトを配置する。オブジェクトは、ユーザ又はサーバ20からの指示(入力)を待っている状態(待機モード)である。以上がステップ503(S503)である。 In step 503 (S503), for example, when the user performs a touch operation on the operation unit 103, the information processing apparatus 10 transmits one of a plurality of operation modes from the server 20 to the display control unit 201 (FIG. 2B). is set and the image data of the virtual space is read. The display control unit 201 arranges the object in the virtual space based on the read object and the image data of the virtual space. The object is in a state (standby mode) waiting for an instruction (input) from the user or the server 20 . The above is step 503 (S503).

ステップ505(S505)において、ユーザ又はサーバ20からの入力がある場合(はい)、設定部203(図2(B))は、オブジェクトを待機モードから問い合わせモードに遷移させる。ユーザ又はサーバ20からの入力がない場合(いいえ)、ステップ505(S505)を繰り返し、オブジェクトは待機モードのままである。例えば、問い合わせ出力部205は、ユーザが部屋に入室すると、サーバから出力される信号によって、問い合わせ出力信号を設定部203に出力する。設定部203は、問い合わせ出力信号を受付けると、オブジェクトを待機モードから問い合わせモードに遷移させる。設定部203は、オブジェクトを問い合わせモードに遷移させると、遷移信号を問い合わせ出力部205に出力する。以上がステップ505(S505)である。 At step 505 (S505), if there is an input from the user or the server 20 (Yes), the setting unit 203 (FIG. 2B) causes the object to transition from standby mode to inquiry mode. If there is no input from the user or server 20 (no), step 505 (S505) is repeated and the object remains in standby mode. For example, when a user enters a room, the inquiry output unit 205 outputs an inquiry output signal to the setting unit 203 according to a signal output from the server. Upon receiving the inquiry output signal, the setting unit 203 causes the object to transition from the standby mode to the inquiry mode. When the setting unit 203 transitions the object to the inquiry mode, the setting unit 203 outputs a transition signal to the inquiry output unit 205 . The above is step 505 (S505).

すでに、ステップ505(S505)が実行されている場合、ステップ501(S501)及びステップ503(S503)は省略されてもよい。 If step 505 (S505) has already been performed, step 501 (S501) and step 503 (S503) may be omitted.

ステップ507(S507)において、問い合わせ出力部205は、設定部203から遷移信号を受付けると所定の処理に関する問い合わせ出力信号を出力する。例えば、問い合わせ出力部205は、部屋の電気を点灯するか否かの信号を表示制御部201、設定部203、及び動作判定部207に出力する。以上がステップ507(S507)である。 At step 507 (S507), the inquiry output unit 205 receives the transition signal from the setting unit 203 and outputs an inquiry output signal regarding predetermined processing. For example, the inquiry output unit 205 outputs a signal indicating whether to turn on the lights in the room to the display control unit 201 , the setting unit 203 and the operation determination unit 207 . The above is step 507 (S507).

ステップ509(S509)において、表示制御部201が部屋の電気を点灯するか否かの信号を受付けると、仮想空間のうちの一部領域のデータを表示部105(図2(A))に出力する。仮想空間のうちの一部領域が表示部105に表示される。このとき、図4(C)に示されるように、オブジェクト300が配置された仮想空間のうちの一部領域310A及び問い合わせ出力330-1が、表示部105に表示されている場合(はい)、情報処理装置10は、ステップ513(S513)を実行する。すなわち、オブジェクト300がユーザに対して問い合わせ出力330-1を行う場合、情報処理装置10は、ステップ513(S513)を実行する。図4(B)又は図4(C)に示されるように、オブジェクトが配置されていない仮想空間のうちの一部領域が、表示部105に表示されている場合(いいえ)、情報処理装置10は、ステップ505(S505)に戻る。すなわち、オブジェクト300がユーザに対して問い合わせ出力330-1行っていない場合、又は、オブジェクトが表示されていない場合、情報処理装置10は、ステップ505(S505)に戻る。以上がステップ509(S509)である。なお、オブジェクトが配置された仮想空間のうちの一部領域が、表示部105に表示されるように、ユーザは情報処理装置10を動かしてもよい。 At step 509 (S509), when the display control unit 201 receives a signal indicating whether or not to turn on the lights in the room, data of a partial area in the virtual space is output to the display unit 105 (FIG. 2A). do. A partial area of the virtual space is displayed on the display unit 105 . At this time, as shown in FIG. 4C, if the partial area 310A of the virtual space in which the object 300 is placed and the query output 330-1 are displayed on the display unit 105 (Yes), The information processing device 10 executes step 513 (S513). That is, when the object 300 performs the inquiry output 330-1 to the user, the information processing apparatus 10 executes step 513 (S513). As shown in FIG. 4B or 4C, when a partial area of the virtual space in which no object is arranged is displayed on the display unit 105 (No), the information processing apparatus 10 returns to step 505 (S505). That is, if the object 300 has not performed the inquiry output 330-1 to the user, or if the object is not displayed, the information processing apparatus 10 returns to step 505 (S505). The above is step 509 (S509). Note that the user may move the information processing apparatus 10 so that a partial area of the virtual space in which the object is arranged is displayed on the display unit 105 .

続いて、ユーザは情報処理装置10を動かすことによって、オブジェクトの問い合わせに対する入力を行う。例えば、表示制御部201によって、電気を点灯するか否かの問い合わせ出力が表示部105に表示される場合、ユーザによる情報処理装置10の動きを検出部113(図2(A))が検出する。以上がステップ513(S513)である。 Subsequently, the user inputs the object inquiry by moving the information processing apparatus 10 . For example, when the display control unit 201 displays an inquiry output as to whether or not to turn on the light on the display unit 105, the detection unit 113 (FIG. 2A) detects the movement of the information processing apparatus 10 by the user. . The above is step 513 (S513).

情報処理装置10の動きが、第1の動きの場合、動作判定部207から実行部209に入力検出信号が出力されると、実行部209によって第1の所定の処理が実行される(ステップ521(S521))。また、情報処理装置10の動きが、第2の動きの場合、動作判定部207から実行部209に入力未検出信号が出力されると、実行部209によって第2の所定の処理が実行される(ステップ531(S531))。 When the motion of the information processing device 10 is the first motion, when the input detection signal is output from the motion determination unit 207 to the execution unit 209, the execution unit 209 executes the first predetermined process (step 521). (S521)). Further, when the motion of the information processing apparatus 10 is the second motion, when an input non-detection signal is output from the motion determination unit 207 to the execution unit 209, the execution unit 209 executes the second predetermined process. (Step 531 (S531)).

例えば、オブジェクト300がユーザに対して、電気を点灯するか否かの問い合わせを出力している場合、ユーザが情報処理装置10を図5(A)に示されるように上下に動かすことで、「はい」(第1の動き)を入力することができる。動作判定部207は、電気を点灯するか否かの問い合わせに対して、「はい」が入力されたと判定し、電気を点灯する信号を実行部209に出力する。さらに、実行部209が、実行制御信号をサーバ20に出力することによって、部屋の電気が点灯される。また、オブジェクト300がユーザに対して、電気を点灯するか否かの問い合わせを出力している場合、ユーザが情報処理装置10を図5(B)に示されるように左右に動かすことで、「いいえ」(第2の動き)を入力することができる。動作判定部207は、電気を点灯するか否かの問い合わせに対して、「いいえ」が入力されたと判定し、電気を点灯しない信号を実行部209に出力する。さらに、実行部209は、実行制御信号をサーバ20に出力することによって、部屋の電気は点灯されない。以上がステップ521(S521)及びステップ531(S531)である。そして、情報処理装置10の動作は完了する。 For example, when the object 300 outputs an inquiry to the user as to whether or not to turn on the light, the user moves the information processing device 10 up and down as shown in FIG. Yes" (first move) can be entered. The operation determination unit 207 determines that “yes” has been input in response to the inquiry as to whether or not to turn on the lights, and outputs a signal to turn on the lights to the execution unit 209 . Further, the execution unit 209 outputs an execution control signal to the server 20 to turn on the lights in the room. Further, when the object 300 outputs an inquiry to the user as to whether or not to turn on the light, the user moves the information processing device 10 left and right as shown in FIG. No" (second move) can be entered. The operation determination unit 207 determines that “No” is input in response to the inquiry as to whether or not to turn on the lights, and outputs a signal not to turn on the lights to the execution unit 209 . Furthermore, the execution unit 209 outputs an execution control signal to the server 20 so that the lights in the room are not turned on. The above is step 521 (S521) and step 531 (S531). Then, the operation of the information processing apparatus 10 is completed.

情報処理装置10は動作が完了した場合、ステップ507(S507)に示される待機モードに戻り、ステップ509(S509)を実行してもよい。 When the operation is completed, the information processing apparatus 10 may return to the standby mode shown in step 507 (S507) and execute step 509 (S509).

本発明の一実施形態に係る問い合わせに対する入力は、一例として、「はい」及び「いいえ」の二択の入力を示したが、この例に限定されない。例えば、「はい」、「いいえ」及び「迷っている」の三択としてもよいし、四択以上の入力であってもよい。本発明の一実施形態に係る問い合わせに対する入力は、選択肢を増やすことによって、複雑な所定の処理に対応することも可能となる。また、本発明の一実施形態に係る問い合わせに対する入力は、「はい」及び「いいえ」を、図5(A)及び図5(B)に対応させる例を示したが、この例に限定されない。例えば、「はい」及び「いいえ」を、図5(B)及び5(A)に対応させてもよい。 Although the input for the inquiry according to the embodiment of the present invention is shown as an example of inputting two options of "yes" and "no", it is not limited to this example. For example, the input may be three choices of "yes", "no" and "not sure", or four or more choices. Inputs for inquiries according to an embodiment of the present invention can also correspond to complicated predetermined processing by increasing options. In addition, although the input to the inquiry according to the embodiment of the present invention is illustrated as an example in which "yes" and "no" correspond to FIGS. 5(A) and 5(B), the present invention is not limited to this example. For example, "yes" and "no" may correspond to FIGS. 5(B) and 5(A).

本発明の一実施形態に係る所定の処理の一例として、オブジェクトの電気を点灯するか否かの問い合わせに対する、ユーザの情報処理装置の動きによる応答が行われる例を示した。所定の処理は、この例に限定されない。例えば、オブジェクトの動きに関係する問い合わせに対して、ユーザの情報処理装置の動きによる応答が行われてもよい。 As an example of the predetermined processing according to one embodiment of the present invention, an example in which a response to an inquiry as to whether or not to turn on the electricity of an object is made by the movement of the information processing device of the user has been shown. Predetermined processing is not limited to this example. For example, a query related to movement of an object may be responded to by movement of the user's information processing device.

以上説明されたように、本発明の一実施形態に係る情報処理装置及びプログラムを用いることによって、ユーザは、仮想空間に配置されたオブジェクトの問い合わせに対して、情報処理装置の簡単な動きによって応答を入力することができる。 As described above, by using the information processing apparatus and program according to one embodiment of the present invention, the user can respond to an inquiry about an object placed in a virtual space by simply moving the information processing apparatus. can be entered.

また、本発明の一実施形態に係る情報処理装置及びプログラムを用いることによって、ユーザは情報処理装置の動きによって応答を入力することができるため、タッチ操作の場合に生じる操作の断絶、及び、指運び煩雑さが改善される。
2.第2実施形態
Further, by using the information processing device and the program according to one embodiment of the present invention, the user can input a response by moving the information processing device. Reduces transportation complexity.
2. Second embodiment

図8を参照し、仮想空間に複数のオブジェクトが配置される場合の処理方法について説明する。 A processing method when a plurality of objects are arranged in the virtual space will be described with reference to FIG.

図8は、本発明の一実施形態に係る複数のオブジェクトが配置された仮想空間を示す図である。図1乃至図7と同一、又は類似する構成については説明を省略することがある。 FIG. 8 is a diagram showing a virtual space in which a plurality of objects are arranged according to one embodiment of the present invention. Descriptions of configurations that are the same as or similar to those in FIGS. 1 to 7 may be omitted.

図8は、図3に示された図に対して、複数のオブジェクト(オブジェクト300A、オブジェクト300B、オブジェクト300C)が仮想空間305に配置されている点が異なる。また、図8は、オブジェクトに問い合わせモードが設定される例を示している。 FIG. 8 differs from the diagram shown in FIG. 3 in that a plurality of objects (object 300A, object 300B, and object 300C) are arranged in virtual space 305. FIG. Also, FIG. 8 shows an example in which an inquiry mode is set for an object.

図8に示されるように、仮想空間305のうちの一部領域310Aには、オブジェクト300A及び問い合わせ出力330Aが配置されている。仮想空間305のうちの一部領域310Bには、オブジェクト300B及び問い合わせ出力330Bが配置されている。仮想空間305のうちの一部領域310Cには、オブジェクト300Cが配置されている。仮想空間305のうちの一部領域310Dには、オブジェクトが配置されていない。 As shown in FIG. 8, an object 300A and a query output 330A are arranged in a partial area 310A of the virtual space 305 . Object 300B and query output 330B are arranged in partial area 310B of virtual space 305 . An object 300C is arranged in a partial area 310C of the virtual space 305 . No object is placed in a partial area 310D of the virtual space 305 .

複数のオブジェクト(オブジェクト300A、オブジェクト300B)が仮想空間305に配置されている場合においても、図6及び図7のフローチャートを用いることができる。 Even when a plurality of objects (object 300A, object 300B) are arranged in the virtual space 305, the flowcharts of FIGS. 6 and 7 can be used.

例えば、本発明の仮想空間に複数のオブジェクトが配置される場合の処理方法について、図6及び図7のフローチャートに基づいて、ステップ501(S501)からステップ507が実行された後、ステップ509(S509)が実行される。 For example, regarding the processing method when a plurality of objects are arranged in the virtual space of the present invention, after steps 501 (S501) to 507 are executed based on the flowcharts of FIGS. ) is executed.

オブジェクト300Aが配置される仮想空間305のうちの一部領域310A又はオブジェクト300Bが配置される仮想空間305のうちの一部領域310Bが報処理端末の表示部105に表示される場合(はい)、ステップ513(S531)において、ユーザは情報処理装置10によって問い合わせに対する入力を行うことができる。一方、オブジェクト300Cが配置される仮想空間305のうちの一部領域310Cが表示部105に表示される場合、オブジェクト300Cは問い合わせモードであるが問い合わせを出力していないため(いいえ)、情報処理装置10は、ステップ505(S505)に戻る。また、オブジェクトが配置されていない仮想空間305のうちの一部領域310Cが表示部105に表示される場合(いいえ)、ユーザは問い合わせに対する入力を行うことなく、情報処理装置10は、ステップ505(S505)に戻る。 If the partial area 310A of the virtual space 305 in which the object 300A is arranged or the partial area 310B of the virtual space 305 in which the object 300B is arranged is displayed on the display unit 105 of the information processing terminal (Yes), At step 513 ( S<b>531 ), the user can use the information processing device 10 to input an inquiry. On the other hand, when a partial area 310C of the virtual space 305 in which the object 300C is arranged is displayed on the display unit 105, the object 300C is in the inquiry mode but does not output an inquiry (No), so the information processing apparatus 10 returns to step 505 (S505). Further, when the partial area 310C of the virtual space 305 in which no object is arranged is displayed on the display unit 105 (No), the information processing apparatus 10 performs step 505 ( S505).

問い合わせモードのオブジェクトは3体であるが、問い合わせを出力し、かつ、表示部105に表示さるオブジェクトに対して、ユーザは情報処理装置10によって問い合わせに対する入力を行うことができる。 Although there are three objects in the inquiry mode, the user can use the information processing apparatus 10 to input the inquiry to the object displayed on the display unit 105 by outputting the inquiry.

例えば、仮想空間305のうちの一部領域310A及び仮想空間305のうちの一部領域310Bの両方が表示部105に表示される場合、オブジェクト300A又はオブジェクト300Bの一方に対して、ユーザは情報処理装置10によって問い合わせに対する入力を行ったあと、オブジェクト300A又はオブジェクト300Bのもう一方に対して、ユーザは情報処理装置10によって問い合わせに対する入力を行う。また、例えば、情報処理装置10は、問い合わせモードの際に、複数のオブジェクトに対して同時に問い合わせに対する入力を行うことが可能な機能を有していてもよい。 For example, when both a partial area 310A of the virtual space 305 and a partial area 310B of the virtual space 305 are displayed on the display unit 105, the user performs information processing on either the object 300A or the object 300B. After inputting an inquiry using the device 10, the user inputs an inquiry using the information processing device 10 to the other of the object 300A or the object 300B. Further, for example, the information processing apparatus 10 may have a function capable of simultaneously inputting inquiries to a plurality of objects in the inquiry mode.

例えば、複数のオブジェクトの各々は、異なるユーザによって操作されてもよいし、同一のユーザによって操作されてもよい。表示されるオブジェクトの数は、図3及び図8に示される数に限定されない。オブジェクトの操作、表示されるオブジェクトの数等は、ユーザが適宜決定すればよい。 For example, each of a plurality of objects may be operated by different users or may be operated by the same user. The number of displayed objects is not limited to the numbers shown in FIGS. The operation of objects, the number of objects to be displayed, and the like may be appropriately determined by the user.

以上説明されたように、本発明の一実施形態に係る情報処理装置及びプログラムを用いることによって、ユーザは、複数のオブジェクトの問い合わせに対しても、情報処理装置の簡単な動きによって応答を入力することができる。
3.第3実施形態
As described above, by using the information processing apparatus and program according to one embodiment of the present invention, the user can input responses to inquiries about a plurality of objects by simply moving the information processing apparatus. be able to.
3. Third embodiment

図9及び図10を参照し、本発明の一実施形態に係る処理方法について説明する。本発明の一実施形態に係るプログラムは、情報処理装置10に含まれる撮像部107によって撮像された画像と、仮想空間に配置されたオブジェクトとを重ねて表示し、オブジェクトの問い合わせに対して、情報処理装置10の動きで応答することを含む。 A processing method according to an embodiment of the present invention will be described with reference to FIGS. 9 and 10. FIG. A program according to an embodiment of the present invention superimposes an image captured by the imaging unit 107 included in the information processing apparatus 10 and an object placed in a virtual space, and responds to an inquiry about the object by displaying information. Including responding with movement of the processor 10 .

図9は、本発明の一実施形態に係る処理方法を示すフローチャートである。図10(A)は本発明の一実施形態に係るオブジェクトが配置された仮想空間を示す平面図である。図10(B)は本発明の一実施形態に係る撮像された画像を示す平面図である。図10(C)は本発明の一実施形態に係る仮想空間と撮像された画像とを重ねた図を示す平面図である。図1乃至図8と同一、又は類似する構成については説明を省略することがある。 FIG. 9 is a flowchart illustrating a processing method according to one embodiment of the invention. FIG. 10A is a plan view showing a virtual space in which objects are arranged according to one embodiment of the present invention. FIG. 10B is a plan view showing a captured image according to one embodiment of the present invention. FIG. 10C is a plan view showing a superimposed view of the virtual space and the captured image according to one embodiment of the present invention. Descriptions of configurations that are the same as or similar to those in FIGS. 1 to 8 may be omitted.

ステップ501(S501)は、図6に示されたフローチャートを用いて既に説明されているため、ここでの説明は省略される。図6に示されたフローチャートを用いて説明されたことと同様に、すでに、ステップ505(S505)が実行されている場合、ステップ501(S501)及びステップ503(S503)は省略されてもよい。 Since step 501 (S501) has already been explained using the flowchart shown in FIG. 6, the explanation here is omitted. As described using the flowchart shown in FIG. 6, if step 505 (S505) has already been performed, step 501 (S501) and step 503 (S503) may be omitted.

ステップ504(S504)において、例えば、ユーザは、サーバ20から、複数の動作モードのいずれかを設定されたオブジェクト300及び仮想空間305の画像データ、及び、撮像された画像410の画像データを読み出す。読み出したオブジェクト300及び仮想空間305の画像データ、及び、撮像された画像420の画像データを、ネットワーク40を経由して、表示制御部201(図2(B))に入力する。続いて、表示制御部201は、オブジェクト300が配置された仮想空間305のうちの一部領域310の画像データと、撮像された画像410の画像データとを重ねた合成画像500の合成画像データを生成する。表示制御部201は、オブジェクト300が配置された仮想空間305のうちの一部領域310の画像と撮像された画像410を重ねた合成画像500を、表示部105に表示する。以上がステップ504(S504)である。ここで、ステップ503(S503)と同様に、オブジェクトは、ユーザ又はサーバ20からの指示(入力)を待っている状態(待機モード)である。 At step 504 (S504), for example, the user reads the image data of the object 300 and the virtual space 305 set to one of a plurality of operation modes, and the image data of the captured image 410 from the server 20. FIG. The read image data of the object 300 and the virtual space 305 and the image data of the imaged image 420 are input to the display control unit 201 (FIG. 2B) via the network 40 . Subsequently, the display control unit 201 generates synthesized image data of a synthesized image 500 in which the image data of the partial area 310 in the virtual space 305 in which the object 300 is arranged and the image data of the captured image 410 are superimposed. Generate. The display control unit 201 displays on the display unit 105 a composite image 500 in which the image of the partial area 310 of the virtual space 305 in which the object 300 is arranged and the captured image 410 are superimposed. The above is step 504 (S504). Here, as in step 503 (S503), the object is in a state of waiting for an instruction (input) from the user or server 20 (standby mode).

ステップ505(S505)以後のステップは、図6及び図7に示されたフローチャートを用いて既に説明されているため、ここでの説明は省略される。 Since the steps after step 505 (S505) have already been described using the flow charts shown in FIGS. 6 and 7, description thereof will be omitted here.

以上説明されたように、本発明の一実施形態に係る情報処理装置及びプログラムを用いることによって、オブジェクトが配置された仮想空間のうちの一部領域の画像と撮像された画像を重ねて表示される場合においても、ユーザは、オブジェクトの問い合わせに対して、情報処理装置の簡単な動きによって応答を入力することができる。すなわち、情報処理装置の簡単な動きは、オブジェクトが配置された仮想空間のうちの一部領域の画像と撮像された画像とを合成した画像から決定される。したがって、本発明の一実施形態に係る情報処理装置及びプログラムを用いることによって、撮像された画像を含むオブジェクトの問い合わせに対しても、情報処理装置の簡単な動きによって応答を入力することができるため、タッチ操作の場合に生じる操作の断絶、及び、指運び煩雑さが改善される。 As described above, by using the information processing apparatus and the program according to the embodiment of the present invention, an image of a partial area of the virtual space in which the object is arranged and the captured image are displayed in an overlapping manner. Even in such a case, the user can input a response to an inquiry about an object by simply moving the information processing device. That is, a simple motion of the information processing device is determined from an image obtained by synthesizing an image of a partial area of the virtual space in which the object is arranged and a captured image. Therefore, by using the information processing device and the program according to the embodiment of the present invention, it is possible to input a response to an inquiry about an object including a captured image by a simple movement of the information processing device. , the discontinuity of the operation that occurs in the case of the touch operation, and the complexity of moving the finger are improved.

本発明の実施形態として上述した各実施形態において実行された処理を全体として、所定の処理であればよい。 All the processes executed in the above-described embodiments of the present invention may be predetermined processes.

本発明の実施形態として上述した各実施形態は、相互に矛盾しない限りにおいて、適宜組み合わせて実施することができる。 Each of the embodiments described above as embodiments of the present invention can be implemented in combination as appropriate as long as they do not contradict each other.

上述した各実施形態の態様によりもたらされる作用効果とは異なる別の作用効果であっても、本明細書の記載から明らかなもの、又は、当業者において容易に予測し得るものについては、当然に本発明によりもたらされるものと解される。 Even if there are other effects different from the effects brought about by the aspects of each embodiment described above, those that are obvious from the description of this specification or those that can be easily predicted by those skilled in the art are of course It is understood that it is provided by the present invention.

1:情報処理システム、10:情報処理装置、20:サーバ、40:ネットワーク、100:ハードウェア構成、101:通信部、103:操作部、105:表示部、105A:表示面、107:撮像部、109:制御部、111:記憶部、113:検出部、200:機能構成、201:表示制御部、203:設定部、205:出力部、207:動作判定部、209:実行部、300:オブジェクト、300A:オブジェクト、300B:オブジェクト、300C:オブジェクト、305:仮想空間、310:一部領域、310A:一部領域、310B:一部領域、310C:一部領域、310D:一部領域、320B:一部領域、330:出力、330-1:出力、330-2:出力、330A:出力、330B:出力、410:画像、420:画像、500:合成画像 1: information processing system, 10: information processing apparatus, 20: server, 40: network, 100: hardware configuration, 101: communication unit, 103: operation unit, 105: display unit, 105A: display surface, 107: imaging unit , 109: control unit, 111: storage unit, 113: detection unit, 200: functional configuration, 201: display control unit, 203: setting unit, 205: output unit, 207: operation determination unit, 209: execution unit, 300: Object 300A: Object 300B: Object 300C: Object 305: Virtual space 310: Partial area 310A: Partial area 310B: Partial area 310C: Partial area 310D: Partial area 320B : partial area, 330: output, 330-1: output, 330-2: output, 330A: output, 330B: output, 410: image, 420: image, 500: composite image

Claims (9)

部屋の情報を検出する第1機器からの信号の受付けを待機して待つモードのオブジェクトが配置された仮想空間の少なくとも一部を端末に含まれる表示部に表示することと、
前記信号の受付けに応じて、前記待機して待つモードのオブジェクトを前記部屋に設置された第2機器に関する所定の処理に関する問い合わせを出力する問い合せモードに遷移させることと、
前記表示部に前記オブジェクトの少なくとも一部と前記所定の処理に関する問い合せが表示されているとき、前記端末の動きに基づいて前記問い合わせに対する入力を受け付けることと、
前記問い合わせに対する入力に基づいて前記第2機器に前記所定の処理を実行することと、をコンピュータに実行させるためのプログラム。
displaying, on a display unit included in the terminal, at least part of a virtual space in which an object in a waiting mode for waiting for reception of a signal from a first device that detects room information is placed;
In response to the reception of the signal, transitioning the object in the waiting mode to an inquiry mode for outputting an inquiry regarding predetermined processing regarding the second device installed in the room;
when at least part of the object and an inquiry about the predetermined process are displayed on the display unit, receiving an input to the inquiry based on the movement of the terminal;
A program for causing a computer to execute the predetermined processing in the second device based on the input in response to the inquiry.
前記オブジェクトに複数の動作モードのいずれかが設定されることと、
前記オブジェクトに所定のモードが設定され、前記オブジェクトから前記問い合わせが出力されるとき、前記所定の処理が実行されることと、をコンピュータに実行させるための請求項1に記載のプログラム。
setting one of a plurality of operation modes for the object;
2. The program according to claim 1, for causing a computer to execute the steps of: setting a predetermined mode to said object, and executing said predetermined process when said inquiry is output from said object.
前記仮想空間には、複数の前記オブジェクトが配置されることと、
複数の前記オブジェクトの各々に対応して複数の動作モードのいずれかが設定されることと、
前記端末の動きに基づいて前記問い合わせに対する入力を受け付けることと、
前記問い合わせに対する入力に基づいて前記所定の処理を実行することと、をコンピュータに実行させるための請求項1に記載のプログラム。
placing a plurality of the objects in the virtual space;
setting one of a plurality of operation modes corresponding to each of the plurality of objects;
accepting input for the query based on movement of the terminal;
2. The program according to claim 1, for causing a computer to execute said predetermined processing based on the input to said inquiry.
前記端末の動きは、前記オブジェクトが配置された仮想空間の少なくとも一部と、撮像部で撮像された画像とを合成した画像から決定されること、をコンピュータに実行させるための請求項1から請求項3のいずれか一項に記載のプログラム。 13. The method for causing a computer to determine the motion of the terminal from an image obtained by synthesizing at least part of a virtual space in which the object is arranged and an image captured by an imaging unit. Item 4. The program according to any one of Item 3. 前記端末の動きに基づいて、前記所定の処理を実行させる場合、前記撮像部で撮像された画像は固定されること、をコンピュータに実行させるための請求項4に記載のプログラム。 5. The program according to claim 4, for causing a computer to execute that the image captured by said imaging unit is fixed when said predetermined processing is to be performed based on the movement of said terminal. 前記所定の処理は、前記端末の動きを示すパラメータの変化量が所定の範囲にある場合、前記端末の動きに基づいて実行されること、をコンピュータに実行させるための請求項1から請求項5のいずれか一項に記載のプログラム。 Claims 1 to 5 for causing a computer to execute the predetermined processing based on the movement of the terminal when the amount of change in the parameter indicating the movement of the terminal is within a predetermined range. A program according to any one of clauses 1 to 1. 部屋の情報を検出する第1機器からの信号の受付けを待機して待つモードのオブジェクトが配置された仮想空間の少なくとも一部を端末に表示させる表示制御部と、
前記信号の受付けに応じて、前記待機して待つモードのオブジェクトを前記部屋に設置された第2機器に関する所定の処理に関する問い合わせを出力する問い合せモードに遷移させる問い合わせ出力部と、
前記端末に表示されている前記オブジェクトの少なくとも一部と前記所定の処理に関する問い合せが表示されているとき、前記端末の動きに基づいて前記問い合わせに対する入力を受け付け、前記問い合わせに対する入力に基づいて前記第2機器に前記所定の処理を実行させる実行部と、を備える情報処理装置。
a display control unit that causes a terminal to display at least part of a virtual space in which an object in a waiting mode for receiving a signal from a first device that detects room information is placed ;
an inquiry output unit that, in response to the reception of the signal, transitions the object in the waiting mode to an inquiry mode for outputting an inquiry regarding predetermined processing relating to the second device installed in the room;
when at least part of the object displayed on the terminal and an inquiry about the predetermined process are displayed, an input to the inquiry is received based on the movement of the terminal ; 2. An information processing apparatus comprising : an execution unit that causes a device to execute the predetermined process.
前記部屋の情報は人感センサに基づく情報である、請求項1に記載のコンピュータに実行させるためのプログラム。2. The program to be executed by a computer according to claim 1, wherein said room information is information based on a human sensor. 前記端末の動きは、所定の方向に前記端末を所定量以上動かす動きである、請求項1に記載のコンピュータに実行させるためのプログラム。2. The program to be executed by a computer according to claim 1, wherein said movement of said terminal is movement of moving said terminal in a predetermined direction by a predetermined amount or more.
JP2019059435A 2019-03-26 2019-03-26 Information processing device and program Active JP7260763B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019059435A JP7260763B2 (en) 2019-03-26 2019-03-26 Information processing device and program
JP2023051891A JP7469723B2 (en) 2019-03-26 2023-03-28 Information processing device and program
JP2024049936A JP7656239B2 (en) 2019-03-26 2024-03-26 Information processing device and program
JP2025038557A JP2025078863A (en) 2019-03-26 2025-03-11 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019059435A JP7260763B2 (en) 2019-03-26 2019-03-26 Information processing device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023051891A Division JP7469723B2 (en) 2019-03-26 2023-03-28 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2020160796A JP2020160796A (en) 2020-10-01
JP7260763B2 true JP7260763B2 (en) 2023-04-19

Family

ID=72643483

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019059435A Active JP7260763B2 (en) 2019-03-26 2019-03-26 Information processing device and program
JP2023051891A Active JP7469723B2 (en) 2019-03-26 2023-03-28 Information processing device and program
JP2024049936A Active JP7656239B2 (en) 2019-03-26 2024-03-26 Information processing device and program
JP2025038557A Pending JP2025078863A (en) 2019-03-26 2025-03-11 Information processing device and program

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2023051891A Active JP7469723B2 (en) 2019-03-26 2023-03-28 Information processing device and program
JP2024049936A Active JP7656239B2 (en) 2019-03-26 2024-03-26 Information processing device and program
JP2025038557A Pending JP2025078863A (en) 2019-03-26 2025-03-11 Information processing device and program

Country Status (1)

Country Link
JP (4) JP7260763B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095232A (en) 2013-11-14 2015-05-18 Jfeシステムズ株式会社 Gesture detection device, gesture detection program, gesture recognition device, and gesture recognition program
US20170069122A1 (en) 2014-05-16 2017-03-09 Naver Corporation Method, system and recording medium for providing augmented reality service and file distribution system
JP2018085714A (en) 2016-11-14 2018-05-31 シャープ株式会社 Mobile communication terminal and electronic apparatus control method using electronic apparatus and mobile communication terminal
JP2018124515A (en) 2017-02-03 2018-08-09 Kddi株式会社 Computer program, terminal, and method
JP2018136944A (en) 2018-02-22 2018-08-30 株式会社バンダイナムコエンターテインメント Simulation system and program
JP2018140176A (en) 2018-03-08 2018-09-13 株式会社バンダイナムコエンターテインメント Program and game system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104081307B (en) 2012-02-10 2018-02-23 索尼公司 Image processing apparatus, image processing method and program
JP2014149712A (en) 2013-02-01 2014-08-21 Sony Corp Information processing device, terminal device, information processing method, and program
JP6187050B2 (en) 2013-09-03 2017-08-30 ブラザー工業株式会社 Image formation instruction program and portable terminal
JP6174443B2 (en) 2013-09-12 2017-08-02 俊久 齋藤 Agent who lives virtually
JP5887542B2 (en) 2014-10-24 2016-03-16 パナソニックIpマネジメント株式会社 COMMUNICATION SYSTEM, TELEPHONE DEVICE, AND COMMUNICATION METHOD
JP6459465B2 (en) 2014-12-12 2019-01-30 パナソニックIpマネジメント株式会社 Equipment control system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095232A (en) 2013-11-14 2015-05-18 Jfeシステムズ株式会社 Gesture detection device, gesture detection program, gesture recognition device, and gesture recognition program
US20170069122A1 (en) 2014-05-16 2017-03-09 Naver Corporation Method, system and recording medium for providing augmented reality service and file distribution system
JP2018085714A (en) 2016-11-14 2018-05-31 シャープ株式会社 Mobile communication terminal and electronic apparatus control method using electronic apparatus and mobile communication terminal
JP2018124515A (en) 2017-02-03 2018-08-09 Kddi株式会社 Computer program, terminal, and method
JP2018136944A (en) 2018-02-22 2018-08-30 株式会社バンダイナムコエンターテインメント Simulation system and program
JP2018140176A (en) 2018-03-08 2018-09-13 株式会社バンダイナムコエンターテインメント Program and game system

Also Published As

Publication number Publication date
JP7656239B2 (en) 2025-04-03
JP2025078863A (en) 2025-05-20
JP7469723B2 (en) 2024-04-17
JP2024069700A (en) 2024-05-21
JP2020160796A (en) 2020-10-01
JP2023093475A (en) 2023-07-04

Similar Documents

Publication Publication Date Title
JP7186857B2 (en) Service processing method and related equipment
KR102491443B1 (en) Display adaptation method and apparatus for application, device, and storage medium
JP7305249B2 (en) Method for determining motion information of image feature points, task execution method and device
US12315186B2 (en) Pose determining method and apparatus, electronic device, and storage medium
US9013416B2 (en) Multi-display type device interactions
CN112181572B (en) Interactive special effect display method, device, terminal and storage medium
US9591295B2 (en) Approaches for simulating three-dimensional views
US9123272B1 (en) Realistic image lighting and shading
US20180046363A1 (en) Digital Content View Control
CN109833624B (en) Display method and device for marching line information on virtual map
US9389703B1 (en) Virtual screen bezel
US10506221B2 (en) Field of view rendering control of digital content
CN113546419B (en) Game map display method, game map display device, terminal and storage medium
US11294452B2 (en) Electronic device and method for providing content based on the motion of the user
JP7483056B2 (en) Method, device, equipment, and computer program for determining selection target
WO2023064719A1 (en) User interactions with remote devices
US9449427B1 (en) Intensity modeling for rendering realistic images
US20140111551A1 (en) Information-processing device, storage medium, information-processing method, and information-processing system
JP7260763B2 (en) Information processing device and program
KR20210094214A (en) Electronic device and method for controlling robot
US9160923B1 (en) Method and system for dynamic information display using optical data
CN116943180A (en) Control interaction method and related device
CN116483234A (en) Page display method, device, equipment and storage medium
CN111596925A (en) Method, apparatus, computer device and medium for automatically generating code
CN113094282B (en) Program block running method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7260763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150