[go: up one dir, main page]

JP6528566B2 - Display control method, information processing apparatus and display control program - Google Patents

Display control method, information processing apparatus and display control program Download PDF

Info

Publication number
JP6528566B2
JP6528566B2 JP2015133641A JP2015133641A JP6528566B2 JP 6528566 B2 JP6528566 B2 JP 6528566B2 JP 2015133641 A JP2015133641 A JP 2015133641A JP 2015133641 A JP2015133641 A JP 2015133641A JP 6528566 B2 JP6528566 B2 JP 6528566B2
Authority
JP
Japan
Prior art keywords
content
object data
order information
display
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015133641A
Other languages
Japanese (ja)
Other versions
JP2017016464A (en
Inventor
奨 古賀
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015133641A priority Critical patent/JP6528566B2/en
Publication of JP2017016464A publication Critical patent/JP2017016464A/en
Application granted granted Critical
Publication of JP6528566B2 publication Critical patent/JP6528566B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示制御方法、情報処理装置および表示制御プログラムに関する。   The present invention relates to a display control method, an information processing apparatus, and a display control program.

AR(Augmented Reality、拡張現実)技術を用い、移動端末のカメラにより取得された現実空間の画像から所定のマーカを検出し、そのマーカに対応付けられた仮想オブジェクトを現実空間の画像に重畳してディスプレイに表示する技術が知られている(例えば、特許文献1等を参照。)。   Using AR (Augmented Reality) technology, a predetermined marker is detected from the image of the real space acquired by the camera of the mobile terminal, and the virtual object associated with the marker is superimposed on the image of the real space Techniques for displaying on a display are known (see, for example, Patent Document 1).

このような技術の用途の一つとして、プラントやビル等の設備の点検作業等において、設備の所定箇所に予め貼り付けられたARマーカ(基準物)に基づき、所定の手順等が定められていることを示すARコンテンツのオブジェクトをカメラ画像に重畳して表示し、作業を支援することが行われている。作業者は、オブジェクトの示す手順等の詳細を知りたい場合、オブジェクトを選択して確定する操作を行うことで、作業時の注意事項や設備の詳細情報等が表示される。   As one of the applications of such technology, a predetermined procedure etc. is determined based on an AR marker (reference material) attached in advance to a predetermined location of equipment in inspection work of equipment such as a plant or a building. An object of AR content indicating that the image is displayed is superimposed on a camera image and displayed to support work. When the operator wants to know the details such as the procedure indicated by the object, the user can select and confirm the object to display the notes at the time of the operation and the detailed information of the equipment.

特開2012−103789号公報JP 2012-103789 A

上述したオブジェクトの選択は、スマートフォンやタブレット等におけるタッチパネル操作においては何ら問題なく行うことができる。図1はARコンテンツをタップ操作で選択する例を示す図であるが、「手順1」のオブジェクトの上を指等でタップすることで、タップした画面上の座標位置と、オブジェクトの四隅の座標位置により規定されるオブジェクトの座標領域とが比較され、オブジェクトの座標領域にタップ位置が含まれている場合はそのオブジェクトが選択される。   The selection of the object described above can be performed without any problem in touch panel operation of a smartphone, a tablet or the like. FIG. 1 is a view showing an example of selecting AR content by tap operation, but tapping on the object of “Procedure 1” with a finger or the like allows coordinate positions on the screen tapped and coordinates of four corners of the object. The coordinate area of the object defined by the position is compared, and if the coordinate area of the object includes a tap position, the object is selected.

しかし、現場での作業においては、作業効率の観点からHMD(Head Mounted Display)等を使用することも多く、タッチパネルを指等でタップするといった操作を行うことができない場合が多い。このような手を使えない環境では、音声コマンドにより端末に対して操作を行うものとされる。その場合、端末は、表示用のARコンテンツとして予め用意された全てのオブジェクトのリストに基づき、例えば「つぎ」という音声コマンドに従って次のオブジェクトにフォーカスを遷移していく。そのため、現在のフォーカスのあるオブジェクトから遷移先が近い場合は問題ないが、遷移先が遠い場合は、所望のオブジェクトにフォーカスが遷移するまでに多くの音声コマンドを発しなければならず、操作性が悪かった。   However, in the field work, an HMD (Head Mounted Display) or the like is often used from the viewpoint of work efficiency, and in many cases, it is not possible to perform an operation of tapping the touch panel with a finger or the like. In an environment where such a hand can not be used, an operation is performed on the terminal by a voice command. In that case, the terminal shifts the focus to the next object in accordance with, for example, a voice command "next" based on a list of all the objects prepared in advance as AR content for display. Therefore, there is no problem if the transition destination is close to the object with the current focus, but if the transition destination is far, many voice commands must be issued before the focus transitions to the desired object, and operability is improved. It was bad.

図2はARコンテンツを音声コマンドで選択する例を示す図である。図2(a)は「手順1」にフォーカスがあり、「手順3」にフォーカスを遷移したい場合、「手順1」から「手順2」に音声コマンドでフォーカスを遷移し、更に「手順2」から「手順3」に音声コマンドでフォーカスを遷移することで済む。図2(b)は「手順1」にフォーカスがあり、「手順100」にフォーカスを遷移したい場合であるが、「手順1」から「手順100」にフォーカスを遷移するために計99回の音声コマンドを発しなければならず、非常に煩雑である。また、画面に表示されていないARコンテンツにフォーカスが遷移してしまうこともあり、ユーザビリティが低下してしまう問題もある。   FIG. 2 is a diagram showing an example of selecting AR content by a voice command. In FIG. 2A, when there is a focus in “Procedure 1” and you want to shift the focus to “Procedure 3”, the focus is transferred from “Procedure 1” to “Procedure 2” with a voice command, and further “Procedure 2” It suffices to shift the focus by the voice command in "Procedure 3". FIG. 2 (b) shows the case where the focus is on "Procedure 1" and it is desired to shift the focus to "Procedure 100", but a total of 99 voices are generated to transit the focus from "Procedure 1" to "Procedure 100". It has to issue a command, which is very complicated. In addition, the focus may shift to AR content not displayed on the screen, and there is also a problem that the usability is lowered.

そこで、一側面では、表示中のオブジェクトの選択性を向上することのできる制御技術の提供を目的とする。   Therefore, an object of the present invention is to provide a control technique capable of improving the selectivity of an object being displayed.

一つの態様では、撮像装置により撮影された画像から認識された各基準物に対する各AR(Augmented Reality)コンテンツを前記画像に重畳して表示し、順序情報が割り当てられたARコンテンツ群のうち、表示部に表示する対象として選択された複数のARコンテンツを特定し、特定した前記複数のARコンテンツにそれぞれ割り当てられている第1順序情報に基づいて、特定した前記複数のARコンテンツにそれぞれ第2順序情報を付与し、付与した前記第2順序情報に応じて、特定した前記複数のARコンテンツの選択順を制御する、処理をコンピュータが実行する。
In one aspect, each AR (Augmented Reality) content for each reference object recognized from the image captured by the imaging device is displayed superimposed on the image, and display is performed among the AR content groups to which order information is assigned. A plurality of AR contents selected as targets to be displayed on the unit, and the second order of the plurality of AR contents specified based on the first order information respectively assigned to the specified AR contents The computer executes processing for giving information and controlling the selection order of the plurality of AR contents specified according to the given second order information.

表示中のオブジェクトの選択性を向上することができる。   The selectivity of the object being displayed can be improved.

ARコンテンツをタップ操作で選択する例を示す図である。It is a figure which shows the example which selects AR content by tap operation. ARコンテンツを音声コマンドで選択する例を示す図である。It is a figure which shows the example which selects AR content by an audio | voice command. 一実施形態にかかるシステムの構成例を示す図である。It is a figure showing an example of composition of a system concerning one embodiment. 作業者端末のソフトウェア構成例を示す図である。It is a figure which shows the software structural example of a worker terminal. サーバのソフトウェア構成例を示す図である。It is a figure which shows the software structural example of a server. 作業者端末のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a worker terminal. サーバの構成例を示す図である。It is a figure showing an example of composition of a server. 作業者端末の保持するデータ例を示す図である。It is a figure which shows the example of data which a worker terminal hold | maintains. サーバの保持するデータ例を示す図である。It is a figure which shows the example of data which a server hold | maintains. 作業者端末の処理例を示すフローチャートである。It is a flowchart which shows the process example of a worker terminal. ARマーカの認識の例を示す図である。It is a figure which shows the example of recognition of AR marker. 音声コマンドによる操作例を示す図である。It is a figure which shows the operation example by a voice command.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<構成>
図3は一実施形態にかかるシステムの構成例を示す図である。図3において、作業現場では作業者が使用する作業者端末1のカメラ(撮像装置)により撮影(撮像)が行われるようになっている。撮影される視野内に設備等の各所に付されたARマーカ(基準物)Mが含まれる場合、AR技術により作業者に対してARコンテンツの重畳表示が行われ、作業を支援する。作業者端末1における表示はHMD(Head Mounted Display)等により行われ、作業者から音声コマンドにより操作が行えることを想定している。ただし、HMDを用いていなくても、作業者が作業者端末1の操作を手で行うのが困難な状況に対応して音声コマンドにより操作が行われる場合も含まれる。サーバ2は、オンライン時に作業者端末1にAR表示のための基礎データを提供する。
<Configuration>
FIG. 3 is a diagram showing an example of the configuration of a system according to an embodiment. In FIG. 3, at the work site, photographing (imaging) is performed by the camera (imaging device) of the worker terminal 1 used by the worker. When an AR marker (reference object) M attached to each place such as a facility is included in the field of view to be photographed, AR content is displayed superimposed on the worker by the AR technology to support the work. The display on the worker terminal 1 is performed by an HMD (Head Mounted Display) or the like, and it is assumed that the operator can perform an operation by a voice command. However, even when the HMD is not used, the case where the operation is performed by the voice command corresponding to the situation where it is difficult for the operator to operate the operator terminal 1 by hand is included. The server 2 provides the worker terminal 1 with basic data for AR display when online.

図4は作業者端末1のソフトウェア構成例を示す図である。図4において、作業者端末1は、ARアプリケーション11により実現される機能として、ARコンテンツ生成部12と撮影部13とARマーカ認識部14とARコンテンツ表示部15とフォーカス順序制御部16と音声コマンド適用部17とを備えている。   FIG. 4 is a view showing an example of the software configuration of the worker terminal 1. In FIG. 4, the worker terminal 1 has, as functions realized by the AR application 11, an AR content generation unit 12, an imaging unit 13, an AR marker recognition unit 14, an AR content display unit 15, a focus order control unit 16 and an audio command. And an application unit 17.

ARコンテンツ生成部12は、オンライン環境においてサーバ2からAR表示のための基礎データを取得し、オフライン環境において表示に用いるARコンテンツを事前に生成する機能を有している。撮影部13は、カメラ機能により撮影を行う機能を有している。ARマーカ認識部14は、撮影された画像中からARマーカを認識(ARマーカの特定および配置の認識等)する機能を有している。ARコンテンツ表示部15は、認識されたARマーカに対応するARコンテンツをカメラの画像に重畳して表示する機能を有している。フォーカス順序制御部16は、画像上の重畳表示されるARコンテンツに対するフォーカス遷移の順序を制御する機能を有している。音声コマンド適用部17は、音声コマンドを受け付け、音声コマンドに対応する操作を適用する機能を有している。   The AR content generation unit 12 has a function of acquiring basic data for AR display from the server 2 in the online environment and generating AR content to be used for display in the offline environment in advance. The photographing unit 13 has a function of photographing by a camera function. The AR marker recognition unit 14 has a function of recognizing an AR marker (identifying the AR marker and recognizing the arrangement, and the like) from the captured image. The AR content display unit 15 has a function of superimposing and displaying AR content corresponding to the recognized AR marker on the image of the camera. The focus order control unit 16 has a function of controlling the order of focus transition with respect to AR content superimposed and displayed on the image. The voice command application unit 17 has a function of receiving a voice command and applying an operation corresponding to the voice command.

図5はサーバ2のソフトウェア構成例を示す図である。図5において、サーバ2は、ARコンテンツ情報提供部21を備えている。ARコンテンツ情報提供部21は、作業者端末1からの要求に応じてAR表示のための基礎データ(ARコンテンツ情報)を提供する機能を有している。   FIG. 5 is a view showing an example of the software configuration of the server 2. In FIG. 5, the server 2 includes an AR content information provision unit 21. The AR content information providing unit 21 has a function of providing basic data (AR content information) for AR display in response to a request from the worker terminal 1.

図6は作業者端末1のハードウェア構成例を示す図である。図6において、作業者端末1は、バス100に接続された、マイク101とスピーカ102とカメラ103と表示部104と操作部105とセンサ部106と電力部107と無線部108と近距離通信部109と補助記憶装置110と主記憶装置111とCPU112とドライブ装置113と記録媒体114とを備えている。   FIG. 6 is a diagram showing an example of the hardware configuration of the worker terminal 1. In FIG. 6, the worker terminal 1 is connected to the bus 100, and the microphone 101, the speaker 102, the camera 103, the display unit 104, the operation unit 105, the sensor unit 106, the power unit 107, the wireless unit 108, and the short distance communication unit 109, an auxiliary storage unit 110, a main storage unit 111, a CPU 112, a drive unit 113, and a recording medium 114.

マイク101は、ユーザが発した音声や、その他の音を入力する。スピーカ102は、通話機能を使用した際の通話相手先の音声を出力したり、着信音やアプリケーションの効果音等を出力する。カメラ103は、端末に予め設定された画角内の実空間の画像(動画像、静止画像)を撮影する。表示部104は、ユーザに対してOSや各種アプリケーションで設定された画面(端末のOSが標準提供する画面、カメラで撮影した画像、画面に投影されるARのオブジェクトデータ等)を表示する。表示部104の画面はタッチパネルディスプレイ等でもよく、その場合はユーザが画面に対してタップ/フリック/スクロール等を行った際にその入力情報を取得する入力部としての機能も有する。   The microphone 101 inputs voices uttered by the user and other sounds. The speaker 102 outputs the voice of the other party at the time of using the call function, and outputs the ring tone, the sound effect of the application, and the like. The camera 103 captures an image (moving image, still image) of the real space within the angle of view preset in the terminal. The display unit 104 displays a screen (a screen provided by the terminal OS as a standard, an image captured by a camera, AR object data projected on the screen, and the like) set by the OS and various applications to the user. The screen of the display unit 104 may be a touch panel display or the like, and also has a function as an input unit that acquires input information when the user performs tap / flick / scroll on the screen.

操作部105は、表示部104の画面に表示された操作ボタンや、端末の外部に設けられたボタン等である。なお、操作ボタンは電源ボタンやホームボタン、音量調節ボタン、戻るボタン等でもよい。センサ部106は、端末のある時点または継続的な位置や向き、動作等を検出する。例として、GPS、加速度センサ、方位センサ、地磁気センサ、ジャイロセンサ等が挙げられる。電力部107は、端末の各部に対して電力を供給する。無線部108は、例えば、基地局(モバイルネットワーク)からの無線信号/通信データをアンテナ等を用いて受信したり、無線信号を基地局に送信する通信データの送受信部である。近距離通信部109は、例えば、赤外線通信やWiFi、Bluetooth(登録商標)等の近距離通信手法を利用し、他の端末等のコンピュータと近距離通信を行うことを可能とする。   The operation unit 105 is an operation button displayed on the screen of the display unit 104, a button provided outside the terminal, or the like. The operation button may be a power button, a home button, a volume control button, a back button, or the like. The sensor unit 106 detects a certain point in time or continuous position, orientation, operation and the like of the terminal. Examples include GPS, acceleration sensors, azimuth sensors, geomagnetic sensors, gyro sensors, and the like. The power unit 107 supplies power to each unit of the terminal. The wireless unit 108 is, for example, a transmission / reception unit of communication data which receives a wireless signal / communication data from a base station (mobile network) using an antenna or the like and transmits a wireless signal to the base station. The short distance communication unit 109 can perform short distance communication with a computer such as another terminal by using, for example, a short distance communication method such as infrared communication or WiFi or Bluetooth (registered trademark).

補助記憶装置110は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージである。CPU112からの制御信号に基づき、アプリケーションプログラムやコンピュータに設けられた制御プログラム等を記録し、必要に応じて入出力を行う。主記憶装置111は、CPU112からの指示により補助記憶装置110から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。CPU112は、OS等の制御プログラム、または主記憶装置に格納されている実行プログラムに基づき、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することにより、各処理を実現する。ドライブ装置113は、例えば、記憶媒体等を着脱自在にセットでき、セットした記録媒体に記録された各種情報を読み込んだり、所定の情報を記録媒体に書き込むことができる。記録媒体114は、実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。図4に示した作業者端末1の各部の機能はCPU112によるプログラムの実行により実現される。プログラムは記録媒体で提供されてもよいし、ネットワーク経由で提供されてもよい。   The auxiliary storage device 110 is a storage such as a hard disk drive (HDD) or a solid state drive (SSD). Based on a control signal from the CPU 112, an application program and a control program provided in the computer are recorded, and input / output is performed as necessary. The main storage device 111 stores an execution program and the like read from the auxiliary storage device 110 according to an instruction from the CPU 112, and stores various information and the like obtained during program execution. The CPU 112 controls each processing of the entire computer, such as various operations and data input / output with each hardware component based on a control program such as an OS or an execution program stored in the main storage device. Implement the process. For example, the drive device 113 can detachably set a storage medium, etc., can read various information recorded in the set recording medium, and can write predetermined information on the recording medium. The recording medium 114 is a computer-readable recording medium that stores an execution program and the like. The functions of the respective units of the worker terminal 1 shown in FIG. 4 are realized by execution of a program by the CPU 112. The program may be provided by a recording medium or may be provided via a network.

図7はサーバ2の構成例を示す図である。図7において、サーバ2は、システムバス201に接続されたCPU(Central Processing Unit)202、ROM(Read Only Memory)203、RAM(Random Access Memory)204、NVRAM(Non-Volatile Random Access Memory)205を備えている。また、サーバ2は、I/F(Interface)206と、I/F206に接続された、I/O(Input/Output Device)207、HDD(Hard Disk Drive)/フラッシュメモリ208、NIC(Network Interface Card)209と、I/O207に接続されたモニタ210、キーボード211、マウス212等を備えている。I/O207にはCD/DVD(Compact Disk/Digital Versatile Disk)ドライブ等を接続することもできる。図5に示したサーバ2の各部の機能はCPU202によるプログラムの実行により実現される。プログラムは記録媒体で提供されてもよいし、ネットワーク経由で提供されてもよい。   FIG. 7 is a view showing a configuration example of the server 2. In FIG. 7, the server 2 includes a central processing unit (CPU) 202 connected to a system bus 201, a read only memory (ROM) 203, a random access memory (RAM) 204, and a non-volatile random access memory (NVRAM) 205. Have. The server 2 also includes an I / F (Interface) 206 and an I / O (Input / Output Device) 207 connected to the I / F 206, an HDD (Hard Disk Drive) / flash memory 208, and an NIC (Network Interface Card). ), A monitor 210 connected to the I / O 207, a keyboard 211, a mouse 212 and the like. A CD / DVD (Compact Disk / Digital Versatile Disk) drive or the like can also be connected to the I / O 207. The functions of the respective units of the server 2 illustrated in FIG. 5 are realized by execution of a program by the CPU 202. The program may be provided by a recording medium or may be provided via a network.

図8は作業者端末1の保持するデータ例を示す図である。図8において、作業者端末1は、サーバ2から取得した情報に基づくARコンテンツ管理テーブルと、作業者端末1内で生成する画面内表示ARコンテンツ管理テーブルおよびフォーカス対象ARコンテンツ管理テーブルと、予め音声対応のために設定された音声コマンド管理テーブルとを保持している。   FIG. 8 is a view showing an example of data held by the worker terminal 1. In FIG. 8, the worker terminal 1 generates an AR content management table based on the information acquired from the server 2, an in-screen display AR content management table and a focus target AR content management table generated in the worker terminal 1, and voice in advance. It holds a voice command management table set for handling.

ARコンテンツ管理テーブルは、ARマーカ毎に表示するARコンテンツの情報を管理するためのテーブルであり、「マーカID」「ARコンテンツID」「座標値」「回転角度」「拡縮率」「テクスチャパス」「選択確定時の表示情報」等の項目を含んでいる。「マーカID」は、ARマーカを識別する情報である。「ARコンテンツID」は、ARコンテンツを識別する情報である。「座標値」は、ARコンテンツを表示する位置(認識されたARマーカの位置との相対値)である。「回転角度」は、ARコンテンツを表示する際に画像を回転する角度である。「拡縮率」は、ARコンテンツを表示する際に画像を拡大・縮小する比率である。「テクスチャパス」は、ARコンテンツの画像が保存されているパスである。「選択確定時の表示情報」は、該ARコンテンツが選択されて確定された場合に表示される詳細情報等が保存されているパスである。   The AR content management table is a table for managing information of AR content to be displayed for each AR marker, and “marker ID” “AR content ID” “coordinate value” “rotation angle” “scale ratio” “texture path” Items such as "display information at the time of selection confirmation" are included. “Marker ID” is information for identifying an AR marker. "AR content ID" is information for identifying AR content. The “coordinate value” is a position at which AR content is displayed (a relative value to the position of the recognized AR marker). The “rotation angle” is an angle at which an image is rotated when displaying AR content. The “scale ratio” is a ratio at which an image is scaled up or down when displaying AR content. "Texture path" is a path in which an image of AR content is stored. The “display information at the time of selection confirmation” is a path in which detailed information and the like displayed when the AR content is selected and confirmed is stored.

画面内表示ARコンテンツ管理テーブルは、認識されたARマーカに対応するARコンテンツのうち、画面内に表示されるARコンテンツとフォーカスの遷移順序を管理するテーブルであり、「ARコンテンツID」「フォーカス遷移順序」等の項目を含んでいる。「ARコンテンツID」は、画面内に表示されるARコンテンツを識別する情報である。「フォーカス遷移順序」は、テーブル内のARコンテンツでフォーカスが遷移する順序を示すものであり、デフォルトとしてはARコンテンツIDの小さい順となる。ただし、ARコンテンツIDの画面内の表示位置に応じて新たな順序情報を付与してもよい。例えば、画面の左側に表示されるオブジェクトに対して、右側に表示されるオブジェクトよりも前の順を付与することができる。   The in-screen display AR content management table is a table for managing the transition sequence of the AR content displayed on the screen and the focus among the AR content corresponding to the recognized AR marker, “AR content ID”, “focus transition” Items such as "order" are included. “AR content ID” is information for identifying AR content displayed in the screen. The “focus transition order” indicates the order in which the focus transitions in the AR content in the table, and as the default, the AR content IDs are in ascending order. However, new order information may be added according to the display position of the AR content ID in the screen. For example, the objects displayed on the left side of the screen can be given an order prior to the objects displayed on the right side.

フォーカス対象ARコンテンツ管理テーブルは、トグル方式のフォーカス遷移に対応し、現時点でフォーカスのあるARコンテンツと、次と前のARコンテンツを管理するテーブルであり、「ARコンテンツID」「次フォーカス遷移対象ARコンテンツID」「前フォーカス遷移対象ARコンテンツID」等の項目を含んでいる。「ARコンテンツID」は、現時点でフォーカスのあるARコンテンツを識別する情報である。「次フォーカス遷移対象ARコンテンツID」は、順方向の遷移操作(音声コマンドの「つぎ」等)を受けた場合に遷移する先のARコンテンツを識別する情報である。「前フォーカス遷移対象ARコンテンツID」は、逆方向の遷移操作(音声コマンドの「まえ」等)を受けた場合に遷移する先のARコンテンツを識別する情報である。   The focus target AR content management table is a table corresponding to toggle type focus transition, and is a table for managing AR content with focus at present and next and previous AR content, “AR content ID” “next focus transition target AR Items such as content ID, "previous focus transition target AR content ID" and the like are included. The “AR content ID” is information that identifies AR content that is currently in focus. The “next focus transition target AR content ID” is information identifying the AR content of the transition destination when receiving a forward transition operation (“next” of a voice command or the like). The “previous focus transition target AR content ID” is information for identifying AR content of the transition destination when a transition operation in the reverse direction (“preceding” of a voice command or the like) is received.

音声コマンド管理テーブルは、音声コマンドを管理するテーブルであり、「音声コマンドID」「音声コマンド」「処理」等の項目を含んでいる。「音声コマンドID」は、音声コマンドを識別する情報である。「音声コマンド」は、その音声コマンドの内容である。「処理」は、その音声コマンドにより実行される処理内容である。   The voice command management table is a table for managing voice commands, and includes items such as “voice command ID”, “voice command”, and “process”. "Voice command ID" is information for identifying a voice command. "Voice command" is the content of the voice command. "Process" is the processing content executed by the voice command.

図9はサーバ2の保持するデータ例を示す図であり、ARコンテンツ管理テーブルを保持している。内容は図8に示したのと同様である。   FIG. 9 is a view showing an example of data held by the server 2 and holding an AR content management table. The contents are similar to those shown in FIG.

<動作>
図10は作業者端末1の処理例を示すフローチャートである。図10において、作業者端末1は、処理を開始すると、ARアプリケーション11を起動する(ステップS101)。ARアプリケーション11は、起動に際し、カメラ機能も起動し、撮影部13により撮影を開始する。
<Operation>
FIG. 10 is a flowchart showing an example of processing of the worker terminal 1. In FIG. 10, when the process is started, the worker terminal 1 activates the AR application 11 (step S101). The AR application 11 also activates a camera function at the time of activation, and the imaging unit 13 starts imaging.

起動したARアプリケーション11のARコンテンツ生成部12は、オンライン環境である場合、最新のARコンテンツ情報(ARコンテンツ管理テーブル)等をサーバ2から取得し(ステップS102)、ARコンテンツを生成する(ステップS103)。オンライン環境でない場合、ARコンテンツ生成部12は、以前に取得されているARコンテンツ情報があれば、それに基づいてARコンテンツを生成する。   The AR content generation unit 12 of the activated AR application 11 acquires the latest AR content information (AR content management table) and the like from the server 2 when it is in the online environment (step S102), and generates AR content (step S103). ). When not in the online environment, the AR content generation unit 12 generates AR content based on the previously acquired AR content information, if any.

次いで、ARマーカ認識部14は、撮影画像の中にARマーカ(基準物)を認識するのを待機する(ステップS104)。図11はARマーカの認識の例を示す図である。すなわち、ARマーカ認識部14は、撮影画像内からARマーカMを輪郭により捕捉した上で、輪郭の内部に記録されたパターンによりARマーカIDを特定する。そして、ARマーカMの画像の歪みにより、ARマーカMの3次元的な配置(ARマーカMの傾きや回転角度等)を認識する。   Next, the AR marker recognition unit 14 stands by to recognize an AR marker (reference object) in the captured image (step S104). FIG. 11 is a diagram showing an example of recognition of an AR marker. That is, after the AR marker recognition unit 14 captures the AR marker M from the inside of the captured image by the outline, it identifies the AR marker ID by the pattern recorded inside the outline. Then, based on the distortion of the image of the AR marker M, the three-dimensional arrangement of the AR marker M (the inclination, the rotation angle, etc. of the AR marker M) is recognized.

図10に戻り、ARマーカを認識した場合(ステップS104のYes)、ARコンテンツ表示部15は、ARマーカに対応する既に生成済のARコンテンツを撮影画像に重畳して表示する(ステップS105)。   Returning to FIG. 10, when the AR marker is recognized (Yes in step S104), the AR content display unit 15 superimposes the generated AR content corresponding to the AR marker on the captured image and displays it (step S105).

次いで、ARコンテンツ表示部15は、初回は表示したARコンテンツのうち最もARコンテンツIDの小さなARコンテンツをフォーカス対象とし、ARコンテンツの表示を強調する(ステップS106)。   Next, the AR content display unit 15 focuses on the AR content with the smallest AR content ID among the AR content initially displayed, as the focus target, and emphasizes the display of the AR content (step S106).

次いで、フォーカス順序制御部16は、撮像したカメラ画角内のARコンテンツを算出し(ステップS107)、カメラ画角内のARコンテンツのフォーカス順序を算出する(ステップS108)。カメラ画角内にARコンテンツがあるか否かは、カメラ画面の四隅の座標値と、ARコンテンツの表示座標値(矩形の場合は四隅の座標値)とを比較し、カメラ画面の座標値範囲内にARコンテンツの表示座標値が含まれるか否かにより判断する。フォーカス順序は、原則として、ARコンテンツIDの小さい方から順に付与するが、画面内の表示位置に応じて新たな順序情報を付与してもよい。例えば、画面の左側に表示されるオブジェクトに対して、右側に表示されるオブジェクトよりも前の順を付与することができる。算出したフォーカス順序は画面内表示ARコンテンツ管理テーブルおよびフォーカス対象ARコンテンツ管理テーブルに記録する。   Next, the focus order control unit 16 calculates AR content within the captured camera angle of view (step S107), and calculates the focus order of AR content within the camera angle of view (step S108). Whether or not there is AR content within the camera angle of view compares the coordinate values of the four corners of the camera screen with the display coordinate values of the AR content (the coordinate values of the four corners in the case of a rectangle), and the coordinate value range of the camera screen It is judged by whether or not the display coordinate value of the AR content is included in the inside. The focus order is, in principle, given in order from the smaller AR content ID, but new order information may be given according to the display position in the screen. For example, the objects displayed on the left side of the screen can be given an order prior to the objects displayed on the right side. The calculated focus order is recorded in the in-screen display AR content management table and the focus target AR content management table.

次いで、音声コマンド適用部17は、音声コマンドの入力を検知すると(ステップS109のYes)、ARコンテンツのフォーカス状態を遷移させる音声コマンドの入力であるか否か判断する(ステップS110)。図8の音声コマンド管理テーブルにおける音声コマンドID「1」〜「6」はARコンテンツのフォーカス状態を遷移させる音声コマンドである。   Next, when detecting the input of the voice command (Yes in step S109), the voice command application unit 17 determines whether the input is a voice command for changing the focus state of the AR content (step S110). The voice command IDs “1” to “6” in the voice command management table of FIG. 8 are voice commands for changing the focus state of AR content.

図10に戻り、フォーカス状態を遷移させる音声コマンドの入力である場合(ステップS110のYes)、フォーカス順序制御部16は、フォーカス対象となるARコンテンツを変更する(ステップS111)。フォーカス対象となるARコンテンツの変更はフォーカス対象ARコンテンツ管理テーブルに対して行う。   Returning to FIG. 10, if it is an input of a voice command to make the focus state transition (Yes in step S110), the focus order control unit 16 changes the AR content to be the focus target (step S111). The change of the AR content to be focused is performed on the focus target AR content management table.

フォーカス対象となるARコンテンツの変更(ステップS111)の後、または、ARマーカを認識しなかった場合(ステップS104のNo)、音声コマンドの入力でない場合(ステップS109のNo)、フォーカス状態を遷移させる音声コマンドの入力でない場合(ステップS110のNo)は、ARアプリケーション11の終了の判断(ステップS112)に移行する。   After changing the AR content to be focused (step S111), or when the AR marker is not recognized (No in step S104), when the voice command is not input (No in step S109), the focus state is changed When it is not an input of a voice command (No in step S110), the process proceeds to determination of termination of the AR application 11 (step S112).

ARアプリケーション11が終了しない場合(ステップS112のNo)、ARマーカ認識の判断(ステップS104)に戻る。ARアプリケーション11が終了する場合(ステップS112のYes)、ARアプリケーション11を終了する(ステップS113)。   If the AR application 11 does not end (No in step S112), the process returns to the AR marker recognition determination (step S104). If the AR application 11 ends (Yes in step S112), the AR application 11 ends (step S113).

図12は音声コマンドによる操作例を示す図である。図12(a)は「手順1」「手順2」「手順100」のARコンテンツが表示された状態を示しており、「手順1」のARコンテンツにフォーカスがある。   FIG. 12 is a diagram showing an operation example by a voice command. FIG. 12A shows a state in which the AR content of “Procedure 1”, “Procedure 2” and “Procedure 100” is displayed, and the AR content of “Procedure 1” is focused.

この状態で作業者が「つぎ」または「した」または「みぎ」という音声コマンドを発すると、図12(b)に示すように、「手順2」のARコンテンツにフォーカスが遷移する。   In this state, when the operator issues a voice command of "next", "done" or "miki", as shown in FIG. 12B, the focus shifts to AR content of "procedure 2".

更に、作業者が「つぎ」または「した」または「みぎ」という音声コマンドを発すると、図12(c)に示すように、「手順100」のARコンテンツにフォーカスが遷移する。   Furthermore, when the worker issues a voice command of "next", "done" or "miki", as shown in FIG. 12C, the focus shifts to the AR content of "procedure 100".

フォーカスを逆方向に遷移させる場合には、「まえ」または「うえ」または「ひだり」という音声コマンドを発することで、操作することができる。   In the case of shifting the focus in the reverse direction, an operation can be performed by issuing a voice command of "previous" or "above" or "hidori".

なお、日本語による音声コマンドに加え、または、それらに代えて、英語等の他の言語による音声コマンドとしてもよい。例えば、「つぎ」に対応するものとして「ネクスト」がある。   In addition to or in place of voice commands in Japanese, voice commands in other languages such as English may be used. For example, "next" is an example corresponding to "next".

<総括>
以上説明したように、本実施形態によれば、表示中のオブジェクトの選択性を向上することができる。
<Summary>
As described above, according to the present embodiment, the selectivity of the object being displayed can be improved.

以上、好適な実施の形態により説明した。ここでは特定の具体例を示して説明したが、特許請求の範囲に定義された広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により限定されるものと解釈してはならない。   Hereinabove, the preferred embodiments have been described. Although specific embodiments have been shown and described herein, it is apparent that various modifications and changes can be made to these embodiments without departing from the broad spirit and scope as defined in the claims. . That is, it should not be construed as being limited by the details of the specific example and the attached drawings.

ARコンテンツ管理テーブル(図8)でARコンテンツIDが付されて管理されるARコンテンツは「オブジェクトデータ群」の一例である。画面内表示ARコンテンツ管理テーブル(図8)にARコンテンツIDが登録されて管理されるARコンテンツは「複数のオブジェクトデータ」の一例である。画面内表示ARコンテンツ管理テーブル(図8)のフォーカス遷移順序は「順序情報」の一例である。表示部104(図6)は「表示部」の一例である。   The AR content managed by being assigned an AR content ID in the AR content management table (FIG. 8) is an example of the “object data group”. The AR content managed by the AR content ID being registered in the in-screen display AR content management table (FIG. 8) is an example of “a plurality of object data”. The focus transition order of the in-screen display AR content management table (FIG. 8) is an example of “order information”. The display unit 104 (FIG. 6) is an example of the “display unit”.

以上の説明に関し、更に以下の項を開示する。
(付記1) 順序情報が割り当てられたオブジェクトデータ群のうち、表示部に表示する対象として選択された複数のオブジェクトデータを特定し、
特定した前記複数のオブジェクトデータについて新たに順序情報を付与し、
付与した前記順序情報に応じて、前記オブジェクトデータの選択順を制御する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2) 特定した前記複数のオブジェクトデータについて表示位置に応じて、前記新たな順序情報を付与する、
ことを特徴とする付記1記載の表示制御方法。
(付記3) 特定した前記複数のオブジェクトデータについて、前記表示部の左側に表示されるオブジェクトに対して、前記表示部の右側に表示されるオブジェクトよりも、前の順を付与する、
ことを特徴とする付記1記載の表示制御方法。
(付記4) 入力された音声情報を解析して、前記音声情報に所定の指示を示す音声が含まれていることを検出すると、第1のオブジェクトデータの選択から、選択順が該第1のオブジェクトの次に該当する第2のオブジェクトデータの選択に切り替える、
ことを特徴とする付記1に記載の表示制御方法。
(付記5) 前記音声は、右、又は、次、又は、ネクストに対応する音声である、
ことを特徴とする付記4に記載の表示制御方法。
(付記6) 順序情報が割り当てられたオブジェクトデータ群のうち、表示部に表示する対象として選択された複数のオブジェクトデータを特定する手段と、
特定した前記複数のオブジェクトデータについて新たに順序情報を付与する手段と、
付与した前記順序情報に応じて、前記オブジェクトデータの選択順を制御する手段と、
を備えたことを特徴とする情報処理装置。
(付記7) 特定した前記複数のオブジェクトデータについて表示位置に応じて、前記新たな順序情報を付与する、
ことを特徴とする付記6記載の情報処理装置。
(付記8) 特定した前記複数のオブジェクトデータについて、前記表示部の左側に表示されるオブジェクトに対して、前記表示部の右側に表示されるオブジェクトよりも、前の順を付与する、
ことを特徴とする付記6記載の情報処理装置。
(付記9) 入力された音声情報を解析して、前記音声情報に所定の指示を示す音声が含まれていることを検出すると、第1のオブジェクトデータの選択から、選択順が該第1のオブジェクトの次に該当する第2のオブジェクトデータの選択に切り替える、
ことを特徴とする付記6記載の情報処理装置。
(付記10) 前記音声は、右、又は、次、又は、ネクストに対応する音声である、
ことを特徴とする付記9記載の情報処理装置。
(付記11) 順序情報が割り当てられたオブジェクトデータ群のうち、表示部に表示する対象として選択された複数のオブジェクトデータを特定し、
特定した前記複数のオブジェクトデータについて新たに順序情報を付与し、
付与した前記順序情報に応じて、前記オブジェクトデータの選択順を制御する、
処理をコンピュータに実行させる表示制御プログラム。
(付記12) 特定した前記複数のオブジェクトデータについて表示位置に応じて、前記新たな順序情報を付与する、
付記11記載の表示制御プログラム。
(付記13) 特定した前記複数のオブジェクトデータについて、前記表示部の左側に表示されるオブジェクトに対して、前記表示部の右側に表示されるオブジェクトよりも、前の順を付与する、
付記11記載の表示制御プログラム。
(付記14) 入力された音声情報を解析して、前記音声情報に所定の指示を示す音声が含まれていることを検出すると、第1のオブジェクトデータの選択から、選択順が該第1のオブジェクトの次に該当する第2のオブジェクトデータの選択に切り替える、
付記11記載の表示制御プログラム。
(付記15) 前記音声は、右、又は、次、又は、ネクストに対応する音声である、
付記14記載の表示制御プログラム。
The following sections will be further disclosed regarding the above description.
(Supplementary Note 1) Among the object data group to which order information is assigned, a plurality of object data selected as targets to be displayed on the display unit are specified,
Order information is newly added to the identified plurality of object data;
The order of selection of the object data is controlled according to the given order information.
A display control method characterized in that a computer executes a process.
(Supplementary Note 2) The new order information is added according to the display position of the identified plurality of object data.
The display control method according to appendix 1, characterized in that
(Supplementary Note 3) With respect to the objects displayed on the left side of the display unit, the object data displayed on the left side of the display unit is given a previous order than the objects displayed on the right side of the display unit.
The display control method according to appendix 1, characterized in that
(Supplementary Note 4) If the input voice information is analyzed and it is detected that the voice information includes a voice indicating a predetermined instruction, the selection order is the first one from the selection of the first object data. Switch to the selection of the second corresponding object data next to the object,
The display control method according to appendix 1, characterized in that
(Supplementary Note 5) The voice is voice corresponding to the right, next, or next,
The display control method according to appendix 4, characterized in that:
(Supplementary Note 6) A means for specifying a plurality of object data selected as objects to be displayed on the display unit among object data groups to which order information is assigned, and
A means for newly providing order information for the identified plurality of object data;
A unit for controlling the selection order of the object data according to the given order information;
An information processing apparatus comprising:
(Supplementary Note 7) The new order information is added according to the display position of the identified plurality of object data.
The information processing apparatus according to claim 6, characterized in that
(Supplementary Note 8) With respect to the objects displayed on the left side of the display unit, the object data displayed on the left side of the display unit is given a previous order than the objects displayed on the right side of the display unit.
The information processing apparatus according to claim 6, characterized in that
(Supplementary Note 9) When the input voice information is analyzed to detect that the voice information includes a voice indicating a predetermined instruction, the selection order is the first one from the selection of the first object data. Switch to the selection of the second corresponding object data next to the object,
The information processing apparatus according to claim 6, characterized in that
(Supplementary Note 10) The voice is a voice corresponding to the right, next, or next,
The information processing apparatus according to appendix 9, characterized in that
(Supplementary note 11) Among the object data group to which order information is assigned, a plurality of object data selected as targets to be displayed on the display unit are specified,
Order information is newly added to the identified plurality of object data;
The order of selection of the object data is controlled according to the given order information.
Display control program that causes a computer to execute processing.
(Supplementary Note 12) The new order information is added according to the display position of the plurality of identified object data.
The display control program according to appendix 11.
(Supplementary Note 13) With respect to the objects displayed on the left side of the display unit, the object data displayed on the left side of the display unit is given a previous order than the objects displayed on the right side of the display unit.
The display control program according to appendix 11.
(Supplementary Note 14) When the input voice information is analyzed to detect that the voice information includes a voice indicating a predetermined instruction, the selection order is the first one from the selection of the first object data. Switch to the selection of the second corresponding object data next to the object,
The display control program according to appendix 11.
(Supplementary Note 15) The voice is a voice corresponding to the right, next, or next,
The display control program according to appendix 14.

1 作業者端末
11 ARアプリケーション
12 ARコンテンツ生成部
13 撮影部
14 ARマーカ認識部
15 ARコンテンツ表示部
16 フォーカス順序制御部
17 音声コマンド適用部
2 サーバ
21 ARコンテンツ情報提供部
DESCRIPTION OF SYMBOLS 1 Worker terminal 11 AR application 12 AR content generation part 13 Shooting part 14 AR marker recognition part 15 AR content display part 16 Focus order control part 17 Voice command application part 2 Server 21 AR content information provision part

Claims (9)

撮像装置により撮影された画像から認識された各基準物に対する各AR(Augmented Reality)コンテンツを前記画像に重畳して表示し、
順序情報が割り当てられたARコンテンツ群のうち、表示部に表示する対象として選択された複数のARコンテンツを特定し、
特定した前記複数のARコンテンツにそれぞれ割り当てられている第1順序情報に基づいて、特定した前記複数のARコンテンツにそれぞれ第2順序情報を付与し、
付与した前記第2順序情報に応じて、特定した前記複数のARコンテンツの選択順を制御する、
処理をコンピュータが実行することを特徴とする表示制御方法。
Each AR (Augmented Reality) content for each reference object recognized from the image captured by the imaging device is displayed superimposed on the image,
Among the AR content groups to which order information is assigned, a plurality of AR contents selected as targets to be displayed on the display unit are specified,
Second order information is added to each of the identified plurality of AR contents based on first order information assigned to each of the identified plurality of AR contents ,
The selection order of the plurality of AR contents specified is controlled according to the given second order information,
A display control method characterized in that a computer executes a process.
撮影装置により撮影された画像に基準物が含まれることを検出すると、前記基準物に対応付けられたオブジェクトデータ群を特定し、  When it is detected that the reference object is included in the image photographed by the photographing device, the object data group associated with the reference object is specified,
特定した前記オブジェクトデータ群のうち、表示装置に表示する対象とする複数のオブジェクトデータを抽出し、  Extract a plurality of object data to be displayed on the display device from the specified object data group;
抽出した前記複数のオブジェクトデータにそれぞれ順序情報を付与し、  Order information is given to each of the plurality of extracted object data;
付与した前記順序情報に応じて、抽出した前記複数のオブジェクトデータの選択順を制御する、  The selection order of the plurality of extracted object data is controlled according to the given order information.
処理をコンピュータが実行することを特徴とする表示制御方法。A display control method characterized in that a computer executes a process.
前記オブジェクトデータ群に含まれる複数のオブジェクトデータそれぞれの表示位置と、前記表示装置の表示範囲とに基づき、前記表示装置に表示する対象とする前記複数のオブジェクトデータを抽出する、  The plurality of object data to be displayed on the display device are extracted based on the display positions of the plurality of object data included in the object data group and the display range of the display device.
ことを特徴とする請求項2に記載の表示制御方法。  The display control method according to claim 2, characterized in that:
入力された音声情報を解析して、前記音声情報に所定の指示を示す音声が含まれていることを検出すると、第1のARコンテンツの選択から、選択順が該第1のARコンテンツの次に該当する第2のARコンテンツの選択に切り替える、
ことを特徴とする請求項1から3のいずれか一項に記載の表示制御方法。
By analyzing the input speech information, detects that it contains sound indicating a predetermined instruction to the audio information, the selection of the first AR content, the selection order of the first AR content follows Switch to the selection of the second AR content that corresponds to
The display control method according to any one of claims 1 to 3 , characterized in that:
前記音声は、次、又は、ネクストに対応する音声である、
ことを特徴とする請求項に記載の表示制御方法。
The voice, following, or a sound corresponding to the next,
The display control method according to claim 4 , characterized in that:
撮像装置により撮影された画像から認識された各基準物に対する各AR(Augmented Reality)コンテンツを前記画像に重畳して表示する手段と、
順序情報が割り当てられたARコンテンツ群のうち、表示部に表示する対象として選択された複数のARコンテンツを特定する手段と、
特定した前記複数のARコンテンツにそれぞれ割り当てられている第1順序情報に基づいて、特定した前記複数のARコンテンツにそれぞれ第2順序情報を付与する手段と、
付与した前記第2順序情報に応じて、特定した前記複数のARコンテンツの選択順を制御する手段と、
を備えたことを特徴とする情報処理装置。
Means for superimposing each AR (Augmented Reality) content for each reference object recognized from the image captured by the imaging device on the image, and
A unit for specifying a plurality of AR content items selected as targets to be displayed on the display unit among the AR content groups to which order information is assigned;
A unit for applying second order information to each of the plurality of AR contents specified based on the first order information respectively assigned to each of the plurality of AR contents specified ;
A unit for controlling the selection order of the plurality of AR contents specified according to the given second order information;
An information processing apparatus comprising:
撮影装置により撮影された画像に基準物が含まれることを検出すると、前記基準物に対応付けられたオブジェクトデータ群を特定する手段と、  A means for specifying an object data group associated with the reference object when it is detected that the reference object is included in the image captured by the imaging device;
特定した前記オブジェクトデータ群のうち、表示装置に表示する対象とする複数のオブジェクトデータを抽出する手段と、  A unit for extracting a plurality of object data to be displayed on a display device from the specified object data group;
抽出した前記複数のオブジェクトデータにそれぞれ順序情報を付与する手段と、  A unit for providing order information to each of the plurality of extracted object data;
付与した前記順序情報に応じて、抽出した前記複数のオブジェクトデータの選択順を制御する手段と、  A control unit configured to control a selection order of the plurality of extracted object data in accordance with the assigned order information;
を備えたことを特徴とする情報処理装置。An information processing apparatus comprising:
撮像装置により撮影された画像から認識された各基準物に対する各AR(Augmented Reality)コンテンツを前記画像に重畳して表示し、
順序情報が割り当てられたARコンテンツ群のうち、表示部に表示する対象として選択された複数のARコンテンツを特定し、
特定した前記複数のARコンテンツにそれぞれ割り当てられている第1順序情報に基づいて、特定した前記複数のARコンテンツにそれぞれ第2順序情報を付与し、
付与した前記第2順序情報に応じて、特定した前記複数のARコンテンツの選択順を制御する、
処理をコンピュータに実行させる表示制御プログラム。
Each AR (Augmented Reality) content for each reference object recognized from the image captured by the imaging device is displayed superimposed on the image,
Among the AR content groups to which order information is assigned, a plurality of AR contents selected as targets to be displayed on the display unit are specified,
Second order information is added to each of the identified plurality of AR contents based on first order information assigned to each of the identified plurality of AR contents ,
The selection order of the plurality of AR contents specified is controlled according to the given second order information,
Display control program that causes a computer to execute processing.
撮影装置により撮影された画像に基準物が含まれることを検出すると、前記基準物に対応付けられたオブジェクトデータ群を特定し、  When it is detected that the reference object is included in the image photographed by the photographing device, the object data group associated with the reference object is specified,
特定した前記オブジェクトデータ群のうち、表示装置に表示する対象とする複数のオブジェクトデータを抽出し、  Extract a plurality of object data to be displayed on the display device from the specified object data group;
抽出した前記複数のオブジェクトデータにそれぞれ順序情報を付与し、  Order information is given to each of the plurality of extracted object data;
付与した前記順序情報に応じて、抽出した前記複数のオブジェクトデータの選択順を制御する、  The selection order of the plurality of extracted object data is controlled according to the given order information.
処理をコンピュータに実行させる表示制御プログラム。Display control program that causes a computer to execute processing.
JP2015133641A 2015-07-02 2015-07-02 Display control method, information processing apparatus and display control program Expired - Fee Related JP6528566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015133641A JP6528566B2 (en) 2015-07-02 2015-07-02 Display control method, information processing apparatus and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015133641A JP6528566B2 (en) 2015-07-02 2015-07-02 Display control method, information processing apparatus and display control program

Publications (2)

Publication Number Publication Date
JP2017016464A JP2017016464A (en) 2017-01-19
JP6528566B2 true JP6528566B2 (en) 2019-06-12

Family

ID=57830964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015133641A Expired - Fee Related JP6528566B2 (en) 2015-07-02 2015-07-02 Display control method, information processing apparatus and display control program

Country Status (1)

Country Link
JP (1) JP6528566B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4031120B2 (en) * 1998-09-10 2008-01-09 株式会社東芝 Object highlighting display method and apparatus, and storage medium
JP2002042172A (en) * 2000-07-25 2002-02-08 Matsushita Electric Works Ltd Virtual object selection method and recording medium and service receiving application of this method
JP2003060931A (en) * 2001-08-22 2003-02-28 Nippon Hoso Kyokai <Nhk> Data broadcast receiver, data broadcast reception program, and contents generating method
JP4176741B2 (en) * 2005-05-25 2008-11-05 株式会社スクウェア・エニックス Destination information setting apparatus and method, program, and recording medium
JP5752759B2 (en) * 2013-09-02 2015-07-22 株式会社東芝 Electronic device, method, and program

Also Published As

Publication number Publication date
JP2017016464A (en) 2017-01-19

Similar Documents

Publication Publication Date Title
US11954816B2 (en) Display control device, display control method, and recording medium
US9685005B2 (en) Virtual lasers for interacting with augmented reality environments
CN110291576B (en) Hands-free navigation of touch-based operating systems
JP6573755B2 (en) Display control method, information processing program, and information processing apparatus
US9324305B2 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
JP6421670B2 (en) Display control method, display control program, and information processing apparatus
JP6582626B2 (en) Transmission control method, display terminal, and transmission control program
EP3249512A1 (en) Method for setting icon, and electronic device
JP6217437B2 (en) Terminal apparatus, information processing apparatus, display control method, and display control program
US9430806B2 (en) Electronic device and method of operating the same
KR20140051968A (en) Gesture-based input mode selection for mobile devices
JP2011186536A (en) Information processing device, information processing method, and program
EP2983075B1 (en) User interface display method and apparatus therefor
JP6543924B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
JP5937773B1 (en) Program and mobile terminal
US20220114367A1 (en) Communication system, display apparatus, and display control method
EP3051513A1 (en) Display apparatus and control method thereof
JP2018073244A (en) Calibration program, calibration apparatus, and calibration method
JP6528566B2 (en) Display control method, information processing apparatus and display control program
JP2019191988A (en) Electronic apparatus, control method of electronic apparatus, program, and storage medium
JP7651350B2 (en) Control device, control method thereof, program, and recording medium
JP5933093B1 (en) Program and mobile terminal
KR102620363B1 (en) A mobile apparatus and a method for controlling the mobile apparatus
KR20110087154A (en) Content control device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190429

R150 Certificate of patent or registration of utility model

Ref document number: 6528566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees