JP2011081556A - Information processor, method of processing information, program, and server - Google Patents
Information processor, method of processing information, program, and server Download PDFInfo
- Publication number
- JP2011081556A JP2011081556A JP2009232631A JP2009232631A JP2011081556A JP 2011081556 A JP2011081556 A JP 2011081556A JP 2009232631 A JP2009232631 A JP 2009232631A JP 2009232631 A JP2009232631 A JP 2009232631A JP 2011081556 A JP2011081556 A JP 2011081556A
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- image
- objects
- additional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、プログラムおよびサーバに関する。 The present invention relates to an information processing apparatus, an information processing method, a program, and a server.
最近では、拡張現実技術(Augmented Reality)の一環として撮影画像に対して何らかの付加情報を重畳することが行われている。例えば、拡張現実技術を用いて、現在位置の周辺の情報を実映像の画面に重畳して表示させる技術が開示されている(例えば特許文献1)。 Recently, some additional information is superimposed on a captured image as part of augmented reality technology (Augmented Reality). For example, a technique for displaying information around a current position by superimposing it on a real video screen using augmented reality technology is disclosed (for example, Patent Document 1).
特許文献1では、カメラ等の撮像装置で撮像された映像データから視覚的特徴情報を抽出して、装置内に記憶された視覚的特徴情報と比較して類似度を算出する。そして、算出した類似度に基づいて、映像データ内のオブジェクトを特定して、仮想的な情報をアノテーション(注釈)として映像にオーバレイして出力している。 In Patent Document 1, visual feature information is extracted from video data captured by an imaging device such as a camera, and the similarity is calculated by comparison with visual feature information stored in the device. Based on the calculated similarity, an object in the video data is specified, and virtual information is overlaid on the video as annotation (annotation) and output.
しかし、映像データ内に複数のオブジェクトが存在し、1つのオブジェクトに複数のオブジェクトが含まれ、それぞれのオブジェクトに付加情報が設定されている場合には、複数の仮想的な情報が同時にオーバレイされてしまう。この場合、複数の付加情報が重なり合って、情報の視認性が低下するという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、画像に含まれるオブジェクトの階層情報に基づいて付加情報を出力して情報の視認性を向上させることが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラムおよびサーバを提供することにある。
However, if there are multiple objects in the video data and one object contains multiple objects, and additional information is set for each object, multiple virtual information will be overlaid simultaneously. End up. In this case, there is a problem that a plurality of pieces of additional information are overlapped and information visibility is lowered.
Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to output additional information based on hierarchical information of objects included in an image to improve information visibility. It is an object of the present invention to provide a new and improved information processing apparatus, information processing method, program, and server.
上記課題を解決するために、本発明のある観点によれば、画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とを関連付けて記憶している記憶部と、実空間画像を取得する画像取得部と、画像内のオブジェクトの特徴を示す特徴情報をもとに、画像取得部により取得された実空間画像に含まれるオブジェクトを認識する認識部と、認識部により認識されたオブジェクトに関連付けられたオブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、を備える、情報処理装置が提供される。 In order to solve the above-described problem, according to an aspect of the present invention, feature information indicating a feature of an object in an image, hierarchical information indicating a hierarchical relationship of the object, and additional information added to the object are provided. An object included in the real space image acquired by the image acquisition unit based on feature information indicating the characteristics of the object in the image, an image acquisition unit that acquires the real space image, and a storage unit that stores the association A recognizing unit that recognizes, and a determining unit that determines whether to output additional information added to the object to the display unit based on the hierarchical information of the object associated with the object recognized by the recognizing unit. An information processing apparatus is provided.
また、決定部によりオブジェクトに付加される付加情報の表示部への出力が決定された場合に、実空間画像に含まれるオブジェクトに付加情報を重畳して表示部に表示させる表示制御部を備えてもよい。 A display control unit configured to superimpose the additional information on the object included in the real space image and display the additional information on the display unit when the determination unit determines that the additional information added to the object is output to the display unit; Also good.
また、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、複数のオブジェクトのうち、階層情報が最上位の階層であるオブジェクトの付加情報を出力することを決定してもよい。 The determining unit determines to output additional information of an object whose hierarchical information is the highest layer among the plurality of objects when the recognizing unit recognizes the plurality of objects in the real space image. May be.
また、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、複数のオブジェクトのうち、階層情報が最下位の階層であるオブジェクトの付加情報を出力することを決定してもよい。 The determining unit determines to output additional information of an object whose hierarchical information is the lowest layer among the plurality of objects when the recognizing unit recognizes the plurality of objects in the real space image. May be.
また、記憶部には、さらに、オブジェクトの優先度情報が関連付けて記憶されており、
決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、優先度情報に基づいてオブジェクトの付加情報を出力することを決定してもよい。
Further, the storage unit further stores object priority information in association with each other.
The determination unit may determine to output the additional information of the object based on the priority information when a plurality of objects are recognized in the real space image by the recognition unit.
また、記憶部には、さらに、ユーザによるオブジェクトの属性情報が関連付けて記憶されており、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、属性情報に基づいてオブジェクトの付加情報を出力することを決定してもよい。 Further, the storage unit further stores attribute information of the object by the user in association with each other, and the determination unit, based on the attribute information when the recognition unit recognizes a plurality of objects in the real space image. You may decide to output the additional information of an object.
また、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、複数のオブジェクトのうち、所定の閾値以内のオブジェクトの付加情報を出力することを決定してもよい。 The determination unit may determine to output additional information of an object within a predetermined threshold among the plurality of objects when the recognition unit recognizes the plurality of objects in the real space image.
また、決定部は、認識部により実空間画像内で複数のオブジェクトが認識された場合に、表示部の表示サイズに応じて、複数のオブジェクトのうち所定数のオブジェクトの付加情報を出力することを決定してもよい。 In addition, when the recognition unit recognizes a plurality of objects in the real space image, the determination unit outputs additional information of a predetermined number of objects among the plurality of objects according to the display size of the display unit. You may decide.
また、認識部は、実空間画像内で認識したオブジェクトよりも下位の階層であるオブジェクトを認識対象としなくてもよい。 Further, the recognition unit may not recognize an object that is a lower hierarchy than the object recognized in the real space image.
また、上記課題を解決するために、本発明の別の観点によれば、画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とが関連付けて記憶部に記憶されており、実空間画像を取得するステップと、画像内のオブジェクトの特徴を示す特徴情報をもとに、取得された実空間画像に含まれるオブジェクトを認識するステップと、認識されたオブジェクトに関連付けられたオブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部への出力可否を決定するステップと、を含む、情報処理方法が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, feature information indicating characteristics of an object in an image, hierarchical information indicating a hierarchical relationship of the object, and an addition added to the object The information is stored in the storage unit in association with the information, and the object included in the acquired real space image is recognized based on the step of acquiring the real space image and the feature information indicating the characteristics of the object in the image. There is provided an information processing method including a step and a step of determining whether to output additional information added to the object to the display unit based on the hierarchical information of the object associated with the recognized object.
さらに、オブジェクトに付加される付加情報の表示部への出力が決定された場合に、実空間画像に含まれるオブジェクトに付加情報を重畳して表示部に表示させるステップ、を含んでもよい。 Furthermore, when the output of the additional information added to the object to the display unit is determined, a step of superimposing the additional information on the object included in the real space image and displaying the additional information on the display unit may be included.
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とを関連付けて記憶している記憶部と、実空間画像を取得する画像取得部と、画像内のオブジェクトの特徴を示す特徴情報をもとに、画像取得部により取得された実空間画像に含まれるオブジェクトを認識する認識部と、認識部により認識されたオブジェクトに関連付けられたオブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、を備える、情報処理装置として機能させるためのプログラムが提供される。 In order to solve the above problem, according to another aspect of the present invention, a computer adds feature information indicating characteristics of an object in an image, hierarchical information indicating a hierarchical relationship of the object, and the object. Based on feature information indicating features of objects in the image, a storage unit that stores the additional information to be associated with each other, an image acquisition unit that acquires a real space image, and an actual image acquired by the image acquisition unit. A recognition unit that recognizes an object included in the spatial image, and a determination that determines whether to output additional information added to the object to the display unit based on hierarchical information of the object associated with the object recognized by the recognition unit A program for causing the information processing apparatus to function.
また、上記課題を解決するために、本発明の別の観点によれば、情報処理装置とネットワークを介して接続され、情報処理装置により撮像された実空間画像を受信する受信部と、画像内のオブジェクトの特徴を示す特徴情報をもとに、画像取得部により取得された実空間画像に含まれるオブジェクトを認識する認識部と、認識部により認識されたオブジェクトに関連付けられたオブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、決定部によりオブジェクトに付加される付加情報の表示部への出力が決定された場合に、実空間画像に含まれるオブジェクトに付加情報を重畳した画像情報を情報処理装置に送信する送信部と、を備える、サーバが提供される。 In order to solve the above problem, according to another aspect of the present invention, a receiving unit connected to an information processing apparatus via a network and receiving a real space image captured by the information processing apparatus, Based on the feature information indicating the characteristics of the object, the recognition unit for recognizing the object included in the real space image acquired by the image acquisition unit, and the hierarchical information of the object associated with the object recognized by the recognition unit A determination unit that determines whether or not the additional information added to the object can be output to the display unit; and the determination unit determines whether to output the additional information added to the object to the display unit. And a transmission unit that transmits image information obtained by superimposing additional information on the object included in the information processing apparatus.
以上説明したように本発明によれば、画像に含まれるオブジェクトの階層情報に基づいて付加情報を出力して情報の視認性を向上させることができる。 As described above, according to the present invention, it is possible to improve the visibility of information by outputting additional information based on hierarchical information of objects included in an image.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、以下に示す順序に従って、当該「発明を実施するための最良の形態」を説明する。
〔1〕本実施形態の目的
〔2〕情報処理装置の概要
〔3〕情報処理装置のハードウェア構成
〔4〕第1実施形態
〔4−1〕情報処理装置の機能構成
〔4−2〕情報処理装置の動作の詳細
〔5〕第2実施形態
〔5−1〕情報処理装置の機能構成
〔5−2〕情報処理装置の動作の詳細
〔6〕第3実施形態
〔6−1〕情報処理装置の機能構成
〔6−2〕情報処理装置の動作の詳細
〔7〕サーバにおける付加情報出力可否の決定
Further, the “best mode for carrying out the invention” will be described in the following order.
[1] Purpose of this embodiment [2] Outline of information processing apparatus [3] Hardware configuration of information processing apparatus [4] First embodiment [4-1] Functional configuration of information processing apparatus [4-2] Information Details of Operation of Processing Device [5] Second Embodiment [5-1] Functional Configuration of Information Processing Device [5-2] Details of Operation of Information Processing Device [6] Third Embodiment [6-1] Information Processing Functional configuration of apparatus [6-2] Details of operation of information processing apparatus [7] Determination of availability of additional information output at server
〔1〕本実施形態の目的
まず、本実施形態の目的について説明する。最近では、拡張現実技術(Augmented Reality)の一環として撮影画像に対して何らかの付加情報を重畳することが行われている。例えば、拡張現実技術を用いて、現在位置の周辺の情報を実映像の画面に重畳して表示させる技術が開示されている。
[1] Purpose of this Embodiment First, the purpose of this embodiment will be described. Recently, some additional information is superimposed on a captured image as part of augmented reality technology (Augmented Reality). For example, using augmented reality technology, a technology is disclosed in which information around a current position is displayed superimposed on a real video screen.
上記技術では、カメラ等の撮像装置で撮像された映像データから視覚的特徴情報を抽出して、装置内に記憶された視覚的特徴情報と比較して類似度を算出する。そして、算出した類似度に基づいて、映像データ内のオブジェクトを特定して、仮想的な情報をアノテーション(注釈)として映像にオーバレイして出力している。 In the above technique, visual feature information is extracted from video data captured by an imaging device such as a camera, and the similarity is calculated by comparison with visual feature information stored in the device. Based on the calculated similarity, an object in the video data is specified, and virtual information is overlaid on the video as annotation (annotation) and output.
しかし、映像データ内に複数のオブジェクトが存在し、1つのオブジェクトに複数のオブジェクトが含まれ、それぞれのオブジェクトに付加情報が設定されている場合には、複数の仮想的な情報が同時にオーバレイされてしまう。この場合、複数の付加情報が重なり合って、情報の視認性が低下するという問題があった。 However, if there are multiple objects in the video data and one object contains multiple objects, and additional information is set for each object, multiple virtual information will be overlaid simultaneously. End up. In this case, there is a problem that a plurality of pieces of additional information are overlapped and information visibility is lowered.
例えば、撮像装置で遠く離れたビルを撮影した場合、撮影したビル全体とビル内の店舗やビル周辺の店舗が同時に認識される。このため、ビル全体に対する仮想的な情報と、個別の店舗に対する仮想的な情報のすべてが同時に撮像画像にオーバレイされてしまう。ユーザが個別の店舗に対する仮想的な情報を不要とする場合には、撮像画像にオーバレイされた情報は過多となり、視認性が低下してしまう。 For example, when a far-away building is photographed with the imaging device, the entire photographed building and stores in the building or stores around the building are simultaneously recognized. For this reason, the virtual information for the entire building and the virtual information for each individual store are simultaneously overlaid on the captured image. When the user does not need virtual information for individual stores, the information overlaid on the captured image is excessive and the visibility is lowered.
そこで、上記のような事情を一着眼点として、本発明の実施形態にかかる情報処理装置10が創作されるに至った。本実施形態にかかる情報処理装置10によれば、画像に含まれるオブジェクトの階層情報に基づいて付加情報を出力して情報の視認性を向上させることが可能となる。
Therefore, the
〔2〕情報処理装置の概要
次に、図1を参照して、情報処理装置10の概要について説明する。図1は、情報処理装置10の概要を説明する説明図である。情報処理装置10は、例えば、携帯電話やPDA(Personal Digital Assistant)や小型のPC(Personal Computer)など、表示装置を備える情報処理端末を例示することができる。情報処理装置10には、実画像に付加される仮想情報500が登録されている。仮想情報500として、ビルや店舗の実画像と、該実画像に付加される付加情報が対応付けられている。
[2] Overview of Information Processing Device Next, an overview of the
例えば、図1に示したように、ビルの仮想情報501として、ビルの全景の実画像に対応して付加情報「Bビル」が登録されている。また、店舗の仮想情報502として、各店舗の実画像に対応して、「カフェC」、「レストランD」、「ドラッグストアE」、「F医院」などの各店舗の付加情報が登録されている。その他、マンションの仮想情報503として、マンションの実画像に対して「駐車場満車」や「空室入居者募集中」などの付加情報が登録されている。
For example, as illustrated in FIG. 1, additional information “B building” is registered as
画像550は、従来の情報処理装置50により撮像画像に仮想情報がオーバレイされた画像である。画像550では、撮像画像内において認識された実画像のすべてに仮想情報が付加されている。例えば、「Bビル」内に「カフェC」、「レストランD」、「ドラッグストアE」、「F医院」などの店舗が含まれている場合には、画像550内のほぼ同位置にこれらの付加情報が表示されることとなる。したがって、画像550では、複数の付加情報が重なり合って表示されて、視認性が低下している。
The
一方、図1の画像510は、本実施形態にかかる情報処理装置10により撮像画像に仮想情報がオーバレイされた画像である。画像510では、撮像画像内において認識された実画像のすべてに付加情報が付加されておらず、複数の付加情報から選択された、いくつかの付加情報が表示されている。例えば、Bビルはビルの全景を認識することができるので、ビルの名称「Bビル」のみを実画像に重畳し、Bビルに含まれる複数の店舗の付加情報は表示していない。このように、撮像画像内で認識された実画像の付加情報のすべてを重畳させるのではなく、いくつかの付加情報を選択して表示させることにより、画像550に比較して視認性を向上させることができる。
On the other hand, an
以下では、実画像において認識されるビルや店舗などの付加情報の付加対象物をオブジェクトと称する。本実施形態では、オブジェクトの階層関係を示す階層情報を保持している。オブジェクトの階層関係とは、意味的な階層関係であって、例えば、ビルに店舗が含まれている場合には、ビルが上位階層、店舗が下位階層となる。本実施形態では、画像に含まれるオブジェクトの階層情報に基づいて、複数の付加情報からどのオブジェクトの付加情報を表示させるかを決定する。例えば、Bビルと複数の店舗が上位、下位の階層関係にある場合に、上位階層のオブジェクトの階層情報のみを表示することを決定する。 Hereinafter, an additional object of additional information such as a building or a store recognized in a real image is referred to as an object. In the present embodiment, hierarchical information indicating the hierarchical relationship between objects is held. The hierarchical relationship between objects is a semantic hierarchical relationship. For example, when a building includes a store, the building is an upper layer and the store is a lower layer. In the present embodiment, which object additional information is to be displayed is determined from a plurality of additional information based on the hierarchical information of the object included in the image. For example, when the building B and a plurality of stores are in the upper and lower hierarchy relationship, it is determined to display only the hierarchy information of the object in the upper hierarchy.
〔3〕情報処理装置のハードウェア構成
以上、情報処理装置10の概要について説明した。次に、図2を参照して、情報処理装置10のハードウェア構成について説明する。図2は、情報処理装置10のハードウェア構成を示すブロック図である。情報処理装置10は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ホストバス104と、ブリッジ105と、外部バス106と、インタフェース107と、入力装置108と、出力装置110と、ストレージ装置(HDD)111と、ドライブ112と、通信装置115とを備える。
[3] Hardware Configuration of Information Processing Device The outline of the
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM102は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバスなどから構成されるホストバス104により相互に接続されている。
The
ホストバス104は、ブリッジ105を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス106に接続されている。なお、必ずしもホストバス104、ブリッジ105および外部バス106を分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
The
入力装置108は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、該入力装置108を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置109、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Display)装置およびランプなどの表示装置と、スピーカおよびヘッドホンなどの音声出力装置で構成される。出力装置109は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データ等を音声に変換して出力する。
The
ストレージ装置110は、本実施形態にかかる情報処理装置10の記憶部の一例として構成されたデータ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ストレージ装置110は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置110は、ハードディスクを駆動し、CPU101が実行するプログラムや各種データを格納する。また、このストレージ装置110には、後述の、アイテム、識別番号などを記憶する。
The
ドライブ111は、記憶媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ111は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM103に出力する。
The
通信装置112は、例えば、通信網50に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置112は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
The
〔4〕第1実施形態
以上、情報処理装置10のハードウェア構成例を、図2を参照して説明した。次に、図3を参照して、第1実施形態にかかる情報処理装置10の機能構成について説明する。図3は、本実施形態にかかる情報処理装置10の機能構成を示すブロック図である。
[4] First Embodiment The hardware configuration example of the
〔4−1〕情報処理装置の機能構成
図3に示したように、情報処理装置10は、画像取得部202、認識部204、決定部206、表示制御部208、記憶部210などを備える。
[4-1] Functional Configuration of Information Processing Device As illustrated in FIG. 3, the
画像取得部202は、実空間画像を取得する機能を有する。実空間画像とは、撮像装置(図示せず)により撮像された情報処理装置10の風景などの画像である。撮像装置は、情報処理装置10と一体として構成されていてもよいし、別体の装置として構成されていてもよい。例えば、情報処理装置10とは別体の撮像装置により撮像された画像をメモリカード等の記憶装置に記憶させて、画像取得部202により取り込むようにしてもよい。画像取得部202は、取得した実空間画像を認識部204および表示制御部208に提供する。
The
認識部204は、画像内のオブジェクトの特徴を示す特徴情報をもとに、画像取得部202により取得された実空間画像に含まれるオブジェクトを認識する機能を有する。具体的には、画像取得部202から提供された風景画像等の全体もしくは任意の部分に分割した画像の各領域の特徴情報を抽出する。そして、抽出した特徴情報と、後述する記憶部210に記憶されているオブジェクトの特徴情報とを比較して、類似度を算出する。該類似度が閾値以上であれば、記憶部210に記憶されているオブジェクトが実空間画像に存在すると判定する。
The
認識部204は、実空間画像にオブジェクトが存在するか否かの判定を、存在する可能性のあるすべてのオブジェクトについて実行する。認識部204は、上記のオブジェクトの認識処理は、例えば、特表2004−095374号公報に開示されている技術を利用することができる。認識部204は、認識したオブジェクトの情報を決定部206に提供する。
The
決定部206は、認識部204により認識されたオブジェクトに関連付けられた該オブジェクトの階層情報に基づいて、オブジェクトに付加される付加情報の表示部(図示せず)への出力可否を決定する機能を有する。具体的には、認識部204により認識されたオブジェクトが、記憶部210に記憶されているか否かを判断する。そして、記憶部210に認識部204により認識されたオブジェクトが存在する場合に、該オブジェクトの階層情報をもとに所定の条件に合致するオブジェクトを決定して、該オブジェクトに関連付けられた付加情報をオブジェクトに重畳する。
The
ここで、図4を参照して記憶部210に記憶されている階層情報について説明する。記憶部210に記憶されている階層情報は、意味的な階層関係を示し、図4に示したように、例えば、ビル群Aが上位階層、ビルaおよびビルbが中位階層、店舗1、2、3が下位階層の関係となっている。記憶部210には、オブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とが関連付けて記憶されている。したがって、認識部204により認識されたオブジェクトがビルbである場合には、オブジェクトの特徴情報に関連付けられた階層情報により、ビルbがビル群Aの下位階層であり、店舗1〜3の上位階層であることがわかる。
Here, the hierarchical information stored in the
例えば、認識部204によりビルaと店舗2が同時に認識された場合、ビルaは認識されたオブジェクトのうちで最上位の階層となる。決定部206が、複数のオブジェクトのうち、最上位の階層のオブジェクトの付加情報を出力するとしている場合、認識されたオブジェクトうち最上位の階層であるビルaを、付加情報を付加する対象として選択する。一方、店舗2は、店舗2より上位階層となるビルaが認識されているため、付加情報を付加する対象として選択しない。
For example, when the
また、決定部206が、複数のオブジェクトのうち、最下位の階層のオブジェクトの付加情報を出力するとしてもよい。この場合、認識されたオブジェクトのうち最下位の階層である店舗2を、付加情報を付加する対象として選択する。一方、ビルaは、ビルaより下位階層となる店舗2が認識されているため、付加情報を付加する対象として選択しない。
Further, the
また、記憶部210に、オブジェクトに該オブジェクトの優先度情報が関連付けて記憶されている場合には、優先度情報に基づいてオブジェクトの付加情報の出力可否を決定してもよい。例えば、優先度情報は、口コミ人気や、登録日時や更新日時の新旧、過去にその場所でオブジェクトを参照した頻度などによって決定されるようにしてもよい。この場合、決定部206は、複数のオブジェクトが認識された場合に、優先度の高いオブジェクトの付加情報を出力することを決定する。
Further, when the priority information of the object is associated with the object and stored in the
また、記憶部210に、オブジェクトの属性情報が関連付けて記憶されている場合には、属性情報にもとづいてオブジェクトの付加情報の出力可否を決定してもよい。例えば、属性情報は、オブジェクトの付加情報をいつ出力するか、どこで出力するかなどの情報である。例えば、ユーザの現在の状態の情報と、オブジェクトの属性情報とが一致する場合に該オブジェクトの付加情報を出力するようにしてもよい。ユーザの現在の状態とは、例えば、夜か昼か、誕生日か、記念日かなどの日時や、ユーザのサービス購入状況や、ユーザの移動速度、ユーザが属しているコミュニティ、ユーザが通常生活している場所、新着情報の希望の有無、ユーザの嗜好情報などが挙げられる。
When the attribute information of the object is stored in the
記憶部210には、オブジェクトの属性情報として、上記したユーザの現在の状態に対応した属性値が記憶されている。例えば、オブジェクトにユーザの誕生日の値が属性情報として記憶されていた場合に、認識部204により認識されたオブジェクトと撮像日時が合致した場合に、該オブジェクトの付加情報を重畳するようにしてもよい。また、記憶部210に、付加情報を重畳するオブジェクトの数の上限値の設定情報を記憶してもよい。決定部206は、出力可否の決定情報を表示制御部208に提供する。
The
表示制御部208は、決定部206により決定されたオブジェクトに対して、記憶部210に記憶されている該オブジェクトに関連付けられた付加情報を重畳して表示部に表示させる機能を有する。表示制御部208は、画像取得部202により提供された実空間画像に、決定部206により決定されたオブジェクトの付加情報を実空間画像の対象オブジェクトに重畳した画像を生成して表示部に表示させる。
The
〔4−2〕情報処理装置の動作の詳細
以上、情報処理装置10の機能構成について説明した。次に、図5〜図7を参照して、情報処理装置10の動作の詳細について説明する。図5は、情報処理装置10の全体動作を示すフローチャートである。まず、画像取得部202は、撮像装置を介して情報処理装置10の周辺の風景などの画像を取得する(S102)。次に、認識部204は、ステップS102において取得した画像上のすべてのオブジェクトを認識する(S104)。ステップS104におけるオブジェクトの認識処理については後で詳細に説明する。
[4-2] Details of Operation of Information Processing Apparatus The functional configuration of the
そして、決定部206は、記憶部210に記憶されている階層情報に基づいて、ステップS194において認識されたオブジェクトのうち、仮想情報(付加情報)をオーバレイ(重畳)するオブジェクトを選択する(S106)。ステップS106におけるオブジェクトの選択処理については、後で詳細に説明する。
Then, the
そして、表示制御部208は、オブジェクトに仮想情報をオーバレイした画像を生成して表示部に出力させる(S108)。以上、情報処理装置10の全体動作について説明した。
Then, the
図5に示した動作は、例えば、動画のフレームレート等に合わせて周期的に実行される。また、図5に示したオブジェクト認識ステップS104と仮想情報をオーバレイするオブジェクト選択のステップは、数回の全体動作のうち一回だけ実行するようにしてもよい。これにより、オブジェクト認識ステップS104と仮想情報をオーバレイするオブジェクト選択ステップS106の処理負荷を軽減して、ユーザに違和感のない高フレームレートでの画像出力を実現することが可能となる。 The operation shown in FIG. 5 is periodically executed according to, for example, the frame rate of the moving image. Further, the object recognition step S104 shown in FIG. 5 and the object selection step for overlaying the virtual information may be executed only once out of several overall operations. As a result, it is possible to reduce the processing load of the object recognition step S104 and the object selection step S106 for overlaying virtual information, and to realize image output at a high frame rate that does not give the user a sense of incongruity.
次に、図6を参照して、オブジェクトの認識処理の詳細を説明する。図6は、オブジェクトの認識処理を示すフローチャートである。図6に示したように、認識部204は、まず、記憶部210に記憶されている、認識候補となるオブジェクトの視覚的特徴量を取得する(S202)。ステップS202において認識部204が取得するオブジェクトの視覚的特徴量は、オブジェクトの特徴を示す特徴情報の一例である。
Next, the details of the object recognition process will be described with reference to FIG. FIG. 6 is a flowchart showing object recognition processing. As illustrated in FIG. 6, the
次に、認識部204は、画像取得部202により取得された風景画像等の実空間画像の部分画像を抽出する(S204)。そして、ステップS204において抽出した部分画像の視覚的特徴量を算出する(S206)。そして、ステップS202において取得した認識候補となるオブジェクトの視覚的特徴量と、ステップS206において取得した部分画像の視覚的特徴量とを用いて、両者の類似度を計算する(S208)。
Next, the
そして、実空間画像(風景画像)の全領域に対して、ステップS208の類似度の計算を完了したか否かを判定する(S210)。ステップS210において、実空間画像の全領域に対して類似度の計算を完了していないと判定された場合には、ステップS204からステップS208の処理を繰り返す。 Then, it is determined whether or not the similarity calculation in step S208 has been completed for all regions of the real space image (landscape image) (S210). If it is determined in step S210 that the similarity calculation has not been completed for all regions of the real space image, the processing from step S204 to step S208 is repeated.
ステップS210において、実空間画像の全領域に対して類似度の計算を完了したと判定された場合には、ステップS208において計算した類似度の最大値が所定の閾値以下であるか否かを判定する(S212)。ステップS208において計算される類似度を示す値は、類似性が高いほど小さい値となる。すなわち、ステップS212において、類似度の最大値が所定の閾値以下であれば、部分画像から抽出された画像と認識候補となった記憶部210に記憶されているオブジェクトとが類似していることとなる。
If it is determined in step S210 that the similarity calculation has been completed for all regions of the real space image, it is determined whether or not the maximum similarity calculated in step S208 is equal to or less than a predetermined threshold. (S212). The value indicating the similarity calculated in step S208 becomes a smaller value as the similarity is higher. That is, in step S212, if the maximum value of the similarity is equal to or less than a predetermined threshold, the image extracted from the partial image is similar to the object stored in the
ステップS212において、類似度の最大値が所定の閾値以下であると判定された場合には、画像内のオブジェクトを特定する(S214)。ステップS212において、類似度の最大値が所定の閾値より大きいと判定された場合には、ステップS216の処理を実行する。ステップS216では、ステップS202において取得された認識候補であるすべてのオブジェクトに対して処理を終了したか否かを判定する(S216)。 If it is determined in step S212 that the maximum similarity is not more than a predetermined threshold, an object in the image is specified (S214). If it is determined in step S212 that the maximum similarity is greater than a predetermined threshold, the process of step S216 is executed. In step S216, it is determined whether or not processing has been completed for all objects that are recognition candidates acquired in step S202 (S216).
ステップS216において、認識候補であるすべてのオブジェクトに対して処理を終了したと判定された場合には、オブジェクトの認識処理を終了する。一方、ステップS216において、認識候補であるすべてのオブジェクトに対して処理を終了していないと判定された場合には、ステップS202の処理に戻る。 If it is determined in step S216 that the process has been completed for all objects that are recognition candidates, the object recognition process is terminated. On the other hand, if it is determined in step S216 that the processing has not been completed for all objects that are recognition candidates, the process returns to step S202.
以上、オブジェクトの認識処理の詳細について説明した。なお、図6に示した認識処理は、一例であり、記憶部210において記憶されているオブジェクトの特徴情報を用いて、実空間画像上のオブジェクトを認識するのであれば、他の処理方法をであってもよい。
The details of the object recognition process have been described above. Note that the recognition processing shown in FIG. 6 is an example, and other processing methods can be used if the object on the real space image is recognized using the object feature information stored in the
次に、図7を参照して、仮想情報(付加情報)をオーバレイするオブジェクトの選択処理の詳細を説明する。図7は、オブジェクトの選択処理の詳細を示すフローチャートである。上記したように、仮想情報をオーバレイするオブジェクトの選択処理では、オブジェクトに関連付けられている階層情報を用いて認識された複数のオブジェクトから選択される。本実施形態では、認識された複数のオブジェクトが階層関係を有している場合、所定の条件に合致するオブジェクトを仮想的な情報をオーバレイする対象として選択する。 Next, with reference to FIG. 7, the details of the process of selecting an object that overlays virtual information (additional information) will be described. FIG. 7 is a flowchart showing details of the object selection process. As described above, in the process of selecting an object that overlays virtual information, a selection is made from a plurality of objects recognized using hierarchical information associated with the object. In the present embodiment, when a plurality of recognized objects have a hierarchical relationship, an object that meets a predetermined condition is selected as a virtual information overlay target.
ここで、所定の条件とは、例えば、階層情報において意味的に最上位の階層である場合や意味的に最下位の階層であることなどが挙げられる。図7ではでは、所定の条件を意味的に最上位の階層であることとして説明する。 Here, the predetermined condition includes, for example, a case where the hierarchical information is a semantically highest hierarchy or a semantically lowest hierarchy. In FIG. 7, the predetermined condition is described as being semantically the highest hierarchy.
まず、ステップS104において認識されたオブジェクトのうち、表示/非表示のマークが設定されていないオブジェクトを一つ選択する(S222)。表示/非表示のマークとは、実空間画像の対応するオブジェクトの付加情報を表示するか非表示とするかのマークである。次に、記憶部210に記憶されているオブジェクトに関連付けられた階層情報を用いて、ステップS222において選択されたオブジェクトより上位のオブジェクトであって、実空間画像内に認識されているオブジェクトのうち最上位のものを抽出する(S224)。
First, among the objects recognized in step S104, one object for which no display / non-display mark is set is selected (S222). The display / non-display mark is a mark indicating whether or not to display the additional information of the corresponding object of the real space image. Next, using the hierarchical information associated with the object stored in the
そして、ステップS222において抽出された階層が最上位のオブジェクトを、付加情報を表示するオブジェクトとして「表示」のマークを設定する(S228)。そして、実空間画像内で認識されたすべてのオブジェクトに対して表示/非表示がマークされたか否かを判定する(S230)。ステップS230において、すべてのオブジェクトに対して表示/非表示がマークされた場合には処理を終了する。一方、ステップS230において、すべてのオブジェクトに対して表示/非表示がマークされていないと判定された場合には、ステップS222〜ステップS228の処理を繰り返す。 Then, the “display” mark is set as the object whose top level is extracted in step S222 as an object for displaying additional information (S228). Then, it is determined whether display / non-display is marked for all objects recognized in the real space image (S230). If display / non-display is marked for all objects in step S230, the process ends. On the other hand, if it is determined in step S230 that display / non-display is not marked for all objects, the processing in steps S222 to S228 is repeated.
以上、オブジェクトの選択処理について説明した。本実施形態によれば、取得した実空間画像の部分画像の特徴情報と、記憶部210に記憶されているオブジェクトの特徴情報とを比較して、両者の類似度を算出することにより実空間画像内のオブジェクトを認識する。そして、認識されたオブジェクトの階層情報に基づいて、実空間画像内のオブジェクトに付加情報を重畳するか否かを決定する。これにより、例えば、最上位階層のオブジェクトの付加情報のみを重畳したり、最下位階層のオブジェクトの付加情報のみを重畳したりして、実空間画像に重畳される付加情報を適切に表示して視認性を向上することができる。
The object selection process has been described above. According to this embodiment, the real space image is obtained by comparing the feature information of the partial image of the acquired real space image with the feature information of the object stored in the
〔5〕第2実施形態
以上、第1実施形態について説明した。次に、第2実施形態について説明する。本実施形態における情報処理装置10′は、第1実施形態にかかる情報処理装置10とほぼ同様の構成を有するため、第1実施形態と異なる機能について特に詳細に説明する。第1実施形態では、記憶部210に記憶されているオブジェクトのすべてに対して認識処理を実行していたが、本実施形態では、認識対象とするオブジェクトと認識対象としないオブジェクトを判定する点で第1実施形態と異なっている。
[5] Second Embodiment The first embodiment has been described above. Next, a second embodiment will be described. Since the
〔5−1〕情報処理装置の機能構成
本実施形態では、第1実施形態と同様に、決定部206がオブジェクトの階層情報に基づいて付加情報を重畳するオブジェクトを選択する。本実施形態では、決定部206が、付加情報を重畳するオブジェクトを選択し、階層情報と所定の条件から認識対象としないオブジェクトを決定して認識部204に通知する。
[5-1] Functional Configuration of Information Processing Device In this embodiment, as in the first embodiment, the
例えば、所定の条件が階層の最上位のオブジェクトの付加情報を重畳させるという条件である場合に、認識部204によりビルaが認識されたとする。この場合。決定部206は、ビルaより下位の階層にあるオブジェクトについては認識対象としないように認識部204に指示する。
For example, it is assumed that the building a is recognized by the
〔5−2〕情報処理装置の動作の詳細
次に、図8〜図10を参照して、情報処理装置10′の動作の詳細について説明する。図8は、情報処理装置10′の動作全体を示すフローチャートである。まず、画像取得部202は、撮像装置を介して情報処理装置10′の周辺の風景などの画像を取得する(S302)。次に、認識部204は、ステップS202において取得した画像上の一つのオブジェクトを認識する(S304)。ステップS104におけるオブジェクトの認識処理については後で詳細に説明する。
[5-2] Details of Operation of Information Processing Device Next, details of the operation of the
そして、決定部206は、記憶部210に記憶されている階層情報と、ステップS204におけるオブジェクトの認識結果から、オブジェクト認識処理を実行するオブジェクトを決定する(S306)。ステップS306におけるオブジェクトの選択処理については、後で詳細に説明する。
Then, the
そして、すべての認識候補オブジェクトに対して処理が終了したか否かを判定する(S308)。ステップS308においてすべての認識候補オブジェクトに対して処理が終了していないと判定された場合には、ステップS304〜ステップS308の処理を繰り返す。ステップS308においてすべての認識候補オブジェクトに対して処理が終了したと判定された場合には、決定部206は、オブジェクトに設定された表示/非表示のマーク結果を表示制御部208に通知する。
Then, it is determined whether or not the processing has been completed for all recognition candidate objects (S308). If it is determined in step S308 that the processing has not been completed for all recognition candidate objects, the processing in steps S304 to S308 is repeated. If it is determined in step S308 that the processing has been completed for all recognition candidate objects, the
そして、表示制御部208は、オブジェクトに仮想情報をオーバレイした画像を生成して表示部に出力する(S310)。以上、情報処理装置10′の全体動作について説明した。
Then, the
次に、図9を参照して、オブジェクトの認識処理の詳細を説明する。図9は、オブジェクトの認識処理を示すフローチャートである。図9に示したように、認識部204は、まず、記憶部210に記憶されている、認識候補となるオブジェクトの視覚的特徴量の1つを取得する(S402)。ステップS402においてどのオブジェクトの視覚的特徴量を取得するかは、決定部206により指定される。決定部206により指定されなかった場合には、認識部204は、視覚的特徴量を未だ取得しておらず、かつ、決定部206により認識処理を行わないように指示されていないオブジェクトのなかから任意の1つを選択する。
Next, the details of the object recognition process will be described with reference to FIG. FIG. 9 is a flowchart showing object recognition processing. As shown in FIG. 9, the
次に、認識部204は、画像取得部202により取得された風景画像等の実空間画像の部分画像を抽出する(S404)。そして、ステップS404において抽出した部分画像の視覚的特徴量を算出する(S406)。そして、ステップS402において取得した認識候補となるオブジェクトの視覚的特徴量と、ステップS406において取得した部分画像の視覚的特徴量とを用いて、両者の類似度を計算する(S408)。
Next, the
そして、実空間画像(風景画像)の全領域に対して、ステップS408の類似度の計算を完了したか否かを判定する(S410)。ステップS410において、実空間画像の全領域に対して類似度の計算を完了していないと判定された場合には、ステップS404からステップS408の処理を繰り返す。 Then, it is determined whether or not the similarity calculation in step S408 has been completed for all regions of the real space image (landscape image) (S410). If it is determined in step S410 that the similarity calculation has not been completed for all regions of the real space image, the processing from step S404 to step S408 is repeated.
ステップS410において、実空間画像の全領域に対して類似度の計算を完了したと判定された場合には、ステップS408において計算した類似度の最大値が所定の閾値以下であるか否かを判定する(S412)。ステップS412において、類似度の最大値が所定の閾値以下であると判定された場合には、画像内のオブジェクトを特定する(S414)。ステップS412において、類似度の最大値が所定の閾値より大きいと判定された場合には処理を終了する。 If it is determined in step S410 that the similarity calculation has been completed for all regions of the real space image, it is determined whether the maximum similarity calculated in step S408 is equal to or less than a predetermined threshold. (S412). If it is determined in step S412 that the maximum similarity is not more than a predetermined threshold, an object in the image is specified (S414). If it is determined in step S412 that the maximum similarity value is greater than the predetermined threshold value, the process ends.
以上、オブジェクトの認識処理の詳細について説明した。次に、図10を参照して、仮想情報をオーバレイするオブジェクトの選択処理の詳細を説明する。図10は、オブジェクトの選択処理の詳細を示すフローチャートである。以下では、認識された複数のオブジェクトが階層関係を有している場合、階層関係が最上位であるオブジェクトを仮想的な情報をオーバレイする対象として選択する場合について説明する。しかし、かかる例に限定されず、階層関係が最下位であるオブジェクトを仮想的な情報をオーバレイする対象として選択してもよい。 The details of the object recognition process have been described above. Next, with reference to FIG. 10, the details of the process of selecting an object to overlay virtual information will be described. FIG. 10 is a flowchart showing details of the object selection processing. In the following, a case will be described in which when a plurality of recognized objects have a hierarchical relationship, an object having the highest hierarchical relationship is selected as a target for overlaying virtual information. However, the present invention is not limited to this example, and the object having the lowest hierarchical relationship may be selected as a virtual information overlay target.
まず、認識候補となるオブジェクトが実空間画像内にあったか否かを判定する(S422)。ステップS422において、認識候補となるオブジェクトが実空間画像内にあったと判定された場合には、認識候補となるオブジェクトよりも意味的に上位のオブジェクトを記憶部210から抽出する。ステップS424の抽出処理において、認識候補となるオブジェクトよりも意味的に上位のオブジェクトが記憶部210に記憶されていたか否かを判定する(S426)。ステップS426において、意味的に上位のオブジェクトがあると判定された場合には、意味的に上位のオブジェクトを新たな認識候補オブジェクトに設定する。
First, it is determined whether or not an object as a recognition candidate is in the real space image (S422). If it is determined in step S422 that an object that is a recognition candidate is in the real space image, an object that is semantically higher than the object that is a recognition candidate is extracted from the
一方、ステップS422において、認識候補オブジェクトが実空間画像内にないと判定された場合、または、ステップS426において、意味的に上位のオブジェクトがないと判定された場合には、最後に認識されたオブジェクトを、付加情報を重畳する表示オブジェクトとしてマークする(S430)。そして、ステップS430において、表示オブジェクトとしてマークしたオブジェクトより意味的に下位のオブジェクトを非表示オブジェクトとしてマークする。ここで、非表示オブジェクトとしてマークされたオブジェクトは、認識処理を行わないオブジェクトである。 On the other hand, if it is determined in step S422 that the recognition candidate object is not in the real space image, or if it is determined in step S426 that there is no semantically superior object, the last recognized object Are marked as display objects on which additional information is superimposed (S430). In step S430, an object that is semantically lower than the object marked as a display object is marked as a non-display object. Here, an object marked as a non-display object is an object for which recognition processing is not performed.
以上、オブジェクトの選択処理の詳細について説明した。本実施形態によれば、オブジェクトに関連付けられた階層情報を用いて、認識処理を行う対象を、付加情報を重畳する可能性のあるオブジェクトに限定することができる。これにより、記憶部210に記憶されているすべてのオブジェクトに対して認識処理を行う第1実施形態に比べて、認識処理全体の計算時間を短縮することが可能となる。
The details of the object selection process have been described above. According to the present embodiment, it is possible to limit the target to be recognized using the hierarchical information associated with the object to objects that may superimpose additional information. Thereby, it is possible to reduce the calculation time of the entire recognition process as compared with the first embodiment in which the recognition process is performed on all objects stored in the
〔6〕第3実施形態
以上、第2実施形態について説明した。次に、第3実施形態について説明する。本実施形態における情報処理装置15は、第1実施形態にかかる情報処理装置10および第2実施形態に係る情報処理装置10′とは、仮想情報を入力する機能が追加されている点で異なっている。以下では、第1実施形態および第2実施形態とは異なる点について特に詳細に説明する。
[6] Third Embodiment The second embodiment has been described above. Next, a third embodiment will be described. The
〔6−1〕情報処理装置の機能構成
図11を参照して、本実施形態にかかる情報処理装置15の機能構成を説明する。図11に示したように、情報処理装置15は、画像取得部202、認識部204、決定部206、表示制御部208、記憶部210、付加情報入力部212、階層関係決定部214などを備える。
[6-1] Functional Configuration of Information Processing Device The functional configuration of the
画像取得部202、認識部204、決定部206、表示制御部208、記憶部210は第1実施形態と同様の機能を有するため、詳細な説明は省略する。
Since the
付加情報入力部212は、ユーザ操作に応じて、付加情報を入力する機能を有する。付加情報とは、実空間画像に重畳される文字情報等の仮想的な情報である。付加情報入力部212は、上記した入力装置108の一例であって、キーボードや音声入力、タッチパネル等を用いて実現される。
The additional
記憶部210は、第1実施形態において説明した情報に加え、オブジェクトの分割された部分領域の視覚的情報も記憶する。オブジェクトの部分領域の視覚的情報は認識部204に利用される。
In addition to the information described in the first embodiment, the
認識部204は、第1実施形態において説明した機能に加えて、画像取得部202から入力された風景画像等の実空間画像中に、記憶部210により記憶されているオブジェクトの一部が含まれていることを認識する機能も有する。具体的には、風景画像の全体もしくは部分領域と、記憶部210に記憶されている視覚的情報の全体もしくは一部との類似度を算出することにより実現される。認識部204による認識結果は決定部206に出力されると同時に、階層関係決定部214に出力される。
In addition to the functions described in the first embodiment, the
階層関係決定部214は、付加情報入力部212により入力された付加情報の付与対象となっているオブジェクトの階層関係を決定する機能を有する。付加情報入力部212からユーザが入力した付加情報が提供され、認識部204からオブジェクトの認識結果が提供される。階層関係決定部214は、認識部204から提供された認識結果を用いて、オブジェクトの階層関係を決定する。
The hierarchical
具体的には、まず、階層関係決定部214は、実空間画像内に認識されたオブジェクトが存在するか否かを判断する。そして、画像取得部202により取得された実空間画像内に認識されたオブジェクトが存在する場合に、認識されたオブジェクトの実空間画像内の面積率と、オブジェクトと合致した記憶部210内の視覚的情報のオブジェクト全体に対する面積率とを用いて、意味的な階層関係を決定する。階層関係決定部214による階層関係の決定方法については後で詳細に説明する。階層関係決定部214により決定されたオブジェクトの階層関係と、ユーザにより入力された付加情報が記憶部210に関連付けて記憶される。
Specifically, first, the hierarchical
〔6−2〕情報処理装置の動作の詳細
以上、情報処理装置15の機能構成について説明した。次に、図12および図13を参照して、情報処理装置15の動作の詳細について説明する。以下では、第1実施形態および第2実施形態と異なる処理について特に詳細に説明し、同様の処理については詳細な説明は省略する。
[6-2] Details of Operation of Information Processing Device The functional configuration of the
図12は、情報処理装置15の全体動作を示すフローチャートである。まず、画像取得部202は、撮像装置を介して情報処理装置15の周辺の風景などの画像を取得する(S502)。次に、認識部204は、ステップS502において取得した画像上のすべてのオブジェクトを認識する(S504)。
FIG. 12 is a flowchart showing the overall operation of the
そして、階層関係決定部214は、ユーザにより入力された付加情報の付与対象となっているオブジェクトの意味的な階層関係を決定する(S506)。ステップS506におけるオブジェクトの意味的な階層関係の決定処理については、後で詳細に説明する。そして、ステップS506において決定された意味的な階層関係を記憶部210に追加または更新し、入力された付加情報を追加する(S508)。
Then, the hierarchical
以上、情報処理装置15の全体動作について説明した。次に、図13を参照して、オブジェクトの意味的な階層関係の決定処理について説明する。図13は、オブジェクトの意味的な階層関係の決定処理を示すフローチャートである。図13に示したように、まず、実空間画像(風景画像)内に認識部204により認識されたオブジェクトが存在するか否かを判定する(S602)。
The overall operation of the
ステップS602において、認識されたオブジェクトが存在すると判定された場合には、ステップS604以降の処理において、認識されたオブジェクトの面積率と、該オブジェクトとマッチした記憶部内の視覚的情報のオブジェクト全体に対する面積率とを用いて、図14に示す意味的な階層関係を決定する。図14は、階層関係決定部214により決定される意味的な階層関係を説明する説明図である。ステップS602以降の処理を実行することにより、図14の意味的な階層関係が決定される。
If it is determined in step S602 that the recognized object exists, the area ratio of the recognized object and the area of the visual information in the storage unit that matches the object with respect to the entire object in the processing after step S604. The semantic hierarchical relationship shown in FIG. 14 is determined using the rate. FIG. 14 is an explanatory diagram for explaining the semantic hierarchical relationship determined by the hierarchical
一方、ステップS602において、認識されたオブジェクトが存在しないと判定された場合には、記憶部210に記憶されているオブジェクトとは意味的な階層関係のないものと決定する(S606)。 On the other hand, if it is determined in step S602 that the recognized object does not exist, it is determined that there is no semantic hierarchical relationship with the object stored in the storage unit 210 (S606).
ステップS604において、認識部204により実空間画像内に複数のオブジェクトが認識された場合には、実空間画像内の面積率最も高いオブジェクトを抽出する(S604)。ステップS604において抽出されたオブジェクトをオブジェクトXと称して以下説明する。
In step S604, when the
次に、オブジェクトXの画面占有率が所定の閾値以上であるか否かを判定する(S608)。ステップS608において、オブジェクトXの画面占有率が所定の閾値以上であると判定された場合には、ステップS612の処理を実行する。ステップS612では、オブジェクトXを認識した際に参照した記憶部210の視覚的情報のうち、画像占有率が最大のもの(以下、リファレンスYと称する)を抽出する(S612)。ここで、画像占有率とは、記憶部210に視覚的情報が記憶される際に、認識に用いた画像に対する視覚的情報の面積率である。
Next, it is determined whether or not the screen occupation ratio of the object X is equal to or greater than a predetermined threshold (S608). If it is determined in step S608 that the screen occupation ratio of the object X is equal to or greater than a predetermined threshold value, the process of step S612 is executed. In step S612, the visual information having the maximum image occupancy rate (hereinafter referred to as reference Y) is extracted from the visual information in the
一方、ステップS608において、オブジェクトXの画面占有率が所定の閾値以上ではないと判定された場合には、ステップS610の処理を実行する。ステップS610では、ユーザが付加情報を付加しようとしているオブジェクトは、記憶部210に未登録であり、認識されたオブジェクトよりも意味的に上位の階層であると決定する。
On the other hand, if it is determined in step S608 that the screen occupancy rate of the object X is not equal to or greater than the predetermined threshold value, the process of step S610 is executed. In step S610, the object to which the user intends to add additional information is determined to be unregistered in the
ステップS612の処理を実行した後、リファレンスYの画面占有率が閾値以上であるか否かを判定する(S614)。ステップS614において、リファレンスYの画面占有率が閾値以上であると判定された場合には、ステップS618の処理を実行する。ステップS618においては、ユーザが付加情報を付加しようとしているオブジェクトはオブジェクトXであり、リファレンスYと同一であると決定する。 After executing the process of step S612, it is determined whether or not the screen occupancy rate of the reference Y is equal to or greater than a threshold value (S614). If it is determined in step S614 that the screen occupancy rate of reference Y is equal to or greater than the threshold value, the process of step S618 is executed. In step S618, it is determined that the object to which the user is to add additional information is the object X and is the same as the reference Y.
一方、ステップS614において、リファレンスYの画面占有率が閾値以上ではないと判定された場合には、ステップS616の処理を実行する。ステップS616においては、ユーザが付加情報を付加しようとしているオブジェクトはオブジェクトXであり、リファレンスYよりも意味的に下位の階層であると決定する。 On the other hand, if it is determined in step S614 that the screen occupancy rate of reference Y is not equal to or greater than the threshold value, the process of step S616 is executed. In step S616, the object to which the user intends to add additional information is the object X, and is determined to be a hierarchically lower layer than the reference Y.
以上、オブジェクトの意味的な階層関係の決定処理について説明した。第3実施形態によれば、情報処理装置15に予め保持されている付加情報以外に、ユーザ入力に応じて任意にオブジェクトに対して独自の付加情報を追加することが可能となる。これにより、ユーザの期待する情報を実空間画像に重畳することが可能となり、ユーザの利便性が向上する。
The processing for determining the semantic hierarchical relationship of objects has been described above. According to the third embodiment, in addition to the additional information held in advance in the
〔7〕サーバにおける付加情報出力可否の決定
以上、第3実施形態について説明した。上記した第1〜第3実施形態における認識部204、決定部206、記憶部210、階層関係決定部214は、情報処理装置10、10′、15とネットワークを介して接続されたサーバに備えられていてもよい。認識部204、決定部206、記憶部210、階層関係決定部214をサーバに備えることにより、負荷の高いオブジェクトの認識等の処理を演算能力の高いサーバで行って、レスポンスを向上させることが可能となる。また、記憶部210を大容量化することが容易となり、オブジェクトの付加情報を複数のユーザ間で参照し合うことが可能となり、ユーザ利便性が向上する。
[7] Determination of availability of additional information output in server The third embodiment has been described above. The
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
また、本明細書の情報処理装置10、10′、15の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。すなわち、情報処理装置10、10′、15の処理における各ステップは、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)を含んでもよい。
In addition, each step in the processing of the
また、情報処理装置10、10′、15などに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した情報処理装置10、10′、15の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
In addition, hardware such as a CPU, ROM, and RAM incorporated in the
10、10′、15 情報処理装置
202 画像取得部
204 認識部
206 決定部
208 表示制御部
210 記憶部
212 付加情報入力部
214 階層関係決定部
10, 10 ', 15
Claims (13)
実空間画像を取得する画像取得部と、
前記画像内のオブジェクトの特徴を示す特徴情報をもとに、前記画像取得部により取得された前記実空間画像に含まれる前記オブジェクトを認識する認識部と、
前記認識部により認識された前記オブジェクトに関連付けられた前記オブジェクトの階層情報に基づいて、前記オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、
を備える、情報処理装置。 A storage unit that stores feature information indicating features of an object in the image, hierarchical information indicating a hierarchical relationship between the objects, and additional information added to the object in association with each other;
An image acquisition unit for acquiring a real space image;
A recognition unit for recognizing the object included in the real space image acquired by the image acquisition unit based on feature information indicating a feature of the object in the image;
A determination unit that determines whether to output the additional information added to the object to the display unit based on the hierarchical information of the object associated with the object recognized by the recognition unit;
An information processing apparatus comprising:
前記決定部は、前記認識部により前記実空間画像内で複数の前記オブジェクトが認識された場合に、前記優先度情報に基づいて前記オブジェクトの前記付加情報を出力することを決定する、請求項1に記載の情報処理装置。 In the storage unit, the priority information of the object is further stored in association with each other,
The determination unit determines to output the additional information of the object based on the priority information when a plurality of the objects are recognized in the real space image by the recognition unit. The information processing apparatus described in 1.
前記決定部は、前記認識部により前記実空間画像内で複数の前記オブジェクトが認識された場合に、前記属性情報に基づいて前記オブジェクトの前記付加情報を出力することを決定する、請求項1に記載の情報処理装置。 In the storage unit, attribute information of the object by the user is further stored in association with each other,
The determination unit determines to output the additional information of the object based on the attribute information when the recognition unit recognizes a plurality of the objects in the real space image. The information processing apparatus described.
実空間画像を取得するステップと、
前記画像内のオブジェクトの特徴を示す特徴情報をもとに、前記取得された前記実空間画像に含まれる前記オブジェクトを認識するステップと、
前記認識された前記オブジェクトに関連付けられた前記オブジェクトの階層情報に基づいて、前記オブジェクトに付加される付加情報の表示部への出力可否を決定するステップと、
を含む、情報処理方法。 Feature information indicating the characteristics of the object in the image, hierarchical information indicating the hierarchical relationship of the object, and additional information added to the object are stored in association with each other,
Obtaining a real space image;
Recognizing the object included in the acquired real space image based on feature information indicating a feature of the object in the image;
Determining whether to output the additional information added to the object to the display unit based on the hierarchical information of the object associated with the recognized object;
Including an information processing method.
画像内のオブジェクトの特徴を示す特徴情報と、該オブジェクトの階層関係を示す階層情報と、該オブジェクトに付加される付加情報とを関連付けて記憶している記憶部と、
実空間画像を取得する画像取得部と、
前記画像内のオブジェクトの特徴を示す特徴情報をもとに、前記画像取得部により取得された前記実空間画像に含まれる前記オブジェクトを認識する認識部と、
前記認識部により認識された前記オブジェクトに関連付けられた前記オブジェクトの階層情報に基づいて、前記オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、
を備える、情報処理装置として機能させるためのプログラム。 Computer
A storage unit that stores feature information indicating features of an object in the image, hierarchical information indicating a hierarchical relationship between the objects, and additional information added to the object in association with each other;
An image acquisition unit for acquiring a real space image;
A recognition unit for recognizing the object included in the real space image acquired by the image acquisition unit based on feature information indicating a feature of the object in the image;
A determination unit that determines whether to output the additional information added to the object to the display unit based on the hierarchical information of the object associated with the object recognized by the recognition unit;
A program for causing an information processing apparatus to function.
前記情報処理装置により撮像された実空間画像を受信する受信部と、
前記画像内のオブジェクトの特徴を示す特徴情報をもとに、前記画像取得部により取得された前記実空間画像に含まれる前記オブジェクトを認識する認識部と、
前記認識部により認識された前記オブジェクトに関連付けられた前記オブジェクトの階層情報に基づいて、前記オブジェクトに付加される付加情報の表示部への出力可否を決定する決定部と、
前記決定部により前記オブジェクトに付加される付加情報の表示部への出力が決定された場合に、前記実空間画像に含まれる前記オブジェクトに前記付加情報を重畳した画像情報を前記情報処理装置に送信する送信部と、
を備える、サーバ。 Connected to an information processing device via a network,
A receiving unit that receives a real space image captured by the information processing apparatus;
A recognition unit for recognizing the object included in the real space image acquired by the image acquisition unit based on feature information indicating a feature of the object in the image;
A determination unit that determines whether to output the additional information added to the object to the display unit based on the hierarchical information of the object associated with the object recognized by the recognition unit;
When the determination unit determines output of additional information added to the object to the display unit, image information in which the additional information is superimposed on the object included in the real space image is transmitted to the information processing apparatus. A transmitter to
Comprising a server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009232631A JP2011081556A (en) | 2009-10-06 | 2009-10-06 | Information processor, method of processing information, program, and server |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009232631A JP2011081556A (en) | 2009-10-06 | 2009-10-06 | Information processor, method of processing information, program, and server |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011081556A true JP2011081556A (en) | 2011-04-21 |
Family
ID=44075556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009232631A Withdrawn JP2011081556A (en) | 2009-10-06 | 2009-10-06 | Information processor, method of processing information, program, and server |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011081556A (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013008095A (en) * | 2011-06-22 | 2013-01-10 | Rakuten Inc | Information processing device, information processing method, information processing program, and recording medium recording the information processing program |
WO2013019190A1 (en) * | 2011-07-29 | 2013-02-07 | Hewlett-Packard Development Company, L.P. | System and method of visual layering |
JP2013080394A (en) * | 2011-10-04 | 2013-05-02 | Canon Inc | Display control device, control method of display control device, and program |
JP2014120109A (en) * | 2012-12-19 | 2014-06-30 | Kddi Corp | Program for determining prospect area according to road information, information terminal, server and method |
JP2015513155A (en) * | 2012-03-15 | 2015-04-30 | ゼットティーイー コーポレーションZte Corporation | Mobile augmented reality search method, client, server, and search system |
JP2015529478A (en) * | 2012-06-28 | 2015-10-08 | コーニンクレッカ フィリップス エヌ ヴェ | Overlay and registration of preoperative data on live video using portable devices |
JP2016004346A (en) * | 2014-06-16 | 2016-01-12 | コニカミノルタ株式会社 | Image processor, method for controlling image processor, and control program of image processor |
WO2016047286A1 (en) * | 2014-09-25 | 2016-03-31 | Necソリューションイノベータ株式会社 | Information processing device and operation support method |
US9369632B2 (en) | 2011-07-29 | 2016-06-14 | Hewlett-Packard Development Company, L.P. | Projection capture system, programming and method |
JPWO2014017393A1 (en) * | 2012-07-24 | 2016-07-11 | 日本電気株式会社 | Information processing apparatus, data processing method thereof, and program |
JPWO2014017392A1 (en) * | 2012-07-24 | 2016-07-11 | 日本電気株式会社 | Information processing apparatus, data processing method thereof, and program |
US9521276B2 (en) | 2011-08-02 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Portable projection capture device |
WO2017104198A1 (en) * | 2015-12-14 | 2017-06-22 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2017169907A1 (en) * | 2016-03-29 | 2017-10-05 | 日本電気株式会社 | Work assistance device, work assistance method, and recording medium |
JP2018097580A (en) * | 2016-12-13 | 2018-06-21 | 富士ゼロックス株式会社 | Information processing device and program |
JP2019004365A (en) * | 2017-06-16 | 2019-01-10 | 富士ゼロックス株式会社 | Information processing apparatus |
US10417801B2 (en) | 2014-11-13 | 2019-09-17 | Hewlett-Packard Development Company, L.P. | Image projection |
JP2020080057A (en) * | 2018-11-13 | 2020-05-28 | NeoX株式会社 | AR library system |
CN111538405A (en) * | 2019-02-07 | 2020-08-14 | 株式会社美凯利 | Information processing method, terminal and non-transitory computer readable storage medium |
US10878629B2 (en) | 2015-05-26 | 2020-12-29 | Sony Corporation | Display apparatus, information processing system, and control method |
JP2021015185A (en) * | 2019-07-11 | 2021-02-12 | 株式会社ネクスコ・エンジニアリング北海道 | Projection system, projection device, projection method and program |
-
2009
- 2009-10-06 JP JP2009232631A patent/JP2011081556A/en not_active Withdrawn
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013008095A (en) * | 2011-06-22 | 2013-01-10 | Rakuten Inc | Information processing device, information processing method, information processing program, and recording medium recording the information processing program |
US10229538B2 (en) | 2011-07-29 | 2019-03-12 | Hewlett-Packard Development Company, L.P. | System and method of visual layering |
WO2013019190A1 (en) * | 2011-07-29 | 2013-02-07 | Hewlett-Packard Development Company, L.P. | System and method of visual layering |
KR101773988B1 (en) * | 2011-07-29 | 2017-09-01 | 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. | System and method of visual layering |
US9560281B2 (en) | 2011-07-29 | 2017-01-31 | Hewlett-Packard Development Company, L.P. | Projecting an image of a real object |
US9369632B2 (en) | 2011-07-29 | 2016-06-14 | Hewlett-Packard Development Company, L.P. | Projection capture system, programming and method |
US9521276B2 (en) | 2011-08-02 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Portable projection capture device |
JP2013080394A (en) * | 2011-10-04 | 2013-05-02 | Canon Inc | Display control device, control method of display control device, and program |
JP2015513155A (en) * | 2012-03-15 | 2015-04-30 | ゼットティーイー コーポレーションZte Corporation | Mobile augmented reality search method, client, server, and search system |
JP2015529478A (en) * | 2012-06-28 | 2015-10-08 | コーニンクレッカ フィリップス エヌ ヴェ | Overlay and registration of preoperative data on live video using portable devices |
JPWO2014017393A1 (en) * | 2012-07-24 | 2016-07-11 | 日本電気株式会社 | Information processing apparatus, data processing method thereof, and program |
JPWO2014017392A1 (en) * | 2012-07-24 | 2016-07-11 | 日本電気株式会社 | Information processing apparatus, data processing method thereof, and program |
US9491368B2 (en) | 2012-07-24 | 2016-11-08 | Nec Corporation | Information obtaining and viewing device, data processing method thereof, and non-transitory computer readable medium storing a program |
US9489702B2 (en) | 2012-07-24 | 2016-11-08 | Nec Corporation | Information processing device, data processing method thereof, and program |
JP2014120109A (en) * | 2012-12-19 | 2014-06-30 | Kddi Corp | Program for determining prospect area according to road information, information terminal, server and method |
CN105282393A (en) * | 2014-06-16 | 2016-01-27 | 柯尼卡美能达株式会社 | Image processing device which inserts markers into documents |
JP2016004346A (en) * | 2014-06-16 | 2016-01-12 | コニカミノルタ株式会社 | Image processor, method for controlling image processor, and control program of image processor |
JPWO2016047286A1 (en) * | 2014-09-25 | 2017-04-27 | Necソリューションイノベータ株式会社 | Information processing apparatus and operation support method |
WO2016047286A1 (en) * | 2014-09-25 | 2016-03-31 | Necソリューションイノベータ株式会社 | Information processing device and operation support method |
US10417801B2 (en) | 2014-11-13 | 2019-09-17 | Hewlett-Packard Development Company, L.P. | Image projection |
US10878629B2 (en) | 2015-05-26 | 2020-12-29 | Sony Corporation | Display apparatus, information processing system, and control method |
JPWO2017104198A1 (en) * | 2015-12-14 | 2018-09-27 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2017104198A1 (en) * | 2015-12-14 | 2017-06-22 | ソニー株式会社 | Information processing device, information processing method, and program |
US11042743B2 (en) | 2015-12-14 | 2021-06-22 | Sony Corporation | Information processing device, information processing method, and program for preventing deterioration of visual recognition in a scene |
WO2017169907A1 (en) * | 2016-03-29 | 2017-10-05 | 日本電気株式会社 | Work assistance device, work assistance method, and recording medium |
JP2018097580A (en) * | 2016-12-13 | 2018-06-21 | 富士ゼロックス株式会社 | Information processing device and program |
JP2019004365A (en) * | 2017-06-16 | 2019-01-10 | 富士ゼロックス株式会社 | Information processing apparatus |
JP2020080057A (en) * | 2018-11-13 | 2020-05-28 | NeoX株式会社 | AR library system |
JP7250308B2 (en) | 2018-11-13 | 2023-04-03 | NeoX株式会社 | AR library system |
CN111538405A (en) * | 2019-02-07 | 2020-08-14 | 株式会社美凯利 | Information processing method, terminal and non-transitory computer readable storage medium |
JP2020129356A (en) * | 2019-02-07 | 2020-08-27 | 株式会社メルカリ | Program, information processing method, and information processing terminal |
JP2021015185A (en) * | 2019-07-11 | 2021-02-12 | 株式会社ネクスコ・エンジニアリング北海道 | Projection system, projection device, projection method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011081556A (en) | Information processor, method of processing information, program, and server | |
JP4353259B2 (en) | Information processing apparatus, image display apparatus, control method therefor, and program causing computer to execute the method | |
JP4990994B2 (en) | Short film generating apparatus, short film generating method, program, and recording medium | |
JP5904706B2 (en) | Method and apparatus for performing media content browsing and related media content functions | |
KR100796044B1 (en) | Tagging Methods for People Images | |
US8744178B2 (en) | Information processing apparatus, information processing method and program | |
EP2375384A1 (en) | Information processing method and graphical user interface | |
JP4519531B2 (en) | Image display device, image display method, and program | |
CN101783886A (en) | Information processing apparatus, information processing method, and program | |
CN107209631A (en) | User terminal and its method for displaying image for display image | |
JP2012094138A (en) | Apparatus and method for providing augmented reality user interface | |
US8675014B1 (en) | Efficiently detecting graphics objects near a selected point | |
CN102566895B (en) | Electronic device and method for providing menu using the same | |
JP2012190349A (en) | Image processing device, image processing method, and control program | |
JP6020191B2 (en) | Display control apparatus and program | |
JP5753945B2 (en) | Image processing apparatus, image processing apparatus control method, program, and information storage medium | |
WO2020259522A1 (en) | Content searching method and related device, and computer-readable storage medium | |
US20130293575A1 (en) | Information processing device | |
JP2010205121A (en) | Information processor and portable terminal | |
JP5446700B2 (en) | Information processing apparatus, information processing method, and program | |
JP5906605B2 (en) | Information processing device | |
US10915778B2 (en) | User interface framework for multi-selection and operation of non-consecutive segmented information | |
WO2024262243A1 (en) | Information sharing system | |
JP7513783B2 (en) | IMAGE PROVIDING SERVER AND IMAGE PROVIDING METHOD | |
JP2006164011A (en) | Operation instruction device, electronic equipment, operation instruction method and operation instruction program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130108 |