[go: up one dir, main page]

JP7000935B2 - Information processing equipment, information processing system, information processing method and program - Google Patents

Information processing equipment, information processing system, information processing method and program Download PDF

Info

Publication number
JP7000935B2
JP7000935B2 JP2018047120A JP2018047120A JP7000935B2 JP 7000935 B2 JP7000935 B2 JP 7000935B2 JP 2018047120 A JP2018047120 A JP 2018047120A JP 2018047120 A JP2018047120 A JP 2018047120A JP 7000935 B2 JP7000935 B2 JP 7000935B2
Authority
JP
Japan
Prior art keywords
information
image
depth
difference
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018047120A
Other languages
Japanese (ja)
Other versions
JP2019159942A (en
Inventor
正睦 渕上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018047120A priority Critical patent/JP7000935B2/en
Publication of JP2019159942A publication Critical patent/JP2019159942A/en
Application granted granted Critical
Publication of JP7000935B2 publication Critical patent/JP7000935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing system, an information processing method and a program.

工場や事業所内に設置された機器や設備が適切な状態で設置されているかどうかを確認したり、これらの機器等において故障等が生じた場合に、これらの機器等の保守を迅速に実施したりするために、これらの対象機器等の状態を直感的に把握することが求められる。そこで、例えば、上記対象機器等の現状の画像を取得し、コンピュータ等により取得画像と上記対象機器等があるべき状態とを比較し、比較結果を、上記対象機器等を設置する作業員等に提供することにより、当該作業員等は、上記対象機器等の状態を直感的に把握することができるようになる。また、他の方法としては、上記対象機器等に各種のセンサを予め装着し、各種のセンサによって取得されたセンサデータを、上記対象機器等の実態に合わせてモデル化し、当該モデルを解析することにより、上記対象機器等における不備等を検証し、検証結果を作業員等に提供するような方法も利用することができる。 Check whether the equipment and facilities installed in the factory or office are installed in an appropriate state, and if a failure occurs in these equipment, etc., promptly maintain these equipment, etc. In order to do so, it is required to intuitively grasp the state of these target devices and the like. Therefore, for example, the current image of the target device or the like is acquired, the acquired image is compared with the state in which the target device or the like should be by a computer or the like, and the comparison result is given to the worker or the like who installs the target device or the like. By providing it, the worker or the like can intuitively grasp the state of the target device or the like. As another method, various sensors are attached to the target device or the like in advance, sensor data acquired by the various sensors is modeled according to the actual condition of the target device or the like, and the model is analyzed. Therefore, it is possible to use a method of verifying inadequacies in the above-mentioned target device or the like and providing the verification result to the worker or the like.

例えば、下記特許文献1には、部品を取り付ける被取付体及び当該部品の仮想モデルと、デプスセンサで取得した作業空間(実空間)の3次元イメージとを比較することにより、当該部品の取り付けを支援する作業支援システムが開示されている。また、下記特許文献2には、各種センサによって取得されたセンサデータを、コメント(例えば、センサによって検知した問題点等)と共に表示する測定システムが開示されている。 For example, in Patent Document 1 below, the mounting of the component is supported by comparing the virtual model of the mounted body to which the component is attached and the virtual model of the component with the three-dimensional image of the work space (real space) acquired by the depth sensor. The work support system to be done is disclosed. Further, Patent Document 2 below discloses a measurement system that displays sensor data acquired by various sensors together with comments (for example, problems detected by the sensors).

特開2017-191351号公報Japanese Unexamined Patent Publication No. 2017-191351 特開2015-040775号公報Japanese Unexamined Patent Publication No. 2015-040775

しかしながら、関係者以外への機密漏えいを防止する観点から、工場内等の中で撮影した対象機器等の画像を外部へ持ち出すことができないことがある。また、上記対象機器等に装着すべきセンサの数が不足したり、適切な位置にセンサが装着されていなかったりすることに起因して、現状の上記対象機器等の状態を把握することが難しい場合がある。 However, from the viewpoint of preventing confidentiality leakage to persons other than those concerned, it may not be possible to take out the image of the target device or the like taken in the factory or the like. In addition, it is difficult to grasp the current state of the target device, etc. due to insufficient number of sensors to be mounted on the target device, etc., or the sensors not being mounted at appropriate positions. In some cases.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、機密漏えいを防止しつつ、対象機器等の状態を直感的に把握することが可能な、新規且つ改良された情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a novel invention capable of intuitively grasping the state of a target device or the like while preventing confidentiality leakage. Moreover, it is an object of providing the improved information processing apparatus, information processing system, information processing method and program.

上記課題を解決するために、本発明のある観点によれば、実空間上にある被対象物の深度情報を取得するセンサ部と、前記被対象物の3次元形状に関する形状情報を格納する記憶部と、前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する位置関係情報算出部と、前記深度情報に基づいて実深度画像を取得し、さらに、前記被対象物に対する前記センサ部の位置関係に基づいて変換した前記形状情報に基づいて形状深度画像を取得する画像取得部と、前記実深度画像と、前記形状深度画像との差分である差分情報を算出する差分算出部と、算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して、ユーザに向けて表示する前記表示部と、を備える、情報処理装置が提供される。 In order to solve the above problems, according to a certain viewpoint of the present invention, a sensor unit that acquires depth information of an object in real space and a storage that stores shape information regarding the three-dimensional shape of the object. Based on the unit, the positional relationship information calculation unit that calculates the positional relationship information indicating the positional relationship of the sensor unit with respect to the object in the real space, and the positional relationship of the display unit with respect to the object, and the depth information. An image acquisition unit that acquires a real depth image and further acquires a shape depth image based on the shape information converted based on the positional relationship of the sensor unit with respect to the object, the actual depth image, and the above. The difference calculation unit that calculates the difference information that is the difference from the shape depth image and the calculated difference information are converted based on the positional relationship of the display unit with respect to the object, and the actual image of the object or the object is converted. An information processing apparatus is provided that includes the display unit that is superimposed on the captured image of the object and displayed to the user.

前記情報処理装置は、前記被対象物の実像又は前記被対象物の撮像画像に対して前記差分情報を強調して表示するために、前記差分情報に対してエフェクト処理を行うエフェクト処理部をさらに備えてもよい。 The information processing apparatus further includes an effect processing unit that performs effect processing on the difference information in order to emphasize and display the difference information on the real image of the object or the captured image of the object. You may prepare.

前記エフェクト処理部は、前記差分情報が、前記被対象物の実像又は前記被対象物の撮像画像とは異なる色彩、明度、又は透明度によって表示されるように、前記差分情報を処理してもよい。 The effect processing unit may process the difference information so that the difference information is displayed with a color, brightness, or transparency different from the real image of the object or the captured image of the object. ..

前記エフェクト処理部は、前記差分情報がワイヤーフレーム表示されるように、前記差分情報を処理してもよい。 The effect processing unit may process the difference information so that the difference information is displayed in a wire frame.

前記センサ部は、前記被対象物に対して照射光を照射し、当該被対象物で反射された反射光を受光し、前記照射光と前記反射光との位相差又は時間差を検知することで、前記深度情報を取得するデプスセンサであってもよい。 The sensor unit irradiates the object with irradiation light, receives the reflected light reflected by the object, and detects the phase difference or time difference between the irradiation light and the reflected light. , The depth sensor that acquires the depth information may be used.

前記センサ部は、複数のカメラにより前記被対象物を撮像して、前記深度情報を取得するステレオカメラであってもよい。 The sensor unit may be a stereo camera that acquires the depth information by photographing the object with a plurality of cameras.

前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の実像に重畳して表示するスマートアイグラスであってもよい。 The display unit may be a smart eyeglass that is attached to the user's head and displays the difference information superimposed on the real image of the object.

前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の撮像画像に重畳して表示するヘッドマウントディスプレイであってもよい。 The display unit may be a head-mounted display that is attached to the user's head and displays the difference information superimposed on the captured image of the object.

前記情報処理装置は、前記被対象物を撮像する撮像部をさらに備えてもよい。 The information processing device may further include an image pickup unit that images the object.

前記情報処理装置は、前記被対象物又は前記ユーザに装着された加速度センサ及び地磁気センサのうちの少なくとも1つを備え、前記位置関係情報算出部は、前記加速度センサ及び前記地磁気センサのうちの少なくとも1つから得られたセンサデータに基づいて、前記位置関係情報を算出してもよい。 The information processing apparatus includes at least one of the acceleration sensor and the geomagnetic sensor mounted on the object or the user, and the positional relationship information calculation unit is at least one of the acceleration sensor and the geomagnetic sensor. The positional relationship information may be calculated based on the sensor data obtained from one.

前記画像取得部は、変換した前記形状情報及び前記深度情報を平面に投影する平面投影部であり、前記差分算出部は、平面に投影された前記形状情報である前記形状深度画像と、平面に投影された前記深度情報である前記実深度画像との差分である前記差分情報を算出してもよい。 The image acquisition unit is a plane projection unit that projects the converted shape information and the depth information onto a plane, and the difference calculation unit is a shape depth image that is the shape information projected on the plane and a plane. The difference information, which is the difference from the actual depth image, which is the projected depth information, may be calculated.

前記差分算出部は、前記深度情報において深度が無限遠となる領域に関しては、差分が発生していないものとして処理を行ってもよい。 The difference calculation unit may perform processing on the region where the depth is infinity in the depth information, assuming that no difference has occurred.

また、上記課題を解決するために、本発明の別の観点によれば、実空間上にある被対象物の深度情報を取得するセンサ部と、前記被対象物の3次元形状に関する形状情報を格納する記憶部と、前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する位置関係情報算出部と、前記深度情報に基づいて実深度画像を取得し、さらに、前記被対象物に対する前記センサ部の位置関係に基づいて変換した前記形状情報に基づいて形状深度画像を取得する画像取得部と、前記実深度画像と、前記形状深度画像との差分である差分情報を算出する差分算出部と、算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する前記表示部と、を備える情報処理システムが提供される。 Further, in order to solve the above-mentioned problems, according to another viewpoint of the present invention, a sensor unit that acquires depth information of an object in real space and shape information regarding the three-dimensional shape of the object are obtained. The storage unit for storing, the positional relationship information calculation unit for calculating the positional relationship of the sensor unit with respect to the object in the real space, and the positional relationship information indicating the positional relationship of the display unit with respect to the object, and the depth . An image acquisition unit that acquires an actual depth image based on information and further acquires a shape depth image based on the shape information converted based on the positional relationship of the sensor unit with respect to the object, and the actual depth image. The difference calculation unit that calculates the difference information, which is the difference from the shape depth image , and the calculated difference information are converted based on the positional relationship of the display unit with respect to the object, and the object is converted. An information processing system including the display unit that superimposes and displays the real image of the object or the captured image of the object is provided.

また、上記課題を解決するために、本発明のさらなる別の観点によれば、センサ部から実空間上にある被対象物の深度情報を取得し、前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出し、前記深度情報に基づいて実深度画像を取得し、さらに、予め格納された前記被対象物の3次元形状に関する形状情報を、前記被対象物に対する前記センサ部の位置関係に基づいて変換し、変換された前記形状情報に基づいて形状深度画像を取得し、前記実深度画像と、前記形状深度画像との差分である差分情報を算出し、算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して前記表示部に表示する、ことを含む情報処理方法が提供される。 Further, in order to solve the above-mentioned problem, according to still another viewpoint of the present invention, the depth information of the object in the real space is acquired from the sensor unit, and the sensor for the object in the real space is obtained. 3 _ Shape information related to a three-dimensional shape is converted based on the positional relationship of the sensor unit with respect to the object, a shape depth image is acquired based on the converted shape information, and the actual depth image and the shape depth image are obtained. The difference information, which is the difference between the object and the subject, is calculated, and the calculated difference information is converted based on the positional relationship of the display unit with respect to the object, and the actual image of the object or the captured image of the object is captured. An information processing method including superimposing on the display unit and displaying the image on the display unit is provided.

さらに、上記課題を解決するために、本発明のさらなる別の観点によれば、コンピュータにセンサ部から実空間上にある被対象物の深度情報を取得する機能と、前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する機能と、前記深度情報に基づいて実深度画像を取得し、さらに、予め格納された前記被対象物の3次元形状に関する形状情報を、前記被対象物に対する前記センサ部の位置関係に基づいて変換し、変換された前記形状情報に基づいて形状深度画像を取得する機能と、前記実深度画像と、前記形状深度画像との差分である差分情報を算出する機能と、算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して前記表示部に表示する機能と、を実現させるプログラムが提供される。 Further, in order to solve the above-mentioned problems, according to still another viewpoint of the present invention, a function of acquiring depth information of an object in the real space from a sensor unit by a computer and the object in the real space. A function of calculating the positional relationship of the sensor unit with respect to the object and the positional relationship of the display unit with respect to the object, and an actual depth image acquired based on the depth information, and further stored in advance. A function of converting shape information regarding the three-dimensional shape of the object based on the positional relationship of the sensor unit with respect to the object and acquiring a shape depth image based on the converted shape information, and the actual state. The function of calculating the difference information which is the difference between the depth image and the shape depth image and the calculated difference information are converted based on the positional relationship of the display unit with respect to the object, and the object is converted. A program is provided that realizes a function of superimposing on a real image of the object or an captured image of the object and displaying the image on the display unit .

以上説明したように本発明によれば、機密漏えいを防止しつつ、対象機器等の状態を直感的に把握することが可能な、情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することができる。 As described above, according to the present invention, there is provided an information processing device, an information processing system, an information processing method and a program capable of intuitively grasping the state of a target device or the like while preventing confidentiality leakage. be able to.

本発明の第1の実施形態に係る情報処理システム1の概要について説明するための説明図である。It is explanatory drawing for demonstrating the outline of the information processing system 1 which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係るHMD32の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of HMD 32 which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係るスマートアイグラス30の使用の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of use of the smart eyeglass 30 which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係る処理装置40のブロック図である。It is a block diagram of the processing apparatus 40 which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理方法のフローチャートである。It is a flowchart of the information processing method which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態における実空間の実像800の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the real image 800 of the real space in 1st Embodiment of this invention. 本発明の第1の実施形態における被対象物10の3次元情報810の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the 3D information 810 of the object 10 in 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理方法における処理例を説明するための説明図である。It is explanatory drawing for demonstrating the processing example in the information processing method which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係る差分画像820を重畳した重畳画像822の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of superposed image 822 superposed with the difference image 820 which concerns on 1st Embodiment of this invention. 本発明の第2の実施形態に係る処理装置40、50のブロック図である。It is a block diagram of the processing apparatus 40, 50 which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る情報処理方法のシーケンス図である。It is a sequence diagram of the information processing method which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る表示画像840の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display image 840 which concerns on the 2nd Embodiment of this invention. 本発明の実施形態に係る情報処理装置900のハードウェア構成例を示したブロック図である。It is a block diagram which showed the hardware configuration example of the information processing apparatus 900 which concerns on embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

<<本発明の実施形態をなすに至った経緯>>
まずは、本発明の実施形態の具体的な説明に先立ち、本発明者が本発明の実施形態をなすに至った経緯について説明する。
<< Background to the embodiment of the present invention >>
First, prior to the specific description of the embodiment of the present invention, the background of the present inventor's formation of the embodiment of the present invention will be described.

例えば、先に説明したように、工場や事業所内に設置された機器や設備が適切な状態で設置されているかどうかを確認したり、これらの機器等において故障等が生じた場合に、これらの機器等の保守を迅速に実施したりするために、これらの機器等の状態を直感的に把握することが求められる。そこで、例えば、上記対象機器等の現状の画像を取得し、コンピュータ等により取得画像と上記対象機器等があるべき状態とを比較し、比較結果を、上記対象機器等を設置する作業員等に提供することにより、当該作業員等は、上記対象機器等の状態を直感的に把握することができるようになる。 For example, as explained above, it is possible to check whether the equipment and facilities installed in the factory or business establishment are installed in an appropriate state, or when a failure occurs in these equipment, etc. In order to quickly carry out maintenance of equipment, etc., it is required to intuitively grasp the state of these equipment, etc. Therefore, for example, the current image of the target device or the like is acquired, the acquired image is compared with the state in which the target device or the like should be by a computer or the like, and the comparison result is given to the worker or the like who installs the target device or the like. By providing it, the worker or the like can intuitively grasp the state of the target device or the like.

しかしながら、製造ラインが設けられた工場内や、顧客の財産を取り扱う金融機関の建物内や、顧客の情報を保管する複数のサーバが配置されたデータセンタ等においては、関係者以外への機密漏えいを防止する観点から、これらの場所の内部で撮影した画像を外部へ持ち出すことが制限されていることがある。従って、これらの場所に設置される機器等については、その画像を外部に持ち出すことができないこともあることから、上述のように画像を用いることによって対象機器等の現状の状態を把握することは難しいことがある。 However, confidentiality leaks to non-related parties in factories with manufacturing lines, in the buildings of financial institutions that handle customer property, and in data centers with multiple servers that store customer information. From the viewpoint of preventing the above, it may be restricted to take out the image taken inside these places to the outside. Therefore, it may not be possible to take out the images of the devices installed in these places, so it is not possible to grasp the current state of the target devices by using the images as described above. It can be difficult.

そこで、対象機器の現状の状態を把握するために、以下のような方法を用いることが考えられる。例えば、1つの方法としては、対象機器に各種のセンサ(例えば、機器の開閉を検知するリードスイッチ等)を予め装着し、これらの各種のセンサによって取得されたセンサデータを、上記対象機器等の実態に合わせてモデル化することが挙げられる。そして、上記モデルを解析することにより、上記対象機器における不備等を検証し、検証結果を作業員等に提供することにより、対象機器の現状の状態を把握することが可能となる。しかし、このような方法であっても、上記対象機器に装着すべきセンサの数が不足していたり、適切な位置に適切なセンサが装着されていなかったりすることに起因して、現状の上記対象機器等の状態を適切に示すようなモデルを得ることができないことがある。このような場合、適切なモデルを得ることができないことから、上記対象機器等の状態を把握することができないこととなる。 Therefore, in order to grasp the current state of the target device, it is conceivable to use the following method. For example, as one method, various sensors (for example, a reed switch for detecting the opening / closing of the device) are attached to the target device in advance, and the sensor data acquired by these various sensors is used in the target device or the like. Modeling according to the actual situation can be mentioned. Then, by analyzing the model, it is possible to verify the deficiency in the target device and provide the verification result to the worker or the like, so that the current state of the target device can be grasped. However, even with such a method, the number of sensors to be mounted on the target device is insufficient, or the appropriate sensor is not mounted at an appropriate position. It may not be possible to obtain a model that appropriately shows the state of the target device. In such a case, since an appropriate model cannot be obtained, it is not possible to grasp the state of the target device or the like.

このような状況を踏まえ、本発明者は、機密漏えいを防止しつつ、対象となる機器等の状態を直感的に把握することができる技術を確立しようと、鋭意検討を重ねていた。そのような検討を行う中で、本発明者は、対象機器の状態を取得するためにデプスセンサを用いることに着想した。 Based on such a situation, the present inventor has been diligently studying to establish a technique capable of intuitively grasping the state of the target device or the like while preventing the leakage of confidential information. In conducting such a study, the present inventor came up with the idea of using a depth sensor to acquire the state of the target device.

デプスセンサは、対象となる物体にパルス状のレーザ光等(照射光)を照射し、当該対象物体の表面で反射された光(反射光)を検知することにより、上記照射光と上記反射光との位相差又は時間差によって、デプスセンサから対象物体の表面までの距離、すなわち、対象物体の表面の凹凸等の奥行き情報である深度情報を取得することができるセンサである。詳細には、当該深度情報は、デプスセンサの位置を基準とした場合の、対象物体の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群であることができる。さらに、上記3次元座標情報群を利用して、対象物体の表面の各点の深度(距離)に応じてグラデーションをつけて平面に投影することにより、当該対象物体のデプス画像(例えば、図8の実デプス画像802 参照)を得ることができる。当該デプス画像は、グラデーションにより、対象物体の輪郭や表面の凹凸形状が表現されることにより、当該対象物体の輪郭や表面の形状を把握することができる平面画像であるといえる。 The depth sensor irradiates the target object with pulsed laser light or the like (irradiation light) and detects the light reflected on the surface of the target object (reflected light) to obtain the irradiation light and the reflected light. It is a sensor capable of acquiring depth information which is depth information such as the distance from the depth sensor to the surface of the target object, that is, the unevenness of the surface of the target object, by the phase difference or the time difference of the above. Specifically, the depth information can be a three-dimensional coordinate information group which is a collection of relative three-dimensional coordinate information of each point on the surface of the target object when the position of the depth sensor is used as a reference. Further, by using the above-mentioned three-dimensional coordinate information group and projecting it on a plane with a gradation according to the depth (distance) of each point on the surface of the target object, a depth image of the target object (for example, FIG. 8). Actual depth image 802) can be obtained. It can be said that the depth image is a planar image capable of grasping the contour of the target object and the shape of the surface by expressing the contour of the target object and the uneven shape of the surface by the gradation.

すなわち、デプスセンサによって取得することができる深度情報は、デプスセンサから対象物体までの相対距離や、当該対象物体の表面の形状についての情報であるといえる。従って、デプスセンサによって得られる深度情報は、例えば、当該対象物体の表面に印刷された、又は、表示された文字や模様等の情報を、これらが凹凸によって表現されたものでない限り、含むことが難しい。また、デプスセンサの精度にも依存するが、一般的に、デプスセンサは、均一な表面における微細な凹凸等といった、微細な形状の情報を得ることも難しい。 That is, it can be said that the depth information that can be acquired by the depth sensor is information about the relative distance from the depth sensor to the target object and the shape of the surface of the target object. Therefore, it is difficult for the depth information obtained by the depth sensor to include, for example, information such as characters and patterns printed or displayed on the surface of the target object unless they are expressed by unevenness. .. Further, although it depends on the accuracy of the depth sensor, it is generally difficult for the depth sensor to obtain information on fine shapes such as fine irregularities on a uniform surface.

このようなデプスセンサの特徴を鑑み、本発明者は、デプスセンサの特徴を生かすことで、機密漏えいを防止しつつ、対象機器の現状の状態を直感的に把握することができる技術を創作できるのではないかと考えたのである。例えば、工場、金融機関、データセンタ等においては、漏洩してはいけない機密情報は、これらの場所に設置された、対象機器の周囲に存在する他の機器等であったり、当該対象機器の表面に表示された文字情報等であったりすることが多い。そこで、本発明者は、対象機器の状態を把握するための情報として、デプスセンサによって取得された深度情報を用いることに想到した。深度情報には、デプスセンサの特徴により上述のような機密情報が含まれないことから、本発明者は、デプスセンサを利用することにより、機密漏えいを防止することができるのではないかと考えたのである。 In view of such characteristics of the depth sensor, the present inventor may be able to create a technology that can intuitively grasp the current state of the target device while preventing confidentiality leakage by utilizing the characteristics of the depth sensor. I wondered if there was one. For example, in factories, financial institutions, data centers, etc., confidential information that should not be leaked is other equipment, etc. that exist around the target equipment installed in these places, or the surface of the target equipment. It is often the text information displayed in. Therefore, the present inventor has come up with the idea of using the depth information acquired by the depth sensor as the information for grasping the state of the target device. Since the depth information does not include the above-mentioned confidential information due to the characteristics of the depth sensor, the present inventor thought that the use of the depth sensor could prevent the leakage of confidential information. ..

すなわち、本発明者が着想した本発明の実施形態においては、デプスセンサによって得られる対象機器の深度情報を対象機器の実態に合わせてモデル化(デプス画像化)し、当該モデルと対象機器があるべき理想状態とを比較し、比較結果(差分)を作業員等に提供する。このような本発明の実施形態によれば、機密漏えいを防止しつつ、対象機器の現状の状態を直感的に把握することができる。以下、このような本発明の実施形態を順次詳細に説明する。 That is, in the embodiment of the present invention conceived by the present inventor, the depth information of the target device obtained by the depth sensor should be modeled (depth imaging) according to the actual condition of the target device, and the model and the target device should be present. It compares with the ideal state and provides the comparison result (difference) to the workers and the like. According to such an embodiment of the present invention, it is possible to intuitively grasp the current state of the target device while preventing confidentiality leakage. Hereinafter, such embodiments of the present invention will be sequentially described in detail.

なお、以下に説明する本発明の各実施形態は、工場、金融機関、データセンサ、各種インフラ設備が設置された工場や事業場等において、機器や設備等の設置や保守を支援するために用いることができる。以下の説明においては、工場の内部でユーザ20が対象機器である被対象物10の状態を把握し、被対象物10の保守作業を行う場合を例に説明する。 Each embodiment of the present invention described below is used to support the installation and maintenance of equipment and facilities in factories, financial institutions, data sensors, factories and business establishments where various infrastructure facilities are installed, and the like. be able to. In the following description, a case where the user 20 grasps the state of the object 10 which is the target device and performs maintenance work on the object 10 will be described as an example inside the factory.

<<第1の実施形態>>
<情報処理システム1の概要>
まずは、本発明の第1の実施形態に係る情報処理システム1の概要について、図1から図3を参照して説明する。なお、図1は、本実施形態に係る情報処理システム1の概要について説明するための説明図である。図2は、本実施形態に係るHMD(Head Mounted Display(ヘッドマウントディスプレイ))32の一例を説明するための説明図である。さらに、図3は、本実施形態に係るスマートアイグラス30の使用の一例を説明するための説明図である。
<< First Embodiment >>
<Overview of Information Processing System 1>
First, an outline of the information processing system 1 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 3. Note that FIG. 1 is an explanatory diagram for explaining an outline of the information processing system 1 according to the present embodiment. FIG. 2 is an explanatory diagram for explaining an example of an HMD (Head Mounted Display) 32 according to the present embodiment. Further, FIG. 3 is an explanatory diagram for explaining an example of using the smart eyeglass 30 according to the present embodiment.

本実施形態に係る情報処理システム1は、図1に示すように、被対象物10に装着された被対象物側センサ12と、デプスセンサ(センサ部)22と、カメラ(撮像部)24と、加速度センサ26と、地磁気センサ28と、ユーザ20の頭部に装着されたスマートアイグラス30と、処理装置40とを主に含む。なお、図1においては、わかりやすくするためにデプスセンサ22については、デプスセンサ22単独、及び、スアートアイグラス30と一体となった状態のデプスセンサ22というように、重複して図示している。以下に、本実施形態に係る情報処理システム1に含まれる各装置の概要について説明する。 As shown in FIG. 1, the information processing system 1 according to the present embodiment includes an object-side sensor 12 mounted on the object 10, a depth sensor (sensor unit) 22, a camera (imaging unit) 24, and the like. It mainly includes an acceleration sensor 26, a geomagnetic sensor 28, a smart eyeglass 30 mounted on the head of the user 20, and a processing device 40. In FIG. 1, for the sake of clarity, the depth sensor 22 is shown in duplicate, such as the depth sensor 22 alone and the depth sensor 22 integrated with the sart eyeglass 30. The outline of each apparatus included in the information processing system 1 according to the present embodiment will be described below.

(被対象物側センサ12)
被対象物側センサ12は、本実施形態における被対象物10である、工場の内部に設置された機器や設備等に装着されたセンサである。詳細には、被対象物側センサ12は、被対象物10である対象機器の開閉を検知するリードスイッチ等といった、被対象物10の状態等を検知するためのセンサ群を含むことができる。なお、本実施形態においては、被対象物側センサ12は、被対象物10である機器に予め備えつけられているセンサであってもよく、もしくは、被対象物10である機器に後付されたセンサであってもよく、特に限定されるものではない。
(Object side sensor 12)
The object-side sensor 12 is a sensor mounted on equipment, equipment, or the like installed inside a factory, which is the object 10 in the present embodiment. Specifically, the object-side sensor 12 can include a group of sensors for detecting the state of the object 10 such as a reed switch for detecting the opening / closing of the object device which is the object 10. In the present embodiment, the object-side sensor 12 may be a sensor previously installed in the device which is the object 10, or is attached to the device which is the object 10. It may be a sensor and is not particularly limited.

本実施形態においては、例えば、被対象物側センサ12が、被対象物10の状態の検知が可能なように設置されていない場合(例えば、被対象物側センサ12が、設計漏れや取り付け漏れ等によって設置されていない場合)であっても、以下に説明する情報処理システム1を用いることにより、所望する被対象物10の状態の検知が可能となる。さらに、被対象物側センサ12は、自身が取得したセンサデータを後述する処理装置40へ、通信網70を介して、送信することができる。そして、当該処理装置40は、被対象物側センサ12からのセンサデータを用いて、被対象物10の状態を表示することができる。 In the present embodiment, for example, when the object side sensor 12 is not installed so as to be able to detect the state of the object 10 (for example, the object side sensor 12 is not designed or installed). Even if it is not installed due to such factors), the desired state of the object 10 can be detected by using the information processing system 1 described below. Further, the object-side sensor 12 can transmit the sensor data acquired by itself to the processing device 40 described later via the communication network 70. Then, the processing device 40 can display the state of the object 10 by using the sensor data from the object side sensor 12.

(デプスセンサ22)
デプスセンサ22は、Light Detection and Ranging、Laser Imaging Detection and Ranging(LIDAR)を利用したセンサである。言い換えると、デプスセンサ22は、光を利用して、実空間上におけるデプスセンサ22から対象となる物体(本実施形態においては被対象物10)の表面の各点との距離を計測することができるセンサである。詳細には、デプスセンサ22は、例えば、被対象物10に所定の周期を持つパルス状のレーザ光等(照射光)を照射し、被対象物10の表面で反射された光(反射光)を受光することにより、上記照射光と上記反射光との位相差又は時間差によって、被対象物10の輪郭や、被対象物10の表面の凹凸等の情報である深度情報を取得することができる。
(Depth sensor 22)
The depth sensor 22 is a sensor using Light Detection and Ringing and Laser Imaging Detection and Ranking (LIDAR). In other words, the depth sensor 22 is a sensor that can measure the distance from the depth sensor 22 in the real space to each point on the surface of the target object (object 10 in the present embodiment) by using light. Is. Specifically, the depth sensor 22 irradiates the object 10 with pulsed laser light or the like having a predetermined period (irradiation light), and emits light reflected on the surface of the object 10 (reflected light). By receiving light, depth information such as the contour of the object 10 and the unevenness of the surface of the object 10 can be acquired by the phase difference or the time difference between the irradiation light and the reflected light.

そして、先に説明したように、上記深度情報は、デプスセンサ22の位置を基準とした場合の、被対象物10の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群であることができる。従って、上記3次元座標情報群を利用して、被対象物10の表面の各点の深度(距離)に応じてグラデーションをつけて平面に投影することにより、被対象物10のデプス画像(例えば、図8の実デプス画像802 参照)を得ることができる。 Then, as described above, the depth information is a collection of relative three-dimensional coordinate information of each point on the surface of the object 10 when the position of the depth sensor 22 is used as a reference. It can be a group of information. Therefore, by using the above-mentioned three-dimensional coordinate information group and projecting the object 10 on a plane with a gradation according to the depth (distance) of each point on the surface of the object 10, a depth image of the object 10 (for example, , The actual depth image 802 of FIG. 8) can be obtained.

このようなデプスセンサ22は、先に説明したように、被対象物10の表面に印刷された、又は、表示された文字や模様等の情報のような機密情報を、これらが凹凸によって表現されたものでない限り、取得することは難しい。従って、本実施形態においては、デプスセンサ22によって得られる深度情報を利用することにより、機密漏えいを防止しつつ、被対象物10の現状の状態を直感的に把握することができる。 As described above, such a depth sensor 22 expresses confidential information such as information such as characters and patterns printed or displayed on the surface of the object 10 by unevenness. Unless it's something, it's difficult to get. Therefore, in the present embodiment, by using the depth information obtained by the depth sensor 22, it is possible to intuitively grasp the current state of the object 10 while preventing confidentiality leakage.

さらに、本実施形態においては、被対象物10の状態を把握するために用いる深度情報には、被対象物10の周囲に存在する機器等についての深度情報が含まれないようにすることが好ましい。このようにすることで、本実施形態においては、被対象物10の周囲に存在する機器等の情報のような機密情報の漏洩を防止することができる。 Further, in the present embodiment, it is preferable that the depth information used for grasping the state of the object 10 does not include the depth information about the devices and the like existing around the object 10. .. By doing so, in the present embodiment, it is possible to prevent leakage of confidential information such as information on devices and the like existing around the object 10.

さらに、デプスセンサ22は、取得したセンサデータ(深度情報)を後述する通信網70を介して、後述する処理装置40に送信することができる。 Further, the depth sensor 22 can transmit the acquired sensor data (depth information) to the processing device 40 described later via the communication network 70 described later.

なお、デプスセンサ22は、後述するスマートアイグラス30との間で相対的な位置関係が固定され、固定された相対的な位置関係に関する情報が予め取得されていることが好ましい。例えば、図1及び図3に示すように、デプスセンサ22とスマートアイグラス30とが一体の装置となっていることが好ましい。しかしながら、本実施形態においては、これに限定されるものではなく、デプスセンサ22及びスマートアイグラス30の位置情報が取得することができるような位置情報センサ(図示省略)を利用し、デプスセンサ22及びスマートアイグラス30の相対的な位置関係に関する情報を取得してもよい。 It is preferable that the depth sensor 22 has a fixed relative positional relationship with the smart eyeglass 30 described later, and information on the fixed relative positional relationship is acquired in advance. For example, as shown in FIGS. 1 and 3, it is preferable that the depth sensor 22 and the smart eyeglass 30 are integrated. However, the present embodiment is not limited to this, and uses a position information sensor (not shown) that can acquire the position information of the depth sensor 22 and the smart eyeglass 30, and the depth sensor 22 and the smart. Information regarding the relative positional relationship of the eyeglass 30 may be acquired.

また、本実施形態においては、デプスセンサ22の代わりに、複数のカメラ間における視差を利用して、デプスセンサ22のように対象となる物体までの距離の情報を取得することができる、複数のカメラからなるステレオカメラ(図示省略)を用いてもよい。ただし、ステレオカメラを用いた場合には、工場の内部の詳細な画像が得られることから、被対象物10の状態を把握するために用いる、ステレオカメラの画像には、機密情報である被対象物10の周囲に存在する機器等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。 Further, in the present embodiment, instead of the depth sensor 22, the parallax between a plurality of cameras can be used to acquire information on the distance to a target object such as the depth sensor 22 from a plurality of cameras. A stereo camera (not shown) may be used. However, when a stereo camera is used, a detailed image of the inside of the factory can be obtained. Therefore, the image of the stereo camera used to grasp the state of the object 10 is confidential information. It is preferable to perform processing such as applying a mask so that an image of a device or the like existing around the object 10 is not included.

(カメラ24)
カメラ24は、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等を撮像する撮像装置であって、被対象物10で反射される光を集光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより画像を取得することができる。詳細には、カメラ24は、光を集光する撮影レンズ及びズームレンズなどの撮像光学系、及び、CCD(Charge Coupled Device)、又は、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有することができる。また、カメラ24は、当該カメラ24が取得した画像データを後述する通信網70を介して処理装置40に送信することもできる。当該処理装置40は、カメラ24からの画像データを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30との位置関係を示す位置関係情報を計算してもよい。
(Camera 24)
The camera 24 is an image pickup device that images an object 10, a user 20, a depth sensor 22, a smart eyeglass 30, and the like, and collects light reflected by the object 10 to form an optical image on the image pickup surface. An image can be acquired by converting the optical image formed on the imaging surface into an electrical image signal. Specifically, the camera 24 may have an image pickup optical system such as a photographing lens and a zoom lens for condensing light, and an image pickup element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Sensor). can. Further, the camera 24 can also transmit the image data acquired by the camera 24 to the processing device 40 via the communication network 70 described later. The processing device 40 may calculate positional relationship information indicating the positional relationship between the object 10 and the depth sensor 22 or the smart eyeglass 30 using the image data from the camera 24.

なお、上述したステレオカメラ(図示省略)と同様に、カメラ24を用いた場合には、工場の内部の詳細な画像が得られることから、カメラ24の画像データには、機密情報である被対象物10の周囲に存在する機器等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。 As with the stereo camera (not shown) described above, when the camera 24 is used, a detailed image of the inside of the factory can be obtained. Therefore, the image data of the camera 24 is a subject which is confidential information. It is preferable to perform processing such as applying a mask so that an image of a device or the like existing around the object 10 is not included.

(加速度センサ26)
加速度センサ26は、例えば、3軸加速度センサにより実現され、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着され、被対象物10等の運動による加速度を検知する。加速度センサ26は、加速度センサ26が取得したセンサデータを、通信網70を介して処理装置40に送信することもできる。上記処理装置40は、加速度センサ26からのセンサデータを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30の位置関係を示す位置関係情報を計算してもよい。さらに、加速度センサ26には、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着されたジャイロセンサ(図示省略)が含まれていてもよく、加速度センサ26は、例えば、3軸ジャイロセンサにより実現され、被対象物10等の運動による角速度(回転速度)を検知する。
(Accelerometer 26)
The acceleration sensor 26 is realized by, for example, a three-axis acceleration sensor, and is attached to an object 10, a user 20, a depth sensor 22, a smart eyeglass 30, or the like, and detects acceleration due to the movement of the object 10, or the like. The acceleration sensor 26 can also transmit the sensor data acquired by the acceleration sensor 26 to the processing device 40 via the communication network 70. The processing device 40 may use the sensor data from the acceleration sensor 26 to calculate positional relationship information indicating the positional relationship between the object 10 and the depth sensor 22 and the smart eyeglass 30. Further, the acceleration sensor 26 may include a gyro sensor (not shown) mounted on the object 10, the user 20, the depth sensor 22, the smart eyeglass 30, and the like, and the acceleration sensor 26 may include, for example, 3. It is realized by an axial gyro sensor and detects the angular velocity (rotational speed) due to the movement of the object 10 or the like.

(地磁気センサ28)
地磁気センサ28は、例えば、3軸地磁気センサ(コンパス)により実現され、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着され、被対象物10等に装着され、絶対方向(方位)を検知する。なお、ここで、絶対方位とは、実空間における世界座標系(東西南北)における方位のことをいう。地磁気センサ28は、地磁気センサ28が取得したセンサデータを、通信網70を介して処理装置40に送信することもできる。上記処理装置40は、地磁気センサ28からのセンサデータを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30との位置関係を示す位置関係情報を計算してもよい。
(Geomagnetic sensor 28)
The geomagnetic sensor 28 is realized by, for example, a three-axis geomagnetic sensor (compass), is attached to an object 10, a user 20, a depth sensor 22, a smart eyeglass 30, etc., is attached to an object 10, etc. Orientation) is detected. Here, the absolute azimuth refers to the azimuth in the world coordinate system (north, south, east, and west) in the real space. The geomagnetic sensor 28 can also transmit the sensor data acquired by the geomagnetic sensor 28 to the processing device 40 via the communication network 70. The processing device 40 may use the sensor data from the geomagnetic sensor 28 to calculate positional relationship information indicating the positional relationship between the object 10 and the depth sensor 22 or the smart eyeglass 30.

なお、上述したデプスセンサ22、カメラ24、加速度センサ26及び地磁気センサ28は、被対象物10の近傍に位置する固定装置(図示省略)や、工場内を移動することができるロボット等の移動装置(図示省略)に装着されていてもよい。さらに、カメラ24、加速度センサ26及び地磁気センサ28は、ユーザ20の頭部に装着されたスマートアイグラス30と一体の装置として構成されていてもよい。 The depth sensor 22, the camera 24, the acceleration sensor 26, and the geomagnetic sensor 28 described above are a fixing device (not shown) located near the object 10 or a moving device such as a robot that can move in the factory (not shown). It may be attached to (not shown). Further, the camera 24, the acceleration sensor 26 and the geomagnetic sensor 28 may be configured as a device integrated with the smart eyeglass 30 mounted on the head of the user 20.

(スマートアイグラス30)
スマートアイグラス30は、図1に示されるように、ユーザ20の頭部に装着される眼鏡型のHMDである。スマートアイグラス30は、装着時にユーザ20の眼前に位置する眼鏡レンズ部分に相当する表示部(図示省略)を持ち、当該表示部は、眼鏡レンズ部分の外側を視認することができる透過型ディスプレイにより実現される。当該表示部が透過型ディスプレイであることから、スマートアイグラス30は、ユーザ20の周囲の実空間上の物体(本実施形態においては被対象物10)の実像800(例えば、図8 参照)に重畳して、画像を当該ユーザ20に向けて表示することができる。このような透過型ディスプレイは、例えば、ハーフミラーや透明な導光板を用いた透明な導光部等からなる虚像光学系がユーザ20の眼前に保持されることにより、当該虚像光学系の内側に画像を結像させ、ユーザ20に向けて当該画像を表示することができる。以下の説明においては、透過型ディスプレイの表示部を持つHMDを「スマートアイグラス」と呼ぶものとする。さらに、スマートアイグラス30は、後述する処理装置40からの情報を、通信網70を介して受信することができる。なお、先に説明したように、図1及び図3に示すように、スマートアイグラス30は、デプスセンサ22と一体の装置となっていることが好ましい。
(Smart eyeglass 30)
As shown in FIG. 1, the smart eyeglass 30 is a spectacle-shaped HMD worn on the head of the user 20. The smart eyeglass 30 has a display unit (not shown) corresponding to the spectacle lens portion located in front of the user 20 when worn, and the display unit is a transmissive display capable of visually recognizing the outside of the spectacle lens portion. It will be realized. Since the display unit is a transmissive display, the smart eyeglass 30 is used as a real image 800 (for example, see FIG. 8) of an object (object 10 in the present embodiment) in the real space around the user 20. The images can be superimposed and displayed toward the user 20. In such a transmissive display, for example, a virtual image optical system including a transparent light guide portion using a half mirror or a transparent light guide plate is held in front of the user 20 so that the virtual image optical system is inside the virtual image optical system. An image can be formed and the image can be displayed to the user 20. In the following description, an HMD having a display unit of a transmissive display will be referred to as a "smart eyeglass". Further, the smart eyeglass 30 can receive information from the processing device 40, which will be described later, via the communication network 70. As described above, as shown in FIGS. 1 and 3, the smart eyeglass 30 is preferably an integral device with the depth sensor 22.

また、本実施形態においては、スマートアイグラス30の代わりに、表示部(図示省略)として非透過型ディスプレイを用いたHMD32が使用されてもよい。このような場合、HMD32は、図2に示されるように、ユーザ20の頭部に装着されることができ、ユーザ20が視認する方向の実空間を撮像範囲として撮像する外向きカメラ34を有する。そして、HMD32は、上記外向きカメラ34で撮像された実空間上の物体(例えば、被対象物10)の撮像画像に重畳して、別の画像を当該ユーザ20に向けて表示することができる。なお、図2においては、わかりやすくするために、HMD32と一体化するように設けられたデプスセンサ22については、図示を省略している。 Further, in the present embodiment, instead of the smart eyeglass 30, an HMD 32 using a non-transmissive display as a display unit (not shown) may be used. In such a case, as shown in FIG. 2, the HMD 32 can be attached to the head of the user 20 and has an outward-facing camera 34 that captures an image in the real space in the direction visually recognized by the user 20 as an imaging range. .. Then, the HMD 32 can superimpose the image of the object (for example, the object 10) in the real space captured by the outward camera 34 on the image and display another image toward the user 20. .. In FIG. 2, for the sake of clarity, the depth sensor 22 provided to be integrated with the HMD 32 is not shown.

なお、本実施形態においては、スマートアイグラス30やHMD32の形態は図1から図3に示す形態に限定されるものではない。例えば、HMD32は、ヘッドバンド型やヘルメット型であってもよく、本実施形態においては、装着時にユーザ20の眼前に位置する表示部(図示省略)を有していれば、その形態については特に限定されるものではない。 In this embodiment, the forms of the smart eyeglass 30 and the HMD 32 are not limited to the forms shown in FIGS. 1 to 3. For example, the HMD 32 may be a headband type or a helmet type, and in the present embodiment, if the HMD 32 has a display unit (not shown) located in front of the user 20 when worn, the form thereof is particularly high. Not limited.

さらに、以下の説明においては、透過型ディスプレイを持つスマートアイグラス30を用いた場合を例に挙げて説明する。 Further, in the following description, a case where a smart eyeglass 30 having a transmissive display is used will be described as an example.

(処理装置40)
処理装置40は、ノート型PC(Personal Computer)、タブレット型PC、スマートフォン等であることができ、上述したデプスセンサ22等によって得られたセンサデータを処理したり、上述したスマートアイグラス30において表示する画像を生成したりすることができる。本実施形態においては、機密漏えいを防ぐために、処理装置40は、指定された場所(例えば、工場内)から持ち出すことができないように管理されていることが好ましい。また、処理装置40は、通信網70を介して、上述したデプスセンサ22やスマートアイグラス30との間で情報の送受信を行うことができる。なお、処理装置40の詳細構成については後述する。
(Processing device 40)
The processing device 40 can be a notebook PC (Personal Computer), a tablet PC, a smartphone, or the like, and can process the sensor data obtained by the depth sensor 22 or the like described above, or display it on the smart eyeglass 30 described above. You can generate an image. In the present embodiment, in order to prevent confidentiality leakage, it is preferable that the processing device 40 is managed so that it cannot be taken out from a designated place (for example, in a factory). Further, the processing device 40 can transmit and receive information to and from the depth sensor 22 and the smart eyeglass 30 described above via the communication network 70. The detailed configuration of the processing device 40 will be described later.

(通信網70)
通信網70は、1つ又は複数の工場内等で情報の送受信に利用されるネットワークである。通信網70は、有線又は無線であることができ、例えば、電話回線、衛星通信網等の公衆回線網や、インターネット、専用回線、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、又は、WAN(Wide Area Network)等の任意の通信ネットワークから構成される。さらに、専用回線は、IP-VPN(Internet Protocol‐Virtual Private Network)等から構成されてもよい。なお、本実施形態においては、通信網70は、何らかのセキュリティ手段(例えば、Secure Sockets Layer(SSL)等)が施されていることが好ましい。
(Communication network 70)
The communication network 70 is a network used for transmitting and receiving information in one or more factories and the like. The communication network 70 can be wired or wireless, and may be, for example, a public line network such as a telephone line or a satellite communication network, or various LANs (Local Area Network) including the Internet, a dedicated line, and Ethernet (registered trademark). Alternatively, it is composed of an arbitrary communication network such as WAN (Wide Area Network). Further, the dedicated line may be composed of an IP-VPN (Internet Protocol-Virtual Private Network) or the like. In the present embodiment, it is preferable that the communication network 70 is provided with some kind of security means (for example, Secure Sockets Layer (SSL) or the like).

なお、本実施形態に係る情報処理システム1においては、カメラ24、加速度センサ26、及び地磁気センサ28が含まれていなくてもよい。 The information processing system 1 according to the present embodiment may not include the camera 24, the acceleration sensor 26, and the geomagnetic sensor 28.

さらに、本実施形態においては、デプスセンサ22、カメラ24、加速度センサ26、地磁気センサ28、スマートアイグラス30、及び処理装置40は、これらの一部又は全部が一体の装置として構成されていてもよい。例えば、デプスセンサ22、スマートアイグラス30、及び処理装置40が一体の装置として構成されている場合には、スタンドアローンで情報処理を行うことが可能な装置であることができる。また、上述の処理装置40は、例えばクラウドコンピューティング等のようなネットワークへの接続を前提とした、複数の装置からなるシステムによって構築されていてもよい。 Further, in the present embodiment, the depth sensor 22, the camera 24, the acceleration sensor 26, the geomagnetic sensor 28, the smart eyeglass 30, and the processing device 40 may be configured as a part or all of them as an integrated device. .. For example, when the depth sensor 22, the smart eyeglass 30, and the processing device 40 are configured as an integrated device, it can be a device capable of performing information processing standalone. Further, the above-mentioned processing device 40 may be constructed by a system including a plurality of devices, which is premised on connection to a network such as cloud computing.

<処理装置40の詳細構成>
以上、本実施形態に係る情報処理システム1の概要構成を説明した。次に、図4を参照して、本実施形態に係る処理装置40の詳細構成を説明する。図4は、本実施形態に係る処理装置40のブロック図である。
<Detailed configuration of processing device 40>
The outline configuration of the information processing system 1 according to the present embodiment has been described above. Next, the detailed configuration of the processing apparatus 40 according to the present embodiment will be described with reference to FIG. FIG. 4 is a block diagram of the processing apparatus 40 according to the present embodiment.

詳細には、処理装置40は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等により実現される。図4に示すように、処理装置40は、位置姿勢計算部(位置関係情報算出部)400、平面投影部402、差分計算部(差分算出部)404、描画計算部406、及び記憶部408を有する。さらに、処理装置40は、図4において図示が省略されているものの、通信部を有する。以下に、本実施形態に係る処理装置40の各ブロックについて説明する。 Specifically, the processing device 40 is realized by a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. As shown in FIG. 4, the processing device 40 includes a position / orientation calculation unit (positional relationship information calculation unit) 400, a plane projection unit 402, a difference calculation unit (difference calculation unit) 404, a drawing calculation unit 406, and a storage unit 408. Have. Further, the processing device 40 has a communication unit, although not shown in FIG. 4. Hereinafter, each block of the processing apparatus 40 according to the present embodiment will be described.

(位置姿勢計算部400)
位置姿勢計算部400は、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算し、計算した位置関係情報を後述する平面投影部402に出力する。
(Position / Posture Calculation Unit 400)
The position / orientation calculation unit 400 calculates the positional relationship information indicating the relative distance and posture (direction) of the depth sensor 22 and the smart eyeglass 30 with respect to the object 10 in the real space, and the calculated positional relationship information will be described later. Output to the plane projection unit 402.

詳細には、位置姿勢計算部400は、デプスセンサ22からセンサデータを取得し、当該センサデータに含まれる深度情報を取得することにより、被対象物10に対するデプスセンサ22の相対距離を取得することができる。また、先に説明したように、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されている。従って、位置姿勢計算部400は、既知であるデプスセンサ22とスマートアイグラス30との間の相対距離の情報を用いることにより、被対象物10に対するデプスセンサ22の相対距離から、被対象物10に対するスマートアイグラス30の相対距離を取得することもできる。 Specifically, the position / attitude calculation unit 400 can acquire the relative distance of the depth sensor 22 to the object 10 by acquiring the sensor data from the depth sensor 22 and acquiring the depth information included in the sensor data. .. Further, as described above, the relative positional relationship between the depth sensor 22 and the smart eyeglass 30 is fixed. Therefore, the position / posture calculation unit 400 uses the known information on the relative distance between the depth sensor 22 and the smart eyeglass 30 to obtain the smart relative distance to the object 10 from the relative distance of the depth sensor 22 to the object 10. It is also possible to obtain the relative distance of the eyeglass 30.

さらに、位置姿勢計算部400は、上記深度情報から被対象物10の特徴点(例えば特徴的な部分の輪郭線)を抽出し、抽出した特徴点を用いることにより、後述する記憶部408に格納されたDataBase(DB)410から、被対象物10に対応する3次元形状の情報である形状情報(例えば、予め取得した、被対象物10があるべき状態(理想状態)における被対象物10の表面の各点の3次元座標情報群)を取得することができる。そして、位置姿勢計算部400は、取得した深度情報と、理想状態の被対象物10の形状情報とを比較することにより、被対象物10に対するデプスセンサ22の姿勢(向き)の情報を取得することができる。また、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されていることから、上述と同様に、位置姿勢計算部400は、被対象物10に対するデプスセンサ22の姿勢(向き)の情報から、被対象物10に対するスマートアイグラス30の姿勢(向き)の情報も取得することができる。なお、本実施形態においては、上述のような特徴点を用いた方法の代わりに、予め被対象物10に対応する3次元形状の情報である形状情報をユーザ20が選択しておくことにより、位置姿勢計算部400が当該形状情報をDB410から取得できるようにしてもよい。 Further, the position / orientation calculation unit 400 extracts the feature points of the object 10 (for example, the contour line of the characteristic portion) from the depth information, and stores the feature points in the storage unit 408 described later by using the extracted feature points. From the obtained DataBase (DB) 410, the shape information which is the information of the three-dimensional shape corresponding to the object 10 (for example, the object 10 acquired in advance in the state where the object 10 should be (ideal state)) It is possible to acquire the three-dimensional coordinate information group) of each point on the surface. Then, the position / orientation calculation unit 400 acquires information on the posture (orientation) of the depth sensor 22 with respect to the object 10 by comparing the acquired depth information with the shape information of the object 10 in the ideal state. Can be done. Further, since the relative positional relationship between the depth sensor 22 and the smart eyeglass 30 is fixed, the position / orientation calculation unit 400 determines the posture (orientation) of the depth sensor 22 with respect to the object 10 as described above. Information on the posture (orientation) of the smart eyeglass 30 with respect to the object 10 can also be obtained from the above information. In the present embodiment, instead of the method using the feature points as described above, the user 20 selects in advance the shape information which is the information of the three-dimensional shape corresponding to the object 10. The position / orientation calculation unit 400 may be able to acquire the shape information from the DB 410.

また、本実施形態においては、位置姿勢計算部400は、被対象物側センサ12からのセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得してもよい。さらに、位置姿勢計算部400は、上述したカメラ24、加速度センサ26、地磁気センサ28等からの画像データ又はセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の推定の精度を高めてもよい。 Further, in the present embodiment, the position / orientation calculation unit 400 acquires information on the posture (orientation) of the depth sensor 22 and the smart eyeglass 30 with respect to the object 10 by using the sensor data from the object side sensor 12. You may. Further, the position / orientation calculation unit 400 uses the image data or sensor data from the above-mentioned camera 24, acceleration sensor 26, geomagnetic sensor 28, etc. to the attitude (orientation) of the depth sensor 22 and the smart eyeglass 30 with respect to the object 10. The accuracy of the estimation may be improved.

なお、本実施形態においては、被対象物10に、深度情報における特徴点となるようなマーカを設けてもよく、もしくは、被対象物10に通信タグや赤外線照射装置等を設けてもよい。この場合、位置姿勢計算部400は、被対象物10に設けられたマーカや通信タグ等を利用することにより、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得してもよい。 In the present embodiment, the object 10 may be provided with a marker that serves as a feature point in the depth information, or the object 10 may be provided with a communication tag, an infrared irradiation device, or the like. In this case, the position / orientation calculation unit 400 acquires information on the posture (orientation) of the depth sensor 22 and the smart eyeglass 30 with respect to the object 10 by using a marker, a communication tag, or the like provided on the object 10. You may.

(平面投影部402)
平面投影部402は、デプスセンサ22によって得られた被対象物10の深度情報、及び、DB410から取得した、理想状態にある被対象物10に対応する3次元情報を、平面に投影することにより、各デプス画像(例えば、図8の実デプス画像802及び理想デプス画像812)を得ることができる。そして、平面投影部402は、取得した各デプス画像を後述する差分計算部404に出力する。
(Plane projection unit 402)
The plane projection unit 402 projects the depth information of the object 10 obtained by the depth sensor 22 and the three-dimensional information corresponding to the object 10 in the ideal state acquired from the DB 410 onto the plane. Each depth image (for example, the actual depth image 802 and the ideal depth image 812 of FIG. 8) can be obtained. Then, the plane projection unit 402 outputs each acquired depth image to the difference calculation unit 404, which will be described later.

詳細には、平面投影部402は、被対象物10の深度情報に含まれる被対象物10の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、実空間上の被対象物10のデプス画像、すなわち、実デプス画像802(図8 参照)を得ることができる。 Specifically, the plane projection unit 402 uses a three-dimensional coordinate information group which is a collection of relative three-dimensional coordinate information of each point on the surface of the object 10 included in the depth information of the object 10. Then, by projecting the object 10 on a plane with a gradation according to the depth of each point on the surface of the object 10, the depth image of the object 10 in the real space, that is, the actual depth image 802 (see FIG. 8). Can be obtained.

なお、本実施形態においては、平面投影部402は、被対象物10に装着された被対象物側センサ12によって得られたセンサデータを取得し、取得したセンサデータを反映させるようにして、実デプス画像802(図8 参照)を生成してもよい。 In the present embodiment, the plane projection unit 402 acquires the sensor data obtained by the object-side sensor 12 mounted on the object 10, and reflects the acquired sensor data. Depth image 802 (see FIG. 8) may be generated.

さらに、平面投影部402は、上述した位置姿勢計算部400によって得られた位置関係情報を用いて、DB410から取得した、理想状態にある被対象物10に対応する3次元情報810(図8 参照)を、上記実デプス画像802(図8 参照)に合わせて正規化する。さらに、平面投影部402は、正規化した3次元情報810を、当該正規化した3次元情報810における被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、理想状態にある被対象物10のデプス画像、すなわち、理想デプス画像812(図8 参照)を得ることができる。より詳細には、上記正規化は、上記位置関係情報を用いて、理想状態にある被対象物10のデプスセンサ22までの相対距離及び向き(姿勢)が、実際の被対象物10に対するデプスセンサ22の相対距離及び向き(姿勢)と一致するように、3次元情報810に含まれる理想状態にある被対象物10の表面の各点の3次元座標情報群を変換することである。そして、平面投影部402は、変換した3次元座標情報群を、実デプス画像802と同様に、被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、理想デプス画像812を得ることができる。 Further, the plane projection unit 402 uses the positional relationship information obtained by the position / orientation calculation unit 400 described above to obtain three-dimensional information 810 (see FIG. 8) corresponding to the object 10 in the ideal state acquired from the DB 410. ) Is normalized to match the actual depth image 802 (see FIG. 8). Further, the plane projection unit 402 projects the normalized three-dimensional information 810 onto the plane with a gradation according to the depth of each point on the surface of the object 10 in the normalized three-dimensional information 810. , The depth image of the object 10 in the ideal state, that is, the ideal depth image 812 (see FIG. 8) can be obtained. More specifically, in the normalization, using the positional relationship information, the relative distance and orientation (posture) of the object 10 in the ideal state to the depth sensor 22 is the depth sensor 22 with respect to the actual object 10. The 3D coordinate information group of each point on the surface of the object 10 in the ideal state included in the 3D information 810 is converted so as to match the relative distance and the direction (posture). Then, the plane projection unit 402 projects the converted three-dimensional coordinate information group onto the plane with a gradation according to the depth of each point on the surface of the object 10 in the same manner as the actual depth image 802. An ideal depth image 812 can be obtained.

例えば、被対象物10の正面がデプスセンサ22に向いていたことから、被対象物10の正面がまっすぐ画像の前方を向いているような実デプス画像802が得られたものとする。さらに、例えば、理想状態にある被対象物10に対応する3次元情報810をそのまま平面に投影して得られた理想デプス画像812においては、被対象物10の正面は斜めに傾いているものとする。このような場合、実デプス画像802と理想デプス画像812とを比較しても、これらデプス画像において被対象物10の向き(姿勢)が互いに異なることから、被対象物10の現状の状態、すなわち、理想状態に対する被対象物10の現状の状態を正確に把握することができない。そこで、本実施形態においては、平面投影部402により、上述した位置関係情報を用いて、理想状態にある被対象物10に対応する3次元情報810を、実デプス画像802と同様に、被対象物10の正面がまっすぐ画像の前方を向いているように変換することにより、実デプス画像802と理想デプス画像812とにおける被対象物10の向き(姿勢)を同じにする。そして、本実施形態においては、同一の向き(姿勢)になった被対象物10の画像を含む、実デプス画像802と理想デプス画像812とを比較することにより、被対象物10の現状の状態を正確に把握することができるようになる。 For example, since the front surface of the object 10 faces the depth sensor 22, it is assumed that the actual depth image 802 in which the front surface of the object 10 faces straight to the front of the image is obtained. Further, for example, in the ideal depth image 812 obtained by projecting the three-dimensional information 810 corresponding to the object 10 in the ideal state as it is onto a plane, the front surface of the object 10 is tilted diagonally. do. In such a case, even if the actual depth image 802 and the ideal depth image 812 are compared, the orientation (posture) of the object 10 is different from each other in these depth images, so that the current state of the object 10, that is, , It is not possible to accurately grasp the current state of the object 10 with respect to the ideal state. Therefore, in the present embodiment, the plane projection unit 402 uses the above-mentioned positional relationship information to obtain the three-dimensional information 810 corresponding to the object 10 in the ideal state, as in the actual depth image 802. By converting the front surface of the object 10 so that it faces straight ahead of the image, the orientation (posture) of the object 10 in the actual depth image 802 and the ideal depth image 812 is made the same. Then, in the present embodiment, by comparing the actual depth image 802 and the ideal depth image 812 including the images of the objects 10 in the same orientation (posture), the current state of the objects 10 is obtained. Will be able to grasp accurately.

また、例えば、デプスセンサ22から被対象物10までの距離が遠い場合には、デプス画像における被対象物10の占める面積は狭くなり、デプスセンサ22から被対象物10までの距離が近い場合には、デプス画像における被対象物10の占める面積は広くなる。そこで、本実施形態においては、上述した姿勢(向き)の正規化と同様に、平面投影部402によって、理想状態にある被対象物10に対応する3次元情報810を相対距離について正規化することにより、実デプス画像802(図8 参照)と理想デプス画像812(図8 参照)とにおける被対象物10の占める大きさを一致させ、実デプス画像802と比較可能な理想デプス画像812を取得する。 Further, for example, when the distance from the depth sensor 22 to the object 10 is long, the area occupied by the object 10 in the depth image becomes narrow, and when the distance from the depth sensor 22 to the object 10 is short, the area occupied by the object 10 becomes narrow. The area occupied by the object 10 in the depth image becomes large. Therefore, in the present embodiment, similarly to the normalization of the posture (orientation) described above, the plane projection unit 402 normalizes the three-dimensional information 810 corresponding to the object 10 in the ideal state with respect to the relative distance. Therefore, the size occupied by the object 10 in the actual depth image 802 (see FIG. 8) and the ideal depth image 812 (see FIG. 8) is matched, and the ideal depth image 812 comparable to the actual depth image 802 is acquired. ..

(差分計算部404)
差分計算部404は、上述の平面投影部402によって得られた実デプス画像802(図8 参照)と、位置関係情報に基づき変換されることによって得られた理想デプス画像812(図8 参照)とを差分である差分情報(差分画像820、図8 参照)を計算し、計算結果を後述する描画計算部406に出力する。詳細には、差分計算部404は、実デプス画像802と理想デプス画像812とを比較し、両者が異なる部分を差分画像820として抽出する。この際、差分計算部404は、深度情報から得られた実デプス画像802において、深度が無限遠になっている領域については、差分が生じていないものとして処理することが好ましい。さらに、差分計算部404は、実デプス画像802と理想デプス画像812とにおいて異なる部分であっても、被対象物10によって占められる領域でないと判断できる場合には、当該異なる部分において差分が生じていない(発生していない)ものとして処理することが好ましい。このようにすることで、本実施形態においては、機密情報である被対象物10の周囲に存在する機器等についての情報が漏えいすることを防止することができる。
(Difference calculation unit 404)
The difference calculation unit 404 includes an actual depth image 802 (see FIG. 8) obtained by the above-mentioned plane projection unit 402 and an ideal depth image 812 (see FIG. 8) obtained by conversion based on the positional relationship information. Is calculated as the difference information (difference image 820, see FIG. 8), and the calculation result is output to the drawing calculation unit 406 described later. Specifically, the difference calculation unit 404 compares the actual depth image 802 and the ideal depth image 812, and extracts a portion different from each other as the difference image 820. At this time, it is preferable that the difference calculation unit 404 processes the region where the depth is infinity in the actual depth image 802 obtained from the depth information, assuming that no difference has occurred. Further, if the difference calculation unit 404 can determine that the actual depth image 802 and the ideal depth image 812 are different from each other but are not occupied by the object 10, the difference is generated in the different parts. It is preferable to treat it as absent (not generated). By doing so, in the present embodiment, it is possible to prevent information about the device or the like existing around the object 10 which is confidential information from being leaked.

なお、本実施形態においては、上述したように、差分計算部404は、平面に投影することによって得られた実デプス画像802と理想デプス画像812との差分を計算することに限定されるものではない。例えば、差分計算部404は、デプスセンサ2によって得られた深度情報(3次元座標情報群)と、理想状態の被対象物10の3次元情報810を位置関係情報に基づき変換することによって得られた3次元情報810(3次元座標情報群)との差分を計算してもよい。そして、このような場合、処理装置40は、計算された差分を上述した平面投影部402によって平面に投影することにより、上述した差分画像820を取得してもよい。 In the present embodiment, as described above, the difference calculation unit 404 is not limited to calculating the difference between the actual depth image 802 and the ideal depth image 812 obtained by projecting onto a plane. do not have. For example, the difference calculation unit 404 is obtained by converting the depth information (three-dimensional coordinate information group) obtained by the depth sensor 2 and the three-dimensional information 810 of the object 10 in the ideal state based on the positional relationship information. The difference from the three-dimensional information 810 (three-dimensional coordinate information group) may be calculated. Then, in such a case, the processing apparatus 40 may acquire the above-mentioned difference image 820 by projecting the calculated difference onto the plane by the above-mentioned plane projection unit 402.

(描画計算部406)
描画計算部406は、上述した差分計算部404によって得られた差分情報(差分画像820、図8 参照)を、スマートアイグラス30の表示に合わせた形態になるように変換し、変換した情報をスマートアイグラス30へ送信する。そして、当該スマートアイグラス30は、受信した情報を用いて、被対象物10の実像800(図8 参照)に重畳して、差分画像820を表示することができる。
(Drawing calculation unit 406)
The drawing calculation unit 406 converts the difference information (difference image 820, see FIG. 8) obtained by the difference calculation unit 404 described above into a form suitable for the display of the smart eyeglass 30, and converts the converted information into a form. Send to smart eyeglass 30. Then, the smart eyeglass 30 can display the difference image 820 by superimposing the received information on the real image 800 (see FIG. 8) of the object 10.

詳細には、描画計算部406は、上述した位置関係情報、すなわち、被対象物10に対するスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を用いて、実際のスマートアイグラス30に対する被対象物10の相対距離及び姿勢(向き)と一致するように、差分画像820(図8 参照)に含まれる被対象物10の占める大きさ、姿勢(向き)及び表示位置を変換する。このようにすることで、スマートアイグラス30によって表示される差分画像820は、実空間上の被対象物10の実像800(図8 参照)と重畳して表示されることができる。そして、本実施形態においては、差分画像820を実空間上の被対象物10の実像800と重畳して表示することから、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。 Specifically, the drawing calculation unit 406 uses the above-mentioned positional relationship information, that is, the positional relationship information indicating the relative distance and posture (orientation) of the smart eyeglass 30 with respect to the object 10, and the actual smart eye. The size, posture (orientation), and display position occupied by the object 10 included in the difference image 820 (see FIG. 8) are converted so as to match the relative distance and posture (orientation) of the object 10 with respect to the glass 30. do. By doing so, the difference image 820 displayed by the smart eyeglass 30 can be displayed superimposed on the real image 800 (see FIG. 8) of the object 10 in the real space. Then, in the present embodiment, since the difference image 820 is superimposed on the real image 800 of the object 10 in the real space, the user 20 is in the current state of the object 10 and the ideal state. It is possible to intuitively grasp the difference between the objects 10, that is, the deficiencies of the object 10.

なお、本実施形態においては、描画計算部406は、被対象物10の実像800(図8 参照)(又は、被対象物10の撮像画像)に対して上記差分画像820(図8 参照)を強調して表示するために、上記差分画像820に対してエフェクト処理を行うエフェクト処理部として機能してもよい。例えば、描画計算部406は、差分画像820が、被対象物10の実像800とは異なる色彩、明度、又は透明度によって表示されるように、上記差分画像820を処理してもよい。この際、描画計算部406は、予めDB410に格納された被対象物10の色彩情報等を利用してもよい。また、描画計算部406は、差分に係る被対象物10の部分を輪郭線のみで表現するワイヤーフレーム830(図9 参照)の形態(ワイヤーフレーム表示)で表示されるように、差分画像820を処理してもよい。 In the present embodiment, the drawing calculation unit 406 displays the difference image 820 (see FIG. 8) with respect to the real image 800 (or the captured image of the object 10) of the object 10 (see FIG. 8). In order to emphasize and display the difference image 820, it may function as an effect processing unit that performs effect processing on the difference image 820. For example, the drawing calculation unit 406 may process the difference image 820 so that the difference image 820 is displayed with a color, brightness, or transparency different from that of the real image 800 of the object 10. At this time, the drawing calculation unit 406 may use the color information or the like of the object 10 stored in the DB 410 in advance. Further, the drawing calculation unit 406 displays the difference image 820 in the form of a wire frame 830 (see FIG. 9) (wire frame display) in which the portion of the object 10 related to the difference is represented only by the contour line. May be processed.

(記憶部408)
記憶部408は、ROM及びRAM等の記憶装置によって実現され、被対象物10の3次元形状に関する形状情報(3次元座標情報群)をDB410として格納する。具体的には、当該DB410には、予め取得した、被対象物10があるべき状態(理想状態)における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納される。なお、記憶部408は、処理装置40の内部に設けられていなくてもよく、例えば、処理装置40と別体の装置として構成されていてもよい。
(Memory unit 408)
The storage unit 408 is realized by a storage device such as a ROM and a RAM, and stores shape information (three-dimensional coordinate information group) regarding the three-dimensional shape of the object 10 as a DB 410. Specifically, the DB 410 has 3D information 810 (FIG.) which is a 3D coordinate information group of each point on the surface of the object 10 in the state where the object 10 should be (ideal state) acquired in advance. 8) is stored. The storage unit 408 may not be provided inside the processing device 40, and may be configured as a device separate from the processing device 40, for example.

なお、処理装置40は、図4に示されるブロックだけを含むことに限定されるものではなく、例えば、本実施形態においては、上述したデプスセンサ22等の間で情報の送受信を行うための通信モジュールである通信部を含んでいてもよい。 The processing device 40 is not limited to including only the block shown in FIG. 4, and for example, in the present embodiment, the communication module for transmitting and receiving information between the depth sensor 22 and the like described above. It may include a communication unit which is.

<情報処理方法>
以上、本実施形態に係る処理装置40の詳細構成について説明した。次に、本実施形態に係る情報処理方法を、図3及び図5から図9を参照して説明する。図5は、本実施形態に係る情報処理方法のフローチャートである。図6は、本実施形態における実空間の実像800の例を説明するための説明図である。図7は、本実施形態における被対象物10の3次元情報810の例を説明するための説明図である。図8は、本実施形態に係る情報処理方法における処理例を説明するための説明図である。さらに、図9は、本実施形態に係る差分画像820を重畳した重畳画像822の一例を説明するための説明図である。
<Information processing method>
The detailed configuration of the processing apparatus 40 according to the present embodiment has been described above. Next, the information processing method according to the present embodiment will be described with reference to FIGS. 3 and 5 to 9. FIG. 5 is a flowchart of the information processing method according to the present embodiment. FIG. 6 is an explanatory diagram for explaining an example of the real image 800 in the real space in the present embodiment. FIG. 7 is an explanatory diagram for explaining an example of the three-dimensional information 810 of the object 10 in the present embodiment. FIG. 8 is an explanatory diagram for explaining a processing example in the information processing method according to the present embodiment. Further, FIG. 9 is an explanatory diagram for explaining an example of the superimposed image 822 on which the difference image 820 according to the present embodiment is superimposed.

詳細には、本実施形態に係る情報処理方法は、図5のフローチャートに示すように、ステップS101からステップS113までの複数のステップを含むことができる。以下に、本実施形態に係る情報処理方法の各ステップの詳細を説明する。 Specifically, the information processing method according to the present embodiment can include a plurality of steps from step S101 to step S113 as shown in the flowchart of FIG. The details of each step of the information processing method according to the present embodiment will be described below.

まずは、図3に示すように、ユーザ20は、デプスセンサ22と一体化したスマートアイグラス30を装着し、工場内に入場して、被対象物10と向かい合う姿勢をとる。このようにすることで、デプスセンサ22は、被対象物10を含む実空間における深度情報を含むセンサデータを取得する。 First, as shown in FIG. 3, the user 20 wears the smart eyeglass 30 integrated with the depth sensor 22, enters the factory, and takes a posture facing the object 10. By doing so, the depth sensor 22 acquires sensor data including depth information in the real space including the object 10.

なお、以下に説明する例においては、工場内(実空間)に設置された被対象物10は、図6に示すように、被対象物10の下部に配置された引出し10aが引き出された状態であり、引出し10aが格納された被対象物10があるべき状態(理想状態)とは異なる状態にあるものとする。また、図6に示すように、以下の例においては、被対象物10の周囲には、本実施形態において処理の対象とならない物体60が存在するものとする。さらに、以下の例においては、記憶部408のDB410には、被対象物10があるべき状態(理想状態)として、図7に示されるような、被対象物10の下部に配置された引出し10aが被対象物10に格納された状態における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納されているものとする。 In the example described below, the object 10 installed in the factory (real space) is in a state in which the drawer 10a arranged at the lower part of the object 10 is pulled out as shown in FIG. It is assumed that the object 10 in which the drawer 10a is stored is in a state different from the state (ideal state) in which it should be. Further, as shown in FIG. 6, in the following example, it is assumed that an object 60 that is not a target of processing in the present embodiment exists around the object 10. Further, in the following example, the drawer 10a arranged in the lower part of the object 10 as shown in FIG. 7 as the state (ideal state) in which the object 10 should be in the DB 410 of the storage unit 408. It is assumed that the three-dimensional information 810 (see FIG. 8), which is a three-dimensional coordinate information group of each point on the surface of the object 10 in the state of being stored in the object 10, is stored.

(ステップS101)
処理装置40は、デプスセンサ22からセンサデータを取得する。この際、ユーザ20には、図8の左側上段に示されるような実像800が見えているものとする。そして、処理装置40は、デプスセンサ22のセンサデータの深度情報に含まれる被対象物10及び物体60の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10及び物体60の表面の各点の深度に応じてグラデーションをつけて平面に投影する。より具体的には、処理装置40は、深度情報を、例えば、実空間上でデプスセンサ22までの相対距離が近い、被対象物10及び物体60の表面の点を濃く、一方、実空間上でデプスセンサ22までの相対距離が遠い、被対象物10及び物体60の表面の点を薄くなるように平面に投影することにより、図8に示すような実デプス画像802を得る。なお、図8に図示する実デプス画像802においては、わかりやすくするために、物体の輪郭や異なるグラデーションの境目を輪郭線や境界線で示しているが、実際の実デプス画像802においては、グラデーションのみで物体の輪郭や形状が示されている。
(Step S101)
The processing device 40 acquires sensor data from the depth sensor 22. At this time, it is assumed that the user 20 can see the real image 800 as shown in the upper left side of FIG. Then, the processing device 40 uses a three-dimensional coordinate information group which is a collection of relative three-dimensional coordinate information of each point on the surface of the object 10 and the object 60 included in the depth information of the sensor data of the depth sensor 22. Then, a gradation is added according to the depth of each point on the surface of the object 10 and the object 60, and the object is projected onto a plane. More specifically, the processing apparatus 40 darkens the depth information, for example, the points on the surface of the object 10 and the object 60, which are close to the depth sensor 22 in the real space, while in the real space. The actual depth image 802 as shown in FIG. 8 is obtained by projecting the points on the surface of the object 10 and the object 60 so as to be thin so that the relative distance to the depth sensor 22 is long. In the actual depth image 802 illustrated in FIG. 8, the contour of the object and the boundary between different gradations are shown by the contour line and the boundary line for the sake of clarity, but in the actual actual depth image 802, the gradation is shown. Only the outline and shape of the object are shown.

(ステップS103)
処理装置40は、デプスセンサ22で取得されたセンサデータ(深度情報)を用いて、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算する。詳細には、処理装置40は、例えば、上記センサデータの深度情報から被対象物10の特徴点を抽出し、抽出した特徴点を用いることにより、記憶部408に格納されたDB410から、被対象物10に対応する3次元情報810を抽出し、特徴点と3次元情報810とを比較することにより、被対象物10に対するデプスセンサ22の姿勢(向き)の情報を取得する。また、先に説明したように、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されていることから、処理装置40は、被対象物10に対するデプスセンサ22の相対距離及び姿勢(向き)の情報から、被対象物10に対するスマートアイグラス30の相対距離及び姿勢(向き)の情報も取得することができる。
(Step S103)
The processing device 40 uses the sensor data (depth information) acquired by the depth sensor 22 to indicate the relative distance and posture (direction) of the depth sensor 22 and the smart eyeglass 30 with respect to the object 10 in the real space. Calculate positional relationship information. Specifically, the processing apparatus 40 extracts the feature points of the object 10 from the depth information of the sensor data, and by using the extracted feature points, the subject is subjected to the object from the DB 410 stored in the storage unit 408, for example. By extracting the three-dimensional information 810 corresponding to the object 10 and comparing the feature points with the three-dimensional information 810, information on the posture (orientation) of the depth sensor 22 with respect to the object 10 is acquired. Further, as described above, since the relative positional relationship between the depth sensor 22 and the smart eyeglass 30 is fixed, the processing device 40 has a relative distance and posture of the depth sensor 22 with respect to the object 10. From the (orientation) information, information on the relative distance and posture (orientation) of the smart eyeglass 30 with respect to the object 10 can also be acquired.

さらに、本実施形態においては、処理装置40は、上述したカメラ24、加速度センサ26、地磁気センサ28等からの画像データ又はセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の推定の精度を高めてもよい。もしくは、本実施形態においては、被対象物10等に、深度情報における特徴点となるようなマーカを設けてもよく、もしくは、被対象物10等に通信タグや赤外線照射装置等を設けてもよい。この場合、処理装置40は、被対象物10等に設けられたマーカや通信タグ等を利用することにより、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得することができる。 Further, in the present embodiment, the processing device 40 uses the image data or sensor data from the above-mentioned camera 24, acceleration sensor 26, geomagnetic sensor 28, etc. to the depth sensor 22 and the smart eyeglass 30 with respect to the object 10. The accuracy of posture (orientation) estimation may be improved. Alternatively, in the present embodiment, the object 10 or the like may be provided with a marker that serves as a feature point in the depth information, or the object 10 or the like may be provided with a communication tag, an infrared irradiation device, or the like. good. In this case, the processing device 40 acquires information on the posture (orientation) of the depth sensor 22 and the smart eyeglass 30 with respect to the object 10 by using a marker, a communication tag, or the like provided on the object 10 or the like. be able to.

(ステップS105)
処理装置40は、上述したステップS103で得られた位置関係情報を用いて、DB410から取得した、理想状態にある被対象物10に対応する3次元情報810に含まれる理想状態にある被対象物10の表面の各点の3次元座標情報群を、3次元情報810に含まれる被対象物10のデプスセンサ22までの相対距離及び姿勢(向き)が、実際の被対象物10に対するデプスセンサ22の相対距離及び姿勢(向き)と一致するように、変換(正規化)する。さらに、処理装置40は、正規化した3次元情報810を、当該正規化した3次元情報810における被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、図8に示す理想デプス画像812を作成する。なお、図8に図示する理想デプス画像812においては、わかりやすくするために、物体の輪郭や異なるグラデーションの境目を輪郭線や境界線で示しているが、実際の理想デプス画像812においては、グラデーションのみで物体の輪郭や形状が示されている。
(Step S105)
The processing apparatus 40 uses the positional relationship information obtained in step S103 described above to obtain the object in the ideal state included in the three-dimensional information 810 corresponding to the object 10 in the ideal state acquired from the DB 410. The relative distance and orientation (direction) of the object 10 included in the three-dimensional information 810 to the depth sensor 22 of the three-dimensional coordinate information group of each point on the surface of the surface 10 is relative to the actual object 10. Convert (normalize) to match the distance and orientation (orientation). Further, the processing apparatus 40 projects the normalized three-dimensional information 810 onto a plane with a gradation according to the depth of each point on the surface of the object 10 in the normalized three-dimensional information 810. The ideal depth image 812 shown in FIG. 8 is created. In the ideal depth image 812 illustrated in FIG. 8, the contour of the object and the boundary between different gradations are shown by the contour line and the boundary line for the sake of clarity, but in the actual ideal depth image 812, the gradation is shown. Only the outline and shape of the object are shown.

(ステップS107)
処理装置40は、上述のステップS101で得られた実デプス画像802と、上述のステップS105で得られた理想デプス画像812とを差分である、図8に示される差分画像820を計算する。詳細には、処理装置40は、実デプス画像802と理想デプス画像812とを比較し、両者が異なる部分を差分画像820として抽出する。差分画像820においては、例えば、差分が大きいものを明るく表示し、差分のないものを暗く表示してもよい。
(Step S107)
The processing apparatus 40 calculates the difference image 820 shown in FIG. 8, which is the difference between the actual depth image 802 obtained in the above step S101 and the ideal depth image 812 obtained in the above step S105. Specifically, the processing apparatus 40 compares the actual depth image 802 and the ideal depth image 812, and extracts a portion different from each other as the difference image 820. In the difference image 820, for example, an image having a large difference may be displayed brightly, and an image having no difference may be displayed dark.

この際、処理装置40は、先に説明したように、深度情報から得られた実デプス画像802において、深度が無限遠になっている領域については、差分が生じていないものとして処理する。さらに、処理装置40は、実デプス画像802と理想デプス画像812とにおいて異なる部分であっても、被対象物10によって占められる領域でないと判断できる場合には、当該異なる部分において差分が生じていないものとして処理する。従って、図8における差分画像820においては、物体60の存在により実デプス画像802と理想デプス画像812とにおいて差分が生じているものの、物体60は、本実施形態において処理の対象とならないことから、物体60の存在による差分は、差分でないものとして処理されることとなる。このようにすることで、本実施形態においては、機密情報である被対象物10の周囲に存在する機器等についての情報が漏えいすることを避けることができる。 At this time, as described above, the processing apparatus 40 processes the region where the depth is infinity in the actual depth image 802 obtained from the depth information, assuming that no difference has occurred. Further, even if the processing device 40 has a different portion between the actual depth image 802 and the ideal depth image 812, if it can be determined that the region is not occupied by the object 10, no difference is generated in the different portion. Treat as a thing. Therefore, in the difference image 820 in FIG. 8, although the difference is generated between the actual depth image 802 and the ideal depth image 812 due to the presence of the object 60, the object 60 is not a target of processing in the present embodiment. The difference due to the existence of the object 60 is processed as not being a difference. By doing so, in the present embodiment, it is possible to avoid leakage of confidential information about the device or the like existing around the object 10.

(ステップS109)
処理装置40は、上述したステップS103で取得した、被対象物10に対するスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を用いて、実際のスマートアイグラス30に対する被対象物10の相対距離及び姿勢(向き)と一致するように、差分画像820に含まれる被対象物10の占める大きさ、姿勢(向き)及び表示位置を変換し、重畳表示するための表示(描画図)を作成する。このようにすることで、本実施形態においては、スマートアイグラス30によって表示される差分画像820は、実空間上の被対象物10に実像800と重畳して表示されることができる。
(Step S109)
The processing device 40 uses the positional relationship information indicating the relative distance and posture (orientation) of the smart eyeglass 30 with respect to the object 10 acquired in step S103 described above, and the object with respect to the actual smart eyeglass 30. Display (drawing) for converting the size, posture (direction) and display position occupied by the object 10 included in the difference image 820 so as to match the relative distance and posture (orientation) of the object 10 and superimposing the display. Figure) is created. By doing so, in the present embodiment, the difference image 820 displayed by the smart eyeglass 30 can be displayed superimposed on the real image 800 on the object 10 in the real space.

(ステップS111)
処理装置40は、被対象物10の実像800に対して上記差分画像820を強調して表示するために、上記差分画像820に対してエフェクト処理を行う。例えば、処理装置40は、差分に係る被対象物10の部分を輪郭線のみで表現するワイヤーフレーム830(図9 参照)の形態で表示されるように、差分画像820に対してエフェクト処理を行う。なお、本実施形態においては、当該ステップS111の実施は省略されてもよい。
(Step S111)
The processing device 40 performs effect processing on the difference image 820 in order to emphasize and display the difference image 820 on the real image 800 of the object 10. For example, the processing device 40 performs effect processing on the difference image 820 so as to be displayed in the form of a wire frame 830 (see FIG. 9) in which the portion of the object 10 related to the difference is represented only by the contour line. .. In this embodiment, the implementation of step S111 may be omitted.

(ステップS113)
処理装置40は、スマートアイグラス30を制御して、上述のように処理された差分画像820を、実空間上の被対象物10の実像800に重畳して表示する。例えば、処理装置40は、図8に示すような重畳画像822をスマートアイグラス30に表示する。本実施形態においては、上記差分画像820を被対象物10の実像800に重畳して表示することにより、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
(Step S113)
The processing device 40 controls the smart eyeglass 30 to superimpose and display the difference image 820 processed as described above on the real image 800 of the object 10 in the real space. For example, the processing device 40 displays the superimposed image 822 as shown in FIG. 8 on the smart eyeglass 30. In the present embodiment, by superimposing the difference image 820 on the real image 800 of the object 10, the user 20 can see the difference between the current state of the object 10 and the object 10 in the ideal state. That is, the defect of the object 10 can be intuitively grasped.

また、エフェクト処理を行った場合には、例えば、図9に示されるように、実デプス画像802と理想デプス画像812との差分である引出し10aの部分がワイヤーフレーム830で表現され、当該ワイヤーフレーム830が実空間上の被対象物10の実像800と重畳して表示される。本実施形態においては、差分画像820をワイヤーフレーム830で描画することにより、差分画像820を、被対象物10の実像800又は撮像画像を覆い隠すことなく表示できることから、ユーザ20は、被対象物10の状態をより容易に把握することができるようになる。 Further, when the effect processing is performed, for example, as shown in FIG. 9, the portion of the drawer 10a, which is the difference between the real depth image 802 and the ideal depth image 812, is represented by the wire frame 830, and the wire frame is represented. The 830 is displayed superimposed on the real image 800 of the object 10 in the real space. In the present embodiment, by drawing the difference image 820 with the wire frame 830, the difference image 820 can be displayed without obscuring the real image 800 or the captured image of the object 10, so that the user 20 can display the object. The state of 10 can be grasped more easily.

なお、スマートアイグラス30の代わりに、非透過型ディスプレイを用いたHMD32が使用された場合には、HMD32は、HMD32の外向きカメラ34で撮像された実空間上の被対象物10の撮像画像に重畳して、差分画像820を表示することとなる。 When an HMD 32 using a non-transmissive display is used instead of the smart eyeglass 30, the HMD 32 is an image captured by the object 10 in the real space captured by the outward camera 34 of the HMD 32. The difference image 820 is displayed by superimposing on the image.

以上のように、本発明の第1の実施形態においては、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の実像800に重畳して表示することができることから、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。従って、本実施形態によれば、例えば、被対象物10に装着すべき被対象物側センサ12の数が不足していたり、適切な位置に被対象物側センサ12が装着されていなかったりした場合であっても、被対象物10の状態を把握することができる。その結果、例えば、被対象物側センサ12の不足の洗い出しや設置漏れの検知が容易となり、さらには、被対象物側センサ12の故障等の検知も容易となる。 As described above, in the first embodiment of the present invention, the difference image 820, which is the difference between the actual object 10 and the object 10 in the ideal state, is superimposed on the real image 800 of the object 10. Since it can be displayed, the user 20 can intuitively display the difference between the current state of the object 10 and the object 10 in the ideal state, that is, the state of the object 10 such as a defect of the object 10. Can be grasped. Therefore, according to the present embodiment, for example, the number of object-side sensors 12 to be attached to the object 10 is insufficient, or the object-side sensor 12 is not attached at an appropriate position. Even in this case, the state of the object 10 can be grasped. As a result, for example, it becomes easy to identify the shortage of the object side sensor 12 and detect the installation omission, and further, it becomes easy to detect the failure of the object side sensor 12.

さらに、本実施形態においては、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。 Further, in the present embodiment, the depth information of the object 10 acquired by the depth sensor 22 is used as the information for grasping the state of the object 10. Therefore, according to the present embodiment, since the depth information does not include confidential information such as character information displayed on the surface of the object 10 due to the feature of the depth sensor 22, such confidential information is external. It is possible to prevent leakage to.

<<第2の実施形態>>
上述した本発明の第1の実施形態においては、工場の内部でユーザ20が対象機器である被対象物10の状態を把握し、保守作業を行う場合を例に説明した。しかしながら、被対象物10の保守作業の内容によっては、工場内のユーザ20に対して、工場の外部からの支援が必要となり、工場の外部にいる他のユーザが被対象物10の状態を把握することが求められることがある。さらに、工場の外部にいる他のユーザが被対象物10の状態を把握することにより、保守作業の効率化(作業時間の短縮化等)が図れる場合がある。そこで、このような場合であっても、機密漏えいを防止しつつ、対象機器である被対象物10の現状の状態を直感的に把握することができる、本発明の第2の実施形態を説明する。
<< Second Embodiment >>
In the first embodiment of the present invention described above, a case where the user 20 grasps the state of the object 10 which is the target device and performs maintenance work inside the factory has been described as an example. However, depending on the content of the maintenance work of the object 10, the user 20 in the factory may need support from outside the factory, and other users outside the factory can grasp the state of the object 10. You may be required to do so. Further, when another user outside the factory grasps the state of the object 10, the efficiency of maintenance work may be improved (working time may be shortened, etc.). Therefore, a second embodiment of the present invention will be described, which can intuitively grasp the current state of the object 10 which is the target device while preventing confidentiality leakage even in such a case. do.

<処理装置50の詳細構成>
本実施形態に係る情報処理システム1は、図1に示される本発明の第1の実施形態に係る情報処理システム1に、さらに処理装置50が含まれる。そこで、図10を参照して、処理装置50の詳細構成を説明する。図10は、本発明の第2の実施形態に係る処理装置40、50のブロック図である。なお、本実施形態においては、処理装置50以外の情報処理システム1に含まれる各装置の詳細構成は、上述した第1の実施形態と共通するため、ここではこれらの説明を省略する。
<Detailed configuration of processing device 50>
The information processing system 1 according to the present embodiment further includes a processing device 50 in the information processing system 1 according to the first embodiment of the present invention shown in FIG. Therefore, the detailed configuration of the processing device 50 will be described with reference to FIG. FIG. 10 is a block diagram of the processing devices 40 and 50 according to the second embodiment of the present invention. In this embodiment, the detailed configuration of each device included in the information processing system 1 other than the processing device 50 is the same as that of the first embodiment described above, and thus the description thereof will be omitted here.

処理装置50は、デスクトップ型PC、ノート型PC、タブレット端末、スマートフォン等によって実現され、処理装置40とは異なり、被対象物10が存在する工場内以外の場所に設置されている、すなわち、被対象物10から離れた場所に設置されているものとする。さらに、処理装置50は、通信網70を介して、上述した処理装置40との間で情報の送受信を行うことができる。 The processing device 50 is realized by a desktop PC, a notebook PC, a tablet terminal, a smartphone, or the like, and unlike the processing device 40, the processing device 50 is installed in a place other than the factory where the object 10 exists, that is, is covered. It is assumed that it is installed at a place away from the object 10. Further, the processing device 50 can send and receive information to and from the processing device 40 described above via the communication network 70.

詳細には、処理装置50は、処理装置40と同様に、CPU、RAM、ROM、表示装置等により実現される。図10に示すように、処理装置50は、平面投影部502、差分計算部504、描画計算部506、及びディスプレイ508を主に有する。以下に、本実施形態に係る処理装置50の各ブロックについて説明する。なお、処理装置50の有する平面投影部502、差分計算部504及び描画計算部506は、同一の名称を持つ、処理装置40の平面投影部402、差分計算部404及び描画計算部406と同様の機能を持つため、ここではこれらのブロックの説明を省略し、ディスプレイ508のみを説明する。 Specifically, the processing device 50 is realized by a CPU, RAM, ROM, a display device, and the like, similarly to the processing device 40. As shown in FIG. 10, the processing apparatus 50 mainly includes a plane projection unit 502, a difference calculation unit 504, a drawing calculation unit 506, and a display 508. Hereinafter, each block of the processing apparatus 50 according to the present embodiment will be described. The plane projection unit 502, the difference calculation unit 504, and the drawing calculation unit 506 of the processing device 50 have the same names as the plane projection unit 402, the difference calculation unit 404, and the drawing calculation unit 406 of the processing device 40. Since it has a function, the description of these blocks is omitted here, and only the display 508 will be described.

(ディスプレイ508)
ディスプレイ508は、工場の外部に存在する他のユーザ(ユーザ20以外のユーザ)に対して、差分画像820を被対象物10の撮像画像に重畳して表示する表示装置であり、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等の表示装置により実現される。
(Display 508)
The display 508 is a display device that displays the difference image 820 superimposed on the captured image of the object 10 to other users (users other than the user 20) existing outside the factory, and is, for example, a liquid crystal display. It is realized by a display device such as a (LCD) device and an OLED (Organic Light Emitting Diode) device.

なお、処理装置50は、図10に示されるブロックだけを含むことに限定されるものではなく、例えば、本実施形態においては、上述した処理装置40との間で情報の送受信を行うための通信モジュールである通信部を含んでいてもよい。 The processing device 50 is not limited to including only the block shown in FIG. 10, and for example, in the present embodiment, communication for transmitting / receiving information to / from the processing device 40 described above. It may include a communication unit which is a module.

<情報処理方法>
以上、本実施形態に係る処理装置50の詳細構成について説明した。次に、本実施形態に係る情報処理方法を、図11及び図12を参照して説明する。図11は、本実施形態に係る情報処理方法のシーケンス図であり、図12は、本実施形態に係る表示画像840の一例を説明するための説明図である。
<Information processing method>
The detailed configuration of the processing apparatus 50 according to the present embodiment has been described above. Next, the information processing method according to the present embodiment will be described with reference to FIGS. 11 and 12. FIG. 11 is a sequence diagram of the information processing method according to the present embodiment, and FIG. 12 is an explanatory diagram for explaining an example of the display image 840 according to the present embodiment.

詳細には、本実施形態に係る情報処理方法は、図11のシーケンス図に示すように、ステップS201からステップS219までの複数のステップを含むことができる。以下に、本実施形態に係る情報処理方法の各ステップの詳細を説明する。 Specifically, the information processing method according to the present embodiment can include a plurality of steps from step S201 to step S219, as shown in the sequence diagram of FIG. The details of each step of the information processing method according to the present embodiment will be described below.

(ステップS201)
上述した第1の実施形態に係る情報処理方法と同様に、ユーザ20は、デプスセンサ22と一体化したスマートアイグラス30を装着し、工場内に入場して、被対象物10と向かい合う姿勢をとる。このようにすることで、デプスセンサ22は、被対象物10を含む実空間における深度情報をセンシングする。
(Step S201)
Similar to the information processing method according to the first embodiment described above, the user 20 wears the smart eyeglass 30 integrated with the depth sensor 22, enters the factory, and takes a posture facing the object 10. .. By doing so, the depth sensor 22 senses depth information in the real space including the object 10.

なお、以下に説明する例においても、工場内(実空間)に設置された被対象物10は、図6に示すように、被対象物10の下部に配置された引出し10aが引き出された状態であり、引出し10aが格納された被対象物10があるべき状態(理想状態)とは異なる状態にあるものとする。また、以下の例においても、被対象物10の周囲には、本実施形態において処理の対象とならない物体60が存在するものとする。さらに、以下の例においても、記憶部408のDB410には、被対象物10があるべき状態(理想状態)として、図7に示されるような、被対象物10の下部に配置された引出し10aが被対象物10に格納された状態における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納されているものとする。 In addition, also in the example described below, the object 10 installed in the factory (real space) is in a state where the drawer 10a arranged at the lower part of the object 10 is pulled out as shown in FIG. It is assumed that the object 10 in which the drawer 10a is stored is in a state different from the state (ideal state) in which it should be. Further, also in the following example, it is assumed that an object 60 that is not a target of processing in the present embodiment exists around the object 10. Further, also in the following example, the drawer 10a arranged in the lower part of the object 10 as shown in FIG. 7 as the state (ideal state) in which the object 10 should be in the DB 410 of the storage unit 408. It is assumed that the three-dimensional information 810 (see FIG. 8), which is a three-dimensional coordinate information group of each point on the surface of the object 10 in the state of being stored in the object 10, is stored.

(ステップS203)
当該ステップS203は、図5に示される第1の実施形態のステップS101と同じであるため、ここでは説明を省略する。
(Step S203)
Since the step S203 is the same as the step S101 of the first embodiment shown in FIG. 5, the description thereof is omitted here.

(ステップS205)
当該ステップS205は、図5に示される第1の実施形態のステップS103と同じであるため、詳細な説明を省略するが、処理装置40は、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算する。さらに、処理装置40は、計算した位置関係情報を、通信網70を介して処理装置50へ送信する。
(Step S205)
Since the step S205 is the same as the step S103 of the first embodiment shown in FIG. 5, detailed description thereof will be omitted, but the processing apparatus 40 has a depth sensor 22 and a depth sensor 22 for the object 10 in the real space. The positional relationship information indicating the relative distance and posture (direction) of the smart eyeglass 30 is calculated. Further, the processing device 40 transmits the calculated positional relationship information to the processing device 50 via the communication network 70.

(ステップS207)
処理装置50は、通信網70を介して、デプスセンサ22から深度情報を含むセンサデータを取得し、当該深度情報に含まれる被対象物10及び物体60の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10及び物体60の表面の各点の深度に応じてグラデーションをつけて平面に投影し、図8に示すような実デプス画像802を作成する。
(Step S207)
The processing device 50 acquires sensor data including depth information from the depth sensor 22 via the communication network 70, and the relative three-dimensional coordinates of each point on the surface of the object 10 and the object 60 included in the depth information. Using a three-dimensional coordinate information group that is a collection of information, a gradient is added according to the depth of each point on the surface of the object 10 and the object 60 and projected onto a plane, and the actual depth is as shown in FIG. Create image 802.

さらに、処理装置50は、カメラ24(もしくは、HMD32を使用した場合には、HMD32の外向きカメラ34)から、カメラ24によって撮像された被対象物10の撮像画像データを取得する。なお、本実施形態においては、処理装置50において、カメラ24によって撮像された被対象物10の撮像画像データに、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。 Further, the processing device 50 acquires captured image data of the object 10 captured by the camera 24 from the camera 24 (or, when the HMD 32 is used, the outward camera 34 of the HMD 32). In the present embodiment, in the processing device 50, the image data of the object 10 captured by the camera 24 includes equipment (for example, an object 60) existing around the object 10 which is confidential information. It is preferable to perform processing such as applying a mask so that the image of the image is not included.

(ステップS209)
処理装置50は、処理装置40から通信網70を介して、上述のステップS205において、処理装置40で計算された被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を取得する。
(Step S209)
The processing device 50 is the relative distance and posture (direction) of the depth sensor 22 and the smart eyeglass 30 with respect to the object 10 calculated by the processing device 40 in the above-mentioned step S205 from the processing device 40 via the communication network 70. ) Is acquired.

(ステップS211)
当該ステップS211は、処理装置40で取得した位置関係情報を用いて処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS105と同じであるため、ここでは説明を省略する。
(Step S211)
Since the step S211 is the same as the step S105 of the first embodiment shown in FIG. 5, except that the step S211 is executed by the processing apparatus 50 using the positional relationship information acquired by the processing apparatus 40, it will be described here. Is omitted.

(ステップS213)
当該ステップS213は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS107と同じであるため、ここでは説明を省略する。
(Step S213)
Since the step S213 is the same as the step S107 of the first embodiment shown in FIG. 5 except that it is executed by the processing apparatus 50, the description thereof is omitted here.

(ステップS215)
当該ステップS215は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS109と同じであるため、ここでは説明を省略する。
(Step S215)
Since the step S215 is the same as the step S109 of the first embodiment shown in FIG. 5 except that the step S215 is executed by the processing apparatus 50, the description thereof is omitted here.

(ステップS217)
当該ステップS217は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS111と同じであるため、ここでは説明を省略する。
(Step S217)
Since the step S217 is the same as the step S111 of the first embodiment shown in FIG. 5 except that the step S217 is executed by the processing apparatus 50, the description thereof is omitted here.

(ステップS219)
処理装置50は、ディスプレイ508を制御して、差分画像820を、カメラ24(もしくは、HMD32を使用した場合には、HMD32の外向きカメラ34)によって撮像された被対象物10の撮像画像に重畳して表示する。例えば、処理装置50は、図12に示すような表示画像840をディスプレイ508に表示する。当該表示画像840においては、実デプス画像802と理想デプス画像812との差分である、引出し10aの部分の差分画像820が被対象物10の撮像画像に対して強調して表示されることが好ましい。本実施形態においては、このような差分画像820を被対象物10の撮像画像に重畳して表示することにより、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
(Step S219)
The processing device 50 controls the display 508 to superimpose the difference image 820 on the captured image of the object 10 captured by the camera 24 (or, when the HMD 32 is used, the outward camera 34 of the HMD 32). And display. For example, the processing device 50 displays the display image 840 as shown in FIG. 12 on the display 508. In the display image 840, it is preferable that the difference image 820 of the portion of the drawer 10a, which is the difference between the actual depth image 802 and the ideal depth image 812, is emphasized and displayed with respect to the captured image of the object 10. .. In the present embodiment, by superimposing and displaying such a difference image 820 on the captured image of the object 10, the user 20 can use the object 10 in the current state and the ideal state of the object 10. The difference between the two, that is, the deficiency of the object 10 can be intuitively grasped.

なお、本実施形態においては、表示画像840には、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように、マスクをかける等の処理を行った後に表示することが好ましい。従って、図12に示す表示画像840においては、被対象物10の周囲に存在する物体60が表示されていない。 In the present embodiment, the display image 840 is masked so as not to include an image of a device (for example, an object 60) existing around the object 10 which is confidential information. It is preferable to display after processing. Therefore, in the display image 840 shown in FIG. 12, the object 60 existing around the object 10 is not displayed.

以上のように、本発明の第2の実施形態においては、上述した第1の実施形態と同様に、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の撮像画像に重畳して表示することができることから、工場の外部にいるユーザは、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。 As described above, in the second embodiment of the present invention, similarly to the first embodiment described above, the difference image 820 which is the difference between the actual object 10 and the object 10 in the ideal state is obtained. Since the image of the object 10 can be superimposed and displayed, the user outside the factory can see the difference between the current state of the object 10 and the object 10 in the ideal state, that is, the object. It is possible to intuitively grasp the state of the object 10 such as a defect of the object 10.

さらに、本実施形態においても、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。加えて、本実施形態においては、工場の外部にいるユーザに向けて表示される表示画像840には、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように処理を行った後に表示していることから、被対象物10の周囲に存在する機器の情報である機密情報が工場の外部に存在するユーザに漏洩することがない。 Further, also in this embodiment, the depth information of the object 10 acquired by the depth sensor 22 is used as the information for grasping the state of the object 10. Therefore, according to the present embodiment, since the depth information does not include confidential information such as character information displayed on the surface of the object 10 due to the feature of the depth sensor 22, such confidential information is external. It is possible to prevent leakage to. In addition, in the present embodiment, the display image 840 displayed to the user outside the factory includes equipment (for example, object 60) existing around the object 10 which is confidential information. Since the image is displayed after being processed so as not to be included, the confidential information, which is the information of the device existing around the object 10, is not leaked to the user existing outside the factory.

なお、上述の説明においては、処理装置50において、平面投影してデプス画像を取得したり、差分画像820を取得したりするものとして説明したが、本実施形態においては、これに限定されるものではなく、処理装置40においてこれらの処理を行った後に処理データを処理装置50へ送信し、処理装置50のディスプレイ508に表示させてもよい。このようにすることで、処理装置50における処理の負荷を低減することができる。 In the above description, it has been described that the processing device 50 projects a plane to acquire a depth image or a difference image 820, but the present embodiment is limited to this. Instead, after performing these processes in the processing device 40, the processing data may be transmitted to the processing device 50 and displayed on the display 508 of the processing device 50. By doing so, the processing load in the processing apparatus 50 can be reduced.

また、本実施形態は、ユーザ20の代わりに、工場内を移動することができる自走型ロボット等にデプスセンサ22等を装着して利用することによっても、実施することができる。 Further, this embodiment can also be implemented by attaching a depth sensor 22 or the like to a self-propelled robot or the like that can move in the factory instead of the user 20.

<<まとめ>>
以上のように、本発明の各実施形態においては、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の実像800又は撮像画像に重畳して表示することができることから、ユーザ20又は他のユーザは、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。
<< Summary >>
As described above, in each embodiment of the present invention, the difference image 820, which is the difference between the actual object 10 and the object 10 in the ideal state, is superimposed on the real image 800 or the captured image of the object 10. Therefore, the user 20 or another user can display the difference between the current state of the object 10 and the object 10 in the ideal state, that is, the object 10 such as a defect of the object 10. You can intuitively grasp the state of.

さらに、本発明の各実施形態においては、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本発明の各実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。 Further, in each embodiment of the present invention, the depth information of the object 10 acquired by the depth sensor 22 is used as the information for grasping the state of the object 10. Therefore, according to each embodiment of the present invention, the depth information does not include confidential information such as character information displayed on the surface of the object 10 due to the characteristics of the depth sensor 22, and thus such confidentiality. It is possible to prevent information from leaking to the outside.

また、本発明に各実施形態においては、差分画像820を重畳表示するだけでなく、被対象物側センサ12から得られたセンサデータ並びにDB410に格納された被対象物10の形状情報を利用して生成した画像も併せて重畳表示してもよい。このようにすることで、ユーザ20又は屋のユーザは、被対象物10の状態の把握をより容易にすることができる。この際、差分画像820をワイヤーフレーム830で描画することが好ましく、このようにすることで、差分画像820を、被対象物10の実像800又は撮像画像を覆い隠すことなく表示することができる。 Further, in each embodiment of the present invention, not only the difference image 820 is superimposed and displayed, but also the sensor data obtained from the object side sensor 12 and the shape information of the object 10 stored in the DB 410 are used. The image generated by the above may also be superimposed and displayed. By doing so, the user 20 or the user of the shop can more easily grasp the state of the object 10. At this time, it is preferable to draw the difference image 820 with the wire frame 830, and by doing so, the difference image 820 can be displayed without obscuring the real image 800 or the captured image of the object 10.

なお、先に説明したように、本発明の各実施形態は、工場、金融機関、データセンサ、各種インフラ設備が設置された工場や事業場等において、機器や設備等の設置や保守を支援するために用いることができる。 As described above, each embodiment of the present invention supports the installation and maintenance of equipment and facilities in factories, business establishments, etc. where factories, financial institutions, data sensors, and various infrastructure facilities are installed. Can be used for

さらに、本発明の各実施形態は、上述した利用に限定されるものではなく、他の用途にも利用することができる。例えば、本実施形態によれば、被対象物10を機器等ではなく、人物とした場合に、所定の場所における人物の通過状況や、人物の向き(姿勢)を検知し、検知した人物の輪郭を差分画像820として所定の場所の撮像画像に重畳して表示することができる。より具体的には、本実施形態を利用することにより、建物内の廊下の通過状況や、公共交通機関の改札における利用客の流れや混雑状況を把握するための表示を行うことができる。この際、本実施形態においては、人物(上述の実施形態では被対象物10)の状態を把握するための情報として、デプスセンサ22によって取得された深度情報を用いることから、人物の存在や向き(姿勢)については把握できるものの、人物を特定するための詳細な顔の情報等を取得することが難しい。その結果、本実施形態によれば、通行する人物のプライバシーを守りつつ、建物内の防犯や改札の混雑状況を容易に把握することができる。 Furthermore, each embodiment of the present invention is not limited to the above-mentioned use, and can be used for other uses. For example, according to the present embodiment, when the object 10 is a person instead of a device or the like, the passage status of the person at a predetermined place and the direction (posture) of the person are detected, and the contour of the detected person is detected. Can be superimposed and displayed on a captured image at a predetermined location as a difference image 820. More specifically, by using this embodiment, it is possible to display the passage status of the corridor in the building, the flow of passengers at the ticket gate of public transportation, and the congestion status. At this time, in the present embodiment, since the depth information acquired by the depth sensor 22 is used as the information for grasping the state of the person (object 10 in the above-described embodiment), the existence and orientation of the person (the existence and orientation of the person) ( Although the posture) can be grasped, it is difficult to obtain detailed facial information for identifying the person. As a result, according to the present embodiment, it is possible to easily grasp the crime prevention in the building and the congestion situation of the ticket gate while protecting the privacy of the passing person.

<<ハードウェア構成>>
以上、本発明の各実施形態について説明した。続いて、本発明の各実施形態に係るハードウェア構成について説明する。図13は、本発明の実施形態に係る処理装置40(処理装置50)である情報処理装置900のハードウェア構成例を示したブロック図である。情報処理装置900は、CPU902と、ROM904と、RAM906とを有する。また、情報処理装置900は、入力部908と、出力部910と、ストレージ装置912と、ネットワークインタフェース914とを有する。以下に、当該情報処理装置900の各ハードウェアブロックについて説明する。
<< Hardware configuration >>
The embodiments of the present invention have been described above. Subsequently, the hardware configuration according to each embodiment of the present invention will be described. FIG. 13 is a block diagram showing a hardware configuration example of the information processing device 900, which is the processing device 40 (processing device 50) according to the embodiment of the present invention. The information processing apparatus 900 has a CPU 902, a ROM 904, and a RAM 906. Further, the information processing device 900 has an input unit 908, an output unit 910, a storage device 912, and a network interface 914. Hereinafter, each hardware block of the information processing apparatus 900 will be described.

(CPU902、ROM904、RAM906)
CPU902は、演算処理装置として機能し、各種プログラムに従って処理装置40である情報処理装置900内の動作全般を制御する。また、CPU902は、マイクロプロセッサであってもよい。ROM904は、CPU902が使用するプログラムや演算パラメータ等を記憶する。RAM906は、CPU902の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス916により相互に接続されている。CPU902、ROM904及びRAM906は、ソフトウェアとの協働により図4を参照して説明した、処理装置40の位置姿勢計算部400等の機能を実現し得る。
(CPU902, ROM904, RAM906)
The CPU 902 functions as an arithmetic processing device, and controls the overall operation in the information processing device 900, which is the processing device 40, according to various programs. Further, the CPU 902 may be a microprocessor. The ROM 904 stores programs, calculation parameters, and the like used by the CPU 902. The RAM 906 temporarily stores a program used in the execution of the CPU 902, parameters that appropriately change in the execution, and the like. These are connected to each other by a host bus 916 composed of a CPU bus or the like. The CPU 902, ROM 904, and RAM 906 can realize the functions of the position / orientation calculation unit 400 of the processing device 40 and the like described with reference to FIG. 4 in collaboration with software.

(入力部908)
入力部908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチ等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU902に出力する入力制御回路などから構成されている。ユーザは、当該入力部908を操作することにより、処理装置40に対して各種のデータを入力したり処理動作を指示したりすることができる。
(Input unit 908)
The input unit 908 is an input means for the user to input information such as a mouse, a keyboard, a touch panel, a button, a microphone, a sensor, and a switch, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 902. It is composed of such things. By operating the input unit 908, the user can input various data to the processing device 40 and instruct the processing operation.

(出力部910)
出力部910は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力部910は、上述のスマートアイグラス30等を含んでもよい。
(Output unit 910)
The output unit 910 includes, for example, a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, a projector device, an OLED (Organic Light Emitting Diode) device, and a lamp. Further, the output unit 910 may include the above-mentioned smart eyeglass 30 or the like.

(ストレージ装置912)
ストレージ装置912は、データ格納用の装置である。ストレージ装置912は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置912は、例えば、ROM、HDD又はSSD(Solid Strage Drive)等で構成される。このストレージ装置912は、ストレージを駆動し、CPU902が実行するプログラムや各種データを格納する。
(Storage device 912)
The storage device 912 is a device for storing data. The storage device 912 may include a storage medium, a recording device for recording data on the storage medium, a reading device for reading data from the storage medium, a deleting device for deleting data recorded on the storage medium, and the like. The storage device 912 is composed of, for example, a ROM, an HDD, an SSD (Solid Storage Drive), or the like. The storage device 912 drives the storage and stores programs and various data executed by the CPU 902.

(ネットワークインタフェース914)
ネットワークインタフェース914は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。当該通信インタフェースは、例えば、Bluetooth(登録商標)又はZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi-Fi(登録商標)、または携帯通信網(LTE、3G)等の通信インタフェースであることができる。また、ネットワークインタフェース914は、有線による通信を行う有線通信装置を含んでいてもよい。
(Network interface 914)
The network interface 914 is, for example, a communication interface configured by a communication device or the like for connecting to a network. The communication interface may be, for example, a short-range wireless communication interface such as Bluetooth (registered trademark) or ZigBee (registered trademark), a wireless LAN (Local Area Network), Wi-Fi (registered trademark), or a mobile communication network (LTE, It can be a communication interface such as 3G). Further, the network interface 914 may include a wired communication device that performs wired communication.

以上、本発明の実施形態に係る処理装置40である情報処理装置900のハードウェア構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。 The hardware configuration example of the information processing apparatus 900 which is the processing apparatus 40 according to the embodiment of the present invention has been shown above. Each of the above-mentioned components may be configured by using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration may be changed as appropriate depending on the technical level at the time of implementation.

<<補足>>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<< Supplement >>
Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to these examples. It is clear that a person having ordinary knowledge in the field of technology to which the present invention belongs can come up with various modifications or modifications within the scope of the technical ideas described in the claims. , These are also naturally understood to belong to the technical scope of the present invention.

また、上述した本発明の実施形態における情報処理方法は、必ずしも記載された順序に沿って動作又は処理されなくてもよい。例えば、各動作のステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの動作方法又は処理方法についても、必ずしも記載された方法に沿って動作又は処理されなくてもよく、例えば、他の機能部によって他の方法で動作又は処理されていてもよい。 Further, the information processing method in the above-described embodiment of the present invention does not necessarily have to be operated or processed in the order described. For example, the steps of each operation may be processed by changing the order as appropriate. Further, each step may be partially processed in parallel or individually instead of being processed in chronological order. Further, the operation method or processing method of each step does not necessarily have to be operated or processed according to the described method, and may be operated or processed by another functional unit, for example, by another method.

さらに、上述の本発明の実施形態に係る情報処理方法の少なくとも一部は、コンピュータを機能させる情報処理プログラムとして、ソフトウェアで構成することが可能であり、ソフトウェアで構成する場合には、上記動作又は処理の少なくとも一部を実現するプログラムをフレキシブルディスクやCD-ROM(Compact Disc Read Only Memory)等の記録媒体に収納し、処理装置40等、もしくは、処理装置40等と接続された他の装置に読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。さらに、上記情報処理方法の少なくとも一部を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。 Further, at least a part of the information processing method according to the embodiment of the present invention described above can be configured by software as an information processing program for operating a computer, and when configured by software, the above operation or the above operation or A program that realizes at least a part of processing is stored in a recording medium such as a flexible disk or a CD-ROM (Compact Disk Read Only Memory), and is stored in the processing device 40 or the like or another device connected to the processing device 40 or the like. It may be read and executed. The recording medium is not limited to a removable one such as a magnetic disk or an optical disk, and may be a fixed recording medium such as a hard disk device or a memory. Further, a program that realizes at least a part of the above information processing method may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be encrypted, modulated, compressed, and distributed via a wired line or a wireless line such as the Internet, or stored in a recording medium.

1 情報処理システム
10 被対象物
10a 引出し
12 被対象物側センサ
20 ユーザ
22 デプスセンサ
24 カメラ
26 加速度センサ
28 地磁気センサ
30 スマートアイグラス
32 HMD
34 外向きカメラ
40、50 処理装置
60 物体
70 通信網
400 位置姿勢計算部
402、502 平面投影部
404、504 差分計算部
406、506 描画計算部
408 記憶部
410 DB
508 ディスプレイ
800 実像
802 実デプス画像
810 3次元情報
812 理想デプス画像
820 差分画像
822 重畳画像
830 ワイヤーフレーム
840 表示画像
900 情報処理装置
902 CPU
904 ROM
906 RAM
908 入力部
910 出力部
912 ストレージ装置
914 ネットワークインタフェース
916 ホストバス
1 Information processing system 10 Object 10a Drawer 12 Object side sensor 20 User 22 Depth sensor 24 Camera 26 Accelerometer 28 Geomagnetic sensor 30 Smart eyeglass 32 HMD
34 Outward camera 40, 50 Processing device 60 Object 70 Communication network 400 Position / orientation calculation unit 402, 502 Plane projection unit 404, 504 Difference calculation unit 406, 506 Drawing calculation unit 408 Storage unit 410 DB
508 Display 800 Real image 802 Real depth image 810 3D information 812 Ideal depth image 820 Difference image 822 Superimposed image 830 Wireframe 840 Display image 900 Information processing device 902 CPU
904 ROM
906 RAM
908 Input section 910 Output section 912 Storage device 914 Network interface 916 Host bus

Claims (15)

実空間上にある被対象物の深度情報を取得するセンサ部と、
前記被対象物の3次元形状に関する形状情報を格納する記憶部と、
前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する位置関係情報算出部と、
前記深度情報に基づいて実深度画像を取得し、さらに、前記被対象物に対する前記センサ部の位置関係に基づいて変換した前記形状情報に基づいて形状深度画像を取得する画像取得部と、
前記実深度画像と、前記形状深度画像との差分である差分情報を算出する差分算出部と、
算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して、ユーザに向けて表示する前記表示部と、
を備える、情報処理装置。
A sensor unit that acquires depth information of an object in real space,
A storage unit that stores shape information related to the three-dimensional shape of the object, and
A positional relationship information calculation unit that calculates positional relationship information indicating the positional relationship of the sensor unit with respect to the object in the real space and the positional relationship of the display unit with respect to the object object .
An image acquisition unit that acquires an actual depth image based on the depth information and further acquires a shape depth image based on the shape information converted based on the positional relationship of the sensor unit with respect to the object.
A difference calculation unit that calculates difference information that is a difference between the actual depth image and the shape depth image .
The calculated difference information is converted based on the positional relationship of the display unit with respect to the object, superimposed on the real image of the object or the captured image of the object, and displayed to the user. With the display unit
An information processing device equipped with.
前記被対象物の実像又は前記被対象物の撮像画像に対して前記差分情報を強調して表示するために、前記差分情報に対してエフェクト処理を行うエフェクト処理部をさらに備える、
請求項1に記載の情報処理装置。
Further provided with an effect processing unit that performs effect processing on the difference information in order to emphasize and display the difference information on the real image of the object or the captured image of the object.
The information processing apparatus according to claim 1.
前記エフェクト処理部は、前記差分情報が、前記被対象物の実像又は前記被対象物の撮像画像とは異なる色彩、明度、又は透明度によって表示されるように、前記差分情報を処理する、請求項2に記載の情報処理装置。 The effect processing unit processes the difference information so that the difference information is displayed with a color, brightness, or transparency different from the real image of the object or the captured image of the object. The information processing apparatus according to 2. 前記エフェクト処理部は、前記差分情報がワイヤーフレーム表示されるように、前記差分情報を処理する、請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the effect processing unit processes the difference information so that the difference information is displayed in a wire frame. 前記センサ部は、前記被対象物に対して照射光を照射し、当該被対象物で反射された反射光を受光し、前記照射光と前記反射光との位相差又は時間差を検知することで、前記深度情報を取得するデプスセンサである、請求項1~4のいずれか1項に記載の情報処理装置。 The sensor unit irradiates the object with irradiation light, receives the reflected light reflected by the object, and detects the phase difference or time difference between the irradiation light and the reflected light. The information processing apparatus according to any one of claims 1 to 4, which is a depth sensor for acquiring the depth information. 前記センサ部は、複数のカメラにより前記被対象物を撮像して、前記深度情報を取得するステレオカメラである、請求項1~4のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 4, wherein the sensor unit is a stereo camera that captures the object with a plurality of cameras and acquires the depth information. 前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の実像に重畳して表示するスマートアイグラスである、請求項1~6のいずれか1項に記載の情報処理装置。 The display unit is a smart eyeglass that is attached to the head of the user and displays the difference information superimposed on the real image of the object, according to any one of claims 1 to 6. Information processing device. 前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の撮像画像に重畳して表示するヘッドマウントディスプレイである、請求項1~6のいずれか1項に記載の情報処理装置。 The display unit is a head-mounted display that is attached to the head of the user and displays the difference information superimposed on the captured image of the object, according to any one of claims 1 to 6. Information processing equipment. 前記被対象物を撮像する撮像部をさらに備える、請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, further comprising an imaging unit for imaging the object. 前記被対象物又は前記ユーザに装着された加速度センサ及び地磁気センサのうちの少なくとも1つを備え、
前記位置関係情報算出部は、前記加速度センサ及び前記地磁気センサのうちの少なくとも1つから得られたセンサデータに基づいて、前記位置関係情報を算出する、
請求項1~9のいずれか1項に記載の情報処理装置。
It comprises at least one of the accelerometer and the geomagnetic sensor worn on the object or the user.
The positional relationship information calculation unit calculates the positional relationship information based on sensor data obtained from at least one of the acceleration sensor and the geomagnetic sensor.
The information processing apparatus according to any one of claims 1 to 9.
前記画像取得部は、変換した前記形状情報及び前記深度情報を平面に投影する平面投影部であり、
前記差分算出部は、平面に投影された前記形状情報である前記形状深度画像と、平面に投影された前記深度情報である前記実深度画像との差分である前記差分情報を算出する、
請求項1~10のいずれか1項に記載の情報処理装置。
The image acquisition unit is a plane projection unit that projects the converted shape information and depth information onto a plane.
The difference calculation unit calculates the difference information, which is the difference between the shape depth image, which is the shape information projected on the plane, and the actual depth image, which is the depth information projected on the plane.
The information processing apparatus according to any one of claims 1 to 10.
前記差分算出部は、前記深度情報において深度が無限遠となる領域に関しては、差分が発生していないものとして処理を行う、請求項1~11のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 11, wherein the difference calculation unit performs processing on a region where the depth is infinity in the depth information, assuming that no difference has occurred. 実空間上にある被対象物の深度情報を取得するセンサ部と、
前記被対象物の3次元形状に関する形状情報を格納する記憶部と、
前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する位置関係情報算出部と、
前記深度情報に基づいて実深度画像を取得し、さらに、前記被対象物に対する前記センサ部の位置関係に基づいて変換した前記形状情報に基づいて形状深度画像を取得する画像取得部と、
前記実深度画像と、前記形状深度画像との差分である差分情報を算出する差分算出部と、
算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する前記表示部と、
を備える情報処理システム。
A sensor unit that acquires depth information of an object in real space,
A storage unit that stores shape information related to the three-dimensional shape of the object, and
A positional relationship information calculation unit that calculates positional relationship information indicating the positional relationship of the sensor unit with respect to the object in the real space and the positional relationship of the display unit with respect to the object object .
An image acquisition unit that acquires an actual depth image based on the depth information and further acquires a shape depth image based on the shape information converted based on the positional relationship of the sensor unit with respect to the object.
A difference calculation unit that calculates difference information that is a difference between the actual depth image and the shape depth image .
The display unit that converts the calculated difference information based on the positional relationship of the display unit with respect to the object object and superimposes it on the real image of the object object or the captured image of the object object.
Information processing system equipped with.
センサ部から実空間上にある被対象物の深度情報を取得し、
前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出し、
前記深度情報に基づいて実深度画像を取得し、さらに、予め格納された前記被対象物の3次元形状に関する形状情報を、前記被対象物に対する前記センサ部の位置関係に基づいて変換し、変換された前記形状情報に基づいて形状深度画像を取得し、
前記実深度画像と、前記形状深度画像との差分である差分情報を算出し、
算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して前記表示部に表示する、
ことを含む情報処理方法。
Obtain the depth information of the object in the real space from the sensor part,
The positional relationship information indicating the positional relationship of the sensor unit with respect to the object in the real space and the positional relationship of the display unit with respect to the object is calculated.
The actual depth image is acquired based on the depth information, and the shape information regarding the three-dimensional shape of the object stored in advance is converted and converted based on the positional relationship of the sensor unit with respect to the object. A shape depth image is acquired based on the shape information obtained, and the shape depth image is acquired.
Difference information, which is the difference between the actual depth image and the shape depth image , is calculated.
The calculated difference information is converted based on the positional relationship of the display unit with respect to the object object, superimposed on the real image of the object object or the captured image of the object object, and displayed on the display unit .
Information processing methods including that.
コンピュータに
センサ部から実空間上にある被対象物の深度情報を取得する機能と、
前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する機能と、
前記深度情報に基づいて実深度画像を取得し、さらに、予め格納された前記被対象物の3次元形状に関する形状情報を、前記被対象物に対する前記センサ部の位置関係に基づいて変換し、変換された前記形状情報に基づいて形状深度画像を取得する機能と、
前記実深度画像と、前記形状深度画像との差分である差分情報を算出する機能と、
算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して前記表示部に表示する機能と、
を実現させるプログラム。
The function to acquire the depth information of the object in the real space from the sensor part to the computer,
A function for calculating the positional relationship of the sensor unit with respect to the object in the real space and the positional relationship information indicating the positional relationship of the display unit with respect to the object .
An actual depth image is acquired based on the depth information, and further, the shape information regarding the three-dimensional shape of the object stored in advance is converted and converted based on the positional relationship of the sensor unit with respect to the object. A function to acquire a shape depth image based on the shape information provided, and
A function to calculate difference information which is a difference between the actual depth image and the shape depth image , and
A function of converting the calculated difference information based on the positional relationship of the display unit with respect to the object, superimposing it on the real image of the object or the captured image of the object, and displaying it on the display unit. When,
A program that realizes.
JP2018047120A 2018-03-14 2018-03-14 Information processing equipment, information processing system, information processing method and program Active JP7000935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018047120A JP7000935B2 (en) 2018-03-14 2018-03-14 Information processing equipment, information processing system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047120A JP7000935B2 (en) 2018-03-14 2018-03-14 Information processing equipment, information processing system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2019159942A JP2019159942A (en) 2019-09-19
JP7000935B2 true JP7000935B2 (en) 2022-01-19

Family

ID=67993475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047120A Active JP7000935B2 (en) 2018-03-14 2018-03-14 Information processing equipment, information processing system, information processing method and program

Country Status (1)

Country Link
JP (1) JP7000935B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352224A (en) 2001-05-29 2002-12-06 Topcon Corp Image measurement display device, image measurement display system, construction management method, construction state monitoring system
JP2011039646A (en) 2009-08-07 2011-02-24 Sony Corp Image processing apparatus and method, and program
JP2016099633A (en) 2014-11-18 2016-05-30 三菱電機株式会社 Maintenance inspection system using a portable terminal
JP2017138743A (en) 2016-02-02 2017-08-10 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2017182340A (en) 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
JP2017184136A (en) 2016-03-31 2017-10-05 キヤノン株式会社 Information processing device, information processing method, information processing system, and program
JP2017191351A (en) 2016-04-11 2017-10-19 株式会社日立製作所 Work support system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352224A (en) 2001-05-29 2002-12-06 Topcon Corp Image measurement display device, image measurement display system, construction management method, construction state monitoring system
JP2011039646A (en) 2009-08-07 2011-02-24 Sony Corp Image processing apparatus and method, and program
JP2016099633A (en) 2014-11-18 2016-05-30 三菱電機株式会社 Maintenance inspection system using a portable terminal
JP2017138743A (en) 2016-02-02 2017-08-10 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2017182340A (en) 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
JP2017184136A (en) 2016-03-31 2017-10-05 キヤノン株式会社 Information processing device, information processing method, information processing system, and program
JP2017191351A (en) 2016-04-11 2017-10-19 株式会社日立製作所 Work support system and method

Also Published As

Publication number Publication date
JP2019159942A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
KR102520183B1 (en) System and method for monitoring field based augmented reality using digital twin
US11747915B2 (en) Smart ring for manipulating virtual objects displayed by a wearable device
KR102289745B1 (en) System and method for real-time monitoring field work
US8965741B2 (en) Context aware surface scanning and reconstruction
US20210407205A1 (en) Augmented reality eyewear with speech bubbles and translation
US11132842B2 (en) Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device
US12028626B2 (en) Visual-inertial tracking using rolling shutter cameras
US11263818B2 (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
KR101181967B1 (en) 3D street view system using identification information.
CN107004279A (en) Natural user interface camera calibrated
US20180053055A1 (en) Integrating augmented reality content and thermal imagery
US20210405363A1 (en) Augmented reality experiences using social distancing
WO2023093217A1 (en) Data labeling method and apparatus, and computer device, storage medium and program
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US11580300B1 (en) Ring motion capture and message composition system
JP7000935B2 (en) Information processing equipment, information processing system, information processing method and program
US20230401796A1 (en) Fast ar device pairing using depth predictions
KR101036107B1 (en) Augmented Reality Implementation System Using Unique Identification Information
Diaz et al. Multimodal sensing interface for haptic interaction
CN108140256B (en) Method, apparatus and program for displaying 3D representation of object based on orientation information of display
RU2712417C1 (en) Method and system for recognizing faces and constructing a route using augmented reality tool
KR102783749B1 (en) Augmented reality guided depth estimation
JP2024072072A (en) Information processing device
KR20250021550A (en) High-speed AR device pairing using depth predictions

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R150 Certificate of patent or registration of utility model

Ref document number: 7000935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150