JP7000935B2 - Information processing equipment, information processing system, information processing method and program - Google Patents
Information processing equipment, information processing system, information processing method and program Download PDFInfo
- Publication number
- JP7000935B2 JP7000935B2 JP2018047120A JP2018047120A JP7000935B2 JP 7000935 B2 JP7000935 B2 JP 7000935B2 JP 2018047120 A JP2018047120 A JP 2018047120A JP 2018047120 A JP2018047120 A JP 2018047120A JP 7000935 B2 JP7000935 B2 JP 7000935B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- depth
- difference
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 73
- 238000003672 processing method Methods 0.000 title claims description 25
- 238000012545 processing Methods 0.000 claims description 131
- 238000004364 calculation method Methods 0.000 claims description 60
- 230000001133 acceleration Effects 0.000 claims description 18
- 230000000694 effects Effects 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000004148 unit process Methods 0.000 claims 2
- 238000004891 communication Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 10
- 238000012423 maintenance Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000007547 defect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 230000007812 deficiency Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 235000014676 Phragmites communis Nutrition 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing system, an information processing method and a program.
工場や事業所内に設置された機器や設備が適切な状態で設置されているかどうかを確認したり、これらの機器等において故障等が生じた場合に、これらの機器等の保守を迅速に実施したりするために、これらの対象機器等の状態を直感的に把握することが求められる。そこで、例えば、上記対象機器等の現状の画像を取得し、コンピュータ等により取得画像と上記対象機器等があるべき状態とを比較し、比較結果を、上記対象機器等を設置する作業員等に提供することにより、当該作業員等は、上記対象機器等の状態を直感的に把握することができるようになる。また、他の方法としては、上記対象機器等に各種のセンサを予め装着し、各種のセンサによって取得されたセンサデータを、上記対象機器等の実態に合わせてモデル化し、当該モデルを解析することにより、上記対象機器等における不備等を検証し、検証結果を作業員等に提供するような方法も利用することができる。 Check whether the equipment and facilities installed in the factory or office are installed in an appropriate state, and if a failure occurs in these equipment, etc., promptly maintain these equipment, etc. In order to do so, it is required to intuitively grasp the state of these target devices and the like. Therefore, for example, the current image of the target device or the like is acquired, the acquired image is compared with the state in which the target device or the like should be by a computer or the like, and the comparison result is given to the worker or the like who installs the target device or the like. By providing it, the worker or the like can intuitively grasp the state of the target device or the like. As another method, various sensors are attached to the target device or the like in advance, sensor data acquired by the various sensors is modeled according to the actual condition of the target device or the like, and the model is analyzed. Therefore, it is possible to use a method of verifying inadequacies in the above-mentioned target device or the like and providing the verification result to the worker or the like.
例えば、下記特許文献1には、部品を取り付ける被取付体及び当該部品の仮想モデルと、デプスセンサで取得した作業空間(実空間)の3次元イメージとを比較することにより、当該部品の取り付けを支援する作業支援システムが開示されている。また、下記特許文献2には、各種センサによって取得されたセンサデータを、コメント(例えば、センサによって検知した問題点等)と共に表示する測定システムが開示されている。
For example, in
しかしながら、関係者以外への機密漏えいを防止する観点から、工場内等の中で撮影した対象機器等の画像を外部へ持ち出すことができないことがある。また、上記対象機器等に装着すべきセンサの数が不足したり、適切な位置にセンサが装着されていなかったりすることに起因して、現状の上記対象機器等の状態を把握することが難しい場合がある。 However, from the viewpoint of preventing confidentiality leakage to persons other than those concerned, it may not be possible to take out the image of the target device or the like taken in the factory or the like. In addition, it is difficult to grasp the current state of the target device, etc. due to insufficient number of sensors to be mounted on the target device, etc., or the sensors not being mounted at appropriate positions. In some cases.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、機密漏えいを防止しつつ、対象機器等の状態を直感的に把握することが可能な、新規且つ改良された情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a novel invention capable of intuitively grasping the state of a target device or the like while preventing confidentiality leakage. Moreover, it is an object of providing the improved information processing apparatus, information processing system, information processing method and program.
上記課題を解決するために、本発明のある観点によれば、実空間上にある被対象物の深度情報を取得するセンサ部と、前記被対象物の3次元形状に関する形状情報を格納する記憶部と、前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する位置関係情報算出部と、前記深度情報に基づいて実深度画像を取得し、さらに、前記被対象物に対する前記センサ部の位置関係に基づいて変換した前記形状情報に基づいて形状深度画像を取得する画像取得部と、前記実深度画像と、前記形状深度画像との差分である差分情報を算出する差分算出部と、算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して、ユーザに向けて表示する前記表示部と、を備える、情報処理装置が提供される。 In order to solve the above problems, according to a certain viewpoint of the present invention, a sensor unit that acquires depth information of an object in real space and a storage that stores shape information regarding the three-dimensional shape of the object. Based on the unit, the positional relationship information calculation unit that calculates the positional relationship information indicating the positional relationship of the sensor unit with respect to the object in the real space, and the positional relationship of the display unit with respect to the object, and the depth information. An image acquisition unit that acquires a real depth image and further acquires a shape depth image based on the shape information converted based on the positional relationship of the sensor unit with respect to the object, the actual depth image, and the above. The difference calculation unit that calculates the difference information that is the difference from the shape depth image and the calculated difference information are converted based on the positional relationship of the display unit with respect to the object, and the actual image of the object or the object is converted. An information processing apparatus is provided that includes the display unit that is superimposed on the captured image of the object and displayed to the user.
前記情報処理装置は、前記被対象物の実像又は前記被対象物の撮像画像に対して前記差分情報を強調して表示するために、前記差分情報に対してエフェクト処理を行うエフェクト処理部をさらに備えてもよい。 The information processing apparatus further includes an effect processing unit that performs effect processing on the difference information in order to emphasize and display the difference information on the real image of the object or the captured image of the object. You may prepare.
前記エフェクト処理部は、前記差分情報が、前記被対象物の実像又は前記被対象物の撮像画像とは異なる色彩、明度、又は透明度によって表示されるように、前記差分情報を処理してもよい。 The effect processing unit may process the difference information so that the difference information is displayed with a color, brightness, or transparency different from the real image of the object or the captured image of the object. ..
前記エフェクト処理部は、前記差分情報がワイヤーフレーム表示されるように、前記差分情報を処理してもよい。 The effect processing unit may process the difference information so that the difference information is displayed in a wire frame.
前記センサ部は、前記被対象物に対して照射光を照射し、当該被対象物で反射された反射光を受光し、前記照射光と前記反射光との位相差又は時間差を検知することで、前記深度情報を取得するデプスセンサであってもよい。 The sensor unit irradiates the object with irradiation light, receives the reflected light reflected by the object, and detects the phase difference or time difference between the irradiation light and the reflected light. , The depth sensor that acquires the depth information may be used.
前記センサ部は、複数のカメラにより前記被対象物を撮像して、前記深度情報を取得するステレオカメラであってもよい。 The sensor unit may be a stereo camera that acquires the depth information by photographing the object with a plurality of cameras.
前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の実像に重畳して表示するスマートアイグラスであってもよい。 The display unit may be a smart eyeglass that is attached to the user's head and displays the difference information superimposed on the real image of the object.
前記表示部は、前記ユーザの頭部に装着されて、前記差分情報を前記被対象物の撮像画像に重畳して表示するヘッドマウントディスプレイであってもよい。 The display unit may be a head-mounted display that is attached to the user's head and displays the difference information superimposed on the captured image of the object.
前記情報処理装置は、前記被対象物を撮像する撮像部をさらに備えてもよい。 The information processing device may further include an image pickup unit that images the object.
前記情報処理装置は、前記被対象物又は前記ユーザに装着された加速度センサ及び地磁気センサのうちの少なくとも1つを備え、前記位置関係情報算出部は、前記加速度センサ及び前記地磁気センサのうちの少なくとも1つから得られたセンサデータに基づいて、前記位置関係情報を算出してもよい。 The information processing apparatus includes at least one of the acceleration sensor and the geomagnetic sensor mounted on the object or the user, and the positional relationship information calculation unit is at least one of the acceleration sensor and the geomagnetic sensor. The positional relationship information may be calculated based on the sensor data obtained from one.
前記画像取得部は、変換した前記形状情報及び前記深度情報を平面に投影する平面投影部であり、前記差分算出部は、平面に投影された前記形状情報である前記形状深度画像と、平面に投影された前記深度情報である前記実深度画像との差分である前記差分情報を算出してもよい。 The image acquisition unit is a plane projection unit that projects the converted shape information and the depth information onto a plane, and the difference calculation unit is a shape depth image that is the shape information projected on the plane and a plane. The difference information, which is the difference from the actual depth image, which is the projected depth information, may be calculated.
前記差分算出部は、前記深度情報において深度が無限遠となる領域に関しては、差分が発生していないものとして処理を行ってもよい。 The difference calculation unit may perform processing on the region where the depth is infinity in the depth information, assuming that no difference has occurred.
また、上記課題を解決するために、本発明の別の観点によれば、実空間上にある被対象物の深度情報を取得するセンサ部と、前記被対象物の3次元形状に関する形状情報を格納する記憶部と、前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する位置関係情報算出部と、前記深度情報に基づいて実深度画像を取得し、さらに、前記被対象物に対する前記センサ部の位置関係に基づいて変換した前記形状情報に基づいて形状深度画像を取得する画像取得部と、前記実深度画像と、前記形状深度画像との差分である差分情報を算出する差分算出部と、算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する前記表示部と、を備える情報処理システムが提供される。 Further, in order to solve the above-mentioned problems, according to another viewpoint of the present invention, a sensor unit that acquires depth information of an object in real space and shape information regarding the three-dimensional shape of the object are obtained. The storage unit for storing, the positional relationship information calculation unit for calculating the positional relationship of the sensor unit with respect to the object in the real space, and the positional relationship information indicating the positional relationship of the display unit with respect to the object, and the depth . An image acquisition unit that acquires an actual depth image based on information and further acquires a shape depth image based on the shape information converted based on the positional relationship of the sensor unit with respect to the object, and the actual depth image. The difference calculation unit that calculates the difference information, which is the difference from the shape depth image , and the calculated difference information are converted based on the positional relationship of the display unit with respect to the object, and the object is converted. An information processing system including the display unit that superimposes and displays the real image of the object or the captured image of the object is provided.
また、上記課題を解決するために、本発明のさらなる別の観点によれば、センサ部から実空間上にある被対象物の深度情報を取得し、前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出し、前記深度情報に基づいて実深度画像を取得し、さらに、予め格納された前記被対象物の3次元形状に関する形状情報を、前記被対象物に対する前記センサ部の位置関係に基づいて変換し、変換された前記形状情報に基づいて形状深度画像を取得し、前記実深度画像と、前記形状深度画像との差分である差分情報を算出し、算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して前記表示部に表示する、ことを含む情報処理方法が提供される。 Further, in order to solve the above-mentioned problem, according to still another viewpoint of the present invention, the depth information of the object in the real space is acquired from the sensor unit, and the sensor for the object in the real space is obtained. 3 _ Shape information related to a three-dimensional shape is converted based on the positional relationship of the sensor unit with respect to the object, a shape depth image is acquired based on the converted shape information, and the actual depth image and the shape depth image are obtained. The difference information, which is the difference between the object and the subject, is calculated, and the calculated difference information is converted based on the positional relationship of the display unit with respect to the object, and the actual image of the object or the captured image of the object is captured. An information processing method including superimposing on the display unit and displaying the image on the display unit is provided.
さらに、上記課題を解決するために、本発明のさらなる別の観点によれば、コンピュータにセンサ部から実空間上にある被対象物の深度情報を取得する機能と、前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する機能と、前記深度情報に基づいて実深度画像を取得し、さらに、予め格納された前記被対象物の3次元形状に関する形状情報を、前記被対象物に対する前記センサ部の位置関係に基づいて変換し、変換された前記形状情報に基づいて形状深度画像を取得する機能と、前記実深度画像と、前記形状深度画像との差分である差分情報を算出する機能と、算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して前記表示部に表示する機能と、を実現させるプログラムが提供される。 Further, in order to solve the above-mentioned problems, according to still another viewpoint of the present invention, a function of acquiring depth information of an object in the real space from a sensor unit by a computer and the object in the real space. A function of calculating the positional relationship of the sensor unit with respect to the object and the positional relationship of the display unit with respect to the object, and an actual depth image acquired based on the depth information, and further stored in advance. A function of converting shape information regarding the three-dimensional shape of the object based on the positional relationship of the sensor unit with respect to the object and acquiring a shape depth image based on the converted shape information, and the actual state. The function of calculating the difference information which is the difference between the depth image and the shape depth image and the calculated difference information are converted based on the positional relationship of the display unit with respect to the object, and the object is converted. A program is provided that realizes a function of superimposing on a real image of the object or an captured image of the object and displaying the image on the display unit .
以上説明したように本発明によれば、機密漏えいを防止しつつ、対象機器等の状態を直感的に把握することが可能な、情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することができる。 As described above, according to the present invention, there is provided an information processing device, an information processing system, an information processing method and a program capable of intuitively grasping the state of a target device or the like while preventing confidentiality leakage. be able to.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.
<<本発明の実施形態をなすに至った経緯>>
まずは、本発明の実施形態の具体的な説明に先立ち、本発明者が本発明の実施形態をなすに至った経緯について説明する。
<< Background to the embodiment of the present invention >>
First, prior to the specific description of the embodiment of the present invention, the background of the present inventor's formation of the embodiment of the present invention will be described.
例えば、先に説明したように、工場や事業所内に設置された機器や設備が適切な状態で設置されているかどうかを確認したり、これらの機器等において故障等が生じた場合に、これらの機器等の保守を迅速に実施したりするために、これらの機器等の状態を直感的に把握することが求められる。そこで、例えば、上記対象機器等の現状の画像を取得し、コンピュータ等により取得画像と上記対象機器等があるべき状態とを比較し、比較結果を、上記対象機器等を設置する作業員等に提供することにより、当該作業員等は、上記対象機器等の状態を直感的に把握することができるようになる。 For example, as explained above, it is possible to check whether the equipment and facilities installed in the factory or business establishment are installed in an appropriate state, or when a failure occurs in these equipment, etc. In order to quickly carry out maintenance of equipment, etc., it is required to intuitively grasp the state of these equipment, etc. Therefore, for example, the current image of the target device or the like is acquired, the acquired image is compared with the state in which the target device or the like should be by a computer or the like, and the comparison result is given to the worker or the like who installs the target device or the like. By providing it, the worker or the like can intuitively grasp the state of the target device or the like.
しかしながら、製造ラインが設けられた工場内や、顧客の財産を取り扱う金融機関の建物内や、顧客の情報を保管する複数のサーバが配置されたデータセンタ等においては、関係者以外への機密漏えいを防止する観点から、これらの場所の内部で撮影した画像を外部へ持ち出すことが制限されていることがある。従って、これらの場所に設置される機器等については、その画像を外部に持ち出すことができないこともあることから、上述のように画像を用いることによって対象機器等の現状の状態を把握することは難しいことがある。 However, confidentiality leaks to non-related parties in factories with manufacturing lines, in the buildings of financial institutions that handle customer property, and in data centers with multiple servers that store customer information. From the viewpoint of preventing the above, it may be restricted to take out the image taken inside these places to the outside. Therefore, it may not be possible to take out the images of the devices installed in these places, so it is not possible to grasp the current state of the target devices by using the images as described above. It can be difficult.
そこで、対象機器の現状の状態を把握するために、以下のような方法を用いることが考えられる。例えば、1つの方法としては、対象機器に各種のセンサ(例えば、機器の開閉を検知するリードスイッチ等)を予め装着し、これらの各種のセンサによって取得されたセンサデータを、上記対象機器等の実態に合わせてモデル化することが挙げられる。そして、上記モデルを解析することにより、上記対象機器における不備等を検証し、検証結果を作業員等に提供することにより、対象機器の現状の状態を把握することが可能となる。しかし、このような方法であっても、上記対象機器に装着すべきセンサの数が不足していたり、適切な位置に適切なセンサが装着されていなかったりすることに起因して、現状の上記対象機器等の状態を適切に示すようなモデルを得ることができないことがある。このような場合、適切なモデルを得ることができないことから、上記対象機器等の状態を把握することができないこととなる。 Therefore, in order to grasp the current state of the target device, it is conceivable to use the following method. For example, as one method, various sensors (for example, a reed switch for detecting the opening / closing of the device) are attached to the target device in advance, and the sensor data acquired by these various sensors is used in the target device or the like. Modeling according to the actual situation can be mentioned. Then, by analyzing the model, it is possible to verify the deficiency in the target device and provide the verification result to the worker or the like, so that the current state of the target device can be grasped. However, even with such a method, the number of sensors to be mounted on the target device is insufficient, or the appropriate sensor is not mounted at an appropriate position. It may not be possible to obtain a model that appropriately shows the state of the target device. In such a case, since an appropriate model cannot be obtained, it is not possible to grasp the state of the target device or the like.
このような状況を踏まえ、本発明者は、機密漏えいを防止しつつ、対象となる機器等の状態を直感的に把握することができる技術を確立しようと、鋭意検討を重ねていた。そのような検討を行う中で、本発明者は、対象機器の状態を取得するためにデプスセンサを用いることに着想した。 Based on such a situation, the present inventor has been diligently studying to establish a technique capable of intuitively grasping the state of the target device or the like while preventing the leakage of confidential information. In conducting such a study, the present inventor came up with the idea of using a depth sensor to acquire the state of the target device.
デプスセンサは、対象となる物体にパルス状のレーザ光等(照射光)を照射し、当該対象物体の表面で反射された光(反射光)を検知することにより、上記照射光と上記反射光との位相差又は時間差によって、デプスセンサから対象物体の表面までの距離、すなわち、対象物体の表面の凹凸等の奥行き情報である深度情報を取得することができるセンサである。詳細には、当該深度情報は、デプスセンサの位置を基準とした場合の、対象物体の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群であることができる。さらに、上記3次元座標情報群を利用して、対象物体の表面の各点の深度(距離)に応じてグラデーションをつけて平面に投影することにより、当該対象物体のデプス画像(例えば、図8の実デプス画像802 参照)を得ることができる。当該デプス画像は、グラデーションにより、対象物体の輪郭や表面の凹凸形状が表現されることにより、当該対象物体の輪郭や表面の形状を把握することができる平面画像であるといえる。 The depth sensor irradiates the target object with pulsed laser light or the like (irradiation light) and detects the light reflected on the surface of the target object (reflected light) to obtain the irradiation light and the reflected light. It is a sensor capable of acquiring depth information which is depth information such as the distance from the depth sensor to the surface of the target object, that is, the unevenness of the surface of the target object, by the phase difference or the time difference of the above. Specifically, the depth information can be a three-dimensional coordinate information group which is a collection of relative three-dimensional coordinate information of each point on the surface of the target object when the position of the depth sensor is used as a reference. Further, by using the above-mentioned three-dimensional coordinate information group and projecting it on a plane with a gradation according to the depth (distance) of each point on the surface of the target object, a depth image of the target object (for example, FIG. 8). Actual depth image 802) can be obtained. It can be said that the depth image is a planar image capable of grasping the contour of the target object and the shape of the surface by expressing the contour of the target object and the uneven shape of the surface by the gradation.
すなわち、デプスセンサによって取得することができる深度情報は、デプスセンサから対象物体までの相対距離や、当該対象物体の表面の形状についての情報であるといえる。従って、デプスセンサによって得られる深度情報は、例えば、当該対象物体の表面に印刷された、又は、表示された文字や模様等の情報を、これらが凹凸によって表現されたものでない限り、含むことが難しい。また、デプスセンサの精度にも依存するが、一般的に、デプスセンサは、均一な表面における微細な凹凸等といった、微細な形状の情報を得ることも難しい。 That is, it can be said that the depth information that can be acquired by the depth sensor is information about the relative distance from the depth sensor to the target object and the shape of the surface of the target object. Therefore, it is difficult for the depth information obtained by the depth sensor to include, for example, information such as characters and patterns printed or displayed on the surface of the target object unless they are expressed by unevenness. .. Further, although it depends on the accuracy of the depth sensor, it is generally difficult for the depth sensor to obtain information on fine shapes such as fine irregularities on a uniform surface.
このようなデプスセンサの特徴を鑑み、本発明者は、デプスセンサの特徴を生かすことで、機密漏えいを防止しつつ、対象機器の現状の状態を直感的に把握することができる技術を創作できるのではないかと考えたのである。例えば、工場、金融機関、データセンタ等においては、漏洩してはいけない機密情報は、これらの場所に設置された、対象機器の周囲に存在する他の機器等であったり、当該対象機器の表面に表示された文字情報等であったりすることが多い。そこで、本発明者は、対象機器の状態を把握するための情報として、デプスセンサによって取得された深度情報を用いることに想到した。深度情報には、デプスセンサの特徴により上述のような機密情報が含まれないことから、本発明者は、デプスセンサを利用することにより、機密漏えいを防止することができるのではないかと考えたのである。 In view of such characteristics of the depth sensor, the present inventor may be able to create a technology that can intuitively grasp the current state of the target device while preventing confidentiality leakage by utilizing the characteristics of the depth sensor. I wondered if there was one. For example, in factories, financial institutions, data centers, etc., confidential information that should not be leaked is other equipment, etc. that exist around the target equipment installed in these places, or the surface of the target equipment. It is often the text information displayed in. Therefore, the present inventor has come up with the idea of using the depth information acquired by the depth sensor as the information for grasping the state of the target device. Since the depth information does not include the above-mentioned confidential information due to the characteristics of the depth sensor, the present inventor thought that the use of the depth sensor could prevent the leakage of confidential information. ..
すなわち、本発明者が着想した本発明の実施形態においては、デプスセンサによって得られる対象機器の深度情報を対象機器の実態に合わせてモデル化(デプス画像化)し、当該モデルと対象機器があるべき理想状態とを比較し、比較結果(差分)を作業員等に提供する。このような本発明の実施形態によれば、機密漏えいを防止しつつ、対象機器の現状の状態を直感的に把握することができる。以下、このような本発明の実施形態を順次詳細に説明する。 That is, in the embodiment of the present invention conceived by the present inventor, the depth information of the target device obtained by the depth sensor should be modeled (depth imaging) according to the actual condition of the target device, and the model and the target device should be present. It compares with the ideal state and provides the comparison result (difference) to the workers and the like. According to such an embodiment of the present invention, it is possible to intuitively grasp the current state of the target device while preventing confidentiality leakage. Hereinafter, such embodiments of the present invention will be sequentially described in detail.
なお、以下に説明する本発明の各実施形態は、工場、金融機関、データセンサ、各種インフラ設備が設置された工場や事業場等において、機器や設備等の設置や保守を支援するために用いることができる。以下の説明においては、工場の内部でユーザ20が対象機器である被対象物10の状態を把握し、被対象物10の保守作業を行う場合を例に説明する。
Each embodiment of the present invention described below is used to support the installation and maintenance of equipment and facilities in factories, financial institutions, data sensors, factories and business establishments where various infrastructure facilities are installed, and the like. be able to. In the following description, a case where the
<<第1の実施形態>>
<情報処理システム1の概要>
まずは、本発明の第1の実施形態に係る情報処理システム1の概要について、図1から図3を参照して説明する。なお、図1は、本実施形態に係る情報処理システム1の概要について説明するための説明図である。図2は、本実施形態に係るHMD(Head Mounted Display(ヘッドマウントディスプレイ))32の一例を説明するための説明図である。さらに、図3は、本実施形態に係るスマートアイグラス30の使用の一例を説明するための説明図である。
<< First Embodiment >>
<Overview of
First, an outline of the
本実施形態に係る情報処理システム1は、図1に示すように、被対象物10に装着された被対象物側センサ12と、デプスセンサ(センサ部)22と、カメラ(撮像部)24と、加速度センサ26と、地磁気センサ28と、ユーザ20の頭部に装着されたスマートアイグラス30と、処理装置40とを主に含む。なお、図1においては、わかりやすくするためにデプスセンサ22については、デプスセンサ22単独、及び、スアートアイグラス30と一体となった状態のデプスセンサ22というように、重複して図示している。以下に、本実施形態に係る情報処理システム1に含まれる各装置の概要について説明する。
As shown in FIG. 1, the
(被対象物側センサ12)
被対象物側センサ12は、本実施形態における被対象物10である、工場の内部に設置された機器や設備等に装着されたセンサである。詳細には、被対象物側センサ12は、被対象物10である対象機器の開閉を検知するリードスイッチ等といった、被対象物10の状態等を検知するためのセンサ群を含むことができる。なお、本実施形態においては、被対象物側センサ12は、被対象物10である機器に予め備えつけられているセンサであってもよく、もしくは、被対象物10である機器に後付されたセンサであってもよく、特に限定されるものではない。
(Object side sensor 12)
The object-
本実施形態においては、例えば、被対象物側センサ12が、被対象物10の状態の検知が可能なように設置されていない場合(例えば、被対象物側センサ12が、設計漏れや取り付け漏れ等によって設置されていない場合)であっても、以下に説明する情報処理システム1を用いることにより、所望する被対象物10の状態の検知が可能となる。さらに、被対象物側センサ12は、自身が取得したセンサデータを後述する処理装置40へ、通信網70を介して、送信することができる。そして、当該処理装置40は、被対象物側センサ12からのセンサデータを用いて、被対象物10の状態を表示することができる。
In the present embodiment, for example, when the
(デプスセンサ22)
デプスセンサ22は、Light Detection and Ranging、Laser Imaging Detection and Ranging(LIDAR)を利用したセンサである。言い換えると、デプスセンサ22は、光を利用して、実空間上におけるデプスセンサ22から対象となる物体(本実施形態においては被対象物10)の表面の各点との距離を計測することができるセンサである。詳細には、デプスセンサ22は、例えば、被対象物10に所定の周期を持つパルス状のレーザ光等(照射光)を照射し、被対象物10の表面で反射された光(反射光)を受光することにより、上記照射光と上記反射光との位相差又は時間差によって、被対象物10の輪郭や、被対象物10の表面の凹凸等の情報である深度情報を取得することができる。
(Depth sensor 22)
The
そして、先に説明したように、上記深度情報は、デプスセンサ22の位置を基準とした場合の、被対象物10の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群であることができる。従って、上記3次元座標情報群を利用して、被対象物10の表面の各点の深度(距離)に応じてグラデーションをつけて平面に投影することにより、被対象物10のデプス画像(例えば、図8の実デプス画像802 参照)を得ることができる。
Then, as described above, the depth information is a collection of relative three-dimensional coordinate information of each point on the surface of the
このようなデプスセンサ22は、先に説明したように、被対象物10の表面に印刷された、又は、表示された文字や模様等の情報のような機密情報を、これらが凹凸によって表現されたものでない限り、取得することは難しい。従って、本実施形態においては、デプスセンサ22によって得られる深度情報を利用することにより、機密漏えいを防止しつつ、被対象物10の現状の状態を直感的に把握することができる。
As described above, such a
さらに、本実施形態においては、被対象物10の状態を把握するために用いる深度情報には、被対象物10の周囲に存在する機器等についての深度情報が含まれないようにすることが好ましい。このようにすることで、本実施形態においては、被対象物10の周囲に存在する機器等の情報のような機密情報の漏洩を防止することができる。
Further, in the present embodiment, it is preferable that the depth information used for grasping the state of the
さらに、デプスセンサ22は、取得したセンサデータ(深度情報)を後述する通信網70を介して、後述する処理装置40に送信することができる。
Further, the
なお、デプスセンサ22は、後述するスマートアイグラス30との間で相対的な位置関係が固定され、固定された相対的な位置関係に関する情報が予め取得されていることが好ましい。例えば、図1及び図3に示すように、デプスセンサ22とスマートアイグラス30とが一体の装置となっていることが好ましい。しかしながら、本実施形態においては、これに限定されるものではなく、デプスセンサ22及びスマートアイグラス30の位置情報が取得することができるような位置情報センサ(図示省略)を利用し、デプスセンサ22及びスマートアイグラス30の相対的な位置関係に関する情報を取得してもよい。
It is preferable that the
また、本実施形態においては、デプスセンサ22の代わりに、複数のカメラ間における視差を利用して、デプスセンサ22のように対象となる物体までの距離の情報を取得することができる、複数のカメラからなるステレオカメラ(図示省略)を用いてもよい。ただし、ステレオカメラを用いた場合には、工場の内部の詳細な画像が得られることから、被対象物10の状態を把握するために用いる、ステレオカメラの画像には、機密情報である被対象物10の周囲に存在する機器等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。
Further, in the present embodiment, instead of the
(カメラ24)
カメラ24は、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等を撮像する撮像装置であって、被対象物10で反射される光を集光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより画像を取得することができる。詳細には、カメラ24は、光を集光する撮影レンズ及びズームレンズなどの撮像光学系、及び、CCD(Charge Coupled Device)、又は、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有することができる。また、カメラ24は、当該カメラ24が取得した画像データを後述する通信網70を介して処理装置40に送信することもできる。当該処理装置40は、カメラ24からの画像データを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30との位置関係を示す位置関係情報を計算してもよい。
(Camera 24)
The
なお、上述したステレオカメラ(図示省略)と同様に、カメラ24を用いた場合には、工場の内部の詳細な画像が得られることから、カメラ24の画像データには、機密情報である被対象物10の周囲に存在する機器等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。
As with the stereo camera (not shown) described above, when the
(加速度センサ26)
加速度センサ26は、例えば、3軸加速度センサにより実現され、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着され、被対象物10等の運動による加速度を検知する。加速度センサ26は、加速度センサ26が取得したセンサデータを、通信網70を介して処理装置40に送信することもできる。上記処理装置40は、加速度センサ26からのセンサデータを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30の位置関係を示す位置関係情報を計算してもよい。さらに、加速度センサ26には、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着されたジャイロセンサ(図示省略)が含まれていてもよく、加速度センサ26は、例えば、3軸ジャイロセンサにより実現され、被対象物10等の運動による角速度(回転速度)を検知する。
(Accelerometer 26)
The
(地磁気センサ28)
地磁気センサ28は、例えば、3軸地磁気センサ(コンパス)により実現され、被対象物10、ユーザ20、デプスセンサ22、スマートアイグラス30等に装着され、被対象物10等に装着され、絶対方向(方位)を検知する。なお、ここで、絶対方位とは、実空間における世界座標系(東西南北)における方位のことをいう。地磁気センサ28は、地磁気センサ28が取得したセンサデータを、通信網70を介して処理装置40に送信することもできる。上記処理装置40は、地磁気センサ28からのセンサデータを用いて、被対象物10と、デプスセンサ22やスマートアイグラス30との位置関係を示す位置関係情報を計算してもよい。
(Geomagnetic sensor 28)
The
なお、上述したデプスセンサ22、カメラ24、加速度センサ26及び地磁気センサ28は、被対象物10の近傍に位置する固定装置(図示省略)や、工場内を移動することができるロボット等の移動装置(図示省略)に装着されていてもよい。さらに、カメラ24、加速度センサ26及び地磁気センサ28は、ユーザ20の頭部に装着されたスマートアイグラス30と一体の装置として構成されていてもよい。
The
(スマートアイグラス30)
スマートアイグラス30は、図1に示されるように、ユーザ20の頭部に装着される眼鏡型のHMDである。スマートアイグラス30は、装着時にユーザ20の眼前に位置する眼鏡レンズ部分に相当する表示部(図示省略)を持ち、当該表示部は、眼鏡レンズ部分の外側を視認することができる透過型ディスプレイにより実現される。当該表示部が透過型ディスプレイであることから、スマートアイグラス30は、ユーザ20の周囲の実空間上の物体(本実施形態においては被対象物10)の実像800(例えば、図8 参照)に重畳して、画像を当該ユーザ20に向けて表示することができる。このような透過型ディスプレイは、例えば、ハーフミラーや透明な導光板を用いた透明な導光部等からなる虚像光学系がユーザ20の眼前に保持されることにより、当該虚像光学系の内側に画像を結像させ、ユーザ20に向けて当該画像を表示することができる。以下の説明においては、透過型ディスプレイの表示部を持つHMDを「スマートアイグラス」と呼ぶものとする。さらに、スマートアイグラス30は、後述する処理装置40からの情報を、通信網70を介して受信することができる。なお、先に説明したように、図1及び図3に示すように、スマートアイグラス30は、デプスセンサ22と一体の装置となっていることが好ましい。
(Smart eyeglass 30)
As shown in FIG. 1, the
また、本実施形態においては、スマートアイグラス30の代わりに、表示部(図示省略)として非透過型ディスプレイを用いたHMD32が使用されてもよい。このような場合、HMD32は、図2に示されるように、ユーザ20の頭部に装着されることができ、ユーザ20が視認する方向の実空間を撮像範囲として撮像する外向きカメラ34を有する。そして、HMD32は、上記外向きカメラ34で撮像された実空間上の物体(例えば、被対象物10)の撮像画像に重畳して、別の画像を当該ユーザ20に向けて表示することができる。なお、図2においては、わかりやすくするために、HMD32と一体化するように設けられたデプスセンサ22については、図示を省略している。
Further, in the present embodiment, instead of the
なお、本実施形態においては、スマートアイグラス30やHMD32の形態は図1から図3に示す形態に限定されるものではない。例えば、HMD32は、ヘッドバンド型やヘルメット型であってもよく、本実施形態においては、装着時にユーザ20の眼前に位置する表示部(図示省略)を有していれば、その形態については特に限定されるものではない。
In this embodiment, the forms of the
さらに、以下の説明においては、透過型ディスプレイを持つスマートアイグラス30を用いた場合を例に挙げて説明する。
Further, in the following description, a case where a
(処理装置40)
処理装置40は、ノート型PC(Personal Computer)、タブレット型PC、スマートフォン等であることができ、上述したデプスセンサ22等によって得られたセンサデータを処理したり、上述したスマートアイグラス30において表示する画像を生成したりすることができる。本実施形態においては、機密漏えいを防ぐために、処理装置40は、指定された場所(例えば、工場内)から持ち出すことができないように管理されていることが好ましい。また、処理装置40は、通信網70を介して、上述したデプスセンサ22やスマートアイグラス30との間で情報の送受信を行うことができる。なお、処理装置40の詳細構成については後述する。
(Processing device 40)
The
(通信網70)
通信網70は、1つ又は複数の工場内等で情報の送受信に利用されるネットワークである。通信網70は、有線又は無線であることができ、例えば、電話回線、衛星通信網等の公衆回線網や、インターネット、専用回線、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、又は、WAN(Wide Area Network)等の任意の通信ネットワークから構成される。さらに、専用回線は、IP-VPN(Internet Protocol‐Virtual Private Network)等から構成されてもよい。なお、本実施形態においては、通信網70は、何らかのセキュリティ手段(例えば、Secure Sockets Layer(SSL)等)が施されていることが好ましい。
(Communication network 70)
The
なお、本実施形態に係る情報処理システム1においては、カメラ24、加速度センサ26、及び地磁気センサ28が含まれていなくてもよい。
The
さらに、本実施形態においては、デプスセンサ22、カメラ24、加速度センサ26、地磁気センサ28、スマートアイグラス30、及び処理装置40は、これらの一部又は全部が一体の装置として構成されていてもよい。例えば、デプスセンサ22、スマートアイグラス30、及び処理装置40が一体の装置として構成されている場合には、スタンドアローンで情報処理を行うことが可能な装置であることができる。また、上述の処理装置40は、例えばクラウドコンピューティング等のようなネットワークへの接続を前提とした、複数の装置からなるシステムによって構築されていてもよい。
Further, in the present embodiment, the
<処理装置40の詳細構成>
以上、本実施形態に係る情報処理システム1の概要構成を説明した。次に、図4を参照して、本実施形態に係る処理装置40の詳細構成を説明する。図4は、本実施形態に係る処理装置40のブロック図である。
<Detailed configuration of
The outline configuration of the
詳細には、処理装置40は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等により実現される。図4に示すように、処理装置40は、位置姿勢計算部(位置関係情報算出部)400、平面投影部402、差分計算部(差分算出部)404、描画計算部406、及び記憶部408を有する。さらに、処理装置40は、図4において図示が省略されているものの、通信部を有する。以下に、本実施形態に係る処理装置40の各ブロックについて説明する。
Specifically, the
(位置姿勢計算部400)
位置姿勢計算部400は、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算し、計算した位置関係情報を後述する平面投影部402に出力する。
(Position / Posture Calculation Unit 400)
The position /
詳細には、位置姿勢計算部400は、デプスセンサ22からセンサデータを取得し、当該センサデータに含まれる深度情報を取得することにより、被対象物10に対するデプスセンサ22の相対距離を取得することができる。また、先に説明したように、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されている。従って、位置姿勢計算部400は、既知であるデプスセンサ22とスマートアイグラス30との間の相対距離の情報を用いることにより、被対象物10に対するデプスセンサ22の相対距離から、被対象物10に対するスマートアイグラス30の相対距離を取得することもできる。
Specifically, the position /
さらに、位置姿勢計算部400は、上記深度情報から被対象物10の特徴点(例えば特徴的な部分の輪郭線)を抽出し、抽出した特徴点を用いることにより、後述する記憶部408に格納されたDataBase(DB)410から、被対象物10に対応する3次元形状の情報である形状情報(例えば、予め取得した、被対象物10があるべき状態(理想状態)における被対象物10の表面の各点の3次元座標情報群)を取得することができる。そして、位置姿勢計算部400は、取得した深度情報と、理想状態の被対象物10の形状情報とを比較することにより、被対象物10に対するデプスセンサ22の姿勢(向き)の情報を取得することができる。また、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されていることから、上述と同様に、位置姿勢計算部400は、被対象物10に対するデプスセンサ22の姿勢(向き)の情報から、被対象物10に対するスマートアイグラス30の姿勢(向き)の情報も取得することができる。なお、本実施形態においては、上述のような特徴点を用いた方法の代わりに、予め被対象物10に対応する3次元形状の情報である形状情報をユーザ20が選択しておくことにより、位置姿勢計算部400が当該形状情報をDB410から取得できるようにしてもよい。
Further, the position /
また、本実施形態においては、位置姿勢計算部400は、被対象物側センサ12からのセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得してもよい。さらに、位置姿勢計算部400は、上述したカメラ24、加速度センサ26、地磁気センサ28等からの画像データ又はセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の推定の精度を高めてもよい。
Further, in the present embodiment, the position /
なお、本実施形態においては、被対象物10に、深度情報における特徴点となるようなマーカを設けてもよく、もしくは、被対象物10に通信タグや赤外線照射装置等を設けてもよい。この場合、位置姿勢計算部400は、被対象物10に設けられたマーカや通信タグ等を利用することにより、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得してもよい。
In the present embodiment, the
(平面投影部402)
平面投影部402は、デプスセンサ22によって得られた被対象物10の深度情報、及び、DB410から取得した、理想状態にある被対象物10に対応する3次元情報を、平面に投影することにより、各デプス画像(例えば、図8の実デプス画像802及び理想デプス画像812)を得ることができる。そして、平面投影部402は、取得した各デプス画像を後述する差分計算部404に出力する。
(Plane projection unit 402)
The
詳細には、平面投影部402は、被対象物10の深度情報に含まれる被対象物10の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、実空間上の被対象物10のデプス画像、すなわち、実デプス画像802(図8 参照)を得ることができる。
Specifically, the
なお、本実施形態においては、平面投影部402は、被対象物10に装着された被対象物側センサ12によって得られたセンサデータを取得し、取得したセンサデータを反映させるようにして、実デプス画像802(図8 参照)を生成してもよい。
In the present embodiment, the
さらに、平面投影部402は、上述した位置姿勢計算部400によって得られた位置関係情報を用いて、DB410から取得した、理想状態にある被対象物10に対応する3次元情報810(図8 参照)を、上記実デプス画像802(図8 参照)に合わせて正規化する。さらに、平面投影部402は、正規化した3次元情報810を、当該正規化した3次元情報810における被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、理想状態にある被対象物10のデプス画像、すなわち、理想デプス画像812(図8 参照)を得ることができる。より詳細には、上記正規化は、上記位置関係情報を用いて、理想状態にある被対象物10のデプスセンサ22までの相対距離及び向き(姿勢)が、実際の被対象物10に対するデプスセンサ22の相対距離及び向き(姿勢)と一致するように、3次元情報810に含まれる理想状態にある被対象物10の表面の各点の3次元座標情報群を変換することである。そして、平面投影部402は、変換した3次元座標情報群を、実デプス画像802と同様に、被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、理想デプス画像812を得ることができる。
Further, the
例えば、被対象物10の正面がデプスセンサ22に向いていたことから、被対象物10の正面がまっすぐ画像の前方を向いているような実デプス画像802が得られたものとする。さらに、例えば、理想状態にある被対象物10に対応する3次元情報810をそのまま平面に投影して得られた理想デプス画像812においては、被対象物10の正面は斜めに傾いているものとする。このような場合、実デプス画像802と理想デプス画像812とを比較しても、これらデプス画像において被対象物10の向き(姿勢)が互いに異なることから、被対象物10の現状の状態、すなわち、理想状態に対する被対象物10の現状の状態を正確に把握することができない。そこで、本実施形態においては、平面投影部402により、上述した位置関係情報を用いて、理想状態にある被対象物10に対応する3次元情報810を、実デプス画像802と同様に、被対象物10の正面がまっすぐ画像の前方を向いているように変換することにより、実デプス画像802と理想デプス画像812とにおける被対象物10の向き(姿勢)を同じにする。そして、本実施形態においては、同一の向き(姿勢)になった被対象物10の画像を含む、実デプス画像802と理想デプス画像812とを比較することにより、被対象物10の現状の状態を正確に把握することができるようになる。
For example, since the front surface of the
また、例えば、デプスセンサ22から被対象物10までの距離が遠い場合には、デプス画像における被対象物10の占める面積は狭くなり、デプスセンサ22から被対象物10までの距離が近い場合には、デプス画像における被対象物10の占める面積は広くなる。そこで、本実施形態においては、上述した姿勢(向き)の正規化と同様に、平面投影部402によって、理想状態にある被対象物10に対応する3次元情報810を相対距離について正規化することにより、実デプス画像802(図8 参照)と理想デプス画像812(図8 参照)とにおける被対象物10の占める大きさを一致させ、実デプス画像802と比較可能な理想デプス画像812を取得する。
Further, for example, when the distance from the
(差分計算部404)
差分計算部404は、上述の平面投影部402によって得られた実デプス画像802(図8 参照)と、位置関係情報に基づき変換されることによって得られた理想デプス画像812(図8 参照)とを差分である差分情報(差分画像820、図8 参照)を計算し、計算結果を後述する描画計算部406に出力する。詳細には、差分計算部404は、実デプス画像802と理想デプス画像812とを比較し、両者が異なる部分を差分画像820として抽出する。この際、差分計算部404は、深度情報から得られた実デプス画像802において、深度が無限遠になっている領域については、差分が生じていないものとして処理することが好ましい。さらに、差分計算部404は、実デプス画像802と理想デプス画像812とにおいて異なる部分であっても、被対象物10によって占められる領域でないと判断できる場合には、当該異なる部分において差分が生じていない(発生していない)ものとして処理することが好ましい。このようにすることで、本実施形態においては、機密情報である被対象物10の周囲に存在する機器等についての情報が漏えいすることを防止することができる。
(Difference calculation unit 404)
The
なお、本実施形態においては、上述したように、差分計算部404は、平面に投影することによって得られた実デプス画像802と理想デプス画像812との差分を計算することに限定されるものではない。例えば、差分計算部404は、デプスセンサ2によって得られた深度情報(3次元座標情報群)と、理想状態の被対象物10の3次元情報810を位置関係情報に基づき変換することによって得られた3次元情報810(3次元座標情報群)との差分を計算してもよい。そして、このような場合、処理装置40は、計算された差分を上述した平面投影部402によって平面に投影することにより、上述した差分画像820を取得してもよい。
In the present embodiment, as described above, the
(描画計算部406)
描画計算部406は、上述した差分計算部404によって得られた差分情報(差分画像820、図8 参照)を、スマートアイグラス30の表示に合わせた形態になるように変換し、変換した情報をスマートアイグラス30へ送信する。そして、当該スマートアイグラス30は、受信した情報を用いて、被対象物10の実像800(図8 参照)に重畳して、差分画像820を表示することができる。
(Drawing calculation unit 406)
The drawing
詳細には、描画計算部406は、上述した位置関係情報、すなわち、被対象物10に対するスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を用いて、実際のスマートアイグラス30に対する被対象物10の相対距離及び姿勢(向き)と一致するように、差分画像820(図8 参照)に含まれる被対象物10の占める大きさ、姿勢(向き)及び表示位置を変換する。このようにすることで、スマートアイグラス30によって表示される差分画像820は、実空間上の被対象物10の実像800(図8 参照)と重畳して表示されることができる。そして、本実施形態においては、差分画像820を実空間上の被対象物10の実像800と重畳して表示することから、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
Specifically, the drawing
なお、本実施形態においては、描画計算部406は、被対象物10の実像800(図8 参照)(又は、被対象物10の撮像画像)に対して上記差分画像820(図8 参照)を強調して表示するために、上記差分画像820に対してエフェクト処理を行うエフェクト処理部として機能してもよい。例えば、描画計算部406は、差分画像820が、被対象物10の実像800とは異なる色彩、明度、又は透明度によって表示されるように、上記差分画像820を処理してもよい。この際、描画計算部406は、予めDB410に格納された被対象物10の色彩情報等を利用してもよい。また、描画計算部406は、差分に係る被対象物10の部分を輪郭線のみで表現するワイヤーフレーム830(図9 参照)の形態(ワイヤーフレーム表示)で表示されるように、差分画像820を処理してもよい。
In the present embodiment, the drawing
(記憶部408)
記憶部408は、ROM及びRAM等の記憶装置によって実現され、被対象物10の3次元形状に関する形状情報(3次元座標情報群)をDB410として格納する。具体的には、当該DB410には、予め取得した、被対象物10があるべき状態(理想状態)における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納される。なお、記憶部408は、処理装置40の内部に設けられていなくてもよく、例えば、処理装置40と別体の装置として構成されていてもよい。
(Memory unit 408)
The
なお、処理装置40は、図4に示されるブロックだけを含むことに限定されるものではなく、例えば、本実施形態においては、上述したデプスセンサ22等の間で情報の送受信を行うための通信モジュールである通信部を含んでいてもよい。
The
<情報処理方法>
以上、本実施形態に係る処理装置40の詳細構成について説明した。次に、本実施形態に係る情報処理方法を、図3及び図5から図9を参照して説明する。図5は、本実施形態に係る情報処理方法のフローチャートである。図6は、本実施形態における実空間の実像800の例を説明するための説明図である。図7は、本実施形態における被対象物10の3次元情報810の例を説明するための説明図である。図8は、本実施形態に係る情報処理方法における処理例を説明するための説明図である。さらに、図9は、本実施形態に係る差分画像820を重畳した重畳画像822の一例を説明するための説明図である。
<Information processing method>
The detailed configuration of the
詳細には、本実施形態に係る情報処理方法は、図5のフローチャートに示すように、ステップS101からステップS113までの複数のステップを含むことができる。以下に、本実施形態に係る情報処理方法の各ステップの詳細を説明する。 Specifically, the information processing method according to the present embodiment can include a plurality of steps from step S101 to step S113 as shown in the flowchart of FIG. The details of each step of the information processing method according to the present embodiment will be described below.
まずは、図3に示すように、ユーザ20は、デプスセンサ22と一体化したスマートアイグラス30を装着し、工場内に入場して、被対象物10と向かい合う姿勢をとる。このようにすることで、デプスセンサ22は、被対象物10を含む実空間における深度情報を含むセンサデータを取得する。
First, as shown in FIG. 3, the
なお、以下に説明する例においては、工場内(実空間)に設置された被対象物10は、図6に示すように、被対象物10の下部に配置された引出し10aが引き出された状態であり、引出し10aが格納された被対象物10があるべき状態(理想状態)とは異なる状態にあるものとする。また、図6に示すように、以下の例においては、被対象物10の周囲には、本実施形態において処理の対象とならない物体60が存在するものとする。さらに、以下の例においては、記憶部408のDB410には、被対象物10があるべき状態(理想状態)として、図7に示されるような、被対象物10の下部に配置された引出し10aが被対象物10に格納された状態における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納されているものとする。
In the example described below, the
(ステップS101)
処理装置40は、デプスセンサ22からセンサデータを取得する。この際、ユーザ20には、図8の左側上段に示されるような実像800が見えているものとする。そして、処理装置40は、デプスセンサ22のセンサデータの深度情報に含まれる被対象物10及び物体60の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10及び物体60の表面の各点の深度に応じてグラデーションをつけて平面に投影する。より具体的には、処理装置40は、深度情報を、例えば、実空間上でデプスセンサ22までの相対距離が近い、被対象物10及び物体60の表面の点を濃く、一方、実空間上でデプスセンサ22までの相対距離が遠い、被対象物10及び物体60の表面の点を薄くなるように平面に投影することにより、図8に示すような実デプス画像802を得る。なお、図8に図示する実デプス画像802においては、わかりやすくするために、物体の輪郭や異なるグラデーションの境目を輪郭線や境界線で示しているが、実際の実デプス画像802においては、グラデーションのみで物体の輪郭や形状が示されている。
(Step S101)
The
(ステップS103)
処理装置40は、デプスセンサ22で取得されたセンサデータ(深度情報)を用いて、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算する。詳細には、処理装置40は、例えば、上記センサデータの深度情報から被対象物10の特徴点を抽出し、抽出した特徴点を用いることにより、記憶部408に格納されたDB410から、被対象物10に対応する3次元情報810を抽出し、特徴点と3次元情報810とを比較することにより、被対象物10に対するデプスセンサ22の姿勢(向き)の情報を取得する。また、先に説明したように、デプスセンサ22とスマートアイグラス30との間で相対的な位置関係が固定されていることから、処理装置40は、被対象物10に対するデプスセンサ22の相対距離及び姿勢(向き)の情報から、被対象物10に対するスマートアイグラス30の相対距離及び姿勢(向き)の情報も取得することができる。
(Step S103)
The
さらに、本実施形態においては、処理装置40は、上述したカメラ24、加速度センサ26、地磁気センサ28等からの画像データ又はセンサデータを用いて、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の推定の精度を高めてもよい。もしくは、本実施形態においては、被対象物10等に、深度情報における特徴点となるようなマーカを設けてもよく、もしくは、被対象物10等に通信タグや赤外線照射装置等を設けてもよい。この場合、処理装置40は、被対象物10等に設けられたマーカや通信タグ等を利用することにより、被対象物10に対するデプスセンサ22及びスマートアイグラス30の姿勢(向き)の情報を取得することができる。
Further, in the present embodiment, the
(ステップS105)
処理装置40は、上述したステップS103で得られた位置関係情報を用いて、DB410から取得した、理想状態にある被対象物10に対応する3次元情報810に含まれる理想状態にある被対象物10の表面の各点の3次元座標情報群を、3次元情報810に含まれる被対象物10のデプスセンサ22までの相対距離及び姿勢(向き)が、実際の被対象物10に対するデプスセンサ22の相対距離及び姿勢(向き)と一致するように、変換(正規化)する。さらに、処理装置40は、正規化した3次元情報810を、当該正規化した3次元情報810における被対象物10の表面の各点の深度に応じてグラデーションをつけて平面に投影することにより、図8に示す理想デプス画像812を作成する。なお、図8に図示する理想デプス画像812においては、わかりやすくするために、物体の輪郭や異なるグラデーションの境目を輪郭線や境界線で示しているが、実際の理想デプス画像812においては、グラデーションのみで物体の輪郭や形状が示されている。
(Step S105)
The
(ステップS107)
処理装置40は、上述のステップS101で得られた実デプス画像802と、上述のステップS105で得られた理想デプス画像812とを差分である、図8に示される差分画像820を計算する。詳細には、処理装置40は、実デプス画像802と理想デプス画像812とを比較し、両者が異なる部分を差分画像820として抽出する。差分画像820においては、例えば、差分が大きいものを明るく表示し、差分のないものを暗く表示してもよい。
(Step S107)
The
この際、処理装置40は、先に説明したように、深度情報から得られた実デプス画像802において、深度が無限遠になっている領域については、差分が生じていないものとして処理する。さらに、処理装置40は、実デプス画像802と理想デプス画像812とにおいて異なる部分であっても、被対象物10によって占められる領域でないと判断できる場合には、当該異なる部分において差分が生じていないものとして処理する。従って、図8における差分画像820においては、物体60の存在により実デプス画像802と理想デプス画像812とにおいて差分が生じているものの、物体60は、本実施形態において処理の対象とならないことから、物体60の存在による差分は、差分でないものとして処理されることとなる。このようにすることで、本実施形態においては、機密情報である被対象物10の周囲に存在する機器等についての情報が漏えいすることを避けることができる。
At this time, as described above, the
(ステップS109)
処理装置40は、上述したステップS103で取得した、被対象物10に対するスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を用いて、実際のスマートアイグラス30に対する被対象物10の相対距離及び姿勢(向き)と一致するように、差分画像820に含まれる被対象物10の占める大きさ、姿勢(向き)及び表示位置を変換し、重畳表示するための表示(描画図)を作成する。このようにすることで、本実施形態においては、スマートアイグラス30によって表示される差分画像820は、実空間上の被対象物10に実像800と重畳して表示されることができる。
(Step S109)
The
(ステップS111)
処理装置40は、被対象物10の実像800に対して上記差分画像820を強調して表示するために、上記差分画像820に対してエフェクト処理を行う。例えば、処理装置40は、差分に係る被対象物10の部分を輪郭線のみで表現するワイヤーフレーム830(図9 参照)の形態で表示されるように、差分画像820に対してエフェクト処理を行う。なお、本実施形態においては、当該ステップS111の実施は省略されてもよい。
(Step S111)
The
(ステップS113)
処理装置40は、スマートアイグラス30を制御して、上述のように処理された差分画像820を、実空間上の被対象物10の実像800に重畳して表示する。例えば、処理装置40は、図8に示すような重畳画像822をスマートアイグラス30に表示する。本実施形態においては、上記差分画像820を被対象物10の実像800に重畳して表示することにより、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
(Step S113)
The
また、エフェクト処理を行った場合には、例えば、図9に示されるように、実デプス画像802と理想デプス画像812との差分である引出し10aの部分がワイヤーフレーム830で表現され、当該ワイヤーフレーム830が実空間上の被対象物10の実像800と重畳して表示される。本実施形態においては、差分画像820をワイヤーフレーム830で描画することにより、差分画像820を、被対象物10の実像800又は撮像画像を覆い隠すことなく表示できることから、ユーザ20は、被対象物10の状態をより容易に把握することができるようになる。
Further, when the effect processing is performed, for example, as shown in FIG. 9, the portion of the
なお、スマートアイグラス30の代わりに、非透過型ディスプレイを用いたHMD32が使用された場合には、HMD32は、HMD32の外向きカメラ34で撮像された実空間上の被対象物10の撮像画像に重畳して、差分画像820を表示することとなる。
When an
以上のように、本発明の第1の実施形態においては、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の実像800に重畳して表示することができることから、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。従って、本実施形態によれば、例えば、被対象物10に装着すべき被対象物側センサ12の数が不足していたり、適切な位置に被対象物側センサ12が装着されていなかったりした場合であっても、被対象物10の状態を把握することができる。その結果、例えば、被対象物側センサ12の不足の洗い出しや設置漏れの検知が容易となり、さらには、被対象物側センサ12の故障等の検知も容易となる。
As described above, in the first embodiment of the present invention, the
さらに、本実施形態においては、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。
Further, in the present embodiment, the depth information of the
<<第2の実施形態>>
上述した本発明の第1の実施形態においては、工場の内部でユーザ20が対象機器である被対象物10の状態を把握し、保守作業を行う場合を例に説明した。しかしながら、被対象物10の保守作業の内容によっては、工場内のユーザ20に対して、工場の外部からの支援が必要となり、工場の外部にいる他のユーザが被対象物10の状態を把握することが求められることがある。さらに、工場の外部にいる他のユーザが被対象物10の状態を把握することにより、保守作業の効率化(作業時間の短縮化等)が図れる場合がある。そこで、このような場合であっても、機密漏えいを防止しつつ、対象機器である被対象物10の現状の状態を直感的に把握することができる、本発明の第2の実施形態を説明する。
<< Second Embodiment >>
In the first embodiment of the present invention described above, a case where the
<処理装置50の詳細構成>
本実施形態に係る情報処理システム1は、図1に示される本発明の第1の実施形態に係る情報処理システム1に、さらに処理装置50が含まれる。そこで、図10を参照して、処理装置50の詳細構成を説明する。図10は、本発明の第2の実施形態に係る処理装置40、50のブロック図である。なお、本実施形態においては、処理装置50以外の情報処理システム1に含まれる各装置の詳細構成は、上述した第1の実施形態と共通するため、ここではこれらの説明を省略する。
<Detailed configuration of
The
処理装置50は、デスクトップ型PC、ノート型PC、タブレット端末、スマートフォン等によって実現され、処理装置40とは異なり、被対象物10が存在する工場内以外の場所に設置されている、すなわち、被対象物10から離れた場所に設置されているものとする。さらに、処理装置50は、通信網70を介して、上述した処理装置40との間で情報の送受信を行うことができる。
The
詳細には、処理装置50は、処理装置40と同様に、CPU、RAM、ROM、表示装置等により実現される。図10に示すように、処理装置50は、平面投影部502、差分計算部504、描画計算部506、及びディスプレイ508を主に有する。以下に、本実施形態に係る処理装置50の各ブロックについて説明する。なお、処理装置50の有する平面投影部502、差分計算部504及び描画計算部506は、同一の名称を持つ、処理装置40の平面投影部402、差分計算部404及び描画計算部406と同様の機能を持つため、ここではこれらのブロックの説明を省略し、ディスプレイ508のみを説明する。
Specifically, the
(ディスプレイ508)
ディスプレイ508は、工場の外部に存在する他のユーザ(ユーザ20以外のユーザ)に対して、差分画像820を被対象物10の撮像画像に重畳して表示する表示装置であり、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置等の表示装置により実現される。
(Display 508)
The
なお、処理装置50は、図10に示されるブロックだけを含むことに限定されるものではなく、例えば、本実施形態においては、上述した処理装置40との間で情報の送受信を行うための通信モジュールである通信部を含んでいてもよい。
The
<情報処理方法>
以上、本実施形態に係る処理装置50の詳細構成について説明した。次に、本実施形態に係る情報処理方法を、図11及び図12を参照して説明する。図11は、本実施形態に係る情報処理方法のシーケンス図であり、図12は、本実施形態に係る表示画像840の一例を説明するための説明図である。
<Information processing method>
The detailed configuration of the
詳細には、本実施形態に係る情報処理方法は、図11のシーケンス図に示すように、ステップS201からステップS219までの複数のステップを含むことができる。以下に、本実施形態に係る情報処理方法の各ステップの詳細を説明する。 Specifically, the information processing method according to the present embodiment can include a plurality of steps from step S201 to step S219, as shown in the sequence diagram of FIG. The details of each step of the information processing method according to the present embodiment will be described below.
(ステップS201)
上述した第1の実施形態に係る情報処理方法と同様に、ユーザ20は、デプスセンサ22と一体化したスマートアイグラス30を装着し、工場内に入場して、被対象物10と向かい合う姿勢をとる。このようにすることで、デプスセンサ22は、被対象物10を含む実空間における深度情報をセンシングする。
(Step S201)
Similar to the information processing method according to the first embodiment described above, the
なお、以下に説明する例においても、工場内(実空間)に設置された被対象物10は、図6に示すように、被対象物10の下部に配置された引出し10aが引き出された状態であり、引出し10aが格納された被対象物10があるべき状態(理想状態)とは異なる状態にあるものとする。また、以下の例においても、被対象物10の周囲には、本実施形態において処理の対象とならない物体60が存在するものとする。さらに、以下の例においても、記憶部408のDB410には、被対象物10があるべき状態(理想状態)として、図7に示されるような、被対象物10の下部に配置された引出し10aが被対象物10に格納された状態における被対象物10の表面の各点の3次元座標情報群である3次元情報810(図8 参照)が格納されているものとする。
In addition, also in the example described below, the
(ステップS203)
当該ステップS203は、図5に示される第1の実施形態のステップS101と同じであるため、ここでは説明を省略する。
(Step S203)
Since the step S203 is the same as the step S101 of the first embodiment shown in FIG. 5, the description thereof is omitted here.
(ステップS205)
当該ステップS205は、図5に示される第1の実施形態のステップS103と同じであるため、詳細な説明を省略するが、処理装置40は、実空間上における、被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を計算する。さらに、処理装置40は、計算した位置関係情報を、通信網70を介して処理装置50へ送信する。
(Step S205)
Since the step S205 is the same as the step S103 of the first embodiment shown in FIG. 5, detailed description thereof will be omitted, but the
(ステップS207)
処理装置50は、通信網70を介して、デプスセンサ22から深度情報を含むセンサデータを取得し、当該深度情報に含まれる被対象物10及び物体60の表面の各点の相対的な3次元座標情報の集合体である3次元座標情報群を利用して、被対象物10及び物体60の表面の各点の深度に応じてグラデーションをつけて平面に投影し、図8に示すような実デプス画像802を作成する。
(Step S207)
The
さらに、処理装置50は、カメラ24(もしくは、HMD32を使用した場合には、HMD32の外向きカメラ34)から、カメラ24によって撮像された被対象物10の撮像画像データを取得する。なお、本実施形態においては、処理装置50において、カメラ24によって撮像された被対象物10の撮像画像データに、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように、マスクをかける等の処理を行うことが好ましい。
Further, the
(ステップS209)
処理装置50は、処理装置40から通信網70を介して、上述のステップS205において、処理装置40で計算された被対象物10に対するデプスセンサ22及びスマートアイグラス30の相対的な距離や姿勢(向き)を示す位置関係情報を取得する。
(Step S209)
The
(ステップS211)
当該ステップS211は、処理装置40で取得した位置関係情報を用いて処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS105と同じであるため、ここでは説明を省略する。
(Step S211)
Since the step S211 is the same as the step S105 of the first embodiment shown in FIG. 5, except that the step S211 is executed by the
(ステップS213)
当該ステップS213は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS107と同じであるため、ここでは説明を省略する。
(Step S213)
Since the step S213 is the same as the step S107 of the first embodiment shown in FIG. 5 except that it is executed by the
(ステップS215)
当該ステップS215は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS109と同じであるため、ここでは説明を省略する。
(Step S215)
Since the step S215 is the same as the step S109 of the first embodiment shown in FIG. 5 except that the step S215 is executed by the
(ステップS217)
当該ステップS217は、処理装置50で実行されること以外は、図5に示される第1の実施形態のステップS111と同じであるため、ここでは説明を省略する。
(Step S217)
Since the step S217 is the same as the step S111 of the first embodiment shown in FIG. 5 except that the step S217 is executed by the
(ステップS219)
処理装置50は、ディスプレイ508を制御して、差分画像820を、カメラ24(もしくは、HMD32を使用した場合には、HMD32の外向きカメラ34)によって撮像された被対象物10の撮像画像に重畳して表示する。例えば、処理装置50は、図12に示すような表示画像840をディスプレイ508に表示する。当該表示画像840においては、実デプス画像802と理想デプス画像812との差分である、引出し10aの部分の差分画像820が被対象物10の撮像画像に対して強調して表示されることが好ましい。本実施形態においては、このような差分画像820を被対象物10の撮像画像に重畳して表示することにより、ユーザ20は、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備を直感的に把握することができる。
(Step S219)
The
なお、本実施形態においては、表示画像840には、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように、マスクをかける等の処理を行った後に表示することが好ましい。従って、図12に示す表示画像840においては、被対象物10の周囲に存在する物体60が表示されていない。
In the present embodiment, the
以上のように、本発明の第2の実施形態においては、上述した第1の実施形態と同様に、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の撮像画像に重畳して表示することができることから、工場の外部にいるユーザは、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。
As described above, in the second embodiment of the present invention, similarly to the first embodiment described above, the
さらに、本実施形態においても、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。加えて、本実施形態においては、工場の外部にいるユーザに向けて表示される表示画像840には、機密情報である被対象物10の周囲に存在する機器(例えば、物体60)等についての画像が含まれないように処理を行った後に表示していることから、被対象物10の周囲に存在する機器の情報である機密情報が工場の外部に存在するユーザに漏洩することがない。
Further, also in this embodiment, the depth information of the
なお、上述の説明においては、処理装置50において、平面投影してデプス画像を取得したり、差分画像820を取得したりするものとして説明したが、本実施形態においては、これに限定されるものではなく、処理装置40においてこれらの処理を行った後に処理データを処理装置50へ送信し、処理装置50のディスプレイ508に表示させてもよい。このようにすることで、処理装置50における処理の負荷を低減することができる。
In the above description, it has been described that the
また、本実施形態は、ユーザ20の代わりに、工場内を移動することができる自走型ロボット等にデプスセンサ22等を装着して利用することによっても、実施することができる。
Further, this embodiment can also be implemented by attaching a
<<まとめ>>
以上のように、本発明の各実施形態においては、実際の被対象物10と理想状態の被対象物10との差分である差分画像820を被対象物10の実像800又は撮像画像に重畳して表示することができることから、ユーザ20又は他のユーザは、現状の被対象物10の状態と理想状態にある被対象物10の差、すなわち、被対象物10の不備等といった被対象物10の状態を直感的に把握することができる。
<< Summary >>
As described above, in each embodiment of the present invention, the
さらに、本発明の各実施形態においては、被対象物10の状態を把握するための情報として、デプスセンサ22によって取得された被対象物10の深度情報を用いる。従って、本発明の各実施形態によれば、深度情報には、デプスセンサ22の特徴により、被対象物10の表面に表示された文字情報等といった機密情報が含まれないことから、このような機密情報が外部に漏えいすることを防止することができる。
Further, in each embodiment of the present invention, the depth information of the
また、本発明に各実施形態においては、差分画像820を重畳表示するだけでなく、被対象物側センサ12から得られたセンサデータ並びにDB410に格納された被対象物10の形状情報を利用して生成した画像も併せて重畳表示してもよい。このようにすることで、ユーザ20又は屋のユーザは、被対象物10の状態の把握をより容易にすることができる。この際、差分画像820をワイヤーフレーム830で描画することが好ましく、このようにすることで、差分画像820を、被対象物10の実像800又は撮像画像を覆い隠すことなく表示することができる。
Further, in each embodiment of the present invention, not only the
なお、先に説明したように、本発明の各実施形態は、工場、金融機関、データセンサ、各種インフラ設備が設置された工場や事業場等において、機器や設備等の設置や保守を支援するために用いることができる。 As described above, each embodiment of the present invention supports the installation and maintenance of equipment and facilities in factories, business establishments, etc. where factories, financial institutions, data sensors, and various infrastructure facilities are installed. Can be used for
さらに、本発明の各実施形態は、上述した利用に限定されるものではなく、他の用途にも利用することができる。例えば、本実施形態によれば、被対象物10を機器等ではなく、人物とした場合に、所定の場所における人物の通過状況や、人物の向き(姿勢)を検知し、検知した人物の輪郭を差分画像820として所定の場所の撮像画像に重畳して表示することができる。より具体的には、本実施形態を利用することにより、建物内の廊下の通過状況や、公共交通機関の改札における利用客の流れや混雑状況を把握するための表示を行うことができる。この際、本実施形態においては、人物(上述の実施形態では被対象物10)の状態を把握するための情報として、デプスセンサ22によって取得された深度情報を用いることから、人物の存在や向き(姿勢)については把握できるものの、人物を特定するための詳細な顔の情報等を取得することが難しい。その結果、本実施形態によれば、通行する人物のプライバシーを守りつつ、建物内の防犯や改札の混雑状況を容易に把握することができる。
Furthermore, each embodiment of the present invention is not limited to the above-mentioned use, and can be used for other uses. For example, according to the present embodiment, when the
<<ハードウェア構成>>
以上、本発明の各実施形態について説明した。続いて、本発明の各実施形態に係るハードウェア構成について説明する。図13は、本発明の実施形態に係る処理装置40(処理装置50)である情報処理装置900のハードウェア構成例を示したブロック図である。情報処理装置900は、CPU902と、ROM904と、RAM906とを有する。また、情報処理装置900は、入力部908と、出力部910と、ストレージ装置912と、ネットワークインタフェース914とを有する。以下に、当該情報処理装置900の各ハードウェアブロックについて説明する。
<< Hardware configuration >>
The embodiments of the present invention have been described above. Subsequently, the hardware configuration according to each embodiment of the present invention will be described. FIG. 13 is a block diagram showing a hardware configuration example of the
(CPU902、ROM904、RAM906)
CPU902は、演算処理装置として機能し、各種プログラムに従って処理装置40である情報処理装置900内の動作全般を制御する。また、CPU902は、マイクロプロセッサであってもよい。ROM904は、CPU902が使用するプログラムや演算パラメータ等を記憶する。RAM906は、CPU902の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス916により相互に接続されている。CPU902、ROM904及びRAM906は、ソフトウェアとの協働により図4を参照して説明した、処理装置40の位置姿勢計算部400等の機能を実現し得る。
(CPU902, ROM904, RAM906)
The
(入力部908)
入力部908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチ等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU902に出力する入力制御回路などから構成されている。ユーザは、当該入力部908を操作することにより、処理装置40に対して各種のデータを入力したり処理動作を指示したりすることができる。
(Input unit 908)
The
(出力部910)
出力部910は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力部910は、上述のスマートアイグラス30等を含んでもよい。
(Output unit 910)
The
(ストレージ装置912)
ストレージ装置912は、データ格納用の装置である。ストレージ装置912は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置912は、例えば、ROM、HDD又はSSD(Solid Strage Drive)等で構成される。このストレージ装置912は、ストレージを駆動し、CPU902が実行するプログラムや各種データを格納する。
(Storage device 912)
The
(ネットワークインタフェース914)
ネットワークインタフェース914は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。当該通信インタフェースは、例えば、Bluetooth(登録商標)又はZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi-Fi(登録商標)、または携帯通信網(LTE、3G)等の通信インタフェースであることができる。また、ネットワークインタフェース914は、有線による通信を行う有線通信装置を含んでいてもよい。
(Network interface 914)
The
以上、本発明の実施形態に係る処理装置40である情報処理装置900のハードウェア構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
The hardware configuration example of the
<<補足>>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<< Supplement >>
Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to these examples. It is clear that a person having ordinary knowledge in the field of technology to which the present invention belongs can come up with various modifications or modifications within the scope of the technical ideas described in the claims. , These are also naturally understood to belong to the technical scope of the present invention.
また、上述した本発明の実施形態における情報処理方法は、必ずしも記載された順序に沿って動作又は処理されなくてもよい。例えば、各動作のステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの動作方法又は処理方法についても、必ずしも記載された方法に沿って動作又は処理されなくてもよく、例えば、他の機能部によって他の方法で動作又は処理されていてもよい。 Further, the information processing method in the above-described embodiment of the present invention does not necessarily have to be operated or processed in the order described. For example, the steps of each operation may be processed by changing the order as appropriate. Further, each step may be partially processed in parallel or individually instead of being processed in chronological order. Further, the operation method or processing method of each step does not necessarily have to be operated or processed according to the described method, and may be operated or processed by another functional unit, for example, by another method.
さらに、上述の本発明の実施形態に係る情報処理方法の少なくとも一部は、コンピュータを機能させる情報処理プログラムとして、ソフトウェアで構成することが可能であり、ソフトウェアで構成する場合には、上記動作又は処理の少なくとも一部を実現するプログラムをフレキシブルディスクやCD-ROM(Compact Disc Read Only Memory)等の記録媒体に収納し、処理装置40等、もしくは、処理装置40等と接続された他の装置に読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。さらに、上記情報処理方法の少なくとも一部を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
Further, at least a part of the information processing method according to the embodiment of the present invention described above can be configured by software as an information processing program for operating a computer, and when configured by software, the above operation or the above operation or A program that realizes at least a part of processing is stored in a recording medium such as a flexible disk or a CD-ROM (Compact Disk Read Only Memory), and is stored in the
1 情報処理システム
10 被対象物
10a 引出し
12 被対象物側センサ
20 ユーザ
22 デプスセンサ
24 カメラ
26 加速度センサ
28 地磁気センサ
30 スマートアイグラス
32 HMD
34 外向きカメラ
40、50 処理装置
60 物体
70 通信網
400 位置姿勢計算部
402、502 平面投影部
404、504 差分計算部
406、506 描画計算部
408 記憶部
410 DB
508 ディスプレイ
800 実像
802 実デプス画像
810 3次元情報
812 理想デプス画像
820 差分画像
822 重畳画像
830 ワイヤーフレーム
840 表示画像
900 情報処理装置
902 CPU
904 ROM
906 RAM
908 入力部
910 出力部
912 ストレージ装置
914 ネットワークインタフェース
916 ホストバス
1
34
508
904 ROM
906 RAM
908
Claims (15)
前記被対象物の3次元形状に関する形状情報を格納する記憶部と、
前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する位置関係情報算出部と、
前記深度情報に基づいて実深度画像を取得し、さらに、前記被対象物に対する前記センサ部の位置関係に基づいて変換した前記形状情報に基づいて形状深度画像を取得する画像取得部と、
前記実深度画像と、前記形状深度画像との差分である差分情報を算出する差分算出部と、
算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して、ユーザに向けて表示する前記表示部と、
を備える、情報処理装置。 A sensor unit that acquires depth information of an object in real space,
A storage unit that stores shape information related to the three-dimensional shape of the object, and
A positional relationship information calculation unit that calculates positional relationship information indicating the positional relationship of the sensor unit with respect to the object in the real space and the positional relationship of the display unit with respect to the object object .
An image acquisition unit that acquires an actual depth image based on the depth information and further acquires a shape depth image based on the shape information converted based on the positional relationship of the sensor unit with respect to the object.
A difference calculation unit that calculates difference information that is a difference between the actual depth image and the shape depth image .
The calculated difference information is converted based on the positional relationship of the display unit with respect to the object, superimposed on the real image of the object or the captured image of the object, and displayed to the user. With the display unit
An information processing device equipped with.
請求項1に記載の情報処理装置。 Further provided with an effect processing unit that performs effect processing on the difference information in order to emphasize and display the difference information on the real image of the object or the captured image of the object.
The information processing apparatus according to claim 1.
前記位置関係情報算出部は、前記加速度センサ及び前記地磁気センサのうちの少なくとも1つから得られたセンサデータに基づいて、前記位置関係情報を算出する、
請求項1~9のいずれか1項に記載の情報処理装置。 It comprises at least one of the accelerometer and the geomagnetic sensor worn on the object or the user.
The positional relationship information calculation unit calculates the positional relationship information based on sensor data obtained from at least one of the acceleration sensor and the geomagnetic sensor.
The information processing apparatus according to any one of claims 1 to 9.
前記差分算出部は、平面に投影された前記形状情報である前記形状深度画像と、平面に投影された前記深度情報である前記実深度画像との差分である前記差分情報を算出する、
請求項1~10のいずれか1項に記載の情報処理装置。 The image acquisition unit is a plane projection unit that projects the converted shape information and depth information onto a plane.
The difference calculation unit calculates the difference information, which is the difference between the shape depth image, which is the shape information projected on the plane, and the actual depth image, which is the depth information projected on the plane.
The information processing apparatus according to any one of claims 1 to 10.
前記被対象物の3次元形状に関する形状情報を格納する記憶部と、
前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する位置関係情報算出部と、
前記深度情報に基づいて実深度画像を取得し、さらに、前記被対象物に対する前記センサ部の位置関係に基づいて変換した前記形状情報に基づいて形状深度画像を取得する画像取得部と、
前記実深度画像と、前記形状深度画像との差分である差分情報を算出する差分算出部と、
算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して表示する前記表示部と、
を備える情報処理システム。 A sensor unit that acquires depth information of an object in real space,
A storage unit that stores shape information related to the three-dimensional shape of the object, and
A positional relationship information calculation unit that calculates positional relationship information indicating the positional relationship of the sensor unit with respect to the object in the real space and the positional relationship of the display unit with respect to the object object .
An image acquisition unit that acquires an actual depth image based on the depth information and further acquires a shape depth image based on the shape information converted based on the positional relationship of the sensor unit with respect to the object.
A difference calculation unit that calculates difference information that is a difference between the actual depth image and the shape depth image .
The display unit that converts the calculated difference information based on the positional relationship of the display unit with respect to the object object and superimposes it on the real image of the object object or the captured image of the object object.
Information processing system equipped with.
前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出し、
前記深度情報に基づいて実深度画像を取得し、さらに、予め格納された前記被対象物の3次元形状に関する形状情報を、前記被対象物に対する前記センサ部の位置関係に基づいて変換し、変換された前記形状情報に基づいて形状深度画像を取得し、
前記実深度画像と、前記形状深度画像との差分である差分情報を算出し、
算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して前記表示部に表示する、
ことを含む情報処理方法。 Obtain the depth information of the object in the real space from the sensor part,
The positional relationship information indicating the positional relationship of the sensor unit with respect to the object in the real space and the positional relationship of the display unit with respect to the object is calculated.
The actual depth image is acquired based on the depth information, and the shape information regarding the three-dimensional shape of the object stored in advance is converted and converted based on the positional relationship of the sensor unit with respect to the object. A shape depth image is acquired based on the shape information obtained, and the shape depth image is acquired.
Difference information, which is the difference between the actual depth image and the shape depth image , is calculated.
The calculated difference information is converted based on the positional relationship of the display unit with respect to the object object, superimposed on the real image of the object object or the captured image of the object object, and displayed on the display unit .
Information processing methods including that.
センサ部から実空間上にある被対象物の深度情報を取得する機能と、
前記実空間における前記被対象物に対する前記センサ部の位置関係と、前記被対象物に対する表示部の位置関係を示す位置関係情報を算出する機能と、
前記深度情報に基づいて実深度画像を取得し、さらに、予め格納された前記被対象物の3次元形状に関する形状情報を、前記被対象物に対する前記センサ部の位置関係に基づいて変換し、変換された前記形状情報に基づいて形状深度画像を取得する機能と、
前記実深度画像と、前記形状深度画像との差分である差分情報を算出する機能と、
算出された前記差分情報を、前記被対象物に対する前記表示部の位置関係に基づいて変換し、前記被対象物の実像又は前記被対象物の撮像画像に重畳して前記表示部に表示する機能と、
を実現させるプログラム。 The function to acquire the depth information of the object in the real space from the sensor part to the computer,
A function for calculating the positional relationship of the sensor unit with respect to the object in the real space and the positional relationship information indicating the positional relationship of the display unit with respect to the object .
An actual depth image is acquired based on the depth information, and further, the shape information regarding the three-dimensional shape of the object stored in advance is converted and converted based on the positional relationship of the sensor unit with respect to the object. A function to acquire a shape depth image based on the shape information provided, and
A function to calculate difference information which is a difference between the actual depth image and the shape depth image , and
A function of converting the calculated difference information based on the positional relationship of the display unit with respect to the object, superimposing it on the real image of the object or the captured image of the object, and displaying it on the display unit. When,
A program that realizes.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047120A JP7000935B2 (en) | 2018-03-14 | 2018-03-14 | Information processing equipment, information processing system, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018047120A JP7000935B2 (en) | 2018-03-14 | 2018-03-14 | Information processing equipment, information processing system, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159942A JP2019159942A (en) | 2019-09-19 |
JP7000935B2 true JP7000935B2 (en) | 2022-01-19 |
Family
ID=67993475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018047120A Active JP7000935B2 (en) | 2018-03-14 | 2018-03-14 | Information processing equipment, information processing system, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7000935B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352224A (en) | 2001-05-29 | 2002-12-06 | Topcon Corp | Image measurement display device, image measurement display system, construction management method, construction state monitoring system |
JP2011039646A (en) | 2009-08-07 | 2011-02-24 | Sony Corp | Image processing apparatus and method, and program |
JP2016099633A (en) | 2014-11-18 | 2016-05-30 | 三菱電機株式会社 | Maintenance inspection system using a portable terminal |
JP2017138743A (en) | 2016-02-02 | 2017-08-10 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2017182340A (en) | 2016-03-29 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017184136A (en) | 2016-03-31 | 2017-10-05 | キヤノン株式会社 | Information processing device, information processing method, information processing system, and program |
JP2017191351A (en) | 2016-04-11 | 2017-10-19 | 株式会社日立製作所 | Work support system and method |
-
2018
- 2018-03-14 JP JP2018047120A patent/JP7000935B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352224A (en) | 2001-05-29 | 2002-12-06 | Topcon Corp | Image measurement display device, image measurement display system, construction management method, construction state monitoring system |
JP2011039646A (en) | 2009-08-07 | 2011-02-24 | Sony Corp | Image processing apparatus and method, and program |
JP2016099633A (en) | 2014-11-18 | 2016-05-30 | 三菱電機株式会社 | Maintenance inspection system using a portable terminal |
JP2017138743A (en) | 2016-02-02 | 2017-08-10 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2017182340A (en) | 2016-03-29 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017184136A (en) | 2016-03-31 | 2017-10-05 | キヤノン株式会社 | Information processing device, information processing method, information processing system, and program |
JP2017191351A (en) | 2016-04-11 | 2017-10-19 | 株式会社日立製作所 | Work support system and method |
Also Published As
Publication number | Publication date |
---|---|
JP2019159942A (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102520183B1 (en) | System and method for monitoring field based augmented reality using digital twin | |
US11747915B2 (en) | Smart ring for manipulating virtual objects displayed by a wearable device | |
KR102289745B1 (en) | System and method for real-time monitoring field work | |
US8965741B2 (en) | Context aware surface scanning and reconstruction | |
US20210407205A1 (en) | Augmented reality eyewear with speech bubbles and translation | |
US11132842B2 (en) | Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device | |
US12028626B2 (en) | Visual-inertial tracking using rolling shutter cameras | |
US11263818B2 (en) | Augmented reality system using visual object recognition and stored geometry to create and render virtual objects | |
KR101181967B1 (en) | 3D street view system using identification information. | |
CN107004279A (en) | Natural user interface camera calibrated | |
US20180053055A1 (en) | Integrating augmented reality content and thermal imagery | |
US20210405363A1 (en) | Augmented reality experiences using social distancing | |
WO2023093217A1 (en) | Data labeling method and apparatus, and computer device, storage medium and program | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
US11580300B1 (en) | Ring motion capture and message composition system | |
JP7000935B2 (en) | Information processing equipment, information processing system, information processing method and program | |
US20230401796A1 (en) | Fast ar device pairing using depth predictions | |
KR101036107B1 (en) | Augmented Reality Implementation System Using Unique Identification Information | |
Diaz et al. | Multimodal sensing interface for haptic interaction | |
CN108140256B (en) | Method, apparatus and program for displaying 3D representation of object based on orientation information of display | |
RU2712417C1 (en) | Method and system for recognizing faces and constructing a route using augmented reality tool | |
KR102783749B1 (en) | Augmented reality guided depth estimation | |
JP2024072072A (en) | Information processing device | |
KR20250021550A (en) | High-speed AR device pairing using depth predictions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7000935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |