JP2021010101A - 遠隔作業支援システム - Google Patents
遠隔作業支援システム Download PDFInfo
- Publication number
- JP2021010101A JP2021010101A JP2019122778A JP2019122778A JP2021010101A JP 2021010101 A JP2021010101 A JP 2021010101A JP 2019122778 A JP2019122778 A JP 2019122778A JP 2019122778 A JP2019122778 A JP 2019122778A JP 2021010101 A JP2021010101 A JP 2021010101A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- video data
- sight
- user
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【解決手段】作業現場W1において作業する第1のユーザ10に装着される第1の表示装置100と、作業現場W1に配置される周囲撮像装置200と、所定箇所C1に設けられ、第1の表示装置100および周囲撮像装置200と通信可能に構成され、第2のユーザ20によって操作される情報処理装置300と、を備え、第1の表示装置100は、情報処理装置300に対して第1の映像データV1を送信する第1の通信部を備え、周囲撮像装置200は、情報処理装置300に対して第2の映像データV2を送信する第2の通信部を備え、情報処理装置300は、第1および第2の映像データV1,V2を表示する第2の表示装置376,378と、データを入力する操作部と、操作部を介して第2のユーザ20が入力したデータを第1の表示装置100に送信する第3の通信部と、を備える。
【選択図】図1
Description
この発明は上述した事情に鑑みてなされたものであり、複数のユーザが適切に協働できる遠隔作業支援システムを提供することを目的とする。
(全体構成)
以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらは互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。
また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。
さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。
また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
図1において、遠隔作業支援システム1は、ウェアラブル端末100と、周囲カメラ200と、情報処理装置300と、視線検出センサ400と、測距センサ500(姿勢検出部)と、を備えている。ここで、作業現場W1に赴いている作業者10(第1のユーザ)は、ウェアラブル端末100を装着して各種作業を行う。ウェアラブル端末100は、略眼鏡状の形態を有しており、透過型HMD(ヘッドマウントディスプレイ)や、カメラ等を備えている(図示略)。特に、ウェアラブル端末100に装着されたカメラは、作業者10の視点における映像を撮影する。また、周囲カメラ200は、作業者10の近傍に配置されている。
図2は、ウェアラブル端末100の構成の一例を示すブロック図である。なお、図示の例では、作業者10(図1参照)の頭部に装着する表示装置に操作機能と演算処理機能が一体となっている。
図2においてウェアラブル端末100は、通信部102(第1の通信部)と、電源部103と、光源部104と、制御部110と、操作部130と、センサ部160と、記憶部170と、表示部180と、を備えている。
なお、ウェアラブル端末100は、作業者10に装着できるものであれば、眼鏡型でなくてもよい。また、制御部110は、センサ部160や操作部130等と一体に構成されていてもよい。
図3は、周囲カメラ200の構成の一例を示すブロック図である。
周囲カメラ200は、通信部202(第2の通信部)と、電源部203と、光源部204と、表示部208と、歪曲補正・画像合成部209(第2の撮像部)と、制御部210と、操作部250と、センサ部260と、記憶部270と、レーザーポインタ222(方向表示部)と、を備えている。
ここで、通信部202、電源部203、光源部204、操作部250は、ウェアラブル端末100(図2参照)の通信部102、電源部103、光源部104、操作部130と同様に構成されている。
レーザーポインタ222は、作業者10に対して特定の場所を指し示す等の目的のため、制御部210によって指定された座標方向に向けてレーザを照射する。なお、レーザーポインタ222に代えて、周囲カメラ200の筐体表面に複数の光源(LED等)を配置し、該当する方向の光源を点灯するようにしてもよい。
記憶部270は、ROM、FROM(Flash ROM)等の不揮発性メモリを有し、ここに各種のパラメータ、プログラム等が格納されている。記憶部270は、通信先登録部272を有しており、その内容は、上述したウェアラブル端末100(図2参照)の通信先登録部173と同様である。
図4は、情報処理装置300の構成の一例を示すブロック図である。
情報処理装置300は、例えば一般的なパーソナルコンピュータやサーバ装置であり、通信部302(第3の通信部)と、電源部303と、光源部304と、制御部310と、操作部350と、記憶部360と、表示部370と、を備えている。また、制御部310には、視線検出センサ400と、測距センサ500と、が接続されている。視線検出センサ400は、管理者20(図1参照)の視線方向を表すデータを、視線方向データGDとして制御部310に供給する。また、測距センサ500は、管理者20の姿勢や動作を、姿勢・動作データPMとして制御部310に供給する。
表示部370は、上述したディスプレイ376,378と、これらディスプレイを制御する表示制御部372,374と、を備えている。
記憶部360は、ROM、FROM(Flash ROM)等の不揮発性メモリを有し、ここに各種のパラメータ、プログラム等が格納されている。記憶部360は、認証部361およびスキル管理部362を備えており、これらの内容は、上述したウェアラブル端末100(図2参照)の認証部171およびスキル管理部172と同様である。
(作業開始手順)
図5は、作業開始手順の一例を示すシーケンス図である。また、図6は、作業開始手順においてディスプレイ376,378に表示される各種画面を示す図である。
図5において、クラウド30が管理・監視する装置、端末の何れかでエラー発生を検知すると、情報処理装置300は、表示部370を介して、管理者20に対してエラー通知を行う(ステップS501)。例えば、情報処理装置300は、図6に示すエラー画面601を、小中型のディスプレイ376に表示する。
図7は、管理者20が作業支援を行う環境を示す模式図である。図示の例では、大型のディスプレイ378の下方に、小中型のディスプレイ376が配置されている。そして、上述のように、ディスプレイ378には、周囲カメラ200からのパノラマ映像データV2等が表示され、ディスプレイ376には、ウェアラブル端末100からの映像データV1等が表示される。管理者20は、これらディスプレイ376,378の映像を見ながら、作業現場W1の様子を把握することができる。
図8は、2台のディスプレイ376,378の表示例を示す図である。図示の例では、大型のディスプレイ378には、パノラマ映像データV2に基づいて、図6に示した画面606が表示されている。また、小中型のディスプレイ376には、映像データV1に基づいて、図6に示した画面604が表示されている。
図9に示す姿勢22は、管理者20の通常の姿勢である。また、姿勢24は、管理者20がディスプレイ376,378を前屈みで覗き込む姿勢である。管理者20は、姿勢22の状態でディスプレイ376,378の映像を目視している際、映像の特定部分を詳しく見たいと希望する場合がある。その場合、管理者20は、その特定部分を前屈みで覗き込むような姿勢24を取る。すると、測距センサ500がその姿勢24を検出し、情報処理装置300の制御部310(図4参照)にその旨を示す姿勢・動作データPMを出力する。
図11は、スクロール動作の説明図である。
図示の姿勢22は、図7に示した管理者20の姿勢と同様である。ここで、管理者20が、大型のディスプレイ378に表示されているパノラマ映像データV2をスクロールしたい、と希望する場合がある。この場合、姿勢26に示すように、管理者20は、手または腕を、スクロール方向へ振る動作を実行する。測距センサ500は、この動作を検出し、対応する姿勢・動作データPMを情報処理装置300の制御部310に供給する。そして、制御部310におけるスクロール制御部314(図4参照)は、この姿勢・動作データPMに基づいて、管理者20が手または腕を振っている方向に、パノラマ映像データV2をスクロールする。なお、パノラマ映像データV2をスクロールする方向は、例えば左右方向または上下方向である。
また、ディスプレイ378のパノラマ映像データV2をスクロールするために、別の方法を採用することもできる。それは、「管理者20がスクロールしたい方向へ視線を所定の速度で動かす」というものである。視線検出センサ400は、管理者20の視線の動きを表す視線方向データGDを情報処理装置300の制御部310(図4参照)に供給する。すると、スクロール制御部314は、この視線方向データGDに基づいて、視線が動いた方向に、パノラマ映像データV2をスクロールする。以上により、管理者20の自然な動作により、非接触でパノラマ映像データV2をスクロールすることができる。
図13は、各種仮想画面の例を示す図である。
管理者20は、情報処理装置300の操作部350(図4参照)を操作し、ウェアラブル端末100に対して各種情報を送信することができる。これにより、ウェアラブル端末100には、例えば、図13に示すような仮想画面1001〜1003が表示される。仮想画面1001は、管理者20が特定したエラー原因を示している。また、仮想画面1002は、管理者20が指定した、次に作業者10が実行すべき作業を表示している。また、仮想画面1003は、移動先の地図を示している。
図1において、通信ネットワーク600を介して情報処理装置300に供給される映像データV1およびパノラマ映像データV2は、通常は高解像度のデータである。しかし、通信ネットワーク600等に障害が生じ、通信状態が悪くなると、高解像度の映像データV1およびパノラマ映像データV2を伝送させると、映像が途切れる場合がある。そこで、本実施形態においては、映像データV1またはパノラマ映像データV2のうち何れかを低解像度化する処理、すなわち、データレートを下げる処理を行う。
図14において、管理者20が大型のディスプレイ378を目視する際、その視線の範囲を「エリアQA」と呼ぶ。また、小中型のディスプレイ376を目視する際、その視線の範囲を「エリアQB」と呼ぶ。また、ディスプレイ376には映像データV1が表示され、ディスプレイ378にはパノラマ映像データV2が表示されていることとする。目視映像判定部318(図4参照)は、視線検出センサ400の視線方向データGDによって、管理者20の視線方向がエリアQA,QBの何れに属するかを判定する。
図において処理がステップS1101に進むと、目視映像判定部318(図4参照)は、視線検出センサ400からの視線方向データGDを取得する。次に、処理がステップS1102に進むと、目視映像判定部318は、管理者20が見ている範囲がエリアQA,QBのうち何れであるかを判定する。次に、処理がステップS1103に進むと、目視映像判定部318は、管理者20が、エリアQA,QBのうち何れか一方を所定時間注視し続けているか否か(視線位置が停滞しているか否か)を判定する。
次に、作業現場W1の作業者10が、管理者20の注目箇所を通知する処理を説明する。
図16は、注目箇所通知ルーチンのフローチャートである。図16においてステップS1201,S1202,S1203の処理は、図15におけるステップS1101,S1102,S1103と同様である。すなわち、ステップS1203において「Yes」と判定される場合とは、管理者20が、エリアQA,QBのうち何れか一方を所定時間注視し続けていた場合である。ステップS1203において「Yes」と判定されると、処理はステップS1204に進み、ウェアラブル端末100に対して、管理者20が見ている範囲を通知する。これにより、本ルーチンの処理が終了する。
上述したステップS1204による通知をウェアラブル端末100が受信すると、ウェアラブル端末100には、例えば、図17に示すような仮想画面1205,1206が表示される。
これにより、作業者10は管理者20が映像データV1またはパノラマ映像データV2のうち何れの画像を注目しているかを把握することができるため、間違いや状況変化に気付き易くなる。
図18は、詳細注目箇所通知ルーチンのフローチャートである。
本ルーチンは、管理者20がパノラマ映像データV2を注目している場合に、作業者10がそのさらに詳細な視線方向を把握できるようにしたものである。図18において、処理がステップS1301に進むと、目視映像判定部318(図4参照)は、視線検出センサ400からの視線方向データGDを取得する。次に、処理がステップS1302に進むと、目視映像判定部318は、管理者20が見ている範囲がエリアQAであるか否かを判定する。ここで、「No」と判定されると、処理がステップS1301に戻る。
図19は、レーザーポインタ222による注目箇所通知動作を示す模式図である。図示のように、レーザーポインタ222が、管理者20の注目箇所にレーザ光を照射することにより、作業者10は、管理者20の注目箇所を容易に把握できる。これにより、作業者10は、間違いや状況変化に気付き易くなり、管理者20が注視している部分を作業対象として正確に把握することができる。
上述したように、ウェアラブル端末100の環境計測部163(図2参照)は、撮像部161の視野に映る対象のサーモグラフィ画像を生成する。管理者20が小中型のディスプレイ376(図4参照)においてウェアラブル端末100からの映像データV1を目視していたとする。ここで、管理者20が操作部350において「サーモグラフィ表示」を指定する所定の操作を行うと、その旨が通信部302を介してウェアラブル端末100に通知される。
以上のように本実施形態の遠隔作業支援システム(1)は、第1の表示装置(100)は、第1のユーザ(10)に対して情報を表示する第1の表示部(184,186)と、第1の表示装置(100)の前方を撮影し、第1の映像データ(V1)を出力する第1の撮像部(161)と、情報処理装置(300)に対して第1の映像データ(V1)を送信する第1の通信部(102)と、を備え、
周囲撮像装置(200)は、第1の映像データ(V1)の撮像範囲とは異なる撮像範囲を含む第2の映像データ(V2)を出力する第2の撮像部(209,261,262)と、第2の映像データ(V2)に対して、必要に応じて低解像度化または高解像度化を行う送信制御部(201)と、情報処理装置(300)に対して第2の映像データ(V2)を送信する第2の通信部(202)と、を備え、
情報処理装置(300)は、第1および第2の映像データ(V1,V2)を表示する第2の表示装置(376,378)と、データを入力する操作部(350)と、操作部(350)を介して第2のユーザ(20)が入力したデータを第1の表示装置(100)に送信する第3の通信部(302)と、を備える。
これにより、第1および第2のユーザ(10,20)が適切に協働できる。
これにより、第2のユーザ(20)が、視線を動かす事によって、所望の箇所を拡大表示させることができる。
これにより、第2のユーザ(20)は、視線を所定状態にすることによって、第2の映像データ(V2)をスクロールさせることができる。
これにより、第2のユーザ(20)は、所定の姿勢を取ると、視線に対応する箇所を拡大表示させることができる。
これにより、第2のユーザ(20)は、所定の運動を行うことによって、第2の映像データ(V2)をスクロールさせることができる。
これにより、例えば、通信環境が悪化した場合に、第1または第2の映像データ(V1,V2)のデータレートを下げ、または送信を停止させ、通信を続行させることができる。
これにより、第1のユーザ(10)は、第2のユーザ(20)が着目している箇所を容易に把握することができる。
これにより、第1のユーザ(10)は、方向表示部(222)の表示によって、第2のユーザ(20)が着目している箇所を容易に把握することができる。
本発明は上述した実施形態に限定されるものではなく、種々の変形が可能である。上述した実施形態は本発明を理解しやすく説明するために例示したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記実施形態の構成に他の構成を追加してもよく、構成の一部について他の構成に置換をすることも可能である。また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、製品上で必要な全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。上記実施形態に対して可能な変形は、例えば以下のようなものである。
20 管理者(第2のユーザ)
100 ウェアラブル端末(第1の表示装置)
102 通信部(第1の通信部)
112 送信制御部
114 仮想画面制御部(画面制御部)
161 撮像部(第1の撮像部)
184 左表示部(第1の表示部)
186 右表示部(第1の表示部)
200 周囲カメラ(周囲撮像装置)
202 通信部(第2の通信部)
209 歪曲補正・画像合成部(第2の撮像部)
212 送信制御部
222 レーザーポインタ(方向表示部)
261,262 撮像部(第2の撮像部)
300 情報処理装置
302 通信部(第3の通信部)
314 スクロール制御部
316 視線対応制御部
318 目視映像判定部
350 操作部
376,378 ディスプレイ(第2の表示装置)
400 視線検出センサ
500 測距センサ(姿勢検出部)
C1 管理センタ(所定箇所)
V1 映像データ(第1の映像データ)
V2 パノラマ映像データ(第2の映像データ)
W1 作業現場
Claims (8)
- 作業現場において作業する第1のユーザに装着される第1の表示装置と、
前記作業現場に配置される周囲撮像装置と、
所定箇所に設けられ、前記第1の表示装置および前記周囲撮像装置と通信可能に構成され、第2のユーザによって操作される情報処理装置と、を備え、
前記第1の表示装置は、
前記第1のユーザに対して情報を表示する第1の表示部と、
前記第1の表示装置の前方を撮影し、第1の映像データを出力する第1の撮像部と、
前記情報処理装置に対して前記第1の映像データを送信する第1の通信部と、を備え、
前記周囲撮像装置は、
前記第1の映像データの撮像範囲とは異なる撮像範囲を含む第2の映像データを出力する第2の撮像部と、
前記情報処理装置に対して前記第2の映像データを送信する第2の通信部と、を備え、
前記情報処理装置は、
前記第1および第2の映像データを表示する第2の表示装置と、
データを入力する操作部と、
前記操作部を介して前記第2のユーザが入力したデータを前記第1の表示装置に送信する第3の通信部と、を備える
ことを特徴とする遠隔作業支援システム。 - 前記第2のユーザの視線を検出する視線検出センサと、
前記第2の表示装置に対して、前記第2の映像データのうち前記視線に対応する箇所を拡大表示させる視線対応制御部と、をさらに備える
ことを特徴とする請求項1に記載の遠隔作業支援システム。 - 前記第2のユーザの視線が所定状態である場合に、前記第2の表示装置に表示された前記第2の映像データを、左右方向または上下方向にスクロールさせるスクロール制御部をさらに備える
ことを特徴とする請求項2に記載の遠隔作業支援システム。 - 前記第2のユーザの姿勢を検出する姿勢検出部をさらに備え、
前記視線対応制御部は、前記姿勢検出部が前記第2のユーザの所定の姿勢を検出した場合に、前記第2の表示装置に対して、前記第2の映像データのうち前記視線に対応する箇所を拡大表示させる
ことを特徴とする請求項2に記載の遠隔作業支援システム。 - 前記姿勢検出部が、前記第2のユーザの所定の運動状態を検出すると、前記第2の表示装置に表示された前記第2の映像データを、左右方向または上下方向にスクロールさせるスクロール制御部をさらに備える
ことを特徴とする請求項4に記載の遠隔作業支援システム。 - 前記第2のユーザの視線を検出する視線検出センサと、
検出した前記視線に基づいて、前記第2のユーザが前記第1および第2の映像データのうち何れを目視しているか判定する目視映像判定部と、
前記目視映像判定部の判定結果に基づいて、前記第1または第2の映像データのデータレートを制御し、または送信を停止させる送信制御部と、をさらに備える
ことを特徴とする請求項1に記載の遠隔作業支援システム。 - 前記第2のユーザの視線を検出する視線検出センサと、
検出した前記視線に基づいて、前記第2のユーザが前記第1および第2の映像データのうち何れを目視しているか判定する目視映像判定部と、
前記目視映像判定部の判定結果を前記第1の表示部を介して前記第1のユーザに通知する画面制御部と、をさらに備える
ことを特徴とする請求項1に記載の遠隔作業支援システム。 - 前記第2のユーザの視線を検出する視線検出センサと、
検出した前記視線に基づいて、前記第2のユーザが前記第1および第2の映像データのうち何れを目視しているかを判定し、前記第2の映像データを目視している場合に、目視している座標位置を検出する目視映像判定部と、
前記周囲撮像装置に装着され、前記座標位置に対応する方向を表示する方向表示部と、をさらに備える
ことを特徴とする請求項1に記載の遠隔作業支援システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019122778A JP7372061B2 (ja) | 2019-07-01 | 2019-07-01 | 遠隔作業支援システム |
CN202010557906.9A CN112188152A (zh) | 2019-07-01 | 2020-06-18 | 远程作业支援系统 |
US16/910,746 US11169764B2 (en) | 2019-07-01 | 2020-06-24 | Remote work-support system |
DE102020116951.5A DE102020116951A1 (de) | 2019-07-01 | 2020-06-26 | System zur unterstützung von fernarbeit |
US17/490,239 US11544030B2 (en) | 2019-07-01 | 2021-09-30 | Remote work-support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019122778A JP7372061B2 (ja) | 2019-07-01 | 2019-07-01 | 遠隔作業支援システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021010101A true JP2021010101A (ja) | 2021-01-28 |
JP7372061B2 JP7372061B2 (ja) | 2023-10-31 |
Family
ID=73919147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019122778A Active JP7372061B2 (ja) | 2019-07-01 | 2019-07-01 | 遠隔作業支援システム |
Country Status (4)
Country | Link |
---|---|
US (2) | US11169764B2 (ja) |
JP (1) | JP7372061B2 (ja) |
CN (1) | CN112188152A (ja) |
DE (1) | DE102020116951A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022187214A (ja) * | 2021-06-07 | 2022-12-19 | Necフィールディング株式会社 | 作業スキル判定システム、作業スキル判定方法、及び作業スキル判定プログラム |
JP2023056918A (ja) * | 2021-10-08 | 2023-04-20 | 株式会社日本ブレーン | 表示装置及び表示システム |
KR20230146980A (ko) | 2022-04-13 | 2023-10-20 | 가부시키가이샤 히타치세이사쿠쇼 | 작업 지원 시스템 및 방법 |
WO2024069997A1 (ja) * | 2022-09-29 | 2024-04-04 | 株式会社日立製作所 | 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ |
JP7596181B2 (ja) | 2021-03-04 | 2024-12-09 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP7646403B2 (ja) | 2021-03-16 | 2025-03-17 | 日産自動車株式会社 | 画像表示制御装置、画像表示制御システム及び画像表示制御方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020114656A1 (de) * | 2020-06-02 | 2021-12-02 | Audi Aktiengesellschaft | Informationsverarbeitungssystem und verfahren zur verarbeitung von information |
EP4329293B1 (en) * | 2022-08-25 | 2024-09-11 | Artificialy SA | Support system of the control of surveillance cameras |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07140967A (ja) * | 1993-11-22 | 1995-06-02 | Matsushita Electric Ind Co Ltd | 画像表示装置 |
JP2006023953A (ja) * | 2004-07-07 | 2006-01-26 | Fuji Photo Film Co Ltd | 情報表示システム |
JP2011197736A (ja) * | 2010-03-17 | 2011-10-06 | Mitsubishi Electric Corp | 視界支援装置 |
JP2012095229A (ja) * | 2010-10-28 | 2012-05-17 | Sharp Corp | 画像表示装置及び画像表示装置用のコンピュータプログラム |
JP2014182629A (ja) * | 2013-03-19 | 2014-09-29 | Nec Corp | 確認支援情報生成装置、確認支援情報生成方法、及びプログラム |
WO2016092941A1 (ja) * | 2014-12-12 | 2016-06-16 | オリンパス株式会社 | カプセル内視鏡システム及びその撮像方法 |
JP2016171477A (ja) * | 2015-03-13 | 2016-09-23 | 株式会社日立製作所 | 遠隔作業支援装置、モニタリングシステム、および、遠隔作業支援方法 |
WO2017002505A1 (ja) * | 2015-06-30 | 2017-01-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017156665A (ja) * | 2016-03-04 | 2017-09-07 | Necディスプレイソリューションズ株式会社 | 映像表示装置、映像表示方法、及びプログラム |
JP2017188739A (ja) * | 2016-04-04 | 2017-10-12 | 株式会社Ihiエアロスペース | 画像取得圧縮送信方法、移動体の遠隔操縦方法、画像取得圧縮送信装置、及び移動体の遠隔操縦システム |
WO2017199495A1 (ja) * | 2016-05-20 | 2017-11-23 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理システム、画像処理装置、及びプログラム |
JP2017219890A (ja) * | 2016-06-02 | 2017-12-14 | グローリー株式会社 | 貨幣処理システム |
JP2018010653A (ja) * | 2009-09-22 | 2018-01-18 | フェイスブック,インク. | コンピュータ装置の遠隔制御 |
JP2018018315A (ja) * | 2016-07-28 | 2018-02-01 | セイコーエプソン株式会社 | 表示システム、表示装置、情報表示方法、及び、プログラム |
JP2018182570A (ja) * | 2017-04-14 | 2018-11-15 | コニカミノルタ株式会社 | 視線情報共有方法および視線情報共有システム |
JP2019046291A (ja) * | 2017-09-05 | 2019-03-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像表示方法 |
JP2019101919A (ja) * | 2017-12-06 | 2019-06-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1686554A3 (en) | 2005-01-31 | 2008-06-18 | Canon Kabushiki Kaisha | Virtual space generating system, image processing apparatus and information processing method |
JP4677269B2 (ja) * | 2005-04-08 | 2011-04-27 | キヤノン株式会社 | 情報処理方法およびシステム |
JP2006332733A (ja) * | 2005-05-23 | 2006-12-07 | Hitachi Electronics Service Co Ltd | カメラ画像を利用した監視サービスサポートシステム |
JP5036177B2 (ja) | 2005-12-12 | 2012-09-26 | オリンパス株式会社 | 情報表示装置 |
JP5067850B2 (ja) * | 2007-08-02 | 2012-11-07 | キヤノン株式会社 | システム、頭部装着型表示装置、その制御方法 |
WO2011058707A1 (ja) * | 2009-11-11 | 2011-05-19 | コニカミノルタオプト株式会社 | 撮影装置および遠隔作業支援システム |
JPWO2012081194A1 (ja) * | 2010-12-17 | 2014-05-22 | パナソニック株式会社 | 医療支援装置、医療支援方法および医療支援システム |
WO2016079557A1 (en) * | 2014-11-17 | 2016-05-26 | Yanmar Co., Ltd. | Display system for remote control of working machine |
JP6295995B2 (ja) * | 2015-04-28 | 2018-03-20 | 京セラドキュメントソリューションズ株式会社 | 情報処理装置、画像処理装置へのジョブ指示方法 |
EP3113106A1 (en) * | 2015-07-02 | 2017-01-04 | Nokia Technologies Oy | Determination of environmental augmentation allocation data |
JP2018026692A (ja) * | 2016-08-10 | 2018-02-15 | 株式会社日立製作所 | 作業支援システム、撮影装置、及び表示装置 |
JP2018107695A (ja) * | 2016-12-27 | 2018-07-05 | フォーブ インコーポレーテッド | 推定システム、推定方法及び推定プログラム |
US11138436B2 (en) * | 2016-12-29 | 2021-10-05 | Magic Leap, Inc. | Automatic control of wearable display device based on external conditions |
JP2019036132A (ja) | 2017-08-16 | 2019-03-07 | オリンパス株式会社 | 作業支援システム,ウェアラブル装置,撮像装置,作業支援方法 |
US10977868B2 (en) * | 2018-06-29 | 2021-04-13 | Factualvr, Inc. | Remote collaboration methods and systems |
-
2019
- 2019-07-01 JP JP2019122778A patent/JP7372061B2/ja active Active
-
2020
- 2020-06-18 CN CN202010557906.9A patent/CN112188152A/zh active Pending
- 2020-06-24 US US16/910,746 patent/US11169764B2/en active Active
- 2020-06-26 DE DE102020116951.5A patent/DE102020116951A1/de active Granted
-
2021
- 2021-09-30 US US17/490,239 patent/US11544030B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07140967A (ja) * | 1993-11-22 | 1995-06-02 | Matsushita Electric Ind Co Ltd | 画像表示装置 |
JP2006023953A (ja) * | 2004-07-07 | 2006-01-26 | Fuji Photo Film Co Ltd | 情報表示システム |
JP2018010653A (ja) * | 2009-09-22 | 2018-01-18 | フェイスブック,インク. | コンピュータ装置の遠隔制御 |
JP2011197736A (ja) * | 2010-03-17 | 2011-10-06 | Mitsubishi Electric Corp | 視界支援装置 |
JP2012095229A (ja) * | 2010-10-28 | 2012-05-17 | Sharp Corp | 画像表示装置及び画像表示装置用のコンピュータプログラム |
JP2014182629A (ja) * | 2013-03-19 | 2014-09-29 | Nec Corp | 確認支援情報生成装置、確認支援情報生成方法、及びプログラム |
WO2016092941A1 (ja) * | 2014-12-12 | 2016-06-16 | オリンパス株式会社 | カプセル内視鏡システム及びその撮像方法 |
JP2016171477A (ja) * | 2015-03-13 | 2016-09-23 | 株式会社日立製作所 | 遠隔作業支援装置、モニタリングシステム、および、遠隔作業支援方法 |
WO2017002505A1 (ja) * | 2015-06-30 | 2017-01-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2017156665A (ja) * | 2016-03-04 | 2017-09-07 | Necディスプレイソリューションズ株式会社 | 映像表示装置、映像表示方法、及びプログラム |
JP2017188739A (ja) * | 2016-04-04 | 2017-10-12 | 株式会社Ihiエアロスペース | 画像取得圧縮送信方法、移動体の遠隔操縦方法、画像取得圧縮送信装置、及び移動体の遠隔操縦システム |
WO2017199495A1 (ja) * | 2016-05-20 | 2017-11-23 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理システム、画像処理装置、及びプログラム |
JP2017219890A (ja) * | 2016-06-02 | 2017-12-14 | グローリー株式会社 | 貨幣処理システム |
JP2018018315A (ja) * | 2016-07-28 | 2018-02-01 | セイコーエプソン株式会社 | 表示システム、表示装置、情報表示方法、及び、プログラム |
JP2018182570A (ja) * | 2017-04-14 | 2018-11-15 | コニカミノルタ株式会社 | 視線情報共有方法および視線情報共有システム |
JP2019046291A (ja) * | 2017-09-05 | 2019-03-22 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像表示方法 |
JP2019101919A (ja) * | 2017-12-06 | 2019-06-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、コンピュータプログラムおよび記憶媒体 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7596181B2 (ja) | 2021-03-04 | 2024-12-09 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
JP7646403B2 (ja) | 2021-03-16 | 2025-03-17 | 日産自動車株式会社 | 画像表示制御装置、画像表示制御システム及び画像表示制御方法 |
JP2022187214A (ja) * | 2021-06-07 | 2022-12-19 | Necフィールディング株式会社 | 作業スキル判定システム、作業スキル判定方法、及び作業スキル判定プログラム |
JP2023056918A (ja) * | 2021-10-08 | 2023-04-20 | 株式会社日本ブレーン | 表示装置及び表示システム |
JP7464933B2 (ja) | 2021-10-08 | 2024-04-10 | 株式会社日本ブレーン | 表示装置及び表示システム |
KR20230146980A (ko) | 2022-04-13 | 2023-10-20 | 가부시키가이샤 히타치세이사쿠쇼 | 작업 지원 시스템 및 방법 |
WO2024069997A1 (ja) * | 2022-09-29 | 2024-04-04 | 株式会社日立製作所 | 仮想三次元空間共有システム、仮想三次元空間共有方法、及び仮想三次元空間共有サーバ |
Also Published As
Publication number | Publication date |
---|---|
US11544030B2 (en) | 2023-01-03 |
DE102020116951A1 (de) | 2021-01-07 |
CN112188152A (zh) | 2021-01-05 |
US11169764B2 (en) | 2021-11-09 |
US20210004195A1 (en) | 2021-01-07 |
JP7372061B2 (ja) | 2023-10-31 |
US20220019399A1 (en) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7372061B2 (ja) | 遠隔作業支援システム | |
JP5966510B2 (ja) | 情報処理システム | |
US20160049011A1 (en) | Display control device, display control method, and program | |
US10600253B2 (en) | Information processing apparatus, information processing method, and program | |
JP5869712B1 (ja) | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム | |
JP7078568B2 (ja) | 表示装置、表示制御方法、及び表示システム | |
KR102512855B1 (ko) | 정보 처리 장치 및 정보 처리 방법 | |
JP2019008623A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
JPWO2017064926A1 (ja) | 情報処理装置及び情報処理方法 | |
EP4295219A1 (en) | Devices, methods, and graphical user interfaces for maps | |
JP2017033294A (ja) | 3次元描画システム及び3次元描画プログラム | |
JP2021192178A (ja) | デバイス、制御方法及びプログラム | |
GB2582106A (en) | Display device and display device control method | |
US12249033B2 (en) | User interfaces that include representations of the environment | |
KR102420166B1 (ko) | 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템 | |
JP2016053935A (ja) | 可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラム | |
WO2022091945A1 (ja) | 眼科システム、眼科装置遠隔操作方法、眼科装置遠隔操作プログラム | |
WO2024233224A1 (en) | Devices, methods, and graphical user interfaces for providing environment tracking content | |
JP2023056918A (ja) | 表示装置及び表示システム | |
WO2025064217A1 (en) | Devices, methods, and graphical user interfaces for gaze navigation | |
WO2024254066A1 (en) | Devices, methods, and graphical user interfaces for detecting inputs | |
WO2024163798A1 (en) | Devices, methods, and graphical user interfaces for device position adjustment | |
WO2024026024A1 (en) | Devices and methods for processing inputs to a three-dimensional environment | |
WO2024253976A1 (en) | Devices, methods, and graphical user interfaces for displaying views of physical locations | |
WO2025049256A1 (en) | Methods for managing spatially conflicting virtual objects and applying visual effects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7372061 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |