JP6693060B2 - 表示システム、表示装置、表示装置の制御方法、及び、プログラム - Google Patents
表示システム、表示装置、表示装置の制御方法、及び、プログラム Download PDFInfo
- Publication number
- JP6693060B2 JP6693060B2 JP2015135194A JP2015135194A JP6693060B2 JP 6693060 B2 JP6693060 B2 JP 6693060B2 JP 2015135194 A JP2015135194 A JP 2015135194A JP 2015135194 A JP2015135194 A JP 2015135194A JP 6693060 B2 JP6693060 B2 JP 6693060B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- data
- image
- display
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 33
- 230000033001 locomotion Effects 0.000 claims description 70
- 238000004891 communication Methods 0.000 claims description 60
- 230000005540 biological transmission Effects 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 43
- 230000000007 visual effect Effects 0.000 claims description 38
- 238000013500 data storage Methods 0.000 claims description 37
- 238000003384 imaging method Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 description 87
- 210000001508 eye Anatomy 0.000 description 53
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 47
- 230000009471 action Effects 0.000 description 32
- 238000003860 storage Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 14
- 210000003128 head Anatomy 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000005259 measurement Methods 0.000 description 7
- 239000003550 marker Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000009792 diffusion process Methods 0.000 description 4
- 230000004907 flux Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- WABPQHHGFIMREM-UHFFFAOYSA-N lead(0) Chemical compound [Pb] WABPQHHGFIMREM-UHFFFAOYSA-N 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
Description
本発明は上記事情に鑑みてなされたものであり、頭部装着型の表示装置を使用して動作を行う人に対し、他の人が支援を行う場合に、動作に関する多くの情報をよりわかりやすく伝達できるようにすることを目的とする。
本発明によれば、複数の表示装置の間で視界に関するデータと入力に関するデータとを共有できるので、複数の使用者が表示装置を装着することにより、視界と操作とを共有できる。これにより、例えば、動作を行う人と動作を支援する人が互いに頭部装着型の表示装置を装着することで、動作に関する多くの情報をよりわかりやすく伝達できる。また、使用者の状態に関する判定を行うことにより、適切なタイミングで通知データを送信できる。従って、使用者が、他の使用者に対し作業等を支援し、或いは、作業等の実行状態の管理を容易に、的確に行うことができる。
本発明によれば、使用者が通知を行うべき状態であることを判定して、他の装置に対して通知データを送信できる。
本発明によれば、使用者または他の人による入力を認識して、使用者の状態を適切に判定できる。また、使用者または他の人は、入力を認識させることで、意図的に通知データを他の装置に送信させることができる。
本発明によれば、音声による入力を行うことができ、複数の表示装置の間で、より容易に情報を伝達できる。
本発明によれば、表示装置に対して音声により入力された内容を、他の表示装置を装着する使用者に知らせることができる。
本発明によれば、表示部または表示部を装着した使用者の動きによる入力を行うことができる。
本発明によれば、撮像画像から入力を認識できるので、より容易に入力を行うことができる。
本発明によれば、表示装置を装着して動作を実行する使用者に対して動作を案内でき、この案内に従って動作をした記録を含むデータを、他の表示装置が引き継いで使用できる。
本発明によれば、使用者が注視する方向の画像を他の使用者に見せることができる。
本発明によれば、他の表示装置との間で、視界に関するデータと入力に関するデータとを共有できる。これにより、例えば複数の使用者がそれぞれ表示装置を装着した構成において、視界と操作とを共有できる。この場合、動作を行う人と動作を支援する人が互いに表示装置を装着することで、動作に関する多くの情報をよりわかりやすく伝達できる。また、使用者の状態に関する判定を行うことにより、適切なタイミングで通知データを送信できる。
本発明によれば、他の表示装置との間で、視界に関するデータと入力に関するデータとを共有できる。これにより、例えば複数の使用者がそれぞれ表示装置を装着した構成において、視界と操作とを共有できる。この場合、動作を行う人と動作を支援する人が互いに表示装置を装着することで、動作に関する多くの情報をよりわかりやすく伝達できる。また、使用者の状態に関する判定を行うことにより、適切なタイミングで通知データを送信できる。
表示システム1は、複数のHMD100を備え、それぞれのHMD100は通信ネットワーク4を介して相互に通信可能に接続する。HMD100は、使用者が頭部に装着する表示装置であり、頭部装着型表示装置(ヘッドマウントディスプレイ、Head Mounted Display)とも呼ばれる。HMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のHMDである。なお、以下の説明では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
表示システム1は、動作を行う使用者がHMD100B、100Cを装着し、動作の指示や管理を行う使用者がHMD100Aを装着し、HMD100A、100B、100Cの間で指示や管理のための情報を送受信する。サイトA、B、Cは、通信ネットワーク4に接続可能であれば地理的制約はなく、遠隔地であってもよいし、近接した場所であってもよい。また、以下の説明では3台のHMD100A、100B、100Cを通信ネットワーク4に接続する例を示すが、表示システム1が備えるHMD100の数に制限はない。
HMD100100B、100Cは、例えば、工場の作業ラインFAで作業者が作業を行うサイトB、Cに配置される。サイトBで作業を行う作業者UBがHMD100Bを装着し、サイトCで作業を行う作業者UCがHMD100Cを装着する。
作業ラインFAでは、作業の対象である部品等の対象OBが矢印方向に搬送され、作業者UB、UCは対象OBに対して指示された作業を行う。
作業ラインFAを管理する管理者UAは、管理者用のサイトAにおいて、HMD100Aを装着して使用する。管理者UAは、表示システム1を使用して、作業者UB、UCが行う作業の支援及び作業の進行状況の管理等を行う。
例1:倉庫を有する作業所において、倉庫内を移動して品物をピックアップする作業者、及び管理者がHMD100を装着する。作業者のHMD100により、倉庫内の移動の導線を表示し案内し、ピックアップする品物を指示する。作業管理者がHMD100を装着して、作業の進行状況の管理等を行う。
例2:工事現場において、作業者のHMD100により、設計図面に基づき地中内の配管等の直接視認できない設備等の位置を表示し案内する。工事管理者がHMD100を装着して、工事の進行状況の管理を行う。
例3:HMD100を装着し移動する使用者に対して移動経路の案内や道案内を行う。移動の管理者がHMD100を装着し、使用者の移動状況や位置を管理する。
例4:医療機関においてHMD100を装着する医療従事者に対し、診療、診察或いは他の行為の支援を行う。HMD100を装着する支援者が、医療従事者が実行する行為の確認、進行状況の管理等を行う。
HMD100は、使用者である指令者が頭部に装着する画像表示部20、及び、画像表示部20を制御する制御装置10を備える。画像表示部20は、使用者の頭部に装着された状態で使用者に虚像を視認させる。制御装置10は、使用者がHMD100を操作するコントローラーとしても機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、右カメラ61(撮像部)と、左カメラ62(撮像部)と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図4)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
右カメラ61及び左カメラ62は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。別の表現では、右カメラ61及び左カメラ62の少なくとも一方は、使用者の視界と重なる範囲または方向を撮像する。より詳細には、右カメラ61及び左カメラ62の少なくとも一方は、使用者が注視する方向を撮像する。右カメラ61及び左カメラ62の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む画角である。さらに、調光板20Aを通した使用者の視界の全体を撮像できるように右カメラ61、左カメラ62の撮像範囲が設定されているとより好ましい。
右カメラ61及び左カメラ62は、制御部140が備える撮像制御部161(図6)の制御に従って撮像を実行し、撮像画像データを撮像制御部161に出力する。
距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。距離センサー64は、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する。この場合、距離センサー64は、制御部140の制御に従い、三角測距処理や時間差に基づく測距処理を実行する。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサー64は、制御部140の制御に従い、超音波の反射までの時間差に基づき測距処理を実行する。なお、距離センサー64は光源や受光部、或いは音源と検出部とを備え、測距処理を制御部140が行ってもよい。
本実施形態の距離センサー64の測定方向は、HMD100の表側方向であり、右カメラ61及び左カメラ62の撮像方向と重複する。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242を備える。また、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
図5(A)に示すように、HMD100は、ハーフミラー261A、及び、ハーフミラー262Aが使用者の眼に画像光を反射することによって、表示領域を形成する。HMD100はハーフミラー261A、262Aにより画像光を反射して使用者の眼に、虚像を認識させる。このため、本実施形態では、表示領域はハーフミラー261A、262Aそのものではなく、ハーフミラー261A、262Aに反射した画像光を使用者が知覚する領域である。なお、画像表示部20が、ハーフミラー261A、262Aに実際に画像を結像させる構成とした場合には、ハーフミラー261A、262Aが表示領域に相当する。表示領域は、右LCD241及び左LCD242に対応し、これらLCD241、242に表示される画像を使用者が視認する領域である。例えば、右LCD241及び左LCD242の表示可能な領域(表示可能領域)の全体に画像を表示すると、使用者に、表示領域の全体のサイズの画像を視認させることができる。
図5(B)は、右カメラ61、左カメラ62、及び距離センサー64の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。右カメラ61の画角(撮像範囲)をCR、左カメラ62の画角(撮像範囲)をCLで示す。なお、図3(B)には水平方向の画角CR、CLを示すが、右カメラ61及び左カメラ62の実際の画角は、一般的なデジタルカメラと同様に上下方向に拡がる。
例えば、図5(B)に示すように、画像表示部20の正面方向に対象OBがある場合、対象OBは画角CR及び画角CLのどちらにも含まれる。このため、右カメラ61の撮像画像と、左カメラ62の撮像画像のいずれも、対象OBが写る。ここで、使用者が対象OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象OBに向けられる。一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。
従って、注視点が対象OBである場合、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野であり、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。
HMD100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス125を備える。インターフェイス125は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
入力情報取得部110は、操作部135に接続される。操作部135は、上記のトラックパッド14、方向キー16、電源スイッチ18等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部(図示略)を備え、制御装置10及び画像表示部20の各部に電源を供給する。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス125を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部120は、HMD100A、100B、100Cが送受信する各種のデータを記憶する。
記憶部120は、設定データ121、及び、送信先設定データ122を記憶する。また、記憶部120は、データを記憶する記憶領域として、送信データ記憶部126、及び、受信データ記憶部127を有する。送信データ記憶部126及び受信データ記憶部127は記憶部120の記憶領域を論理的あるいは仮想的に区切って設けることができ、例えばハードウェアとして区分される必要はない。
送信データ記憶部126が記憶する視界データ131、通知データ132及び動作案内データ133は、それぞれ、受信データ記憶部127が記憶する視界データ131、通知データ132及び動作案内データ133と同一であってもよい。また、ヘッダー、属性、データフォーマット等が異なっていてもよい。
送信先設定データ122は、HMD100がデータを送信する送信先を定めるデータである。図1に示す表示システム1において、HMD100A、100B、100Cは、データを送信する送信先について、それぞれ異なる制約を設けることができる。例えば、HMD100Aは管理者UAが装着して使用し、HMD100B、100Cは作業者UB、UCが装着する。使用者が管理者や作業者かに応じて、データの送信先を設定できる。送信先設定データ122では、送信先となるHMD100を特定するIDと、送信するデータの種類とが対応付けて設定される。
送信先設定データ122は、HMD100が記憶し送信するデータの一部について設定するデータであってもよい。例えば、後述する動作案内データ133は、送信先設定データ122の制約を受けず、表示システム1内の他のHMD100に送信可能な構成とすることができる。
動作案内データ133が含むそれぞれの動作は、項目(タイトル)が付され、図8(B)の例では順序情報133bを兼ねて作業1、作業2…の項目が付されている。動作とは、使用者が行う行動または行為を指し、使用者の身体の動きであってもよいし思考や判断を含んでもよい。動作案内データ133の一つの動作が、実際には複数の動作を含むシーケンスに対応してもよい。
案内情報133aは、動作を行う使用者に対して動作の内容の説明等を行うために出力されるテキスト、静止画像、映像、音声等を含む。
状態情報133cは、使用者の動作の進行に伴って変化する。後述するように、状態情報133cは、制御部140の制御により、動作の進行に伴って更新される。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス125に有線接続された場合、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス125は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
また、インターフェイス25は、右カメラ61、左カメラ62、距離センサー64、9軸センサー66及び視線センサー68を接続するインターフェイスである。右カメラ61、左カメラ62の撮像データ、距離センサー64の検出結果、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果、及び、視線センサー68の検出結果は、インターフェイス25を介して制御部140に送られる。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
また、AR表示制御部163は、受信データ記憶部127の動作案内データ133を読み出し、この動作案内データ133に基づいて、動作を案内する静止画像、動画像、テキスト等を表示する。ここで、AR表示制御部163は、複数の動作に対応する案内情報133aを、順序情報133bで規定される順序に従って並べてリスト形式で、表示してもよい。また、案内情報133aを、1つずつまたは設定された数ずつ、順序情報133bで規定される順序に従って、切り替えて表示してもよい。
状態検出部164が実行状態を検出する処理は、例えば、右カメラ61及び/又は左カメラ62の撮像画像データを解析して行われる。この場合、状態検出部164は撮像画像データから動作の対象や、動作に使用される器具、道具、使用者の身体等の少なくともいずれかを検出する。状態検出部164は、動作の対象、動作に使用される器具、道具、使用者の身体等の位置、サイズ、色、形状等に基づいて、動作の実行状態に関するデータを生成する。
さらに、判定部166が、入力認識部162が認識する入力、9軸センサー66や視線センサー68の検出値、及び、バイタルセンサーの検出値について、学習を実行し、使用者の状態に関する判定の基準または条件を設定あるいは変更してもよい。この学習は、判定部166がAI(Artificial Intelligence:人工知能)エンジンを有し、自律的に学習を行ってもよい。また、予め判定部166に設定されるアルゴリズムに従って、判定部166が、判定の基準あるいは条件を最適化してもよい。
なお、表示システム1を構成する複数のHMD100が互いに近接した位置にある場合、すなわち、複数のHMD100が、相互に通信部117が無線信号を送受信可能な範囲内にある場合、通信ネットワーク4を経由せずに、直接、通信部117と通信部117との間で無線通信を行ってもよい。
以下の説明では図1及び図2に示したように、作業を管理する管理者UAがHMD100Aを装着して使用し、作業者UBがHMD100Bを装着して使用し、作業者UCがHMD100Cを装着して使用する例を説明する。
図9(A)はHMD100Bの動作を示し、図9(B)はHMD100Aの動作を示す。
HMD100Aは、予め送信データ記憶部126に記憶された動作案内データ133を送信し(ステップS32)、HMD100Bは動作案内データ133を受信して受信データ記憶部127に記憶する(ステップS12)。
図10の動作は、HMD100Bが動作案内データ133に従って動作を実行する間、すなわち、図9(A)のステップS13〜S23の間に実行される。
HMD100Cの制御部140は、動作案内データ133を受信して受信データ記憶部127に記憶する(ステップS63)。AR表示制御部163は、動作案内データ133を受信したことの通知を生成してHMD100Bに送信し(ステップS64)、受信した動作案内データ133に基づいて、静止画像、動画像、テキスト等の表示及び/又は音声の出力等を開始する(ステップS65)。ここで、AR表示制御部163は、受信した動作案内データ133に含まれる状態情報133cに従って、実行中または未実行の動作から、案内情報133aを出力する。従って、HMD100Cを装着する作業者UCは、HMD100Bを装着する作業者UBが実行した動作の続きから、動作案内データ133に基づく案内に従って対象OB(図2)に対する作業を行える。
なお、ステップS11、S12における動作引継の指示、及び要請の入力は、HMD100Aにおいて行ってもよい。この場合、動作引継を指示する通知データ132が、HMD100Aから、HMD100B及びHMD100Cに送信され、この通知データ132に従ってHMD100BとHMD100Cが図10の動作を開始すればよい。
図11(A)〜(C)では、VRは使用者(管理者UA、作業者UB、UC)の視野を示し、V1は、HMD100が画像を表示して使用者に視認させることが可能な領域、すなわち画像表示部20の表示領域を示す。表示領域V1は、たとえば、使用者の視野VRのほぼ中央に位置し、視野VRよりも狭い。表示領域V1は視野VRと同じサイズであってもよく、サイズ及び位置は図11(A)〜(C)の例に限定されない。
リストSRには、案内情報133aの表示位置に対応づけて、チェックボックスCHが配置される。チェックボックスCHは、動作案内データ133の動作が完了したことを示す。AR表示制御部163は、状態検出部164が動作の完了を検出した場合に、チェックボックスCHの表示状態を、動作完了を示す状態に変更する。これに伴い、状態検出部164は、受信データ記憶部127の動作案内データ133において状態情報133cを更新すればよい。動作案内データ133が含む案内情報133aが1つの場合、リストSRは一つの動作の内容とチェックボックスCHとを含む構成となる。
また、視界表示VW1、VW2のそれぞれには、作業者UBの視線方向、及び、作業者UCの視線方向を示すポインターPが表示される。ポインターPの表示位置を示すデータが視界データ131に含まれていれば、ポインターPを表示できる。
また、図12(C)と図12(D)の状態の間で、作業者UBが離脱する際に、HMD100BからHMD100Cに対し、動作案内データを送信してもよい。
制御部140は、音声処理部187により検出される音声に基づき入力認識部162が認識する入力を示すデータを他のHMD100に送信する。これにより、HMD100に対して音声により入力された内容を、他のHMD100を装着する使用者に知らせることができる。
入力認識部162は、右カメラ61、左カメラ62の撮像画像に基づき入力を認識してもよく、この場合、より容易に入力を行うことができる。
また、制御部140は、動作を案内する案内情報133a、動作の実行順を指定する順序情報133b、及び、動作の実行状態を示す状態情報133cを含む動作案内データ133を再生する再生処理を行う。この再生処理において画像表示部20にテキスト、静止画像、動画像等の表示を実行する。入力認識部162で認識する入力に基づいて再生中の動作案内データ133の状態情報133cを更新し、通信部117によって、再生処理を行った動作案内データ133を他のHMD100に送信する。これにより、HMD100を装着して動作を実行する使用者に対して動作を案内でき、この案内に従って動作をした記録を含むデータを、他のHMD100が引き継いで使用できる。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
上記各実施形態では、図5を参照して説明した左右の画像光生成部により画像光を生成し、図3に示す右光学像表示部26及び左光学像表示部28によって、使用者の右眼と左眼のそれぞれに向けて画像光を照射し、使用者の右眼と左眼のそれぞれに画像光を入射させる構成を例示する。「表示部」の構成はこれに限定されない。すなわち、画像光を照射するものであれば、図の構成に限定されない。例えば本実施形態の構成では、ハーフミラー261A、262Aを有する「右導光部」及び「左導光部」によって、使用者の眼に向けて画像光を出射する。また、画像光を生成する構成として、右バックライト221及び左バックライト222と、右LCD241及び左LCD242とを備える。「表示部」はこれらの構成を必須としない。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/又は反射させて導く機能のみを有するものであってもよい。
Claims (9)
- 複数の頭部装着型の表示装置を備えるシステムであって、
前記表示装置は、
使用者に画像を視認させるとともに外景を透過する表示部と、
他の複数の前記表示装置と通信する通信部と、
前記使用者の視界と重なる範囲を撮像する撮像部と、
前記使用者の状態に関する判定を行う判定部と、
入力を認識する認識部と、
音声を検出する音声処理部と、
制御部と、
送信先に対応する他の複数の前記表示装置毎に、前記送信先となる表示装置を特定するIDと、送信するデータの種類とが対応付けられて記憶されている送信データ記憶部と、
を備え、
前記送信するデータの種類は、視界データと、通知データとであり、
前記制御部は、前記撮像部の撮像画像に基づき前記視界データを生成し、
前記認識部は、前記音声処理部により検出される音声に基づき入力を認識し、
前記制御部は、前記音声処理部により検出される音声に基づき前記認識部が認識する入力に対応する前記通知データを生成し、
前記判定部は、前記認識部が認識する入力に基づき前記使用者の状態を判定し、
前記制御部は、前記判定部の判定結果に基づき、前記送信先に対応する他の複数の前記表示装置の各々に、前記IDと対応付けられて記憶された種類のデータを送信し、
他の複数の前記表示装置から送信されるデータに基づき前記表示部に表示すること、
を特徴とする表示システム。 - 前記判定部は、前記使用者の動作に基づき、前記使用者の状態が予め設定された通知を行うべき状態に該当するかを判定し、
前記判定部が、前記使用者の状態が通知を行うべき状態に該当すると判定した場合に、前記制御部が前記通信部により他の複数の前記表示装置に通知データを送信させること、
を特徴とする請求項1記載の表示システム。 - 前記表示部の動きを検出する動き検出部を備え、
前記認識部は、前記動き検出部が検出する動きに基づき入力を認識すること、
を特徴とする請求項1記載の表示システム。 - 前記認識部は、前記撮像部の撮像画像に基づき入力を認識すること、
を特徴とする請求項1又は3に記載の表示システム。 - 前記制御部は、動作を案内する案内情報、前記動作の実行順を指定する順序情報、及び、前記動作の実行状態を示す状態情報を含む動作案内データを再生する再生処理を行い、
前記再生処理において前記表示部に表示を実行し、前記認識部で認識する入力に基づいて再生中の前記動作案内データの状態情報を更新し、
前記通信部によって、前記再生処理を行った前記動作案内データを他の複数の前記表示装置に送信すること、
を特徴とする請求項1から4のいずれかに記載の表示システム。 - 前記撮像部は、前記使用者が注視する方向と重なる範囲を撮像すること、
を特徴とする請求項1から5のいずれかに記載の表示システム。 - 頭部装着型の表示装置において、
使用者に画像を視認させるとともに外景を透過する表示部と、
他の複数の前記表示装置と通信する通信部と、
前記使用者の視界と重なる範囲を撮像する撮像部と、
前記使用者の状態に関する判定を行う判定部と、
入力を認識する認識部と、
音声を検出する音声処理部と、
制御部と、
送信先に対応する他の複数の前記表示装置毎に、前記送信先となる表示装置を特定するIDと、送信するデータの種類とが対応付けられて記憶されている送信データ記憶部と、
を備え、
前記送信するデータの種類は、視界データと、通知データとであり、
前記制御部は、前記撮像部の撮像画像に基づき前記視界データを生成し、
前記認識部は、前記音声処理部により検出される音声に基づき入力を認識し、
前記制御部は、前記音声処理部により検出される音声に基づき前記認識部が認識する入力に対応する前記通知データを生成し、
前記判定部は、前記認識部が認識する入力に基づき前記使用者の状態を判定し、
前記制御部は、前記判定部の判定結果に基づき、前記送信先に対応する他の複数の前記表示装置の各々に、前記IDと対応付けられて記憶された種類のデータを送信し、
他の複数の前記表示装置から送信されるデータに基づき前記表示部に表示すること、
を特徴とする表示装置。 - 使用者に画像を視認させるとともに外景を透過する表示部を備える頭部装着型の表示装置において、
送信先に対応する他の複数の前記表示装置毎に、前記送信先となる表示装置を特定するIDと、送信するデータの種類とが対応付けられて記憶されており、
前記送信するデータの種類は、視界データと、通知データとであり、
前記使用者の視界と重なる範囲を撮像し、
撮像画像に基づき前記視界データを生成し、
音声を検出し、検出された音声に基づき入力を認識し、
認識された入力に対応する前記通知データを生成し、
前記認識された入力に基づき前記使用者の状態を判定し、
前記使用者の状態に関する判定結果に基づき、前記送信先に対応する他の複数の前記表示装置の各々に、前記IDと対応付けられて記憶された種類のデータを送信し、
他の複数の前記表示装置から送信されるデータに基づき前記表示部に表示すること、
を特徴とする表示装置の制御方法。 - 使用者に画像を視認させるとともに外景を透過する表示部を備える頭部装着型の表示装置を制御するコンピューターが実行可能なプログラムであって、
送信先に対応する他の複数の前記表示装置毎に、前記送信先となる表示装置を特定するIDと、送信するデータの種類とが対応付けられて記憶されており、
前記送信するデータの種類は、視界データと、通知データとであり、
前記コンピューターにより、
前記使用者の視界と重なる範囲を撮像し、
撮像画像に基づき前記視界データを生成し、
音声を検出し、検出された音声に基づき入力を認識し、
認識された入力に対応する前記通知データを生成し、
前記認識された入力に基づき前記使用者の状態を判定し、
前記使用者の状態に関する判定結果に基づき、前記送信先に対応する他の複数の前記表示装置の各々に、前記IDと対応付けられて記憶された種類のデータを送信し、
他の複数の前記表示装置から送信されるデータに基づき前記表示部に表示する、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015135194A JP6693060B2 (ja) | 2015-07-06 | 2015-07-06 | 表示システム、表示装置、表示装置の制御方法、及び、プログラム |
US15/097,879 US10048922B2 (en) | 2015-07-06 | 2016-04-13 | System, apparatus, and method for displaying information on a head mounted display |
US16/035,086 US10564919B2 (en) | 2015-07-06 | 2018-07-13 | Display system, display apparatus, method for controlling display apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015135194A JP6693060B2 (ja) | 2015-07-06 | 2015-07-06 | 表示システム、表示装置、表示装置の制御方法、及び、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017016056A JP2017016056A (ja) | 2017-01-19 |
JP6693060B2 true JP6693060B2 (ja) | 2020-05-13 |
Family
ID=57731100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015135194A Expired - Fee Related JP6693060B2 (ja) | 2015-07-06 | 2015-07-06 | 表示システム、表示装置、表示装置の制御方法、及び、プログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US10048922B2 (ja) |
JP (1) | JP6693060B2 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9503623B2 (en) | 2014-06-03 | 2016-11-22 | Applied Minds, Llc | Color night vision cameras, systems, and methods thereof |
US20170146800A1 (en) * | 2015-11-23 | 2017-05-25 | Gulfstream Aerospace Corporation | System and method for facilitating cross-checking between flight crew members using wearable displays |
JP2017136142A (ja) * | 2016-02-02 | 2017-08-10 | セイコーエプソン株式会社 | 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体 |
US10687403B2 (en) * | 2016-03-21 | 2020-06-16 | Koninklijke Philips N.V. | Adaptive lighting system for a mirror component and a method of controlling an adaptive lighting system |
JP6620063B2 (ja) * | 2016-04-21 | 2019-12-11 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置および画像処理方法 |
CN109416842B (zh) | 2016-05-02 | 2023-08-29 | 华纳兄弟娱乐公司 | 在虚拟现实和增强现实中的几何匹配 |
US10805600B2 (en) * | 2016-07-29 | 2020-10-13 | Applied Minds, Llc | Methods and associated devices and systems for enhanced 2D and 3D vision |
DE112016007015T5 (de) * | 2016-07-29 | 2019-03-21 | Mitsubishi Electric Corporation | Anzeigevorrichtung, anzeigesteuervorrichtung und anzeigesteuerverfahren |
US11417426B2 (en) | 2017-02-24 | 2022-08-16 | Masimo Corporation | System for displaying medical monitoring data |
US11024064B2 (en) | 2017-02-24 | 2021-06-01 | Masimo Corporation | Augmented reality system for displaying patient data |
JP2018142764A (ja) * | 2017-02-27 | 2018-09-13 | セイコーエプソン株式会社 | 表示システム、表示装置、及び、表示装置の制御方法 |
JP6568130B2 (ja) * | 2017-03-23 | 2019-08-28 | Kddi株式会社 | 遠隔作業支援システムの作業者端末、支援者端末および映像伝送方法 |
CN110809804B (zh) | 2017-05-08 | 2023-10-27 | 梅西莫股份有限公司 | 使用适配器将医疗系统与网络控制器配对的系统 |
US10924651B2 (en) * | 2017-05-10 | 2021-02-16 | Humane, Inc. | Wearable multimedia device and cloud computing platform with application ecosystem |
US12230029B2 (en) | 2017-05-10 | 2025-02-18 | Humane, Inc. | Wearable multimedia device and cloud computing platform with laser projection system |
US10883862B2 (en) * | 2017-10-24 | 2021-01-05 | Mitutoyo Corporation | Measurement-data collecting apparatus and computer program |
WO2019083501A1 (en) * | 2017-10-24 | 2019-05-02 | Hewlett-Packard Development Company, L.P. | GENERATING A THREE-DIMENSIONAL VISUALIZATION OF A DIVIDED INPUT DEVICE |
CN109725418B (zh) * | 2017-10-30 | 2020-10-16 | 华为技术有限公司 | 显示设备、用于调整显示设备的图像呈现的方法及装置 |
JPWO2020013313A1 (ja) * | 2018-07-12 | 2021-03-18 | 株式会社東芝 | 全方位撮影システムおよび全方位撮影方法 |
JP7058621B2 (ja) * | 2019-02-22 | 2022-04-22 | 株式会社日立製作所 | 映像記録装置およびヘッドマウントディスプレイ |
CN110264818B (zh) * | 2019-06-18 | 2021-08-24 | 国家电网有限公司 | 一种基于增强现实的机组进水阀拆装训练方法 |
JP2021067899A (ja) * | 2019-10-28 | 2021-04-30 | 株式会社日立製作所 | 頭部装着型表示装置および表示コンテンツ制御方法 |
JP7340792B2 (ja) * | 2019-11-06 | 2023-09-08 | パナソニックIpマネジメント株式会社 | 作業表示方法、及び、作業表示装置 |
KR102201178B1 (ko) * | 2020-09-22 | 2021-01-11 | 단암시스템즈 주식회사 | 동기화된 계측 채널에 대한 모사 신호를 통한 동시 계측 성능 평가 장치 및 방법 |
DE102020126953B3 (de) * | 2020-10-14 | 2021-12-30 | Bayerische Motoren Werke Aktiengesellschaft | System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung |
JP7585006B2 (ja) * | 2020-11-19 | 2024-11-18 | キヤノン株式会社 | メガネ型情報機器、その方法及びプログラム |
WO2022219801A1 (ja) * | 2021-04-16 | 2022-10-20 | コピン コーポレーション | 映像表示システム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007320715A (ja) | 2006-05-31 | 2007-12-13 | Seikatsu Kyodo Kumiai Coop Sapporo | 作業関連情報提供システム、及び作業関連情報提供方法 |
JP2008113317A (ja) | 2006-10-31 | 2008-05-15 | Konica Minolta Holdings Inc | 遠隔作業支援システム |
AT10520U3 (de) * | 2008-09-05 | 2013-10-15 | Knapp Systemintegration Gmbh | Vorrichtung und verfahren zur visuellen unterstützung von kommissioniervorgängen |
JP5104679B2 (ja) * | 2008-09-11 | 2012-12-19 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
JP5521727B2 (ja) * | 2010-04-19 | 2014-06-18 | ソニー株式会社 | 画像処理システム、画像処理装置、画像処理方法及びプログラム |
US9172204B2 (en) | 2011-02-10 | 2015-10-27 | Nikon Corporation | Method for adjusting electro-optic modulator in laser device, and laser device |
JP5423716B2 (ja) * | 2011-03-30 | 2014-02-19 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
US8994613B1 (en) * | 2012-01-06 | 2015-03-31 | Michael Johnson | User-experience customization |
JP5334145B1 (ja) * | 2012-06-29 | 2013-11-06 | トーヨーカネツソリューションズ株式会社 | 物品のピッキング作業の支援システム |
JP2014071756A (ja) * | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | 作業補助システムおよびプログラム |
JP5787099B2 (ja) * | 2012-11-06 | 2015-09-30 | コニカミノルタ株式会社 | 案内情報表示装置 |
JP6077010B2 (ja) * | 2012-12-19 | 2017-02-08 | 株式会社日立製作所 | 作業支援端末および作業支援システム |
CN104919518B (zh) * | 2013-01-24 | 2017-12-08 | 索尼公司 | 图像显示设备、图像显示方法与图像显示系统 |
US9632313B1 (en) * | 2014-03-27 | 2017-04-25 | Amazon Technologies, Inc. | Augmented reality user interface facilitating fulfillment |
US20160027218A1 (en) * | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
US20160202947A1 (en) * | 2015-01-09 | 2016-07-14 | Sony Corporation | Method and system for remote viewing via wearable electronic devices |
US20160300179A1 (en) * | 2015-04-13 | 2016-10-13 | Real Picking, LLC | Holographic picking system and method for picking products utilizing a holographic picking system |
-
2015
- 2015-07-06 JP JP2015135194A patent/JP6693060B2/ja not_active Expired - Fee Related
-
2016
- 2016-04-13 US US15/097,879 patent/US10048922B2/en active Active
-
2018
- 2018-07-13 US US16/035,086 patent/US10564919B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180341454A1 (en) | 2018-11-29 |
US10564919B2 (en) | 2020-02-18 |
US10048922B2 (en) | 2018-08-14 |
US20170010850A1 (en) | 2017-01-12 |
JP2017016056A (ja) | 2017-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6693060B2 (ja) | 表示システム、表示装置、表示装置の制御方法、及び、プログラム | |
US11301034B2 (en) | Display device, control method for display device, and computer program | |
US10579320B2 (en) | Display system, display device, information display method, and program | |
US9411160B2 (en) | Head mounted display, control method for head mounted display, and image display system | |
US20160133051A1 (en) | Display device, method of controlling the same, and program | |
CN105739095B (zh) | 显示装置以及显示装置的控制方法 | |
JP6554948B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
US9794684B2 (en) | Head-mounted display device, control method for the same, and computer program | |
CN105319714A (zh) | 显示装置、显示装置的控制方法及程序 | |
JP2018148257A (ja) | 頭部装着型表示装置およびその制御方法 | |
JP6600945B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
JP6590050B2 (ja) | 表示装置、表示システム、表示装置の制御方法、及び、プログラム | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
CN105549203A (zh) | 显示装置以及显示装置的控制方法 | |
JP2016224086A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2017134575A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2016122177A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6135162B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム | |
JP2015087523A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム | |
JP2016090853A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP2017062650A (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
JP6733401B2 (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
JP2016116066A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2016181864A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2016163136A (ja) | 表示装置、及び、表示装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190405 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6693060 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |