[go: up one dir, main page]

JP2017010387A - システム、複合現実表示装置、情報処理方法及びプログラム - Google Patents

システム、複合現実表示装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2017010387A
JP2017010387A JP2015126862A JP2015126862A JP2017010387A JP 2017010387 A JP2017010387 A JP 2017010387A JP 2015126862 A JP2015126862 A JP 2015126862A JP 2015126862 A JP2015126862 A JP 2015126862A JP 2017010387 A JP2017010387 A JP 2017010387A
Authority
JP
Japan
Prior art keywords
interference
mixed reality
display device
reality display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015126862A
Other languages
English (en)
Inventor
大矢 崇
Takashi Oya
崇 大矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015126862A priority Critical patent/JP2017010387A/ja
Priority to US15/184,808 priority patent/US20160379591A1/en
Publication of JP2017010387A publication Critical patent/JP2017010387A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Architecture (AREA)

Abstract

【課題】仮想物体と現実物体との干渉状態を、臨場感を伴って共有できるようにすることを目的とする。【解決手段】複合現実表示装置で表示されている複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を複合現実表示装置と情報端末とで共有するシステムであって、現実空間における複合現実表示装置の利用者のオブジェクトと仮想物体との干渉があったか否かを判定する判定手段と、判定手段によりオブジェクトと仮想物体との干渉があったと判定された場合、情報端末の利用者に干渉があったことを通知する通知手段と、を有することによって課題を解決する。【選択図】図4

Description

本発明は、システム、複合現実表示装置、情報処理方法及びプログラムに関する。
製造業分野における設計工程の期間短縮、費用削減を目的として、現実空間と仮想空間とを継ぎ目なく合成した複合現実(MR:Mixed Reality)システムによる設計ツールが導入されている。複合現実システムでは、映像表示手段のひとつとして、ビデオカメラ等の撮像装置とディスプレイとが一体化された頭部装着型ディスプレイ(以下、HMD:ヘッドマウントディスプレイと表記)が用いられる。複合現実システムによれば、開発途中の製品をCG(コンピュータグラフィックス)で表現し、CGと現実世界の映像とを重畳して、HMDに表示する。その結果、任意の視点から状態を確認することで、実寸大の模型を作製せずにデザイン等の検討を行うことができる。
製造業の設計工程では多人数が参加したレビューがしばしば開催される。複合現実を用いたレビューでは多人数が複合現実空間を体験するために、HMDに加えて、タブレット端末等の手持ち型情報端末を組み合わせてシステムが構成される。このシステムは、HMDの利用者が見ている複合現実映像を、複数のタブレット端末画面にも同時に配信・表示する。これにより、HMDの利用者の視界を複数人が同時に共有し、設計・検討に参加できる。
複合現実システムによれば、工場での作業工程を事前に確認できる。例えば、組み立て中の製品を仮想物体として表現し、電動ドライバー等の工具の模型を複合現実システムの体験者が保持する。そして、複合現実システムが仮想物体と模型との干渉を複合現実空間中で判定することにより、作業工程に問題が無いかを確認する。干渉判定結果の出力例として、干渉箇所を強調表示したり、模型に内蔵した振動デバイスを振動させたりする方法がある。
特許文献1には、複合現実システムを用いた共同作業の例が開示されている。特許文献1の複合現実システムでは、作業者の複合現実空間を複数人の参加者が遠隔から共有し、視点を変更しながら実物体と仮想物体とを継ぎ目のない状態で知覚して共同作業を可能にしている。
特開2006−293604号公報
複合現実システムにおいて、HMDの利用者が実際の工具を用いて作業工程を確認し、また、HMD映像を複数のタブレット端末で共有するケースを考える。工具は模型であってもよい。工具の位置姿勢は複合現実空間上に再現され、仮想物体との干渉状態が判定される。干渉状態は、例えば干渉箇所の強調表示と工具に付属された振動デバイスとによって、出力される。干渉箇所がHMDの視野外にある場合、及び、仮想物体に隠れており直接視認できない場合、タブレット端末の利用者は干渉状態を知ることができない。
本発明は、仮想物体と現実物体との干渉状態を、臨場感を伴って共有できるようにすることを目的とする。
そこで、本発明は、複合現実表示装置で表示されている前記複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を前記複合現実表示装置と情報端末とで共有するシステムであって、前記現実空間における前記複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉があったか否かを判定する判定手段と、前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記情報端末の利用者に前記干渉があったことを通知する通知手段と、を有する。
本発明によれば、仮想物体と現実物体との干渉状態を、臨場感を伴って共有できるようにすることができる。
複合現実システムのシステム構成の一例を示す図である。 ハードウェア構成の共通部分の一例を示す図である。 実施形態1の複合現実システムのより具体的な一例を示した図である。 タブレット端末に係る振動共有を説明する図である。 実施形態1に係るソフトウェア構成等の一例を示す図である。 実施形態1の情報処理の一例を示すフローチャートである。 実施形態2の複合現実システムのより具体的な一例を示した図である。 HMD映像の一例を示す図である。 実施形態2に係るソフトウェア構成等の一例を示す図である。 実施形態2の情報処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
本実施形態では、複合現実を体験するHMDの利用者が工具を操作する例を説明する。そして本実施形態の複合現実システムでは、HMDの利用者のHMD映像をタブレット端末に配信し、タブレット端末の利用者にも共有する。ここで、本実施形態の複合現実システムでは、複合現実空間において仮想物体と工具とが干渉すると、HMD映像を共有中のタブレット端末に付属する振動デバイスを動作させる。これにより、仮想空間において、干渉箇所が視野外にある場合や、視野内でも仮想物体に隠れている場合であっても、干渉状態を、HMDの利用者とタブレット端末の利用者との間で直感的に共有できる。
図1は、複合現実システムのシステム構成の一例を示す図である。本実施形態に係る複合現実システムは、頭部装着型ディスプレイ(HMD)150、160、HMD制御装置110、120、振動デバイス付き工具151を含む。また、本実施形態に係る複合現実システムは、更に、振動デバイス付きタブレット端末180、190、シーンデータ管理サーバ130を含む。HMD150、160は、複合現実表示デバイスであり、電源供給、制御、通信、表示映像合成等を行うためのHMD制御装置110、120が各々接続される。タブレット端末180、190は、HMD150、160の映像を共有表示する端末である。また、シーンデータ管理サーバ130は、仮想空間を構成するためのシーンデータ131を記憶・管理する。シーンデータ131には、仮想物体のデータ等が含まれる。タブレット端末180、190、HMD制御装置110、120、シーンデータ管理サーバ130は、ネットワーク経由で接続される。
タブレット端末180、190のネットワーク接続形態は有線・無線を問わず、図1に示したように、無線LANアクセスポイント170経由でネットワークに接続してもよいし、インターネット経由でネットワークに接続してもよい。HMD制御装置110、120、シーンデータ管理サーバ130は、PC(パーソナル・コンピュータ)を利用可能である。したがって、HMD制御装置110とシーンデータ管理サーバ130とは同一のPCを利用することもできる。タブレット端末180、190は、デスクトップ型やノート型のPCを用いることもできる。振動デバイス付き工具151に付属の振動デバイスは、Bluetooth(登録商標)等の近距離無線通信によってHMD制御装置110、120と接続される。
本実施形態では、HMD150、160は、撮像装置と表示装置を備え、撮像装置で撮像した画像にCGを重畳した合成画像を表示装置に表示するビデオシースルー型であるとして説明する。しかしながら、CGを透過型の光学ディスプレイに重畳する光学シースルー型を用いてもよい。
以下、HMD制御装置、タブレット端末、シーンデータ管理サーバ等のハードウェア構成の共通部分を、図2を用いて説明する。図2は、複合現実システムを構成する装置のハードウェア構成の共通部分の一例を示す図である。図2に示されるように、複合現実システムを構成する装置は、ハードウェア構成として、少なくとも、CPU11と、メモリ12と、通信I/F13と、を含む。CPU11は、メモリ12に記憶されたプログラムに基づき処理を実行することにより、後述する各装置のソフトウェア構成やフローチャートの処理が実現される。メモリ12は、プログラムやCPU11が処理を実行する際に利用する各種データを記憶する。通信I/F13は、装置をネットワーク等に接続し、他の装置との通信を司る。なお、CPUやメモリ、通信I/Fは一つに限られず、複数有していてもよい。
また、複合現実システムを構成する各装置は図2に示したハードウェア構成を基本とし、装置に応じて他のハードウェア構成を有する。例えば、HMDの場合、撮影部や表示部等をハードウェア構成として更に有する。また、タブレット端末の場合、表示部や入力部、振動デバイス等をハードウェア構成として更に有する。
図3は、実施形態1の複合現実システムのより具体的な一例を示した図である。複合現実空間210には位置合わせのためのマーカー211、212が壁や床に配置されている。また仮想物体220は床面中央に配置される。HMDの利用者230が図3には示していないHMD150を装着し複合現実空間を観察すると、三次元CGモデルによる仮想物体220と実写とが合成された複合現実映像がHMD150の表示部に表示される。図3における投影面231は、HMD150を通じて観察者が見ている画像を仮想的に表示したものである。投影面231の映像はHMD150に出力され、また、システムに接続されたタブレット端末241に配信される。タブレット端末の利用者240は、タブレット端末の画面を通じて複合現実空間を共有する。
HMDの利用者230は仮想物体と相互に作用するために工具232を把持する。工具232の位置姿勢は工具に貼り付けられたマーカーや、光学センサー等を用いて計測される。HMDの利用者は、工具に重畳されたCG画像が実写と合成される形で工具を観察する。工具232と仮想物体とが干渉すると、複合現実システムはこれを検知して、工具232に付属の振動デバイスを振動させ、干渉判定結果をHMDの利用者に通知する。
実施形態1の複合現実システムでは、HMDで表示されているHMDの利用者の視野内の現実空間と仮想物体220との複合映像をHMDとタブレット端末241とで共有する。複合現実システムは、現実空間におけるHMDの利用者の工具232と仮想物体220との干渉があったか否かを判定し、干渉があったと判定した場合、タブレット端末241の利用者に干渉があったことを通知する。このことにより、タブレット端末241の利用者にも仮想物体220と現実物体との干渉状態を、臨場感を伴って知ることができるようにすることができる。
図4は、タブレット端末に係る振動共有を説明する図である。HMDの利用者のスクリーン310上に、仮想物体320と工具とが視野に入っている。工具と仮想物体320とが接触すると、タブレット端末が振動する。ここで、複合現実システムは、工具と仮想物体320との接触領域と、HMDの利用者の視点との位置関係によって、工具を振動させるかどうかを決定する。例えば、複合現実システムは、工具331と仮想物体320との接触領域が仮想物体の裏側にあり、直接視認できない場合、タブレット端末340を振動させる。一方で、工具332と接触領域とが視認可能な場合、複合現実システムは、接触領域を強調表示333する。その結果、タブレット端末350の利用者も強調表示351が視認可能であるため、共有振動させなくとも、接触状態を感知できる。
図5は、実施形態1に係る複合現実システムを構成する各装置のソフトウェア構成等の一例を示す図である。複合現実システムは、管理サーバ410、複合現実表示装置420、情報端末440を含む。管理サーバ410は、シーンデータ管理サーバ130に対応する。複合現実表示装置420は、HMD150及びHMD制御装置110、又はHMD160及びHMD制御装置120、又はHMD150、160に対応する。情報端末440は、タブレット端末180、190に対応する。
複合現実表示装置420は、ハードウェア構成として、撮影部421、表示部422を含む。また、複合現実表示装置420は、ソフトウェア構成として、撮影位置姿勢計測部424、シーンデータ取得部426、映像合成部425、映像送信部427、ツール位置姿勢計測部423を含む。また、複合現実表示装置420は、ソフトウェア構成として、更に、干渉データ受信部430、干渉箇所隠れ状態判断部431、振動制御命令送信部432を含む。ツールの一例としては、HMDの利用者の持つ工具がある。
撮影部421は、カメラ等の撮影デバイスを用いて現実画像を入力する。撮影位置姿勢計測部424は、複合現実表示装置420の複合現実空間内における三次元位置・姿勢を取得する。撮影位置姿勢計測部424は、例えば、現実空間に存在するマーカーや特徴点の情報から位置姿勢を推定する。また、撮影位置姿勢計測部424は、複合現実表示装置420に接続された赤外線センサー、磁気センサー、ジャイロセンサー等のセンサー情報を利用して位置姿勢を取得してもよいし、上記方法を組み合わせて用いてもよい。同様に、ツール位置姿勢計測部423は、ツールの複合現実空間内における三次元位置・姿勢を取得し、管理サーバ410に送信する。
シーンデータ取得部426は、管理サーバ410から、シーンデータ416を取得し、複合現実表示装置420内部にシーンデータとして記憶する。映像合成部425は、位置姿勢情報に基づいて、シーンデータから仮想物体の見かけ上の画像を生成し、撮影部421が取得した実写と重畳した映像を生成する。生成された映像は表示部422に表示される。その結果、複合現実表示装置420の利用者は現実空間中にあたかも仮想物体が存在するかのような複合現実感を体験できる。映像合成部425で生成された映像は、映像送信部427を経由して、情報端末440に送信される。
干渉データ受信部430は、管理サーバ410の干渉データ共有部415より、干渉データを受信する。続いて、干渉箇所隠れ状態判断部431は、干渉箇所の隠れ状態を判断する。干渉箇所隠れ状態判断部431は、干渉領域が、HMDの位置から直接見えるかどうかを判別する。例えば、干渉箇所隠れ状態判断部431は、HMDの位置を起点とし、干渉領域の中心に向かう線分と、仮想物体との最初の交点が、干渉領域か否かによって、干渉領域が、HMDの位置から直接見えるかどうかを判別する。振動制御命令送信部432は、判別の結果に基づいて、情報端末440の振動デバイス445に対して振動制御命令を送信する。
情報端末440は、ハードウェア構成として、表示部443、入力部446、振動デバイス445を含む。また、情報端末440は、ソフトウェア構成として、映像受信部441、表示画面生成部442、振動制御命令受信部444を含む。
映像受信部441は、管理サーバ410よりHMD映像を受信する。表示画面生成部442は、HMD映像を基に表示画面を生成し、表示部443に映像を表示する。振動制御命令受信部444は、複合現実表示装置420の振動制御命令送信部432から送信された振動制御命令を受信し、振動制御命令に基づき振動デバイス445を振動させる。入力部446は、情報端末440のユーザの入力を受け付ける。
管理サーバ410は、シーンデータを管理・配信する。管理サーバ410は、ソフトウェア構成として、ツール位置姿勢受信部411、干渉判定部412、干渉箇所表示変更部413、シーンデータ共有部414、干渉データ共有部415を含む。
ツール位置姿勢受信部411は、HMDの利用者の操作するツール(工具)の位置・姿勢を取得する。干渉判定部412は、管理サーバ410が管理している仮想物体の情報及びツール位置姿勢受信部411が受信したツールの位置・姿勢に基づいて仮想物体と工具との接触・干渉判定を行う。干渉判定部412は、三次元空間中で仮想物体の構成部品と工具の構成部品とが同一空間を占めるか否かに基づき干渉判定を行う。干渉判定部412は、三次元空間中で仮想物体の構成部品と工具の構成部品とが同一空間を占めると判定した場合、干渉が生じすると判定する。干渉が生じると判定された場合、干渉箇所表示変更部413は、干渉箇所を強調表示する。干渉箇所表示変更部413は、三次元部品同士の交線からなる閉曲面の線の太さや色を変更して描画し、強調表示したり、干渉した部品全体を構成する面を別の色で塗りつぶす等して強調表示したりする。
シーンデータ共有部414は、シーンデータ416を複合現実表示装置420に送信する。また、シーンデータ共有部414は、強調表示されたデータを、複合現実表示装置420に送信する。また、干渉データ共有部415は、干渉箇所の有無を複合現実表示装置420に送信し、共有する。
また、管理サーバ410、複合現実表示装置420、情報端末440は不図示の接続制御部を持つ。これは映像の共有状況を管理サーバ410で一括管理するためのものである。
図6は、実施形態1の複合現実システムにおける情報処理の一例を示すフローチャートである。複合現実システムにおける情報処理では、管理サーバ410、複合現実表示装置420、情報端末440が連携して動作する。情報処理の開始にあたって、情報端末440がどの複合現実表示装置420の映像を共有するかは、使用者の指定によって、既に定まっているものとする。また、図6では本実施形態に必要な部分のみを説明し、起動・初期化・終了等の処理の説明は省略する。
管理サーバ410の情報処理をS511〜S515に示す。情報処理の開始後、S511で、管理サーバ410は、複合現実表示装置420より、ツールの位置姿勢情報を受信し表示状態を更新する。次にS512で、管理サーバ410は、ツール(以下、工具ともいう)と仮想物体との干渉判定を行う。続いてS513で、管理サーバ410は、工具と仮想物体とが干渉すると判定した場合、シーンデータのうち、干渉した箇所の表示属性を、強調表示がなされるように変更する。また、管理サーバ410は、ツールの位置・姿勢計測結果に基づいて、シーンデータを変更する。続いてS514で、干渉箇所の有無である干渉データを複合現実表示装置420に配信する。最後にS515で、管理サーバ410は、更新済みのシーンデータを複合現実表示装置420に送信する。
複合現実表示装置420の情報処理をS521〜S533に示す。情報処理の開始後、シーンデータ受信処理S530、並びにS531〜S533の干渉データ受信処理、S521〜S527の複合現実表示処理が並列して実行される。
複合現実表示処理について、S521で、複合現実表示装置420は、撮影部421より実写を取得する。続いてS522で、複合現実表示装置420は、ツールの位置・姿勢を取得する。次にS523で、複合現実表示装置420は、ツールの位置姿勢情報を管理サーバ410に送信する。更にS524で、複合現実表示装置420は、シーンデータから仮想物体のCG画像を生成する。複合現実表示装置420は、シーンデータを、S530のシーンデータ受信処理で、管理サーバ410から取得する。
続いてS525で、複合現実表示装置420は、実写とCG映像とを重畳合成する。更にS526で、複合現実表示装置420は、表示部422に重畳合成した画像を表示する。そしてS527で、複合現実表示装置420は、表示した画像(又は画面)を情報端末440に送信する。複合現実表示装置420は、S521に戻って情報処理を続ける。複合現実表示装置420は、画像を送信する際には画像をJPEGやH.264等で符号化して送信してもよい。また、複合現実表示装置420は、RTP(リアルタイムトランスポートプロトコル)等のストリーミングプロトコルを用いて画像を送信してもよい。
干渉データ処理では、S531で、複合現実表示装置420は、管理サーバ410より干渉データを受信する。次に、S532で、複合現実表示装置420は、干渉箇所の隠れ状態を判別する。続いてS533で、複合現実表示装置420は、判別の結果、HMDの位置から直接見えないと判別した場合、振動命令を含む振動制御命令を情報端末440に対して送信する。
情報端末440の情報処理をS541〜S555に示す。情報処理は画面共有処理と振動共有処理とからなる。S541で、情報端末440は、画面共有処理を開始する。S542で、情報端末440は、複合現実表示装置420からの合成画像を受信する。画像データが符号化されている場合、情報端末440は、復号処理を行う。続いてS543で、情報端末440は、表示画面を生成し、情報端末440のディスプレイに表示する。解像度の変換が必要な場合も、情報端末440は、S543で解像度の変換を実施する。続いて、S544で、情報端末440は、共有処理の停止メッセージの有無を判断し、共有停止メッセージがあった場合(S544においてYes)、S545に進む。情報端末440は、共有停止メッセージがなかった場合(S544においてNo)、S542に戻る。共有停止メッセージは、情報端末の利用者による情報端末のユーザーインターフェース操作に起因し、画面共有と振動共有との両方の停止要求を含む。S545で、情報端末440は、画面共有処理を停止する。
S551で、情報端末440は、振動共有処理を開始する。S552で、情報端末440は、複合現実表示処理装置520からの振動制御命令を受信する。振動制御命令に振動命令が含まれている場合、S553で、情報端末440は、振動デバイス445を制御し、振動を発生させる。続いてS554で、情報端末440は、共有処理の停止メッセージの有無を判断し、共有停止メッセージがあった場合(S554においてYes)、S555に進む。情報端末440は、共有停止メッセージがなかった場合(S554においてNo)、S552に戻る。この共有処理の停止メッセージは画面共有停止処理と兼用が可能である。S555で、情報端末440は、振動共有処理を停止する。
以上説明したように、本実施形態によれば、HMDの利用者の複合現実感体験映像を、タブレット端末等の情報端末で共有する複合現実システムにおいて、仮想物体と現実物体との干渉や接触の様子を共有できる。その結果、より現実感を伴う複合現実システムを構築できる。
(変形例1)
本実施形態では、干渉させる物体として実物の工具を例に挙げたが、実物に限定されるものではなく、模型も利用可能である。また、位置姿勢が計測できればよいので、例えば、HMDの利用者の手や腕等でもよい。手の計測方法としては、複合現実表示装置420は、HMDの左右両眼の対応点を探索して、奥行き画像を作成し、これを手のモデルに適用することによって、手の三次元位置姿勢を求める手法を利用することができる。
(変形例2)
本実施形態では、隠れが生じた場合の干渉出力の例としてタブレット端末の振動を挙げたが、他の出力方法であってもよい。例えば、複合現実システムは、タブレット端末の画面上の干渉箇所等に「干渉中」とアイコン表示するようにしてもよいし、タブレット端末の画面を上下に振動させてもよい。又は、複合現実システムは、タブレット端末で干渉が生じた旨の警告音等を出力するようにしてもよい。
(変形例3)
本実施形態では、管理サーバの機能と複合現実表示装置の機能とを一体化するようにしてもよい。
<実施形態2>
実施形態2では、2名のHMDの利用者が複合現実を体験する例を用いて説明する。実施形態2の複合現実システムでは、第1の利用者が持つツール(工具)と仮想物体との間に干渉が生じた場合に、第2の利用者の持つ振動デバイスを振動させる。これにより、第1の利用者の干渉状態が、第2の利用者にも直感的に伝えることができる。以下、第1の実施形態と異なる部分を中心に説明する。
図7は、実施形態2の複合現実システムのより具体的な一例を示した図である。複合現実空間にはマーカー211、212が貼られており、位置合わせに利用される。仮想物体220を2名のHMDの利用者610、620が観察する。第1のHMDの利用者610は手に工具(ツール)611を持つ。仮想物体220、ツール611は第1のHMDの利用者610のHMDの投影面612に投影される。投影面612は第1のHMDの利用者610のHMDに装着されたカメラの位置・姿勢、画角、焦点距離等のパラメータによって決定される。同様に、仮想物体220、ツール611は第2のHMDの利用者620のHMDの投影面622にも投影される。投影面622は第2のHMDの利用者620のHMDに装着されたカメラによって決定される。第2の利用者は振動装置621を持つ。
実施形態2の複合現実システムでは、現実空間における第1のHMDの利用者のツール611と仮想物体220との干渉があったか否かを判定し、干渉があったと判定した場合、第2のHMDの利用者620に干渉があったことを通知する。このことにより、第2のHMDの利用者620にも仮想物体220と現実物体との干渉状態を、臨場感を伴って知ることができるようにすることができる。
図8は、HMD映像の一例を示す図である。図8において、第1のHMDの利用者の画面710には、仮想物体220が711のように投影され、ツール611が接触している様子が712のように見える。第2のHMDの利用者の画面720にも、仮想物体220が721のように投影され、ツール611が722のように視界に入っている。このように、第2のHMDの利用者620も、接触箇所をHMDの画面で確認することができる。ここで、干渉状態を複数の利用者間で共有する方法として、仮想物体の色や線の太さ等のCG部品の属性変更を用いた強調表示による方法や、振動装置621を振動させる方法がある。
振動装置621を振動させる方法では、複合現実システムは、ツール611が仮想物体220と接触・干渉したと判定すると、ツール内の振動デバイスが振動して干渉を利用者610に通知する。このとき、複合現実システムは、干渉領域(干渉した箇所)が、第2のHMDの利用者620の視野内に存在する場合には、振動装置621を連携して振動させる。
図9は、実施形態2に係る複合現実システムを構成する各装置のソフトウェア構成等の一例を示す図である。管理サーバ410は、第1の実施形態と同一の構成であるため説明を省略する。また、第1の複合現実表示装置420、第2の複合現実表示装置830は、映像送信部427が無い他は、第1の実施形態の複合現実表示装置と同一の構成である。但し、図9では説明の簡略化のため第1の複合現実表示装置420、第2の複合現実表示装置830共に、説明上必要な構成のみを図示している。
振動装置850は、ハードウェア構成として、振動デバイス853を含む。また、振動装置850は、ソフトウェア構成として、振動制御命令受信部851、制御部852を含む。
振動装置850は、Bluetooth等の近距離無線通信によって第2の複合現実表示装置830と接続されている。振動制御命令受信部851は、振動制御命令を第2の複合現実表示装置830より受信する。制御部852は、振動制御命令に応じて、振動デバイス853を制御して、振動を発生させる。
図10は、実施形態2の複合現実システムにおける情報処理の一例を示すフローチャートである。S911〜S915の処理は、実施形態1のS511〜S515の処理と同様である。S921〜S926の処理は、実施形態1のS521〜S526の処理と同様である。また、S930の処理は、実施形態1のS530の処理と同様である。S921〜S926の処理、S930の処理は、第1の複合現実表示装置420、第2の複合現実表示装置830各々で行われる。
S931で、第2の複合現実表示装置830は、管理サーバ410より干渉データを受信する。次に、S932で、第2の複合現実表示装置830は、干渉箇所が第2の複合現実表示装置830のカメラの視野内にあるかどうかを判別する。S933で、第2の複合現実表示装置830は、視野内にあると判別した場合、振動命令を含む振動制御命令を振動装置621に送信する。S951〜S955の処理は、実施形態1のS551〜S555の処理と同様である。但し、S951〜S955の処理は、振動装置621が処理の主体となる。また、S955で、振動装置621は、振動装置621のボタン押下を検知すると、振動共有処理を停止する。
以上述べた処理によれば、複数名で仮想現実空間を体験するケースにおいて、第1のHMDの利用者の干渉判定結果を、第2のHMDの利用者もより現実感を伴って共有できる。
(変形例4)
HMDの利用者の映像を大画面ディスプレイに表示し、多人数でこれを視聴する方式による複合現実感の共有も可能である。この場合、図7に示すような振動装置621を各自が手に持つ。即ち、複合現実表示装置で表示されている複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を表示装置に表示し、複合映像を複数の利用者で共有するシステムである。このシステムでは、管理サーバが、現実空間における複合現実表示装置の利用者のオブジェクトと仮想物体との干渉があったか否かを判定する。そして、複合現実表示処理装置がオブジェクトと仮想物体との干渉があったと判定された場合、複数の利用者の振動装置を振動させることで干渉があったことを通知する。
また、複合現実表示処理装置は、オブジェクトと仮想物体との干渉があったと判定した場合、オブジェクトと仮想物体との干渉の箇所が利用者の視野内か否かを判別するようにしてもよい。そして、複合現実表示処理装置は、干渉の箇所が視野内でないと判別された場合、複数の利用者の振動装置を振動させるようにしてもよい。また、複合現実表示処理装置は、干渉の箇所が視野内であると判別した場合、複合映像の内、干渉の箇所を強調表示し、大画面ディスプレイ等の表示装置に表示するようにしてもよい。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、上述した複合現実システムのソフトウェア構成の一部又は全てをハードウェアとして複合現実システムに実装してもよい。また、上述したハードウェア構成は一例であって、複合現実システムを構成する装置は、複数のCPUやメモリ、通信I/F等を有していてもよい。
また、上述した実施形態、変形例を任意に組み合わせて実施してもよい。
以上、上述した各実施形態によれば、仮想物体と現実物体との干渉状態を、臨場感を伴って共有できるようにすることができる。
11 CPU
12 メモリ
13 通信I/F
410 管理サーバ
420 複合現実表示装置
440 情報端末

Claims (20)

  1. 複合現実表示装置で表示されている前記複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を前記複合現実表示装置と情報端末とで共有するシステムであって、
    前記現実空間における前記複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉があったか否かを判定する判定手段と、
    前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記情報端末の利用者に前記干渉があったことを通知する通知手段と、
    を有するシステム。
  2. 前記通知手段は、前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記情報端末を振動させることで前記情報端末の利用者に前記干渉があったことを通知する請求項1記載のシステム。
  3. 前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記オブジェクトと前記仮想物体との干渉の箇所が前記視野内か否かを判別する判別手段を更に有し、
    前記通知手段は、前記判別手段により前記干渉の箇所が前記視野内でないと判別された場合、前記情報端末の利用者に前記干渉があったことを通知する請求項1又は2記載のシステム。
  4. 前記判別手段により前記干渉の箇所が前記視野内であると判別された場合、前記複合映像の内、前記干渉の箇所を強調表示する強調表示手段を更に有する請求項3記載のシステム。
  5. 複合現実表示装置で表示されている前記複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を表示装置に表示し、前記複合映像を複数の利用者で共有するシステムであって、
    前記現実空間における前記複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉があったか否かを判定する判定手段と、
    前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記複数の利用者の振動デバイスを振動させることで前記干渉があったことを通知する通知手段と、
    を有するシステム。
  6. 前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記オブジェクトと前記仮想物体との干渉の箇所が前記視野内か否かを判別する判別手段を更に有し、
    前記通知手段は、前記判別手段により前記干渉の箇所が前記視野内でないと判別された場合、前記複数の利用者の振動デバイスを振動させることで前記干渉があったことを通知する請求項5記載のシステム。
  7. 前記判別手段により前記干渉の箇所が前記視野内であると判別された場合、前記複合映像の内、前記干渉の箇所を強調表示する強調表示手段を更に有する請求項6記載のシステム。
  8. 第1の複合現実表示装置で表示されている前記第1の複合現実表示装置の利用者の視野内の現実空間における前記第1の複合現実表示装置の利用者のオブジェクトと仮想物体との干渉があったか否かを判定する判定手段と、
    前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、第2の複合現実表示装置の利用者に前記干渉があったことを通知する通知手段と、
    を有するシステム。
  9. 前記通知手段は、前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記第2の複合現実表示装置の利用者の振動デバイスを振動させることで前記第2の複合現実表示装置の利用者に前記干渉があったことを通知する請求項8記載のシステム。
  10. 前記判定手段により前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記オブジェクトと前記仮想物体との干渉の箇所が前記第2の複合現実表示装置の利用者の視野内か否かを判別する判別手段を更に有し、
    前記通知手段は、前記判別手段により前記干渉の箇所が前記視野内であると判別された場合、前記第2の複合現実表示装置の利用者に前記干渉があったことを通知する請求項8又は9記載のシステム。
  11. 複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を表示する表示手段と、
    前記複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉の箇所が前記視野内か否かを判別する判別手段と、
    前記判別手段により前記干渉の箇所が前記視野内でないと判別された場合、前記複合映像を共有する情報端末の利用者に前記干渉があったことを通知する通知手段と、
    を有する複合現実表示装置。
  12. 前記通知手段は、前記判別手段により前記干渉の箇所が前記視野内でないと判別された場合、前記情報端末に振動制御命令を送信することで前記情報端末の利用者に前記干渉があったことを通知する請求項11記載の複合現実表示装置。
  13. 複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を表示する表示手段と、
    他の複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉の箇所が前記視野内か否かを判別する判別手段と、
    前記判別手段により前記干渉の箇所が前記視野内であると判別された場合、前記複合現実表示装置の利用者に前記干渉があったことを通知する通知手段と、
    を有する複合現実表示装置。
  14. 前記通知手段は、前記判別手段により前記干渉の箇所が前記視野内であると判別された場合、前記複合現実表示装置の利用者の振動デバイスに振動制御命令を送信することで前記複合現実表示装置の利用者に前記干渉があったことを通知する請求項13記載の複合現実表示装置。
  15. 複合現実表示装置で表示されている前記複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を前記複合現実表示装置と情報端末とで共有するシステムが実行する情報処理方法であって、
    前記現実空間における前記複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉があったか否かを判定する判定ステップと、
    前記判定ステップにより前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記情報端末の利用者に前記干渉があったことを通知する通知ステップと、
    を含む情報処理方法。
  16. 複合現実表示装置で表示されている前記複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を表示装置に表示し、前記複合映像を複数の利用者で共有するシステムが実行する情報処理方法であって、
    前記現実空間における前記複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉があったか否かを判定する判定ステップと、
    前記判定ステップにより前記オブジェクトと前記仮想物体との干渉があったと判定された場合、前記複数の利用者の振動デバイスを振動させることで前記干渉があったことを通知する通知ステップと、
    を含む情報処理方法。
  17. システムが実行する情報処理方法であって、
    第1の複合現実表示装置で表示されている前記第1の複合現実表示装置の利用者の視野内の現実空間における前記第1の複合現実表示装置の利用者のオブジェクトと仮想物体との干渉があったか否かを判定する判定ステップと、
    前記判定ステップにより前記オブジェクトと前記仮想物体との干渉があったと判定された場合、第2の複合現実表示装置の利用者に前記干渉があったことを通知する通知ステップと、
    を含む情報処理方法。
  18. 複合現実表示装置が実行する情報処理方法であって、
    複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を表示する表示ステップと、
    前記複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉の箇所が前記視野内か否かを判別する判別ステップと、
    前記判別ステップにより前記干渉の箇所が前記視野内でないと判別された場合、前記複合映像を共有する情報端末の利用者に前記干渉があったことを通知する通知ステップと、
    を含む情報処理方法。
  19. 複合現実表示装置の利用者の視野内の現実空間と仮想物体との複合映像を表示する表示ステップと、
    他の複合現実表示装置の利用者のオブジェクトと前記仮想物体との干渉の箇所が前記視野内か否かを判別する判別ステップと、
    前記判別ステップにより前記干渉の箇所が前記視野内であると判別された場合、前記複合現実表示装置の利用者に前記干渉があったことを通知する通知ステップと、
    を含む情報処理方法。
  20. コンピュータを、請求項11乃至14何れか1項記載の複合現実表示装置の各手段として機能させるためのプログラム。
JP2015126862A 2015-06-24 2015-06-24 システム、複合現実表示装置、情報処理方法及びプログラム Pending JP2017010387A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015126862A JP2017010387A (ja) 2015-06-24 2015-06-24 システム、複合現実表示装置、情報処理方法及びプログラム
US15/184,808 US20160379591A1 (en) 2015-06-24 2016-06-16 Information processing apparatus, control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015126862A JP2017010387A (ja) 2015-06-24 2015-06-24 システム、複合現実表示装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2017010387A true JP2017010387A (ja) 2017-01-12

Family

ID=57601262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015126862A Pending JP2017010387A (ja) 2015-06-24 2015-06-24 システム、複合現実表示装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US20160379591A1 (ja)
JP (1) JP2017010387A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216803A1 (ja) * 2017-05-25 2018-11-29 三菱電機株式会社 デザインレビュー装置、デザインレビュー方法、およびプログラム
JP2020187778A (ja) * 2020-07-15 2020-11-19 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2021535526A (ja) * 2018-09-04 2021-12-16 アップル インコーポレイテッドApple Inc. 模擬現実(sr)におけるデバイス共有及び対話性の表示
JP7606576B2 (ja) 2019-08-12 2024-12-25 マジック リープ, インコーポレイテッド 仮想現実および拡張現実のためのシステムおよび方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6586824B2 (ja) * 2015-08-27 2019-10-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10957102B2 (en) * 2017-01-16 2021-03-23 Ncr Corporation Virtual reality maintenance and repair
JP6538760B2 (ja) * 2017-06-22 2019-07-03 ファナック株式会社 複合現実シミュレーション装置及び複合現実シミュレーションプログラム
US10664988B2 (en) * 2018-06-28 2020-05-26 Intel Corporation Methods and apparatus to avoid collisions in shared physical spaces using universal mapping of virtual environments
US10964118B2 (en) * 2020-04-22 2021-03-30 Particle Ink, LLC Augmented unification of real and object recognized attributes
EP4383701A4 (en) * 2022-01-12 2025-02-12 Samsung Electronics Co., Ltd. Server and control method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP2006301924A (ja) * 2005-04-20 2006-11-02 Canon Inc 画像処理方法および画像処理装置
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
JP2008219772A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体映像表示システム
JP2009069918A (ja) * 2007-09-10 2009-04-02 Canon Inc 情報処理装置、情報処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104679247B (zh) * 2009-07-22 2018-07-24 意美森公司 用于在输入控制手势以及关于虚拟设备的控制期间提供复杂触觉激励的系统和方法
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
EP3974041B1 (en) * 2011-10-28 2024-07-10 Magic Leap, Inc. System and method for augmented and virtual reality
AU2014204252B2 (en) * 2013-01-03 2017-12-14 Meta View, Inc. Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US9791919B2 (en) * 2014-10-19 2017-10-17 Philip Lyren Electronic device displays an image of an obstructed target
US9633622B2 (en) * 2014-12-18 2017-04-25 Intel Corporation Multi-user sensor-based interactions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP2006301924A (ja) * 2005-04-20 2006-11-02 Canon Inc 画像処理方法および画像処理装置
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
JP2008219772A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体映像表示システム
JP2009069918A (ja) * 2007-09-10 2009-04-02 Canon Inc 情報処理装置、情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
遠藤 裕之: "手と物体の位置関係を基に把持姿勢を提示する遠隔MR協調作業", 情報処理学会 研究報告 セキュリティ心理学とトラスト(SPT), vol. Vol.2013-GN-88 No.3 Vol.2013-SPT-5 No.3, JPN6019024007, 9 May 2013 (2013-05-09), JP, pages 1 - 8, ISSN: 0004063348 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216803A1 (ja) * 2017-05-25 2018-11-29 三菱電機株式会社 デザインレビュー装置、デザインレビュー方法、およびプログラム
JPWO2018216803A1 (ja) * 2017-05-25 2019-11-07 三菱電機株式会社 デザインレビュー装置、デザインレビュー方法、およびプログラム
JP2021535526A (ja) * 2018-09-04 2021-12-16 アップル インコーポレイテッドApple Inc. 模擬現実(sr)におけるデバイス共有及び対話性の表示
JP7081052B2 (ja) 2018-09-04 2022-06-06 アップル インコーポレイテッド 模擬現実(sr)におけるデバイス共有及び対話性の表示
JP7606576B2 (ja) 2019-08-12 2024-12-25 マジック リープ, インコーポレイテッド 仮想現実および拡張現実のためのシステムおよび方法
JP2020187778A (ja) * 2020-07-15 2020-11-19 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム

Also Published As

Publication number Publication date
US20160379591A1 (en) 2016-12-29

Similar Documents

Publication Publication Date Title
JP2017010387A (ja) システム、複合現実表示装置、情報処理方法及びプログラム
KR102218516B1 (ko) 2d/3d 혼합 콘텐츠의 검출 및 디스플레이
JP6585929B2 (ja) システム、システムの制御方法
EP3133470B1 (en) Electronic system, portable display device and guiding device
JP5843340B2 (ja) 3次元環境共有システム及び3次元環境共有方法
US20130169682A1 (en) Touch and social cues as inputs into a computer
JP2022550503A (ja) 人工現実デバイス間の時間同期
WO2016120806A1 (en) Method and system for providing virtual display of a physical environment
JP2015095802A (ja) 表示制御装置、表示制御方法、およびプログラム
JP2015135573A (ja) 情報処理装置および情報処理方法
JP6725827B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017120650A (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP6632322B2 (ja) 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム
JP6726016B2 (ja) 情報処理装置、情報処理方法
JP6534972B2 (ja) 映像表示装置、映像表示方法及び映像表示プログラム
JP2019032713A (ja) 情報処理装置、情報処理方法及びプログラム
JP2005251118A (ja) 画像処理方法、画像処理装置
CN107133028B (zh) 一种信息处理方法及电子设备
JP2010282497A (ja) 異世界状態反映装置
JP2021131490A (ja) 情報処理装置、情報処理方法、プログラム
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6941715B2 (ja) 表示装置、表示プログラム、表示方法及び表示システム
US12266056B2 (en) Electronic device and method for displaying modification of virtual object and method thereof
JP2019040357A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2019040356A (ja) 画像処理装置、画像処理方法、コンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191224