JP2022520140A - 移動オブジェクトのリバース光学的追跡のためのシステム及び方法 - Google Patents
移動オブジェクトのリバース光学的追跡のためのシステム及び方法 Download PDFInfo
- Publication number
- JP2022520140A JP2022520140A JP2021523061A JP2021523061A JP2022520140A JP 2022520140 A JP2022520140 A JP 2022520140A JP 2021523061 A JP2021523061 A JP 2021523061A JP 2021523061 A JP2021523061 A JP 2021523061A JP 2022520140 A JP2022520140 A JP 2022520140A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- basic optical
- group
- marker
- basic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本発明は、移動オブジェクトを追跡するための方法及びシステムに関する。本発明は、仮想現実システムまたは拡張現実システム、インサイト物流システム(生産現場、倉庫、または店舗)、ロボットシステム、無人移動オブジェクトの制御システム、及び他の種類の産業システム、科学システム、トレーニングシステム等で使用され得る。追跡する方法は、基本的な光学的パターンの固有の組み合わせの検出及び登録によって、追跡エリアを自動調整するステップと、基本的な光学的パターンの固有の組み合わせの検出と、基本的な光学的パターンの固有の組み合わせと追跡エリア調整中に登録された基本的な光学的パターンの固有の組み合わせとの比較によって、移動オブジェクトの位置及び/または配向の変化を追跡するステップとを含む。移動オブジェクトを追跡するためのシステムは移動オブジェクトに位置する少なくとも1つのトラッカーを備え、トラッカーは、光学センサ、光学センサから取得されたイメージにおける基本的な光学的パターンを形成するアクティブマーカーを含む少なくとも1つのマーカーストリップ、及び中央処理ユニットを含む。【選択図】図1
Description
本発明は、移動オブジェクトを追跡するための方法及びシステムに関する。本発明は、仮想現実システムまたは拡張現実システム、インサイト物流システム、ロボットシステム、無人移動オブジェクトの制御システム、及び他の種類の産業システム、科学システム、トレーニングシステム等で使用され得る。
移動オブジェクトを追跡することは、例えば、VR(仮想現実)システム、AR(拡張現実)システム、インサイト物流システム(例えば、生産現場、倉庫、または店舗の物流に関連するシステム)、ロボットシステム、無人移動オブジェクトの制御システム(例えば、車両に関連するシステム)等の多くの用途で使用される。以下の説明では、VR/ARシステムの追跡手段が主に検討される。しかしながら、主張された追跡概念は、上述のシステムの全てと実質的に同じである。
追跡システムの構成に基づいて、追跡概念は、アウトサイドイン追跡(単一のセンサまたは複数のセンサが追跡オブジェクトの外側の空間内に位置する一方、単一の基準点または複数の基準点(例えば、マーカー)は追跡オブジェクト上に位置する)と、インサイドアウト追跡(単一のセンサまたは複数のセンサが追跡オブジェクト上に位置する一方、単一の基準点または複数の基準点は追跡オブジェクトの外側の空間内に位置する)とに分類され得る。
センサ種類に基づいて、追跡概念は、光学的追跡(光学センサ(例えば、可視光線範囲または赤外線範囲で動作可能なカメラ)を使用する)と、慣性追跡(慣性センサ(例えば、ジャイロスコープ及び加速度計)を使用する)とに分類され得る。さらに、磁場センサ(すなわち、磁力計)、高度センサ(すなわち、高度計)、及びいくつかの他の種類のセンサは、また、追跡システムで使用され得る。
加えて、グローバルシステムまたはローカルシステム、衛星システムまたは地上波システムを含む集中型位置決めシステムを使用する追跡システムがある。さらに、同時位置決め地図作成(SLAM)アプローチに基づくシステムを含む、マーカーフリー追跡システムがある。
ゲーム、娯楽、及びトレーニングに関するVR/ARシステムで使用される追跡システムのほとんどは、追跡システムの組み合わせである。具体的には、光学的慣性追跡システムは広範囲に使用される。光学的慣性追跡システムは、光学センサ及び慣性センサの両方の適用の組み合わせに基づき、これらのセンサは相互に補完することと、それらの欠点を互いに打ち消し合うこととを可能にする。
追跡エリアの高速及び正確な決定は、インサイドアウト光学追跡システム及び光学的慣性追跡システムに重要であり、これらのシステムでは、ビデオカメラが移動オブジェクト上に位置され、光学的発光マーカーまたは光反射マーカー(光学的追跡のための基準点である)は、既定の方式で追跡エリア(場所または部屋)に固定して設置される。
追跡エリアを固定するとき(すなわち、既に決められているとき)、追跡システムは、追跡エリア及びそのロードパラメータの設定オプションの速い選択を提供する必要がある。追跡エリアが不定である場合(すなわち、追跡エリアの形状及びサイズを事前に知らないとき)、追跡システムは、追跡エリアの高速及び精密な調整を提供する必要がある。動作を開始する前に追跡システムの較正の必要性をなくすこと、または可能な限り自動較正を提供することを可能にすることがかなり好ましい。
米国特許出願公開第2008285854号明細書、米国特許出願公開第2013106833号明細書、米国特許出願公開第2017086941号明細書、国際公開第2014199196号、国際公開第2017050761号の公開特許出願文献では、追跡システムの分野の先行技術の一般的な見解が示されている。
独国特許出願公開第102015013551号明細書、欧州特許出願公開第1645241号明細書(米国特許出願公開第2006082789号明細書)、欧州特許出願公開第2339537号明細書、米国特許出願公開第2017168592号明細書の公開特許出願文献、及び米国特許第6787750号明細書では、追跡システムのアクティブIRマーカーを使用することが開示されている。また、米国特許第6787750号明細書では、追跡エリアの自動決定が開示されている。
米国特許出願公開第2011079703号明細書、米国特許出願公開第2017358139号明細書の公開特許出願文献では、移動オブジェクト上に搭載される光学センサ(カメラ)及び慣性センサ(ジャイロスコープまたは加速度計)を使用する追跡システムが開示されている。
欧州特許出願公開第2012170号明細書、米国特許出願公開第2004080548号明細書の公開特許出願文献では、移動オブジェクト上に搭載される光学センサ(カメラ)及び慣性センサ(ジャイロスコープまたは加速度計)を含む追跡システムでアクティブIRマーカーを使用することが開示されている。
国際公開第2007102857号、国際公開第2016102721号の公開特許出願文献では、移動オブジェクト上に搭載される光学センサ(カメラ)及び慣性センサ(ジャイロスコープまたは加速度計)を含む追跡システムでアクティブIRマーカーを使用することと、固定マーカーによって形成された光学的パターンの認識とが開示されている。
国際公開第2016187609号の公開特許出願文献では、固定マーカーによって形成された光学的パターンの認識が開示されている。国際公開第2013071981号の公開特許出願文献では、移動オブジェクト上に搭載される光学センサ(カメラ)及び慣性センサ(ジャイロスコープまたは加速度計)を含む追跡システムでアクティブIRマーカーを使用することと、固定マーカーによって形成された光学的パターンの認識とが開示されている。
非特許文献[1]では、4つの光反射マーカーによって形成された線状パターンと、平面パターンとの検出が開示されている。検出は2つのカメラによって行われる(アウトサイドイン追跡)。
非特許文献[2]では、4つの光反射マーカーによって形成された線状パターンと、平面パターンとの検出が開示されている。検出は複数のカメラによって行われる(アウトサイドイン追跡)。
非特許文献[3]では、汎用装着可能デバイスに基づいて、VRシステムの複素コントラスト平面マーカーを使用することが開示されている。
非特許文献[4]では、複数のカメラを使用して、光反射マーカーによって形成された様々なパターン(1点マーカーから多点3次元マーカーに及ぶ)の検出(アウトサイドイン追跡)が開示されている。
非特許文献[5]では、複数のカメラを使用して、ポイントクラウドによって、光反射IRマーカーの検出及び識別の方法(アウトサイドインポイントクラウドベース追跡方法)が開示されている。
非特許文献[6]では、パターンの検出が行われない複数のカメラを利用して、光反射IRマーカーの検出及び識別のためにカルマンフィルタを使用すること(アウトサイドイン追跡)が開示されている。
非特許文献[7]では、モーションキャプチャのための色光反射マーカーを使用し、それに続いて、3Dアニメーションの3Dモデルが形成されること(アウトサイドイン追跡)が開示されている。
非特許文献[8]では、インサイドアウト光学的追跡において複素コントラスト平面マーカーを使用することが開示されている。
非特許文献[9]では、1つのカメラを使用して天井に搭載される複数の発光ダイオードによって形成された線状パターンを使用すること(インサイドアウト追跡)が開示されている。追跡エリアをスケーリングできることが言及されている。
非特許文献[10]では、いずれかの種類の光学的追跡のために同軸にセットされているマーカーを有する平面パターンを使用することが開示されている。
非特許文献[11]では、いずれかの種類の光学的追跡のためにLEDマーカーの放出強度の時間変調を使用することが開示されている。
非特許文献[12]では、リアルでダイナミックな音場を提供するために、長方形面の光学的パターンを形成する4つの発光ダイオードが装備される無線ヘッドのユーザをアウトサイドイン追跡するためのWiiリモコンを使用することが開示されている。
非特許文献[9]の技術的解決策は請求項に係る発明に最も近い技術である。それは、エリアにわたって均等に天井に設置されたLEDストリップを使用する。係るストリップでは、循環マンチェスタ符号に変換されたドブラウン列に基づいて、一連の線状パターンが繰り返されている。
しかしながら、上記の特許文献及び非特許文献に従って、同じ種類の複数の光学マーカーを使用する追跡エリアの自動調整の問題に対する解決策がない。この追跡エリアは、ある場所でまたは部屋内の所定の方式に設置された固定式のIRマーカーによって形成され、ひいては、動作エリアを制限し、移動可能オブジェクトをインサイドアウト光学追跡または光学的慣性追跡が使用され、このとき、トラッカーが移動可能オブジェクトに搭載され、トラッカーは光学センサ及び(随意に)慣性センサを含む。この問題は、先行技術でさえも少しも定義されていないことに留意されたい。
現在、この機能を提供するであろう、また、ゲーム、娯楽、またはトレーニングの目的のための仮想現実システムまたは拡張現実システムで使用されるであろう、市販されているいずれかの追跡システムがない。また、請求された解決策の発明者は、係る機能を有するいずれかの追跡システムを認知していない。生産現場、倉庫、または店舗の物流システム、ロボットシステム、ヒト制御式移動オブジェクトまたは無人移動オブジェクトの制御システム等で使用されるであろう。
R.van Liere,J.D.Mulder,「Optical tracking using projective invariant marker pattern properties」,DOI:10.1109/VR.2003.1191138
Manuel Loaiza,Alberto Raposo,Marcelo Gattass,「A novel optical tracking algorithm for point-based projective invariant marker patterns」,ISVC 2007:Advances in Visual Computing,PartI,LNCS 4841,pp.160~169,2007.
Daniel Wagner,Dieter Schmalstieg,「ARToolKitPlus for pose tracking on mobile devices」,Computer Vision Winter Workshop,St.Lambrecht,Austria,February6~8,2007.
Thomas Pintaric,Hannes Kaufmann,「Affordable infrared-optical pose-tracking for virtual and augmented reality」,Proceedings of Trends and Issues in Tracking for Virtual Environments Workshop,2007.
Arjen van Rhijn,Jurriaan D.Mulder,「Optical tracking and calibration of tangible interaction devices」,IPT & EGVE Workshop,2005.
Klaus Dorfmuller-Ulhaas,「Robust optical user motion tracking using a Kalman filter」,Report 2003-06,Institut fur Informatik,Universitat Augsburg,Germany.
A.Kolahi,M.Hoviattalab,T.Rezaeian,M.Alizadeh,M.Bostan,H.Mokhtarzadeh,「Design of a marker-based human motion tracking system」,Biomedical Signal Processing and Control,2,2007,pp.59~67.
David Claus,Andrew W.Fitzgibbon,「Reliable automatic calibration of a marker-based position tracking system」,Proceedings of IEEE Workshop on Motion and Video Computing Motion,2005,Application of Computer Vision,2005.WACV/MOTIONS’05 Volume.
Steven Maesen,Patrik Goorts,Philippe Bekaert,「Scalable optical tracking for navigating large virtual environments using spatially encoded markers」,Proceedings of the 19th ACM Symposium on Virtual Reality Software and Technology VRST’13,pp.101~110.
Filippo Bergamasco,Andrea Albarelli,Emanuele Rodola,Andrea Torsello,「RUNE-Tag:a high accuracy fiducial marker with strong occlusion resilience」,DOI:10.1109/CVPR.2011.5995544.
Leonid Naimark,Eric Foxlin,「Encoded LED system for optical trackers」,DOI:10.1109/ISMAR.2005.28.
Yashar Deldjoo,Reza Ebrahimi Atani,「A low-cost infrared-optical head tracking solution for virtual 3D audio environment using the Nintendo Wii-remote」,Entertainment Computing,vol.12,2016,pp.9~27.
特に、VR/AR追跡システム用の移動オブジェクトを追跡するためのいずれかのシステムに関して、システムのスイッチオン、リブート、設定変更、または操作シナリオの変更の後に可能な限り高速に、システムをすぐに動作できるように準備させることが重要である。追跡エリアが固定されている(事前に定義されている)場合、追跡システムは、特定の追跡エリアの高速な配置選択及びそのパラメータの高速ローディングを提供することが要求される。追跡エリアが不定の場合(すなわち、追跡エリアの形及びサイズを事前に知らないとき)、追跡システムは、追跡エリアの高速及び精密な調整を提供することが要求される。追跡システムの較正を回避すること、または少なくとも、可能な限り自動較正手順を実施することを可能にすることがかなり好ましい。
本発明に従って、トラッカーが移動可能オブジェクトに搭載されるとき、またトラッカーが光学センサ及び(随意に)慣性センサを含むとき、移動オブジェクトを追跡するための方法及びシステムを使用して、インサイドアウト光学的追跡または光学的慣性追跡のための追跡エリアの自動調整の問題を解決する。
移動オブジェクトを追跡する方法は、
基本的な光学的パターンの固有の組み合わせを検出及び登録することを含む、追跡エリアを自動的に調整するステップと、 基本的な光学的パターンの固有の組み合わせの検出と、基本的な光学的パターンと追跡エリアの調整中に登録された基本的な光学的パターンの固有の組み合わせとの比較とを含む、移動オブジェクトの位置及び/または配向の変化を追跡するステップと、
を含む。
基本的な光学的パターンの固有の組み合わせを検出及び登録することを含む、追跡エリアを自動的に調整するステップと、 基本的な光学的パターンの固有の組み合わせの検出と、基本的な光学的パターンと追跡エリアの調整中に登録された基本的な光学的パターンの固有の組み合わせとの比較とを含む、移動オブジェクトの位置及び/または配向の変化を追跡するステップと、
を含む。
追跡エリアの調整は、
(S1)追跡エリアを定義するステップと、
(S2)追跡ウィンドウのサイズを決定し、追跡ウィンドウを最初の位置に設置するステップと、
(S3)追跡ウィンドウ内にマーカーによって形成された基本的な光学的パターンを定義するステップと、
(S4)「群」候補のIDを形成するステップと、
(S5)「群」候補のそれぞれの固有性を検証し、群に固有性がない場合、「群」候補のIDを分類するステップと、
(S6)「群」候補のIDを「群」テーブルに登録するステップと、
(S7)追跡ウィンドウを所定の角度だけ回転させるステップと、
(S8)回転させた追跡ウィンドウに対してステップS2~S6を行うステップと、
(S9)必要な回転数が達成されているかを検証し、必要であれば、ステップS7、S8を繰り返すステップと、
(S10)追跡ウィンドウを所定のピッチだけシフトさせるステップと、
(S11)シフトさせた追跡ウィンドウに対してステップS2~S9を行うステップと、
(S12)追跡エリアが全体的に対象に含まれるかを検証し、必要であれば、ステップS10,S11を繰り返すステップと、
(S13)「群」候補の非固有IDを「群」テーブルから削除するステップと、
を含み得る。
(S1)追跡エリアを定義するステップと、
(S2)追跡ウィンドウのサイズを決定し、追跡ウィンドウを最初の位置に設置するステップと、
(S3)追跡ウィンドウ内にマーカーによって形成された基本的な光学的パターンを定義するステップと、
(S4)「群」候補のIDを形成するステップと、
(S5)「群」候補のそれぞれの固有性を検証し、群に固有性がない場合、「群」候補のIDを分類するステップと、
(S6)「群」候補のIDを「群」テーブルに登録するステップと、
(S7)追跡ウィンドウを所定の角度だけ回転させるステップと、
(S8)回転させた追跡ウィンドウに対してステップS2~S6を行うステップと、
(S9)必要な回転数が達成されているかを検証し、必要であれば、ステップS7、S8を繰り返すステップと、
(S10)追跡ウィンドウを所定のピッチだけシフトさせるステップと、
(S11)シフトさせた追跡ウィンドウに対してステップS2~S9を行うステップと、
(S12)追跡エリアが全体的に対象に含まれるかを検証し、必要であれば、ステップS10,S11を繰り返すステップと、
(S13)「群」候補の非固有IDを「群」テーブルから削除するステップと、
を含み得る。
ステップS4、S5、S6、及びS13は、「群」候補のIDごとに、「群」候補のIDの子ごとに行われ得る。追跡エリアの投影はステップS2の前にセルに分割され得、ステップS2では、追跡ウィンドウのサイズは、セルの数で表記され得る。
移動オブジェクトの位置及び/または配向の追跡変化は、
(S21)イメージを移動オブジェクトに位置する光学センサから読み取り、イメージの前処理を行うステップと、
(S22)追跡ウィンドウ内にマーカーによって形成された基本的な光学的パターンを検出するステップと、
(S23)「群」IDを形成するステップと、
(S24)「群」テーブルを使用して、「群」の形成されたIDを識別するステップと、
(S25)ステップS24で識別された「群」に基づいて、移動オブジェクトの位置及び配向を決定するステップと、
を含み得る。
(S21)イメージを移動オブジェクトに位置する光学センサから読み取り、イメージの前処理を行うステップと、
(S22)追跡ウィンドウ内にマーカーによって形成された基本的な光学的パターンを検出するステップと、
(S23)「群」IDを形成するステップと、
(S24)「群」テーブルを使用して、「群」の形成されたIDを識別するステップと、
(S25)ステップS24で識別された「群」に基づいて、移動オブジェクトの位置及び配向を決定するステップと、
を含み得る。
ステップS21は、
(S31)イメージを光学センサから読み取るステップと、
(S32)読み取られたイメージの幾何学的歪みを補償するステップと、
(S33)随意に、イメージを動作面に投影するステップと、
(S34)イメージを正規化するステップと、
(S35)追跡ウィンドウをイメージに割り当てるステップと、
を含み得る。
(S31)イメージを光学センサから読み取るステップと、
(S32)読み取られたイメージの幾何学的歪みを補償するステップと、
(S33)随意に、イメージを動作面に投影するステップと、
(S34)イメージを正規化するステップと、
(S35)追跡ウィンドウをイメージに割り当てるステップと、
を含み得る。
ステップS22は、
(S41)追跡ウィンドウ内で、マーカーに対応する3点を任意に選択するステップと、
(S42)選択された3点のうち2つの基準点を決定するステップと、
(S43)基準点に関して、基本的な光学的パターンに従って、第3の点の公称位置を決定するステップと、
(S44)第3の点の実際位置と、第3の点の公称位置とのずれ値δを決定するステップと、
(S45)ずれ値δを検証するステップと、ずれ値δが所定の閾値を超えない場合、(S46)基本的な光学的パターン候補のリストに3点の組み合わせをリスト化するステップと、ずれ値δが所定の閾値を超える場合、(S47)3点の組み合わせを破棄するステップと、
(S48)3点の全ての可能な組み合わせが処理されているかを検証し、必要であれば、ステップS41~S47を繰り返すステップと、
(S49)ずれ値δに基づいて、基本的な光学的パターン候補のリストをソーティングするステップと、
(S50)最小ずれ値δを有する基本的な光学的パターン候補を、基本的な光学的パターン候補のリストから選択するステップと、
(S51)使用されたいずれかの点が基本的な光学的パターン候補に存在するかを検証するステップと、使用された少なくとも1つの点が基本的な光学的パターン候補に存在する場合、(S52)基本的な光学的パターン候補を破棄するステップと、使用された点が基本的な光学的パターン候補に存在しない場合、(S53)基本的な光学的パターン候補が有効な基本的な光学的パターンのリストにリスト化され、リスト化された基本的な光学的パターンの全ての点が使用され分類されるステップと、
(S54)残りの基本的な光学的パターン候補に対してステップS50~S53を行うステップと、
を含み得る。
(S41)追跡ウィンドウ内で、マーカーに対応する3点を任意に選択するステップと、
(S42)選択された3点のうち2つの基準点を決定するステップと、
(S43)基準点に関して、基本的な光学的パターンに従って、第3の点の公称位置を決定するステップと、
(S44)第3の点の実際位置と、第3の点の公称位置とのずれ値δを決定するステップと、
(S45)ずれ値δを検証するステップと、ずれ値δが所定の閾値を超えない場合、(S46)基本的な光学的パターン候補のリストに3点の組み合わせをリスト化するステップと、ずれ値δが所定の閾値を超える場合、(S47)3点の組み合わせを破棄するステップと、
(S48)3点の全ての可能な組み合わせが処理されているかを検証し、必要であれば、ステップS41~S47を繰り返すステップと、
(S49)ずれ値δに基づいて、基本的な光学的パターン候補のリストをソーティングするステップと、
(S50)最小ずれ値δを有する基本的な光学的パターン候補を、基本的な光学的パターン候補のリストから選択するステップと、
(S51)使用されたいずれかの点が基本的な光学的パターン候補に存在するかを検証するステップと、使用された少なくとも1つの点が基本的な光学的パターン候補に存在する場合、(S52)基本的な光学的パターン候補を破棄するステップと、使用された点が基本的な光学的パターン候補に存在しない場合、(S53)基本的な光学的パターン候補が有効な基本的な光学的パターンのリストにリスト化され、リスト化された基本的な光学的パターンの全ての点が使用され分類されるステップと、
(S54)残りの基本的な光学的パターン候補に対してステップS50~S53を行うステップと、
を含み得る。
移動オブジェクトを追跡するためのシステムは、
移動オブジェクト(例えば、VR/ARシステムのユーザ)に位置する少なくとも1つのトラッカーであって、そのとき、トラッカーは光学センサを備える、少なくとも1つのトラッカーと、
光学センサから取得されたイメージに基本的な光学的パターンを形成するアクティブマーカーを含む少なくとも1つのマーカーストリップと、
上記に説明したように、移動オブジェクトを追跡する方法を部分的に行う中央データ処理ユニットと、
を備える。
移動オブジェクト(例えば、VR/ARシステムのユーザ)に位置する少なくとも1つのトラッカーであって、そのとき、トラッカーは光学センサを備える、少なくとも1つのトラッカーと、
光学センサから取得されたイメージに基本的な光学的パターンを形成するアクティブマーカーを含む少なくとも1つのマーカーストリップと、
上記に説明したように、移動オブジェクトを追跡する方法を部分的に行う中央データ処理ユニットと、
を備える。
光学センサはマトリクス光学センサであり得る。マーカーストリップの少なくとも一部は床または他の基部構造に位置し得る。マーカーストリップは、パズルフロアマットに統合され得る。マーカーストリップの少なくとも一部は、天井、壁、梁、支柱等に位置し得る、または追跡エリア内の床もしくは他の基部構造の上方にいずれかの他の方式で設置され得る。
アクティブマーカーは、赤外線発光マーカーであり得る。基本的な光学的パターンは、線状の基本的な光学的パターンまたは非線状の基本的な光学的パターンであり得る。上記に説明したように、移動オブジェクトを追跡する方法を部分的に行うローカルデータ処理デバイスを備え得る。
上記に説明したように、トラッカー及び中央データ処理デバイスは、追跡エリアの自動調整のステップ中に調整データと、移動オブジェクトを追跡する方法で追跡するステップ中にトラッカーの位置及び/または配向データとを伝送するように構成される無線データ伝送リンクによって接続され得る。
追跡システムは、上記の方法に従って、基本的な光学的パターンの固有の組み合わせを検出及び登録することによって、追跡エリアを自動的に調整するように構成され得る。追跡システムは、基本的な光学的パターンの固有の組み合わせの検出によって、基本的な光学的パターンと追跡エリアの調整中に登録された基本的な光学的パターンの固有の組み合わせとの比較によって、移動オブジェクトの位置及び/または配向の変化を追跡するように構成され得る。
本発明の追加の特性及び利点は、以下に続く説明に記載され、部分的に、説明から明らかになる、または、本発明の実践によって学習され得る。本発明の利点は、本明細書ならびに請求項及び添付図に具体的に指摘される構造によって実現及び達成される。
前述の概要及び以下の「発明を実施するための形態」の両方は例示的及び説明的であり、主張されるような本発明のさらなる説明を提供することを意図することを理解されたい。
添付図は、本発明のさらなる理解を提供するために含まれ、本明細書の一部に組み込まれ及び本明細書の一部を構成し、添付図は、本発明の実施形態を示し、「発明を実施するための形態」と一緒に、本発明の原理を説明する役割を果たす。
ここで、本発明の好ましい実施形態を詳細に参照し、本発明の例は添付図に示される。
VR/ARシステムの追跡エリアは変化を受け得、具体的には、追跡エリアの形状及びサイズは、VR/ARシステムの耐用期間中に、別のサイトまたは別の部屋へのその移送に起因して、ユーザ数の変化に起因して、または、VR/ARシステム(例えば、ゲームプレイ)のシナリオに従って変化し得る。追跡エリアの形状及びサイズの変化は、追跡システムの調整が必要である。モバイルVR/ARシステムでは、本システムが展開するときごとに、追跡システムの調整が必要である。本発明の追跡システムでは、追跡エリアの自動調整の問題を解決し、さらに、VR/ARシステムの動作のマルチユーザモードで追跡精度及び信頼性を改善する。
インサイドアウト光学的慣性追跡システムでは、追跡を提供するデバイス(トラッカー)は、トレースする移動可能オブジェクト上に設置される一方、トラッカーによってキャプチャされたイメージに特定の組み合わせ(光学的パターン)を形成する光源(アクティブマーカー)はVR/ARシステムの動作エリア内で固定して設置する。VR/ARシステムは1つ以上のトラッカーを含み得、各トラッカーは、他のトラッカーから独立して、対応する移動可能オブジェクト(またはその一部)の位置及び配向を決定することを可能にする。
図1はVR/ARシステム1の実施例を示し、VR/ARシステム1は、ヘルメットまたはARメガネの形態のヘッドマウントディスプレイ(HMD)5、HMD5に位置するトラッカー10、HMD5の上にまたはHMD5の中にも位置する中央データ処理デバイス(ホスト)6、トラッカー20、トラッカー30、及びアクティブマーカー40,41,42を含むマーカーストリップ4を含む。HMD5は、システム1によって生成された画像をユーザ7に提示することを提供し、トラッカー10,20,30から獲得された追跡データに基づいて、画像を生成する。ユーザに提示された画像は、仮想現実3D画像または拡張現実3D画像であり得る。トラッカー10,20,30によって生成された追跡データは、トラッカーの空間位置のデータ、ひいては、ユーザ7の対応する身体部分のデータ、トラッカーの配向及びその運動パラメータ(すなわち、方向、速度、及び加速度)のデータを含む。
トラッカー10は、光学センサ101及び1つ以上の慣性センサ102を含む。トラッカー10は、また、追跡データを処理するためのデータ処理デバイス103を含む。データ処理デバイス103は、全てのセンサの同期、光学センサ、1つ以上の慣性センサからのデータの獲得、イメージに見られるマーカーの情報を形成するための光学センサのデータの処理、及びトラッカーの位置ならびに配向の決定を提供する。また、トラッカー10は、電源104、通信デバイス105、メモリデバイス106、及びVR/ARシステム1の一部として動作するのに必要な他の部分を含む。トラッカー10は、調整データ及び追跡データを移送するために、WiFi、Bluetooth等の無線リンクを介して、中央データ処理デバイス6に接続される。
トラッカー20及びトラッカー30は、トラッカー10と同じであり得る、または、それらのトラッカーは、対応するユーザの身体部分の移動の異なる方式によって、いくつかの相違をもたらし得る。具体的には、ユーザの手のゲームコントローラに接続されるトラッカー20及び30は、ユーザの頭部に位置するトラッカー10よりも高速でピクピクする動きを追跡することが可能であり得る。しかしながら、追跡システムの主要動作概念は実質的に同じである。トラッカーの様々な実施態様は、以前に公開された特許出願文献であるPCT/IB2017/058068号及び米国特許出願公開第15844967号明細書に説明され、これらは同じ出願人によって所有され、これらの特許文献の両方は、全体として参照することによって本明細書に組み込まれる。本発明での使用に適切な光学センサの構成は、公開されている特許出願文献であるPCT/RU2014/001019号明細書及び米国特許出願公開第15540313号明細書に説明され、これらは同じ出願人によって所有され、これらの特許文献の両方は、全体として参照することによって本明細書に組み込まれる。
マーカーストリップ4(図3)は、電力供給をアクティブマーカー40,41,42に提供する可撓性導体を有する、ポリマー材料から作られた狭い可撓性ストリップの形態の基部を含む。基材は織布材料または不織布材料であり得る。基部及び導体の可撓性は、保管中及び輸送中にその巻かれた状態のコンパクトサイズのマーカーストリップを確実にする(図4)。しかしながら、この配列は、その十分な横剛性(その設置平面における)と、安定した光学的パターンを提供するために必要なマーカーの間の一定距離とを確実にする。導体は、約数ワットの電力消費の値における安全電圧の供給を提供するように、圧膜技術または薄膜技術に基づく、金属性、金属、酸化物、合成物であり得る。アクティブマーカー40,41,42は、所定の場所へのそれらの信頼性のある取り付け及び供給電圧の給電を提供するように、いずれかの適切な方法によって基部に付けられ得る。本発明の例示的な実施形態では、平坦なストリップ金属導体を使用して、アクティブマーカー40,41,42は、マーカーを基部上に高速及び容易に搭載することと、そこから分解することとを提供する磁石コネクタによって基部に付けられる一方、マーカーを分解する容易性は、ユーザが非意図的に物理的にマーカーに接触するとき、マーカーストリップ4を損傷から保護する。電力は、ケーブル44及び電気コネクタ43を介して、電源45からマーカー40,41,42に供給される。
本発明の例示的な実施形態では、アクティブマーカー40,41,42は発光IRマーカーである。本発明の他の実施形態では、アクティブマーカー40,41,42は、他の周波数範囲(例えば、可視光線範囲)で動作し得る。
電源45は、必須の安全なAC電圧またはDC電圧(例えば、5、6、12、24、36、または48V)を提供するいずれかの幹線に接続された電源または非直結式電源であり得る。例えば、モバイルデバイスを供給/充電するために多くの場合使用されるPowerBank等の5VDCもしくは12VDCバッテリ、またはメインバッテリが放電するときに車のエンジンの開始を容易にすることを意図するブースタ等の12.6VDCバッテリは、非直結式電源として使用され得る。システム1で複数のマーカーストリップ4を使用する場合、電力供給は、単一電源によって、集中方式で提供され得る。代替として、電力供給は、マーカーストリップ4のそれぞれが別個の電源によって給電されるとき、分散方式で提供され得る。具体的には、マーカーストリップ4が床内に内蔵されたとき、または部屋の壁もしくは天井に位置するとき、集中型電力供給は永久的な商業用VR/ARシステムに好ましくあり得る。分散型電力供給は、具体的には、屋外使用に適切であるモバイルのアマチュアなVR/ARシステムに好ましくあり得る。
ケーブル44及び電気コネクタ43は、いずれかの適切な種類であり得る。その種類を選ぶことは当業者にとって平凡なタスクであるため、この点を省略する。
マーカー40,41,42のそれぞれは、ほぼ半球状方向特性を有する赤外線LED発光体である。要求された方向特性は、例えば、フレネルレンズに基づいて、1つ以上のLEDチップの設置及び配向によって、ならびに光拡散器の使用によって確実になる。マーカーは、広範囲の供給電圧のLED発光体の動作能力を提供するドライバを含み得る。
所定のように位置するマーカー40,41,42の組み合わせは、基本的な光学的パターン(以下、簡略して「基本パターン」と呼ばれ得る)を形成し、マーカーの存在及び空間位置は、トラッカー10からデータフローで利用可能であるマーカーデータに基づいて、中央データ処理デバイス6によって検出される。アクティブマーカー(すなわち、発光マーカー)の使用は、インサイドアウト追跡の概念において好ましい。これは、パッシブ(光反射)マーカーの使用と比較していくつかの利点をもたらす。具体的には、アクティブマーカーを使用するとき、トラッカーのための追加の電力供給は、パッシブマーカーを照らすのに必要ではない。これは、トラッカーが移動可能オブジェクト上に設置されるときに特に重要である。利用可能である追跡エリアサイズは、マーカーの寸法及び輝度によって定義される。幹線から接続された電源(複数可)または非直結式電源(複数可)によってマーカーを給電することで、マーカーの発光電力を数倍増加することを可能にすることによって、追跡エリアサイズを拡大する一方、トラッカー自体の電力消費は変化しない。
基本パターンは、マーカーデータ処理アルゴリズムによって検出される線状パターンであり得る。線状パターンは、マーカーの間の距離の所定の比率によって特徴付けられる。具体的には、本発明の実施形態では、図3に示されるように、3つのマーカーは一直線に配置され、列40-41-42を形成し、マーカー40とマーカー41との間の距離は、マーカー41とマーカー42との間の距離の2倍である。光学的パターンの信頼性のある識別が本システムで維持される限り、距離比は異なり得る。
動作エリアはマーカーストリップ4の長さを増加させることによってスケーリングされ得る一方、距離比は維持され、マーカーの発光表面及びその輝度は十分に大きい、または十分に高い。これは、光学センサフレーム内のマーカーブロブの角度パラメータ及び光度パラメータを維持する限り、実質的に動作エリアを拡大することを可能にし、同時に、高いトレースパラメータを提供する。
基本パターンは、より多くのマーカー(例えば、4つ、5つ等のマーカー)を有する線状パターンであり得る。基本パターンは、また、非線状パターンであり得、すなわち、マーカーは一直線に配置され得ない。
動作エリアを増加させる上記の方法に加えて、マーカーストリップを加えることによって、動作エリアをほとんど無制限にスケーリングすることが可能になる。この場合、基本パターンの組み合わせは、個々のマーカーの組み合わせの代わりに、全体のトレースイメージに追加される。したがって、本システムは、フレームの所定の基本パターンの存在を検出し、次に、相互に対するパターンの配置を決定する。これは、追跡システムの調整中に定義される基本パターンのマップに基づいて動作エリア内の追跡システムによって、トラッカー位置の一義的決定を確実にするように、基本パターンの組み合わせを定義することを可能にする。このアプローチは、1つの部屋内に配置される単純形状の動作エリア、または複数の隣接部屋にわたって分配され得る複雑な形状の動作エリアのいずれかを配列するために使用され得る。
したがって、本発明の利点の1つは、新しいマーカーストリップを加えることによって、追跡エリアのスケーリングと、係るスケーリング後の追跡エリアの自動調整とを高速及び容易に行えることである。アウトサイドイン光学的追跡システムでは、マーカーは移動可能オブジェクト上に位置し、追加カメラは、通常、複雑及び高価な方法で追跡エリアを拡大するために使用されるはずである。本発明では、マーカーストリップのコストは安価であり、その設置の作業内容は無視できる。
スクリーンまたはゲームプレイに応じて、マーカーストリップは、建物の床、壁、または天井に配置され得る。また、マーカーストリップが壁及び天井、または床及び壁に配置されるとき、オプションの組み合わせは可能である。本発明の固定の実施形態では、マーカーは、床、壁、または天井に内蔵され得る。展示サンプル等の本発明の輸送可能な実施形態では、マーカーは展示設置セットの一部であるユニット式分解可能床に内蔵され得る。円柱、梁、カンチレバー、及び他の支持構造にマーカーストリップの設置オプションは、分解可能の構造及び移動可能な構造を含む。
代替として、本発明の固定の実施形態及び移動可能な実施形態の両方では、マーカーストリップは、動作位置にあるとき相互に係合する弾性ユニット式フロアマット(パズル式フロアマット、図3参照)を使用して配列され得、したがって、動作エリアを配列する幾何学的精度、その形状及び寸法の安定性を確実にし、ひいては、VR/ARシステム1の設定及び調整を容易にする。マーカーは、フロアマットの所定の点に搭載され得る。所定の点はマーカーを受ける対応する形状の開口であり得る一方、未使用の開口はフロアマット自体と同じ材料から作られたプラグで閉鎖され得る。集中型電源を使用するとき、供給線はフロアマットの下に配置され得る。電源ワイヤは平坦なストリップ形状であり得、その設計はフロアマットの動作面で不規則であるため、その外観が損なわれる。図3に示されるマーカーストリップ及びユニット式フロアマットの連係も可能である。
アマチュア的使用に関して、高速な設置及び容易な適用は重要要素であり、床ベースオプションは好ましくあり得、したがって、ユーザは、マーカーストリップを床に設置し、そのマーカーストリップをほぼ長方形状に配列し、そのマーカーストリップを1つ以上の電源に接続することが可能であるだろう(図6)。係るシステムの設置は、通常、数分以内に行われる。
商業用使用と同様に、具体的には、VRパークに関して、ユーザの手に届かない所にマーカーストリップを配置することは重要であり、従って、そのアクションは、較正中に定義されるように及び/またはシステム設定パラメータによって規定されるように、動作エリアの特性を変え得ない。さらに、商業用VR/ARシステムは、多くの場合、マルチユーザシステムであり、したがって、マーカーストリップの配置を選ぶとき、動作エリア内のそのマーカーの移動中に、ユーザによってマーカーが隠れる可能性を考慮することに好都合である。この場合、マーカーストリップを壁または天井(図7参照、天井は図示されない)に設置するオプションは好ましくあり得る。マーカーストリップが天井に配置される場合、動作エリアサイズは、マーカーストリップによって外形が描かれる幾何学的図形の寸法よりも実質的に大きくなり得ることに留意されたい。しかしながら、この場合、床に位置する少量の追加のマーカーは、マーカーストリップに対する床位置の決定に必要であり得る。代替として、追加の較正手順の使用は、例えば、較正中に1つ以上のトラッカーを床に位置付けることによって必要であり得る。
固定の光学的追跡エリアの定義中(すなわち、較正が必要ないとき)及び移動可能オブジェクトの追跡中の基本パターンを検出する原理は、例示の基礎としてVR/ARシステムを使用して下記に説明され、実施態様の変形の概説が説明される。
追跡エリアは空間エリアであり、空間エリアでは、移動可能オブジェクトの追跡が行われる。本発明に従って、VR/ARシステムでは、追跡された移動可能オブジェクトは、ユーザ、またはトラッカーを身に付けるユーザの身体部分(例えば、ユーザの頭、腕、または足)であり得る。追跡された移動可能オブジェクトは、また、ユーザによって保持される(例えば、ユーザの手によって把持される)ものであり得る。しかしながら、追跡された移動可能オブジェクトは、また、ロボットシステム、積み込み装置、またはインサイト物流システムの車両の端点等のいずれかの他の移動可能オブジェクトであり得る。
移動可能オブジェクトの追跡は、追跡エリア内で行われる。追跡エリアを自動的に定義するために、追跡エリアを動作面(通常、水平面)への投影は、様々な方式で作られ得る部分(すなわち、セル)に分割される。例えば、動作面は、床面または天井面であり得る。直角座標系を使用する場合、正方形のセルが好ましい。セルサイズは、VR/ARシステムの工学的実施態様(すなわち、追跡エリアの最小サイズ及び最大サイズ、追跡を維持する精度、マーカー種類、マーカーによって形成された基本パターンの種類及びサイズ等)に基づいて定義される。具体的には、既製のパズルフロアマット(図5)を使用する場合、セルサイズは、パズルピースサイズ(例えば、60×60cm)に等しくなり得る。この場合、(図3に示されるように)3つのマーカーを有する1.5メートルの長さのマーカーストリップは3つのセルの内部に位置する一方、マーカーは、基本パターンの配向(図8)に応じて、相互に対して平面に異なって位置付けられ得る。図8の基本パターンの配向は、暫定的に、マーカーストリップに矢印によって示される。マーカーストリップの長さは1.5メートルよりも長いまたは短い長さであり得、マーカーストリップはより多い数のセルまたはより少ない数のセルの内部に設置され得ることを理解されたい。例えば、基本パターンに対応するマーカーストリップは2つのセルの内部に設置され得るため、マーカー設置の密集度は増加し得る。
したがって、表面はセルに分割され、各セルはセル自体の座標を有する。セル座標は、例えば、デカルト座標または極座標を使用して、様々な方法で定義され得る。本発明の例示的な実施形態では、セルは所定の方式で番号付けされ、各セルの座標はその番号によって明確に定義される。セルの番号付けの例は図9に示される。係る座標格子の各基本パターンの位置は、基本パターンの中心を含むセルの番号によって及び基本パターンの方向によって定義される。暫定的な基本パターンの中心は、図10の円でマークされ、矢印は暫定的な基本パターン方向を示す。図10に示されるように、基本パターン方向は数字指示子(コード)を有し得る。四角形の追跡エリアの光学的パターンの場所の例は、図11に示される。追跡エリアは、四角形と異なる形状を有し得ることを理解されたい。
基本パターンは、まとめて、固有の組み合わせ(以下、「群」と呼ぶ)を形成する。VR/ARシステムでは、空間内のトラッカーの位置及び配向は、星空を使用する軍艦航海、空中航法、または地文航法等の「群」を使用して定義される。言い換えれば、追跡エリア内のトラッカーの光学センサから取得されたイメージの基本パターンの固有の組み合わせの検出に応じて、VR/ARシステムは、トラッカーの位置及び配向を明確に決定することが可能である。このような理由で、VR/ARシステムの追跡動作の開始前に、光学的追跡エリアを調整するステップにおける「群」の検出及び登録のタスクは重要である。
固有ではないそれらのパターンの組み合わせは、「群」の登録のアルゴリズムによって破棄される。固有の基本パターン及び非固有の基本パターンの組み合わせの例は、図12A及び図12Bに示される。図12Aのパターンの組み合わせは固有である一方、図12Bのパターンの組み合わせは固有ではなく、それは、中心対称であり、イメージの中心に対して180°だけそのイメージを回転させることで、最初のイメージと技術的に区別できない同一のイメージを生じさせるようになる。したがって、図12Bの基本パターンの組み合わせは、トラッカー及び関連の移動オブジェクトの位置及び配向を決定するために使用されない。
概して、追跡エリアのサイズは、トラッカーの対象エリアを越え得ることを理解されたい。これは、トラッカーが追跡エリアの一部のイメージを取得するが、追跡エリア全体を取得し得ないことを意味する。トラッカーの対象エリアは、瞬間毎のその位置及び配向によって決まる。以下に、トラッカー対象エリアは、追跡ウィンドウと呼ばれ得る。トラッカーの位置及び配向を決定するために、光学センサのデータに基づいて、追跡ウィンドウ内の少なくとも1つの「群」を有する必要がある。
「群」を登録するためのアルゴリズムのステップの順序は下記に説明され、そのアルゴリズムは、追跡エリアの調整中に行われ、具体的には、設定を切り替えた後に、設定をリブートもしくは変更した後に、または動作シナリオを変更した後に行われる。アルゴリズムは、追跡エリア内に見つけられる全ての「群」の登録を含むテーブルをもたらす。各登録は、「群」の識別子(ID)と、「群」を構成する基本パターンの識別子とを含む。本発明の例示的な実施形態では、「群」IDは「群」の各基本パターンの座標を含む。座標は、基本パターンの中心が位置するセルの番号と、回転コードによって表される基本パターンの方向とによって表される。基本パターンの識別子は、エリアレイアウトの構成中に、追跡エリアの構成ファイルに定義される連番によって表される。「群」ID構造は、上述の構造と異なり得ることを理解されたい。
追跡エリアの調整中に行われる「群」の検出及び登録アルゴリズムのブロック図は、図13A及び図13Bに示される。
ステップS1では、追跡システムの動作中に使用される追跡エリアを定義する。追跡エリアを定義することで、そのレイアウトを構成することによって、または追跡システムメモリから敏速に構成を読み取ることによって行われ得る。追跡エリアのレイアウト構成の概念は、以前に出願された特許出願PCT/IB2017/058068号及び米国特許出願公開第15844967号明細書に説明され、これらは同じ出願人によって所有され、全体として参照することによって本明細書に組み込まれる。
ステップS2では、追跡ウィンドウのサイズは、追跡エリアをセルに分割することを考慮して、光学センサの技術的特性(対象角度、解像度等)、追跡システムの処理速度、及び「群」の許容可能な最大の複雑性(すなわち、1つの「群」を構成する基本パターン許容可能な最大数)に基づいて選択される。
本発明の例示的な実施形態では、追跡ウィンドウは4×4のセルの四角形に等しい(追跡ウィンドウは図9の太線によって示される)。基本パターンの中心の場所の4×4=16バージョン(4ビットが必要)と、90°のピッチがある回転角の4バージョン(2ビットが必要)とを有することが可能である。「群」の最大の複雑性が8つの基本パターンに限定される場合、「群」IDの長さ=8×(4+2)=48ビットである。
本発明の例示的な実施形態の4×4のセルのサイズが、分かりやすくし良く理解するために選択されたことを理解されたい。実際の実施態様では、追跡ウィンドウサイズは、追跡エリアの物理サイズ、VR/ARシステムの目的、ユーザ数等によって決まる。例えば、追跡ウィンドウサイズは6×6セルまたは10×10セルであり得る。この場合、「群」IDの長さは同様に大きくなる。
具体的には、6×6セルの四角形になるように追跡ウィンドウサイズを選択する場合、基本パターンの中心の場所の6×6=36バージョン(6ビットが必要)と、90°のピッチがある回転角の4バージョン(2ビットが必要)とを有することが可能である。「群」の最大の複雑性が16個の基本パターンに限定される場合、「群」IDの長さ=16×(6+2)=128ビットである。
最大の「群」の複雑性を減少させ、追跡ウィンドウサイズを減らすことで、高速データ処理を可能にし、ひいては、ユーザのアクションに対するVR/ARシステムの全体的な応答遅延を減らす。しかしながら、最大の「群」の複雑性を増加させることで、特に、マーカーがマルチユーザVR/ARシステムのユーザによって遮断されるとき、追跡の信頼性を改善することを可能にする。したがって、追跡ウィンドウサイズの選択及び最大の「群」の複雑性はトレードオフプロセスであり、VR/ARシステムの全てのパラメータが考慮される。
さらに、追跡ウィンドウは最初の位置に設置される。本発明の例示的な実施形態では、最初の位置は追跡エリアの左下角部である。最初の位置はいずれかの他の適切な位置であり得ることを理解されたい。
ステップS3では、追跡ウィンドウ内に全体的に位置する全ての基本パターンを決定する。
ステップS4では、追跡ウィンドウ内に位置する基本パターンを含む「群」候補のIDを形成する。
(下記に詳細に説明される)追跡アルゴリズムの動作中、光学センサからのイメージが追跡ウィンドウ内に位置するすべての基本パターンを含まない状況が発生する可能性がある。これは、ユーザの手もしくはゲーム機によって、またはマルチユーザVR/ARシステムの他のユーザによって、マーカーを遮断することによって生じ得る(図14)。具体的には、4つの基本パターンが追跡ウィンドウ内に位置する場合、それらの3つまたは2つのパターンだけが、光学センサからイメージにおいて検出され得る。したがって、一般的にN個の基本パターンを含む「群」候補IDごとに、すべての子の「群」候補のIDはN-1,N-2,N-3,...個の基本パターンを含む子のそれぞれのいずれかを形成する。
固有の基本パターンの組み合わせだけが最後のテーブルの「群」に含まれることになる。基本パターンの組み合わせが固有ではない場合、トラッカーと、トラッカーに関連付けられる移動可能オブジェクトとの位置及び配向の決定において使用できない。
したがって、ステップS5では、「群」候補は、その固有性について検証する。テーブルに同一の「群」候補IDが含まれる場合、この「群」候補ID及び「群」候補IDの子は非固有として分類される。
いったん現在の追跡ウィンドウの「群」候補IDを形成すると、それは、ステップS6で「群」テーブルに登録される。
さらに、ステップS7では、追跡ウィンドウは所定の角度だけ回転し、ステップS8では、回転された追跡ウィンドウに対して、ステップS2~S6を繰り返す。様々な点から見える全ての「群」候補が固有であるかどうかを検証するために、回転が要求される。本発明の例示的な実施形態では、回転について、90°だけ反時計回りで回転する。時計回りに及び/または他の角度を利用して、回転が行われ得ることを理解されたい。ステップS9では、追跡エリアが回転前の位置に戻るまで、回転及びステップS7,S8を数回行う。具体的には、ステップS7,S8では、90°の回転を4回行う必要がある。
アルゴリズムのさらなる動作中、ステップS10では、追跡ウィンドウは、追跡エリア全体にわたってシフトされ、ステップS11では、追跡ウィンドウ内に全体的に位置する「群」候補のIDは、ステップS2~S9について説明したように、追跡ウィンドウの位置ごとに形成される。本発明の例示的な実施形態では、シフトは、2つのセルだけシフトする。シフトピッチは異なり得る、例えば、シフトピッチは1つのセルまたは3つのセルに等しくなり得ることを理解されたい。本発明のいくつかの実施形態では、シフトは、垂直方向及び水平方向に異なるピッチをもたらし得る。例えば、垂直シフトピッチは1つのセルに等しくなり得る一方、水平シフトピッチは2つのセルに等しくなり得、逆の場合も同様である。
さらに、ステップS12では、追跡エリア対象範囲は検証され、追跡エリア全体が上述のアルゴリズムの動作中に対象に含まれる場合、ステップS13では、全ての非固有の「群」候補IDは「群」テーブルから削除される。ここでは、「群」テーブルの形成を終了し、「群」登録アルゴリズムは停止する。
追跡システムが動作を開始する前の追跡エリアの自動調整の問題は上述のように解決される。トラッカーに物理的に関連付けられる移動可能オブジェクトは、自動調整の結果を使用して、追跡システムのさらなる動作中に追跡される。
移動可能オブジェクトを追跡するプロセスでは、追跡アルゴリズムを行い、追跡アルゴリズムのブロック図は図15に示される。
ステップS21では、イメージはトラッカーの光学センサから読み取られ、イメージの前処理を行う。図20を参照して下記に、前処理のアルゴリズムを詳細に説明する。
ステップS22では、光学センサからイメージ内に存在し、追跡ウィンドウ内に全体的に位置するすべての基本パターンを検出する。図21を参照して下記に、基本パターンを検出するアルゴリズムを詳細に説明する。
ステップS23では、「群」IDは、追跡ウィンドウ内で検出された「群」のために形成される。「群」IDのフォーマットは同一であり、そのフォーマットの方法は、「群」の登録アルゴリズムについて説明した方法と同様である。
ステップS24では、形成された「群」IDは、VR/ARシステムの追跡エリアの調整中に、「群」テーブルに登録された基本パターンの固有の組み合わせの対応するものに対して検証される。
ステップS25では、「群」テーブルから識別された「群」に基づいて、空間のトラッカーの位置及び配向を決定する。外側の基準点を使用するオブジェクトの位置及び配向の決定方法(具体的には、星図を使用するナビゲーションの方法)は、当業者によく知られているため、ここでは、その説明を簡略するために省略する。
さらに、新しいイメージを光学センサから受信すると、ステップS21~S25を繰り返す。
追跡システムは、少なくとも1つの「群」を検出して、トラッカーの位置及び配向を決定し、移動オブジェクトを追跡することを開始する必要があることに留意されたい。さらなる追跡プロセス中に、追跡システムが、光学センサから次のイメージの1つ以上の「群」を検出することが不可能であるとき(例えば、トラッカーに関連付けられるユーザによって、もしくはマルチユーザVR/ARシステムのいずれかの他のユーザによって、マーカーを遮断することに起因して、または、ある瞬間における追跡エリア内のユーザの不便な位置に起因して検出できないとき)、その追跡プロセスにより、追跡システムの機能不全を生じさせない。その理由として、本システムは、慣性追跡を使用して、すなわち、新しいイメージを光学センサから取得することと、光学的追跡を継続または再始動することとに十分な期間に慣性センサから取得されたデータに基づいて、トラッカーの位置及び配向の決定を維持することが可能である。
さらに、本発明のいくつかの実施形態では、「群」に基づくだけではなく、検出された個々の基本パターンにも基づいてまたはさらに個々のマーカーにも基づいて、光学的追跡の継続が可能である。例えば、本システムがしばらくの期間、慣性追跡だけによって、トラッカーの位置及び配向を決定することが可能であるとき、本システムは、追跡エリアの設定情報に基づいて、個々のマーカーの公称位置(すなわち、マーカーが見つけられ得る可能性が最も高い空間内の点またはエリア)を決定することが可能であり得る。この場合、個々のマーカーだけを検出することと、その実際位置をその公称位置と比較することとによって、追跡は継続し得る。明らかに、この種類の追跡の信頼性はより少なくなり得る。しかしながら、しばらくの期間の使用により、全ての「群」を含むイメージを光学センサから獲得するのに十分であり、かなり利点をもたらし得る。
本発明の追跡システムのこれらの特性は、追跡の精度及び信頼性を増加させることを可能にし、動作のマルチユーザモードを含む。
本発明の例示的な実施形態では、データを光学センサから獲得する速度は約60フレーム/秒であり、データを慣性センサから獲得する速度は約2000サンプル/秒である。本発明の他の実施形態では、データを光学センサから獲得する速度は、最大で約400フレーム/秒まで増加し得る。説明した問題を解決するための光学的追跡手段及び慣性追跡手段の技術的解決策及びそれらの相互作用の方法は、以前に出願された特許出願PCT/IB2017/058068号及び米国特許出願公開第15844967号明細書に説明され、両方の特許文献は同じ出願人によって所有され、これらの両方は、全体として参照することによって本明細書に組み込まれる。
さらに、図20のブロック図を参照して、イメージを読み取る及び前処理するアルゴリズムを説明する。
S31では、イメージを光学センサから読み取ることを行う。光学センサから取得されたイメージの例は、図16に示される。同じ基本パターンの発光体を接続する線は、暫定的に、破線によって示される。
ステップS32では、幾何学的歪みの補正を行う。歪みは、トラッカーの光学センサの光及び寸法のずれによって生じる。幾何学的歪みの補正後のイメージの例は、図17に示される。
ステップS33では、補正後のイメージは動作面上に投影される。この投影は、トラッカーの座標系の各マーカー(すなわち、幾何学的光線)に向かう方向に基づいて行われ、そのデータは検出されたマーカーを含み、その投影は、既知の「上向き」方向に基づいて、1つ以上の慣性センサのデータを使用して決定される。この方向は、極座標を使用して決定され得る。あるマーカーに向かう光線を決定する方法は、以前に出願された特許出願PCT/IB2017/058068号及び米国特許出願公開第15844967号明細書に説明され、両方の特許文献は同じ出願人によって所有され、これらの両方は、全体として参照することによって本明細書に組み込まれる。本発明のいくつかの実施形態では、具体的には、マーカーが既に動作面上に位置する場合(例えば、その平面が動作面と見なされる床に位置する場合)、動作面上へのイメージの投影はスキップし得る。
本発明の例示的な実施形態では、「上向き」方向は、加速度計データに基づいて決定される。別の慣性センサデータ(例えば、ジャイロスコープ)のデータに基づいて、方向を決定し得ることを理解されたい。また、同質または異質の慣性センサ(例えば、加速度計及びジャイロスコープ)のグループのデータに基づいて、方向を決定し得る。慣性センサデータによって必要な方向の決定方法は、当業者によく知られているため、その説明を簡略するために省略する。さらに、他のセンサ(例えば、電場のセンサまたは磁場のセンサ)のデータに基づいて、「上向き」方向を決定し得る。
平面に投影されたイメージは、「上向き」方向が垂線(すなわち、垂直)になる平面上(すなわち、水平面上)に光学センサから取得されたイメージの投影である。本発明の例示的な実施形態では、水平面は、VR/ARシステムが配置される部屋の床面である。マーカーストリップが床に位置する場合、この解決策は最適である。マーカーストリップが天井に位置する場合、水平面は追跡エリア内にある別の平面(例えば、天井面)であり得ることを理解されたい。平行面上に投影されるイメージは、数学的類似性がある方式に関連し、その情報価値は実質的に同じである。
ステップS34では、イメージを正規化し、すなわち、グリッドは、上記に説明したように、セルへの追跡エリアの分割に対応するイメージに重ね合わせられ、それにより、基本的な線状パターンのそれぞれの方向がグリッド軸の1つに実質的に平行になる。基本的な線状パターンのそれぞれの中心はセルの中心に実質的に設置されるように、イメージはまた並進する。正規化された追跡ウィンドウイメージの例は図18に示される。グリッドに対する基本パターンの場所は図19に示される。そのように画像を処理する方法は当業者によく知られているため、その説明を簡略するために省略する。
ステップS35では、追跡ウィンドウはイメージ内に割り当てられ、そのサイズ及び位置は、追跡エリアの調整中に行われたアルゴリズムのステップS1について説明したものと同じである。
さらに、図21のブロック図を参照して、基本的な光学的パターンの検出のアルゴリズムを説明する。
ステップS41では、マーカーに推定上対応する3点は、追跡ウィンドウ内で任意に選択される。
ステップS42では、選択された3点のうち2つの基準点を決定する。基準点は、例えば、最遠位点であり得る。別の例では、基準点は最近位点であり得る。
ステップS43では、基準点に関して、第3の点の公称位置は、3点のグループが基本パターンに対応するように決定される。
ステップS44では、第3の点の実際位置と、第3の点の公称位置とのずれ値δを決定する。図22は、2つの最遠位点の間に位置する第3の点の公称位置及び実際位置の例を示す。
ステップS45では、ずれ値δを確認する。このずれが所定の閾値εを超えない場合、ステップS46では、3点のグループは、基本パターン候補としてリスト化される。ずれが所定の閾値εを超える場合、ステップS47では、3点のグループは、さらなる考察から破棄される(すなわち、除外される)。
ステップS48では、3点の全ての組み合わせがステップS41~S47で処理されているかの検証を行う。
追跡ウィンドウで見られる3点の全ての組み合わせの処理の完了後に、ステップS49では、基本パターン候補のリストをソートする。基本パターン候補の品質のインジケータとして使用される値δに基づいて、ソーティングを行う。
さらに、ステップS50では、最小値δを有する基本パターン候補を選択し、ステップS51では、基本パターン候補が有効な基本パターンで既に使用されたいずれかの点を含むかの検証を行う。基本パターン候補の1つの点が使用されるものとして分類されない場合、ステップS52では、この基本パターン候補は有効な基本パターンのリストに移送される。基本パターン候補の少なくとも1つの点が使用されるものとして分類される場合、ステップS53では、この基本パターン候補は、さらなる考察から破棄される(すなわち、除外される)。移送された基本パターンの全ての点は使用されるものとして分類される。
さらに、ステップS54では、基本パターン候補のリストに残っている基本パターン候補に対して、ステップS50~S53を繰り返す。
基本的な光学的パターンの検出の上述のアルゴリズムは、別の数の点(例えば、4点または5点)から成る基本的な光学的パターンに対して行われ得ることを理解されたい。アルゴリズムは、複数の基本的な光学的パターンの点を3点から成るサブセットに分割し、上記に説明したような処理を行い、次に、処理産物を組み合わせることが可能であり得る。代替として、アルゴリズムは、複数の点の全部を処理し、ずれ値δ1,δ2等を決定することが可能であり得る。
上記に説明したように、基本的な光学的パターンの検出のアルゴリズムは、「群」の登録のアルゴリズム及び追跡アルゴリズムでさらに使用される有効な基本パターンのリストを生じさせる。
本発明の例示的な実施形態では、基本的な光学的パターン検出のアルゴリズムのステップS41~S54は、直線の3点の基本パターンに関して説明される。本発明の他の実施形態では、基本パターンの点の数は3点と異なり得、例えば、4点または5点であり得ることを理解されたい。さらに、基本パターンの形状は直線と異なり得、すなわち、基本パターンの点は、一直線にならないように位置付けられ得るが、それは、所定の幾何学的図形を形成し得る。
本発明の上述の実施形態では、線状基本パターンのそれぞれの方向は、グリッド軸の1つに実質的に平行に選ばれる。しかしながら、本発明の他の実施形態では、線状基本パターンは、例えば、図23に示されるように切り込みを入れられ、異なるように位置し得る。この種類の線状基本パターンのレイアウトは、基本的な光学的パターンの検出のアルゴリズムが、1つの線状パターンのアクティブマーカーを、別の(隣接する)線状パターンのアクティブマーカーとして誤って検討する状況を回避することを可能にする。
ステップS21~S25及びS41~S54に対応するプロセスのそれぞれは、独立して、各トラッカーのデータに対して行われ、すなわち、これらのプロセスはマルチストリームプロセスであり、ストリームの数は、VR/ARシステムのトラッカーの数以上であることに留意されたい。
上記の説明は、本発明の目的を達成するために最も重要であるそれらのアクションを含むことに留意されたい。また、他のアクションが、本システムの動作(例えば、機器を接続すること、その初期化、適切なソフトウェアの起動、命令及び肯定応答の伝送及び受信、制御データの交換、同期化等)を確実にするように行われるべきであることは、当業者に明らかであり、本明細書では、その説明を簡略するために省略する。
上記の説明は、本発明の目的を達成するために最も重要であるそれらのデバイスの構成要素を含むことに留意されたい。そのデバイスが、VR/ARシステムの動作を確実にするように、他の部分または複数の部を含む必要があるまたは含み得ることは当業者に明らかであり、本明細書では、その説明を簡潔にするために省略する。
「発明を実施するための形態」に言及され及び図面に示される、デバイス及びその構成部品、方法及びそのステップは、それらが数字指示子を参照して言及されるとき、本発明の1つ以上の特定の実施形態に関し、または、それらが数字指示子を参照しないで言及されるとき、本発明の全ての適用可能な実施形態に関する。
「発明を実施するための形態」、図面、及び「特許請求の範囲」に言及されるデバイス及びその一部は、ハードウェア/ソフトウェア手段の組み合わせを構成し、いくつかのデバイスのハードウェアは、別に明示的に記述されない場合、異なり得る、または他のデバイスのハードウェアと部分的にもしくは完全に一致し得る。いくつかのデバイスのハードウェアは、別に明示的に記述されない場合、他のデバイスの異なる部分に位置し得る。ソフトウェアコンテンツは、記憶デバイスに含まれるコンピュータコードの形式で実装され得る。
本明細書に提供された方法の説明における一連のステップは例示的であり、それは、機能を維持し結果を達成する限り、本発明のいくつかの実施形態で異なり得る。
本発明の部品/構成要素及び特徴は、それらが相互に矛盾しない場合、本発明の異なる実施形態で組み合わせられ得る。上記に説明した本発明の実施形態は、例示だけとして提供され、それらの実施形態は、「特許請求の範囲」に定義される本発明を限定することを意図しない。本発明の主旨に対応する設計、構成、及び動作モードにおける全て及びいずれかの合理的な修正、改変、及び均等物の交換は、本発明の範囲内に含まれる。
上記の説明は、仮想現実システムまたは拡張現実システムの移動可能オブジェクトの追跡中に光学的パターンを検出するための方法及び/またはシステムの使用に関する一方、本方法及び/または本システムは、移動可能オブジェクトの決定位置及び/または配向及び/または運動パラメータの問題を解決するためのいずれかの他の業界において十分に適用可能であることに留意されたい。
具体的には、上述の工学的解決策は、工場物流システム、倉庫物流システム、または店舗物流システムにおける貨物及び作業者をトレースするために、教育システムまたはトレーニングシステムの参加者の動きをトレースするために、ロボットシステムの端点の位置及び配向を決定するために、航空機を含む有人操作型移動可能オブジェクトまたは無人移動可能オブジェクトを扱うために、現在存在しているもの及び可能性として今後発表されるものを含む移動可能オブジェクトの追跡に関連する他のシステムの様々なタスクを達成するために使用され、利点をもたらし得る。
このように、好ましい実施形態を説明してきたが、説明される方法及びシステムの特定の利点が達成されていることは当業者に明らかなはずである。
また、様々な修正、適応、及びその代替の実施形態は、本発明の範囲及び主旨の中でなされ得ることを認識されたい。本発明は、さらに、以下の「特許請求の範囲」によって定義される。
Claims (20)
- 移動オブジェクトを追跡する方法であって、
基本的な光学的パターンの固有の組み合わせを検出及び登録することによって、追跡エリアを自動的に調整するステップと、
前記基本的な光学的パターンの固有の組み合わせの検出と、前記基本的な光学的パターンと前記追跡エリアを自動的に調整するステップ中に登録された前記基本的な光学的パターンの固有の組み合わせとの比較によって、移動オブジェクトの位置及び/または配向の変化を追跡するステップと、
を含む、方法。 - 前記追跡エリアを自動的に調整するステップは、
(S1)前記追跡エリアを定義するステップと、
(S2)追跡ウィンドウのサイズを決定し、前記追跡ウィンドウを最初の位置に設置するステップと、
(S3)前記追跡ウィンドウ内にマーカーによって形成された前記基本的な光学的パターンを定義するステップと、
(S4)「群」候補のIDを形成するステップと、
(S5)前記「群」候補の固有性を検証し、前記群に固有性がない場合、前記「群」候補の前記IDを分類するステップと、
(S6)前記「群」候補のIDを「群」テーブルに登録するステップと、
(S7)前記追跡ウィンドウを所定の角度だけ回転させるステップと、
(S8)前記回転させた追跡ウィンドウに対してステップS2~S6を行うステップと、
(S9)必要な回転数が達成されているかを検証し、必要であれば、ステップS7、S8を繰り返すステップと、
(S10)前記追跡ウィンドウを所定のピッチだけシフトさせるステップと、
(S11)前記シフトさせた追跡ウィンドウに対してステップS2~S9を行うステップと、
(S12)前記追跡エリアが全体的に対象に含まれるかを検証し、必要であれば、ステップS10,S11を繰り返すステップと、
(S13)前記「群」候補の非固有IDを前記「群」テーブルから削除するステップと、
を含む、請求項1に記載の方法。 - ステップS4、S5、S6、及びS13は、前記「群」候補のIDごとに、「群」候補のIDの子ごとに行われる、請求項2に記載の方法。
- 前記追跡エリアの投影はステップS2の前にセルに分割され、ステップS2では、前記追跡ウィンドウの前記サイズは、前記セルの数で表記される、請求項2に記載の方法。
- 前記変化を追跡するステップは、
(S21)イメージを前記移動オブジェクトに位置する光学センサから読み取り、前記イメージを前処理するステップと、
(S22)前記追跡ウィンドウ内にマーカーによって形成された前記基本的な光学的パターンを検出するステップと、
(S23)「群」IDを形成するステップと、
(S24)前記「群」テーブルを使用して、前記「群」の前記IDを識別するステップと、
(S25)ステップS24で識別された前記「群」に基づいて、前記移動オブジェクトの位置及び配向を決定するステップと、
を含む、請求項1に記載の方法。 - ステップ21は、
(S31)前記イメージを前記光学センサから読み取るステップと、
(S32)前記イメージの幾何学的歪みを補償するステップと、
(S33)随意に、前記イメージを動作面に投影するステップと、
(S34)前記イメージを正規化するステップと、
(S35)前記追跡ウィンドウを前記イメージに割り当てるステップと、
を含む、請求項5に記載の方法。 - ステップS22は、
(S41)前記追跡ウィンドウ内で、前記マーカーに対応する3点を選択するステップと、
(S42)前記選択された3点のうち2つの基準点を決定するステップと、
(S43)前記2つの基準点に関して、前記基本的な光学的パターンに従って、第3の点の公称位置を決定するステップと、
(S44)前記第3の点の実際位置と、前記第3の点の前記公称位置とのずれ値δを決定するステップと、
(S45)前記ずれ値δを検証するステップと、前記ずれ値δが所定の閾値を超えない場合、(S46)基本的な光学的パターン候補のリストの前記3点の組み合わせをリスト化するステップと、前記ずれ値δが所定の閾値を超える場合、(S47)前記3点の前記組み合わせを破棄するステップと、
(S48)前記3点の全ての可能な組み合わせが処理されているかを検証し、必要であれば、ステップS41~S47を繰り返すステップと、
(S49)前記ずれ値δに基づいて、前記基本的な光学的パターン候補のリストをソートするステップと、
(S50)最小ずれ値δを有する基本的な光学的パターン候補を、前記基本的な光学的パターン候補のリストから選択するステップと、
(S51)使用されたいずれかの点が前記基本的な光学的パターン候補に存在するかを検証するステップと、使用された少なくとも1つの点が前記基本的な光学的パターン候補に存在する場合、(S52)前記基本的な光学的パターン候補を破棄するステップと、そうでなければ、使用された点が前記基本的な光学的パターン候補に存在しない場合、(S53)前記基本的な光学的パターン候補が有効な基本的な光学的パターンのリストにリスト化され、前記リスト化された基本的な光学的パターンの全ての点が使用され分類されるステップと、
(S54)残りの基本的な光学的パターン候補に対してステップS50~S53を行うステップと、
を含む、請求項5に記載の方法。 - 移動オブジェクトを追跡するためのシステムであって、
移動オブジェクトに位置する少なくとも1つのトラッカーであって、前記トラッカーは光学センサを備える、少なくとも1つのトラッカーと、
前記光学センサから取得されたイメージにおける基本的な光学的パターンを形成するアクティブマーカーを含む少なくとも1つのマーカーストリップと、
請求項1~7のいずれかに記載の移動オブジェクトを追跡する方法を部分的に行う中央処理ユニットと、
を備える、システム。 - 前記光学センサはマトリクス光学センサである、請求項8に記載のシステム。
- 前記マーカーストリップの少なくとも一部は床または他の基部構造に位置する、請求項8に記載のシステム。
- 前記マーカーストリップは弾力パズル式フロアマットに統合される、請求項10に記載のシステム。
- 前記マーカーストリップの少なくとも一部は、天井、壁、梁、支柱に位置する、または前記追跡エリア内の床もしくは他の基部構造の上方にいずれかの他の方式で設置される、請求項8に記載のシステム。
- 前記アクティブマーカーは赤外線発光マーカーである、請求項8に記載のシステム。
- 前記基本的な光学的パターンは線状で基本的な光学的パターンである、請求項8に記載のシステム。
- 前記基本的な光学的パターンは非線状の基本的な光学的パターンである、請求項8に記載のシステム。
- 前記トラッカーは、請求項1~7のいずれかに記載の方法を部分的に行う、ローカルデータ処理デバイスを備える、請求項8に記載のシステム。
- 前記トラッカー及び前記中央データ処理デバイスは、前記追跡エリアの自動調整のステップ中に調整データと、請求項1~7のいずれかに記載の方法で追跡するステップ中に前記トラッカーの位置及び/または配向データとを伝送するように構成される無線データ伝送リンクによって接続される、請求項8に記載のシステム。
- 前記システムは、請求項1~7のいずれかに記載の方法によって、基本的な光学的パターンの固有の組み合わせを検出及び登録することによって、前記追跡エリアを自動的に調整するように構成される、請求項8に記載のシステム。
- 前記システムは、基本的な光学的パターンの固有の組み合わせの検出と、前記基本的な光学的パターンの固有の組み合わせと請求項1~7のいずれかに記載の方法によって前記追跡エリアの前記調整中に登録された基本的な光学的パターンの固有の組み合わせとの比較によって、前記移動オブジェクトの位置及び/または配向の変化を追跡するように構成される、請求項8に記載のシステム。
- 前記トラッカーはさらに少なくとも1つの慣性センサを備え、前記システムは、請求項1~7のいずれかに記載の方法によって、「群」を識別できないとき、前記少なくとも1つの慣性センサのデータを使用することによって、前記移動オブジェクトの位置及び/または配向の変化を追跡するように構成される、請求項8に記載のシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2018/058492 WO2020089675A1 (ru) | 2018-10-30 | 2018-10-30 | Способ и система обратного оптического трекинга подвижного объекта |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022520140A true JP2022520140A (ja) | 2022-03-29 |
Family
ID=70461828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523061A Pending JP2022520140A (ja) | 2018-10-30 | 2018-10-30 | 移動オブジェクトのリバース光学的追跡のためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3876198A4 (ja) |
JP (1) | JP2022520140A (ja) |
CN (1) | CN112955930A (ja) |
SG (1) | SG11202104325UA (ja) |
WO (1) | WO2020089675A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102023118428A1 (de) * | 2023-07-12 | 2025-01-16 | Technische Universität Braunschweig - Körperschaft des öffentlichen Rechts | Vorrichtung zum bereitstellen eines bezugsmassstabes |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11513483A (ja) * | 1995-09-21 | 1999-11-16 | オムニプラナー,インコーポレーテッド | 位置及び方位を決定する方法及び装置 |
JP2004298977A (ja) * | 2003-03-28 | 2004-10-28 | Sony Corp | 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置 |
US20060184013A1 (en) * | 2004-12-14 | 2006-08-17 | Sky-Trax Incorporated | Method and apparatus for determining position and rotational orientation of an object |
US20150371082A1 (en) * | 2008-04-24 | 2015-12-24 | Ambrus Csaszar | Adaptive tracking system for spatial input devices |
WO2016059930A1 (ja) * | 2014-10-17 | 2016-04-21 | ソニー株式会社 | 装置、方法及びプログラム |
WO2016148461A2 (ko) * | 2015-03-13 | 2016-09-22 | 한현정 | 증강현실 마커가 인쇄된 바닥 매트 및 이를 포함하는 증강현실 시스템 |
US20180108179A1 (en) * | 2016-10-17 | 2018-04-19 | Microsoft Technology Licensing, Llc | Generating and Displaying a Computer Generated Image on a Future Pose of a Real World Object |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6787750B1 (en) | 2000-06-29 | 2004-09-07 | Siemens Corporate Research, Inc. | Method and apparatus for robust optical tracking with beacon markers |
US7215322B2 (en) * | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
US7120875B2 (en) | 2002-10-29 | 2006-10-10 | X-Labs Holdings, Llc | Method and apparatus for augmented reality hybrid tracking system with fiducial-based heading correction |
US7729515B2 (en) | 2006-03-08 | 2010-06-01 | Electronic Scripting Products, Inc. | Optical navigation apparatus using fixed beacons and a centroid sensing device |
EP1645241B1 (de) | 2004-10-05 | 2011-12-28 | BrainLAB AG | Positionsmarkersystem mit Punktlichtquellen |
JP4926817B2 (ja) | 2006-08-11 | 2012-05-09 | キヤノン株式会社 | 指標配置情報計測装置および方法 |
EP2012170B1 (en) | 2007-07-06 | 2017-02-15 | Harman Becker Automotive Systems GmbH | Head-tracking system and operating method thereof |
WO2009007917A2 (en) * | 2007-07-10 | 2009-01-15 | Koninklijke Philips Electronics N.V. | Object motion capturing system and method |
EP2217170A1 (en) * | 2007-11-30 | 2010-08-18 | Orthosoft, Inc. | Optical tracking cas system |
US8237101B2 (en) | 2009-10-02 | 2012-08-07 | Teledyne Scientific & Imaging, Llc | Object tracking system having at least one angle-of-arrival sensor which detects at least one linear pattern on a focal plane array |
EP2339537B1 (en) | 2009-12-23 | 2016-02-24 | Metaio GmbH | Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method |
US20130106833A1 (en) | 2011-10-31 | 2013-05-02 | Wey Fun | Method and apparatus for optical tracking of 3d pose using complex markers |
EP2780861A1 (en) | 2011-11-18 | 2014-09-24 | Metaio GmbH | Method of matching image features with reference features and integrated circuit therefor |
KR101850048B1 (ko) * | 2012-02-22 | 2018-05-30 | 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 | 트래커 시스템을 최적화하는 시스템 및 방법 |
EP3008689B1 (en) | 2013-06-11 | 2017-04-12 | Aselsan Elektronik Sanayi ve Ticaret Anonim Sirketi | Pose determination from a pattern of four leds |
ES2543038B2 (es) | 2014-12-23 | 2015-11-26 | Universidad De Cantabria | Método y sistema de localización espacial mediante marcadores luminosos para cualquier ambiente |
US20160339337A1 (en) | 2015-05-21 | 2016-11-24 | Castar, Inc. | Retroreflective surface with integrated fiducial markers for an augmented reality system |
WO2017050761A1 (en) | 2015-09-21 | 2017-03-30 | Navigate Surgical Technologies, Inc. | System and method for determining the three-dimensional location and orientation of identification markers |
US20170086941A1 (en) | 2015-09-25 | 2017-03-30 | Atracsys | Marker for Optical Tracking System |
EP3357275B1 (en) | 2015-09-29 | 2019-03-06 | Telefonaktiebolaget LM Ericsson (publ) | Network node and method in a wireless telecommunications network |
DE102015013551B4 (de) | 2015-10-20 | 2021-04-29 | Hochschule RheinMain University of Applied Sciences Wiesbaden Rüsselsheim Geisenheim | System und Verfahren zur Positions-und Lagebestimmung von Objekten |
US20170168592A1 (en) | 2015-12-14 | 2017-06-15 | Volodymyr Mishyn | System and method for optical tracking |
US10249090B2 (en) | 2016-06-09 | 2019-04-02 | Microsoft Technology Licensing, Llc | Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking |
-
2018
- 2018-10-30 JP JP2021523061A patent/JP2022520140A/ja active Pending
- 2018-10-30 SG SG11202104325UA patent/SG11202104325UA/en unknown
- 2018-10-30 CN CN201880099238.0A patent/CN112955930A/zh active Pending
- 2018-10-30 EP EP18938810.1A patent/EP3876198A4/en not_active Withdrawn
- 2018-10-30 WO PCT/IB2018/058492 patent/WO2020089675A1/ru unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11513483A (ja) * | 1995-09-21 | 1999-11-16 | オムニプラナー,インコーポレーテッド | 位置及び方位を決定する方法及び装置 |
JP2004298977A (ja) * | 2003-03-28 | 2004-10-28 | Sony Corp | 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置 |
US20060184013A1 (en) * | 2004-12-14 | 2006-08-17 | Sky-Trax Incorporated | Method and apparatus for determining position and rotational orientation of an object |
US20150371082A1 (en) * | 2008-04-24 | 2015-12-24 | Ambrus Csaszar | Adaptive tracking system for spatial input devices |
WO2016059930A1 (ja) * | 2014-10-17 | 2016-04-21 | ソニー株式会社 | 装置、方法及びプログラム |
WO2016148461A2 (ko) * | 2015-03-13 | 2016-09-22 | 한현정 | 증강현실 마커가 인쇄된 바닥 매트 및 이를 포함하는 증강현실 시스템 |
US20180108179A1 (en) * | 2016-10-17 | 2018-04-19 | Microsoft Technology Licensing, Llc | Generating and Displaying a Computer Generated Image on a Future Pose of a Real World Object |
Non-Patent Citations (1)
Title |
---|
DAVID CLAUS AND ANDREW W. FITZGIBBON: "Reliable automatic calibration of a marker-based position tracking system", PROCEEDINGS OF THE SEVENTH IEEE WORKSHOP ON APPLICATIONS OF COMPUTER VISION (WACV/MOTION’05), JPN6022045957, 5 January 2005 (2005-01-05), ISSN: 0005077465 * |
Also Published As
Publication number | Publication date |
---|---|
SG11202104325UA (en) | 2021-05-28 |
WO2020089675A1 (ru) | 2020-05-07 |
EP3876198A1 (en) | 2021-09-08 |
CN112955930A (zh) | 2021-06-11 |
EP3876198A4 (en) | 2022-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10949980B2 (en) | System and method for reverse optical tracking of a moving object | |
US10481679B2 (en) | Method and system for optical-inertial tracking of a moving object | |
EP2962284B1 (en) | Optical navigation & positioning system | |
KR102562672B1 (ko) | 다중 드론 측위 및 촬영 시스템 | |
JP6822396B2 (ja) | 位置特定装置、位置特定方法及びプログラム | |
RU2697942C1 (ru) | Способ и система обратного оптического трекинга подвижного объекта | |
US9626764B2 (en) | System and method for synchronizing fiducial markers | |
CN111026107B (zh) | 用于确定可移动物体的位置的方法和系统 | |
JP2010128133A (ja) | 移動式情報重畳システム及び情報重畳方法 | |
RU2758036C1 (ru) | Способ и система для оптико-инерциального трекинга подвижного объекта | |
WO2021130860A1 (ja) | 情報処理装置、制御方法及び記憶媒体 | |
CN106716053B (zh) | 移动体的三维姿势及位置识别装置 | |
JP2021193538A (ja) | 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム | |
CN106792537A (zh) | 一种定位系统 | |
JP2022520140A (ja) | 移動オブジェクトのリバース光学的追跡のためのシステム及び方法 | |
US11758100B2 (en) | Portable projection mapping device and projection mapping system | |
US12154229B2 (en) | Bar arrangement inspection result display system | |
CN116710975A (zh) | 提供导航数据以控制机器人的方法、控制机器人的方法、制造至少一个预定义点对称区域的方法和设备 | |
Jóźków et al. | Combined matching of 2d and 3d kinect™ data to support indoor mapping and navigation | |
KR101858488B1 (ko) | 구 형상의 좌표계 장치와 그를 이용한 lbs 위치 정보 산출 방법, 어플리케이션 및 서버 | |
CN114787907B (zh) | 信息处理装置和信息处理方法 | |
US20130155211A1 (en) | Interactive system and interactive device thereof | |
JPH10149435A (ja) | 環境認識システム並びに該システムに用いるマーク | |
Holter et al. | Relative visual localization for unmanned aerial systems | |
CN113542679A (zh) | 一种图像播放方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230606 |