KR20220122287A - 증강 현실 제공 장치의 포즈 결정 방법 및 장치 - Google Patents
증강 현실 제공 장치의 포즈 결정 방법 및 장치 Download PDFInfo
- Publication number
- KR20220122287A KR20220122287A KR1020210026726A KR20210026726A KR20220122287A KR 20220122287 A KR20220122287 A KR 20220122287A KR 1020210026726 A KR1020210026726 A KR 1020210026726A KR 20210026726 A KR20210026726 A KR 20210026726A KR 20220122287 A KR20220122287 A KR 20220122287A
- Authority
- KR
- South Korea
- Prior art keywords
- pose
- information
- augmented reality
- determining
- reliability value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 180
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000033001 locomotion Effects 0.000 claims abstract description 157
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 238000004590 computer program Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 description 23
- 230000015654 memory Effects 0.000 description 15
- 230000001133 acceleration Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Abstract
Description
도 3은 일 실시예에 따른 포즈 결정 장치의 구성을 도시한 블록도이다.
도 4는 일 실시예에 따른 증강 현실 제공 장치의 포즈 결정 방법을 설명하기 위한 흐름도이다.
도 5는 일 실시예에 따른 신뢰도 값을 계산하는 동작을 설명하기 위한 흐름도이다.
도 6은 다른 실시예에 따른 신뢰도 값을 계산하는 동작을 설명하기 위한 흐름도이다.
도 7은 다른 실시예에 따른 포즈 결정 장치의 구성을 도시한 블록도이다.
도 8은 일 실시예에 따른 증강 현실 제공 장치의 구성을 도시한 블록도이다.
Claims (20)
- 증강 현실 제공 장치의 포즈 결정 방법에 있어서,
상기 증강 현실 제공 장치의 움직임 센서를 이용하여 상기 증강 현실 제공 장치의 움직임 정보를 추정하는 단계;
상기 움직임 정보를 기초로 상기 증강 현실 제공 장치의 제1 포즈 정보를 결정하는 단계;
상기 증강 현실 제공 장치의 이미지 센서를 통해 현재 영상 프레임을 획득하는 단계;
상기 현재 영상 프레임에서 객체의 특징점들을 추출하는 단계;
상기 추출된 특징점들과 상기 객체에 대해 미리 정의된 특징점 위치 정보를 기초로 상기 증강 현실 제공 장치의 제2 포즈 정보를 추정하는 단계;
상기 움직임 정보와 상기 특징점들의 추출 정보에 기초하여 상기 제1 포즈 정보와 상기 제2 포즈 정보 각각의 신뢰도 값을 결정하는 단계; 및
상기 제1 포즈 정보, 상기 제2 포즈 정보 및 상기 신뢰도 값에 기초하여 상기 증강 현실 제공 장치의 포즈를 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 신뢰도 값을 결정하는 단계는,
상기 움직임 정보에 기초하여 추정된 현재 시점(time)에서의 상기 객체의 특징점 위치와 상기 특징점들의 추출 정보에 따른 상기 현재 시점에서의 상기 객체의 특징점 위치 간의 차이에 기초하여 상기 신뢰도 값을 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제2항에 있어서,
상기 신뢰도 값을 결정하는 단계는,
상기 차이가 조건을 만족시키는 경우, 상기 제1 포즈 정보의 신뢰도 값을 상기 제2 포즈 정보의 신뢰도 값보다 더 높게 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 신뢰도 값을 결정하는 단계는,
상기 움직임 정보에 따른 상기 증강 현실 제공 장치의 움직임 정도에 기초하여 상기 신뢰도 값을 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제4항에 있어서,
상기 신뢰도 값을 결정하는 단계는,
상기 움직임 정도가 조건을 만족시키는 경우, 상기 제1 포즈 정보의 신뢰도 값을 상기 제2 포즈 정보의 신뢰도 값보다 더 높게 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 신뢰도 값을 결정하는 단계는,
상기 현재 영상 프레임 내에 상기 객체가 위치하고, 상기 현재 영상 프레임의 영상 품질이 조건을 만족시키는 경우, 상기 제2 포즈 정보의 신뢰도 값을 상기 제1 포즈 정보의 신뢰도 값보다 더 높게 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 신뢰도 값을 결정하는 단계는,
칼만 필터(Kalman filter)를 이용하여 상기 신뢰도 값을 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 신뢰도 값을 결정하는 단계는,
상기 객체의 특징점들 각각의 움직임 속도에 기초하여 상기 객체의 특징점들 각각의 신뢰도 값을 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 신뢰도 값을 결정하는 단계는,
상기 특징점들의 추출 정보 및 상기 움직임 정보 중 적어도 하나가 업데이트된 경우, 상기 제1 포즈 정보 및 제2 포즈 정보 중 적어도 하나의 신뢰도 값을 다시 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 증강 현실 제공 장치의 포즈를 결정하는 단계는,
상기 제1 포즈 정보와 상기 제2 포즈 정보 각각의 신뢰도 값에 기초하여 상기 제1 포즈 정보와 상기 제2 포즈 정보를 조합하는 것에 의해 상기 증강 현실 제공 장치의 포즈를 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 미리 정의된 특징점 위치 정보는,
상기 객체가 기준 포즈에 있을 때의 상기 객체의 표면 상에 위치하는 기준 특징점들의 3차원 좌표 정보를 나타내는,
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 제1 포즈 정보를 결정하는 단계는,
이전 영상 프레임에서 추출된 상기 객체의 특징점들과 상기 움직임 정보 기초하여 상기 제1 포즈 정보를 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 제2 포즈 정보를 추정하는 단계는,
상기 추출된 특징점들과 상기 기준 특징점들 간에 서로 대응되는 특징점들의 위치 차이에 기초하여 상기 제2 포즈 정보를 추정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항에 있어서,
상기 증강 현실 제공 장치의 포즈를 결정하는 단계는,
상기 증강 현실 제공 장치의 위치(position) 및 자세(orientation)를 나타내는 특징 값을 결정하는 단계
를 포함하는 포즈 결정 방법.
- 제1항 내지 제14항 중 어느 한 항의 방법을 수행하기 위한 명령어를 포함하는 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체.
- 증강 현실 제공 장치의 포즈를 결정하는 포즈 결정 장치에 있어서,
상기 증강 현실 제공 장치의 움직임 정보를 측정하는 움직임 센서;
상기 증강 현실 제공 장치의 주변 중 적어도 일부를 촬영하여 현재 영상 프레임을 획득하는 이미지 센서; 및
상기 측정한 움직임 정보 및 상기 획득된 현재 영상 프레임에 기초하여 상기 증강 현실 제공 장치의 포즈를 결정하는 프로세서를 포함하고, 상기 프로세서는,
상기 움직임 정보를 기초로 상기 증강 현실 제공 장치의 제1 포즈 정보를 결정하고,
상기 현재 영상 프레임에서 객체의 특징점들을 추출하고, 상기 추출된 특징점들과 상기 객체에 대해 미리 정의된 특징점 위치 정보를 기초로 상기 증강 현실 제공 장치의 제2 포즈 정보를 추정하고,
상기 움직임 정보와 상기 특징점들의 추출 정보에 기초하여 상기 제1 포즈 정보와 상기 제2 포즈 정보 각각의 신뢰도 값을 결정하고,
상기 제1 포즈 정보, 상기 제2 포즈 정보 및 상기 신뢰도 값에 기초하여 상기 증강 현실 제공 장치의 상기 포즈를 결정하는,
포즈 결정 장치.
- 제16항에 있어서,
상기 프로세서는,
상기 움직임 정보에 기초하여 추정된 현재 시점(time)에서의 상기 객체의 특징점 위치와 상기 특징점들의 추출 정보에 따른 상기 현재 시점에서의 상기 객체의 특징점 위치 간의 차이가 조건을 만족시키는 경우, 상기 제1 포즈 정보의 신뢰도 값을 상기 제2 포즈 정보의 신뢰도 값보다 더 높게 결정하는,
포즈 결정 장치.
- 제16항에 있어서,
상기 프로세서는,
상기 움직임 정보에 따른 상기 증강 현실 제공 장치의 움직임 정도가 조건을 만족시키는 경우, 상기 제1 포즈 정보의 신뢰도 값을 상기 제1 포즈 정보의 신뢰도 값보다 더 높게 결정하는,
포즈 결정 장치.
- 제16항에 있어서,
상기 프로세서는,
상기 현재 영상 프레임 내에 상기 객체가 위치하고, 상기 현재 영상 프레임의 영상 품질이 조건을 만족시키는 경우, 상기 제2 포즈 정보의 신뢰도 값을 상기 제1 포즈 정보의 신뢰도 값보다 더 높게 결정하는,
포즈 결정 장치.
- 증강 현실 제공 장치에 있어서,
상기 증강 현실 제공 장치의 움직임 정보를 측정하는 움직임 센서;
상기 증강 현실 제공 장치의 주변 중 적어도 일부를 촬영하여 현재 영상 프레임을 획득하는 이미지 센서;
상기 움직임 정보에 따른 상기 증강 현실 제공 장치의 포즈를 추정하고, 상기 추정된 포즈에 따라 실제 객체에 정합되는 증강 현실 콘텐츠를 생성하는 프로세서; 및
상기 증강 현실 콘텐츠를 시각화하는 디스플레이를 포함하고,
상기 프로세서는,
상기 움직임 정보를 기초로 상기 증강 현실 제공 장치의 제1 포즈 정보를 결정하고,
상기 현재 영상 프레임에서 상기 실제 객체의 특징점들을 추출하고, 상기 추출된 특징점들과 상기 실제 객체에 대해 미리 정의된 특징점 위치 정보를 기초로 상기 증강 현실 제공 장치의 제2 포즈 정보를 추정하고,
상기 움직임 정보와 상기 특징점들의 추출 정보에 기초하여 상기 제1 포즈 정보와 상기 제2 포즈 정보 각각의 신뢰도 값을 결정하고,
상기 제1 포즈 정보, 상기 제2 포즈 정보 및 상기 신뢰도 값에 기초하여 상기 증강 현실 제공 장치의 상기 포즈를 결정하는,
증강 현실 제공 장치.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210026726A KR20220122287A (ko) | 2021-02-26 | 2021-02-26 | 증강 현실 제공 장치의 포즈 결정 방법 및 장치 |
US17/392,473 US11915448B2 (en) | 2021-02-26 | 2021-08-03 | Method and apparatus with augmented reality pose determination |
CN202110916143.7A CN114972689A (zh) | 2021-02-26 | 2021-08-10 | 执行增强现实姿态确定的方法和装置 |
EP21208611.0A EP4050564A1 (en) | 2021-02-26 | 2021-11-16 | Method and apparatus with augmented reality pose determination |
JP2021187636A JP2022132063A (ja) | 2021-02-26 | 2021-11-18 | 拡張現実提供装置のポーズ決定方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210026726A KR20220122287A (ko) | 2021-02-26 | 2021-02-26 | 증강 현실 제공 장치의 포즈 결정 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220122287A true KR20220122287A (ko) | 2022-09-02 |
Family
ID=78822638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210026726A Pending KR20220122287A (ko) | 2021-02-26 | 2021-02-26 | 증강 현실 제공 장치의 포즈 결정 방법 및 장치 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11915448B2 (ko) |
EP (1) | EP4050564A1 (ko) |
JP (1) | JP2022132063A (ko) |
KR (1) | KR20220122287A (ko) |
CN (1) | CN114972689A (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102770795B1 (ko) * | 2019-09-09 | 2025-02-21 | 삼성전자주식회사 | 3d 렌더링 방법 및 장치 |
CN115082549A (zh) * | 2021-03-10 | 2022-09-20 | 北京图森智途科技有限公司 | 位姿估计方法及装置、以及相关设备和存储介质 |
CN113262465A (zh) * | 2021-04-27 | 2021-08-17 | 青岛小鸟看看科技有限公司 | 一种虚拟现实交互方法、设备及系统 |
US12223676B2 (en) * | 2022-05-26 | 2025-02-11 | Htc Corporation | Method for pose correction and host |
WO2024258320A1 (en) * | 2023-06-13 | 2024-12-19 | Telefonaktiebolaget Lm Ericsson (Publ) | Location procedure of an xr device |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0416441A (pt) | 2003-11-26 | 2007-02-27 | Rafael Armament Dev Authority | sistema de medição de posição de capacete, conjunto de capacete com tal sistema, e método de cálculo confiável em tempo real da direção de olhar da pupila |
US9024972B1 (en) | 2009-04-01 | 2015-05-05 | Microsoft Technology Licensing, Llc | Augmented reality computing with inertial sensors |
US8817046B2 (en) | 2011-04-21 | 2014-08-26 | Microsoft Corporation | Color channels and optical markers |
US9430847B2 (en) | 2014-06-12 | 2016-08-30 | Mitsubishi Electric Research Laboratories, Inc. | Method for stereo visual odometry using points, lines and planes |
US10147399B1 (en) | 2014-09-02 | 2018-12-04 | A9.Com, Inc. | Adaptive fiducials for image match recognition and tracking |
US10419655B2 (en) | 2015-04-27 | 2019-09-17 | Snap-Aid Patents Ltd. | Estimating and using relative head pose and camera field-of-view |
CA3005894A1 (en) | 2015-11-20 | 2017-05-26 | Magic Leap, Inc. | Methods and systems for large-scale determination of rgbd camera poses |
US20190346271A1 (en) | 2016-03-11 | 2019-11-14 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US10078377B2 (en) | 2016-06-09 | 2018-09-18 | Microsoft Technology Licensing, Llc | Six DOF mixed reality input by fusing inertial handheld controller with hand tracking |
EP3943888A1 (en) | 2016-08-04 | 2022-01-26 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
US10510160B2 (en) | 2016-12-20 | 2019-12-17 | Samsung Electronics Co., Ltd. | Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking |
US20180203504A1 (en) | 2017-01-16 | 2018-07-19 | Htc Corporation | Movement tracking method and movement tracking system |
WO2019005999A1 (en) | 2017-06-28 | 2019-01-03 | Magic Leap, Inc. | METHOD AND SYSTEM FOR PERFORMING SIMULTANEOUS MAPPING AND LOCALIZATION USING CONVOLUTIONAL IMAGE TRANSFORMATION |
JP7257737B2 (ja) | 2017-09-05 | 2023-04-14 | ソニーグループ株式会社 | 情報処理装置、自己位置推定方法、及び、プログラム |
US10740924B2 (en) | 2018-04-16 | 2020-08-11 | Microsoft Technology Licensing, Llc | Tracking pose of handheld object |
CN108682036B (zh) * | 2018-04-27 | 2022-10-25 | 腾讯科技(深圳)有限公司 | 位姿确定方法、装置及存储介质 |
US10854004B2 (en) | 2018-08-24 | 2020-12-01 | Facebook, Inc. | Multi-device mapping and collaboration in augmented-reality environments |
-
2021
- 2021-02-26 KR KR1020210026726A patent/KR20220122287A/ko active Pending
- 2021-08-03 US US17/392,473 patent/US11915448B2/en active Active
- 2021-08-10 CN CN202110916143.7A patent/CN114972689A/zh active Pending
- 2021-11-16 EP EP21208611.0A patent/EP4050564A1/en active Pending
- 2021-11-18 JP JP2021187636A patent/JP2022132063A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11915448B2 (en) | 2024-02-27 |
CN114972689A (zh) | 2022-08-30 |
US20220277476A1 (en) | 2022-09-01 |
EP4050564A1 (en) | 2022-08-31 |
JP2022132063A (ja) | 2022-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220122287A (ko) | 증강 현실 제공 장치의 포즈 결정 방법 및 장치 | |
KR102442780B1 (ko) | 장치의 자세 추정 방법 및 그 장치 | |
JP6198230B2 (ja) | 深度カメラを使用した頭部姿勢トラッキング | |
WO2016199605A1 (ja) | 画像処理装置および方法、並びにプログラム | |
CN110555869B (zh) | 提取增强现实系统中主要和次级运动的方法和系统 | |
JP7420135B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR20230018214A (ko) | 포즈를 추정하는 방법 및 장치 | |
KR20200037502A (ko) | 포즈 정보를 출력하는 방법 및 장치 | |
US11847750B2 (en) | Smooth object correction for augmented reality devices | |
KR20230072757A (ko) | 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법 | |
JP7371154B2 (ja) | 顔の姿勢を検出する装置及び方法、画像処理システム、並びに記憶媒体 | |
WO2023087681A1 (zh) | 定位初始化方法、装置、计算机可读存储介质和计算机程序产品 | |
US20200211275A1 (en) | Information processing device, information processing method, and recording medium | |
WO2023090213A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20220366600A1 (en) | Depth-from-stereo bending correction using visual inertial odometry features | |
US12073516B2 (en) | Information processing device and method for displaying AR object at accurate position | |
US20250095204A1 (en) | Sensor calibration system | |
US20240312145A1 (en) | Tight imu-camera coupling for dynamic bending estimation | |
KR20220083166A (ko) | 인체 추정 방법 및 장치 | |
CN119379790A (zh) | 一种平面检测方法、装置、电子设备及存储介质 | |
KR20230161309A (ko) | 깊이 정보를 획득하는 증강 현실 디바이스 및 그 동작 방법 | |
CN118279385A (zh) | 用于确定相对位姿的方法、装置、系统、设备和介质 | |
JP2020095671A (ja) | 認識装置及び認識方法 | |
TR201702842A2 (tr) | Öznitelik Haritalama Metodu Ve Kontrol Aygıtı |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20210226 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20240214 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20210226 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20250307 Patent event code: PE09021S01D |