KR20240041617A - Method and apparatus for classifying pose using uwb(ultra-wideband) signal - Google Patents
Method and apparatus for classifying pose using uwb(ultra-wideband) signal Download PDFInfo
- Publication number
- KR20240041617A KR20240041617A KR1020220120853A KR20220120853A KR20240041617A KR 20240041617 A KR20240041617 A KR 20240041617A KR 1020220120853 A KR1020220120853 A KR 1020220120853A KR 20220120853 A KR20220120853 A KR 20220120853A KR 20240041617 A KR20240041617 A KR 20240041617A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- signal
- uwb
- cir
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 238000001914 filtration Methods 0.000 claims abstract description 21
- 238000013527 convolutional neural network Methods 0.000 claims description 164
- 230000004044 response Effects 0.000 claims description 28
- 238000005259 measurement Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 description 69
- 238000012545 processing Methods 0.000 description 45
- 239000003999 initiator Substances 0.000 description 42
- 230000006870 function Effects 0.000 description 40
- 238000005516 engineering process Methods 0.000 description 28
- 238000010606 normalization Methods 0.000 description 22
- 238000010801 machine learning Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 230000000977 initiatory effect Effects 0.000 description 8
- 238000012163 sequencing technique Methods 0.000 description 8
- 238000012546 transfer Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004617 sleep duration Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/0209—Systems with very large relative bandwidth, i.e. larger than 10 %, e.g. baseband, pulse, carrier-free, ultrawideband
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0273—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves using multipath or indirect path propagation signals in position determination
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0284—Relative positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/38—Services specially adapted for particular environments, situations or purposes for collecting sensor information
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
본 개시는 전자 장치가 UWB 신호를 이용하여 포즈를 분류하는 방법을 개시한다. 본 개시의 방법은, 학습된 제1 CNN 모델을 이용하여, UWB CIR 데이터에 기초하여 UWB CIR에 대응하는 신호가 LOS 신호 또는 NLOS 신호인지를 분류하기 위한 제1 예측 데이터를 획득하는 단계, 신호가 LOS 신호로 분류되는 경우 학습된 제2 CNN 모델을 이용하여 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제2 예측 데이터를 획득하는 단계, 신호가 NLOS 신호로 분류되는 경우 학습된 제3 CNN 모델을 이용하여 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제3 예측 데이터를 획득하는 단계, 제1 필터링 방식을 이용하여 제1 예측 데이터, 제2 예측 데이터 및 제3 예측 데이터 중 적어도 두 개에 대한 필터링을 수행하는 단계, 및 필터링된 데이터에 기초하여, 상기 포즈를 분류하는 단계를 포함할 수 있다.The present disclosure discloses a method for an electronic device to classify a pose using a UWB signal. The method of the present disclosure includes obtaining first prediction data for classifying whether a signal corresponding to UWB CIR is a LOS signal or an NLOS signal based on UWB CIR data, using a learned first CNN model, the signal Obtaining second prediction data for classifying a pose based on sensor data corresponding to UWB CIR data using a learned second CNN model when classified as a LOS signal, learned when the signal is classified as an NLOS signal Obtaining third prediction data for classifying a pose based on sensor data corresponding to UWB CIR data using a third CNN model, using a first filtering method to obtain first prediction data, second prediction data, and 3. It may include performing filtering on at least two of the prediction data, and classifying the pose based on the filtered data.
Description
본 개시는 UWB 신호를 이용하여 포즈를 분류하는 방법 및 장치에 관한 것이다.This disclosure relates to a method and device for classifying poses using UWB signals.
인터넷은 인간이 정보를 생성하고 소비하는 인간 중심의 연결 망에서, 사물 등 분산된 구성 요소들 간에 정보를 주고 받아 처리하는 IoT (Internet of Things, 사물 인터넷) 망으로 진화하고 있다. 클라우드 서버 등과의 연결을 통한 빅데이터 (Big data) 처리 기술 등이 IoT 기술에 결합된 IoE(Internet of Everything) 기술도 대두되고 있다. IoT를 구현하기 위해서는, 센싱 기술, 유무선 통신 및 네트워크 인프라, 서비스 인터페이스 기술, 및 보안 기술과 같은 기술 요소 들이 요구된다. 최근에는 사물간의 연결을 위한 센서 네트워크(sensor network), 사물 통신 (Machine to Machine, M2M), MTC(Machine Type Communication) 등의 기술이 연구되고 있다.The Internet is evolving from a human-centered network where humans create and consume information to an IoT (Internet of Things) network that exchanges and processes information between distributed components such as objects. IoE (Internet of Everything) technology, which combines IoT technology with big data processing technology through connection to cloud servers, etc., is also emerging. To implement IoT, technological elements such as sensing technology, wired and wireless communication and network infrastructure, service interface technology, and security technology are required. Recently, technologies such as sensor network, Machine to Machine (M2M), and MTC (Machine Type Communication) for connection between objects are being researched.
IoT 환경에서는 연결된 사물들에서 생성된 데이터를 수집, 분석하여 인간의 삶에 새로운 가치를 창출하는 지능형 IT(Internet Technology) 서비스가 제공될 수 있다. IoT는, 기존의 IT(information technology) 기술과 다양한 산업 간의 융합 및 복합을 통하여, 스마트홈, 스마트 빌딩, 스마트 시티, 스마트 카 혹은 커넥티드 카, 스마트 그리드, 헬스 케어, 스마트 가전, 첨단의료서비스 등의 분야에 응용될 수 있다.In an IoT environment, intelligent IT (Internet Technology) services that create new value in human life can be provided by collecting and analyzing data generated from connected objects. IoT, through the convergence and combination of existing IT (information technology) technology and various industries, includes smart homes, smart buildings, smart cities, smart cars or connected cars, smart grids, health care, smart home appliances, advanced medical services, etc. It can be applied in the field of
본 개시는 UWB CIR(channel impulse response) 데이터를 이용하여 신호를 LOS(line of sight)/NLOS(non-LOS) 신호로 분류하는 방안을 제공한다. The present disclosure provides a method for classifying signals as line of sight (LOS)/non-LOS (NLOS) signals using UWB channel impulse response (CIR) data.
또한, 본 개시는 신호 분류 결과 및 센서 데이터를 이용하여 포즈를 분류하기 위한 방안을 제공한다.Additionally, the present disclosure provides a method for classifying poses using signal classification results and sensor data.
본 개시의 다양한 실시예에 따른, 전자 장치의 방법은, 학습된 제1 CNN(convolutional neural network) 모델을 이용하여, UWB CIR(channel impulse response) 데이터에 기초하여 상기 UWB CIR에 대응하는 신호가 LOS(line of signt) 신호 또는 NLOS(non-LOS) 신호인지를 분류하기 위한 제1 예측 데이터를 획득하는 단계; 상기 신호가 상기 LOS 신호로 분류되는 경우, 학습된 제2 CNN 모델을 이용하여, 상기 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제2 예측 데이터를 획득하는 단계; 상기 신호가 상기 NLOS 신호로 분류되는 경우, 학습된 제3 CNN 모델을 이용하여, 상기 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제3 예측 데이터를 획득하는 단계; 제1 필터링 방식을 이용하여, 상기 제1 예측 데이터, 상기 제2 예측 데이터 및 상기 제3 예측 데이터 중 적어도 두 개에 대한 필터링을 수행하는 단계; 및 상기 필터링된 데이터에 기초하여, 상기 포즈를 분류하는 단계를 포함하며, 상기 제2 CNN 모델은 상기 LOS 신호와 연관된 센서 데이터를 이용하여 학습되고, 상기 제3 CNN 모델은 상기 NLOS 신호와 연관된 센서 데이터를 이용하여 학습될 수 있다.According to various embodiments of the present disclosure, a method of an electronic device uses a learned first convolutional neural network (CNN) model to generate a signal corresponding to the UWB CIR based on LOS data. Obtaining first prediction data to classify whether it is a (line of signt) signal or a non-LOS (NLOS) signal; If the signal is classified as the LOS signal, using a learned second CNN model, obtaining second prediction data for classifying a pose based on sensor data corresponding to the UWB CIR data; If the signal is classified as the NLOS signal, using a learned third CNN model, obtaining third prediction data for classifying a pose based on sensor data corresponding to the UWB CIR data; performing filtering on at least two of the first prediction data, the second prediction data, and the third prediction data using a first filtering method; and classifying the pose based on the filtered data, wherein the second CNN model is learned using sensor data associated with the LOS signal, and the third CNN model is trained using sensor data associated with the NLOS signal. It can be learned using data.
본 개시의 다양한 실시예에 따른, 전자 장치는 트랜시버; 및 상기 트랜시버에 연결된 컨트롤러를 포함하며, 상기 컨트롤러는: 학습된 제1 CNN(convolutional neural network) 모델을 이용하여, UWB CIR(channel impulse response) 데이터에 기초하여 상기 UWB CIR에 대응하는 신호가 LOS(line of signt) 신호 또는 NLOS(non-LOS) 신호인지를 분류하기 위한 제1 예측 데이터를 획득하고, 상기 신호가 상기 LOS 신호로 분류되는 경우, 학습된 제2 CNN 모델을 이용하여, 상기 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제2 예측 데이터를 획득하고, 상기 신호가 상기 NLOS 신호로 분류되는 경우, 학습된 제3 CNN 모델을 이용하여, 상기 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제3 예측 데이터를 획득하고, 제1 필터링 방식을 이용하여, 상기 제1 예측 데이터, 상기 제2 예측 데이터 및 상기 제3 예측 데이터 중 적어도 두 개에 대한 필터링을 수행하고, 상기 필터링된 데이터에 기초하여, 상기 포즈를 분류하도록 구성되며, 상기 제2 CNN 모델은 상기 LOS 신호와 연관된 센서 데이터를 이용하여 학습되고, 상기 제3 CNN 모델은 상기 NLOS 신호와 연관된 센서 데이터를 이용하여 학습될 수 있다.According to various embodiments of the present disclosure, an electronic device includes a transceiver; and a controller connected to the transceiver, wherein the controller: uses a learned first convolutional neural network (CNN) model to generate a signal corresponding to the UWB CIR based on UWB channel impulse response (CIR) data (LOS (LOS)). Obtain first prediction data to classify whether it is a line of signt (NLOS) signal or a non-LOS (NLOS) signal, and if the signal is classified as the LOS signal, use the learned second CNN model to obtain the UWB CIR Obtain second prediction data for classifying a pose based on sensor data corresponding to the data, and when the signal is classified as the NLOS signal, use a learned third CNN model to obtain second prediction data corresponding to the UWB CIR data. Obtaining third prediction data for classifying a pose based on sensor data, and filtering at least two of the first prediction data, the second prediction data, and the third prediction data using a first filtering method. and classify the pose based on the filtered data, wherein the second CNN model is learned using sensor data associated with the LOS signal, and the third CNN model is trained using sensor data associated with the NLOS signal. It can be learned using sensor data.
본 개시의 방안에 따르면, LOS/NLOS 신호 분류의 정확도를 높일 수 있다. According to the method of the present disclosure, the accuracy of LOS/NLOS signal classification can be improved.
또한, 본 개시의 방안에 따르면, 포즈 분류의 정확도를 높일 수 있다.Additionally, according to the method of the present disclosure, the accuracy of pose classification can be improved.
도 1은 전자 장치를 개략적으로 도시한 블록도이다.
도 2a는 본 개시의 일 실시예에 따른 UWB 장치의 예시적인 아키텍쳐를 나타낸다.
도 2b는 본 개시의 일 실시예에 따른 UWB 장치의 프레임워크의 예시적인 구성을 나타낸다.
도 3a는 본 개시의 일 실시예에 따른 UWB CIR 데이터의 일 예를 나타낸다.
도 3b는 본 개시의 일 실시예에 따른 유효 UWB CIR 데이터의 일 예를 나타낸다.
도 3c는 본 개시의 일 실시예에 따른 UWB CIR 데이터를 이용하여 분류된 LOS 신호 및 NLOS 신호의 일 예를 나타낸다.
도 4는 본 개시의 일 실시예에 따른 DS-TWR을 나타낸다.
도 5는 본 개시의 일 실시예에 따른 DL-TDoA를 나타낸다.
도 6은 본 개시의 일 실시예에 따른 UWB 채널 임펄스 응답 데이터를 이용한 LOS/NLOS 신호 분류를 위한 학습 절차 및 배포 절차를 나타낸다.
도 7은 본 개시의 일 실시예에 따른 LOS/NLOS 분류를 위한 사용자 장치의 구성을 나타낸다.
도 8은 본 개시의 일 실시예에 따른 UWB 채널 임펄스 응답 데이터를 이용한 LOS/NLOS 신호 분류에 기초한 포즈 분류를 위한 학습 절차를 나타낸다.
도 9는 본 개시의 일 실시예에 따른 UWB 채널 임펄스 응답 데이터를 이용한 LOS/NLOS 신호 분류에 기초한 포즈 분류를 위한 배포 절차를 나타낸다.
도 10은 본 개시의 일 실시예에 따른 LOS/NLOS 분류를 이용한 포즈 분류를 위한 사용자 장치의 구성을 나타낸다.
도 11은 본 개시의 일 실시예에 따른 전자 장치의 포즈 분류 방법을 나타낸다.
도 12는 본 개시의 일 실시예에 따른 전자 장치의 구조를 도시한 도면이다.1 is a block diagram schematically showing an electronic device.
2A shows an example architecture of a UWB device according to one embodiment of the present disclosure.
FIG. 2B shows an example configuration of a framework of a UWB device according to an embodiment of the present disclosure.
Figure 3A shows an example of UWB CIR data according to an embodiment of the present disclosure.
Figure 3b shows an example of effective UWB CIR data according to an embodiment of the present disclosure.
Figure 3c shows an example of a LOS signal and a NLOS signal classified using UWB CIR data according to an embodiment of the present disclosure.
Figure 4 shows DS-TWR according to an embodiment of the present disclosure.
Figure 5 shows DL-TDoA according to an embodiment of the present disclosure.
Figure 6 shows a learning procedure and distribution procedure for LOS/NLOS signal classification using UWB channel impulse response data according to an embodiment of the present disclosure.
Figure 7 shows the configuration of a user device for LOS/NLOS classification according to an embodiment of the present disclosure.
Figure 8 shows a learning procedure for pose classification based on LOS/NLOS signal classification using UWB channel impulse response data according to an embodiment of the present disclosure.
Figure 9 shows a distribution procedure for pose classification based on LOS/NLOS signal classification using UWB channel impulse response data according to an embodiment of the present disclosure.
Figure 10 shows the configuration of a user device for pose classification using LOS/NLOS classification according to an embodiment of the present disclosure.
Figure 11 shows a method for classifying a pose of an electronic device according to an embodiment of the present disclosure.
FIG. 12 is a diagram illustrating the structure of an electronic device according to an embodiment of the present disclosure.
이하, 본 개시의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the attached drawings.
실시 예를 설명함에 있어서 본 개시가 속하는 기술 분야에 익히 알려져 있고 본 개시와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 개시의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, description of technical content that is well known in the technical field to which this disclosure belongs and that is not directly related to this disclosure will be omitted. This is to convey the gist of the present disclosure more clearly without obscuring it by omitting unnecessary explanation.
마찬가지 이유로 첨부된 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some components in the attached drawings are exaggerated, omitted, or schematically shown. Additionally, the size of each component does not entirely reflect its actual size. In each drawing, identical or corresponding components are assigned the same reference numbers.
본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 개시의 실시 예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The advantages and features of the present disclosure and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms, and the embodiments of the present disclosure are merely intended to ensure that the present disclosure is complete and that common knowledge in the technical field to which the present disclosure pertains is provided. It is provided to fully inform those who have the scope of the disclosure, and the disclosure is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
이때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능할 수 있다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능할 수 있다.At this time, it will be understood that each block of the processing flow diagrams and combinations of the flow diagram diagrams can be performed by computer program instructions. These computer program instructions can be mounted on a processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, so that the instructions performed through the processor of the computer or other programmable data processing equipment are described in the flow chart block(s). It creates the means to perform functions. These computer program instructions may also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular manner, so that the computer-usable or computer-readable memory The instructions stored in may also be capable of producing manufactured items containing instruction means to perform the functions described in the flow diagram block(s). Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer, thereby generating a process that is executed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing the functions described in the flow diagram block(s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능할 수 있다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). Additionally, it should be noted that in some alternative execution examples it is possible for the functions mentioned in the blocks to occur out of order. For example, it is possible for two blocks shown in succession to be performed substantially at the same time, or it may be possible for the blocks to be performed in reverse order depending on the corresponding function.
이때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일부 실시 예에 따르면 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다. 또한 일부 실시 예에 따르면, '~부'는 하나 이상의 프로세서를 포함할 수 있다.At this time, the term '~unit' used in this embodiment refers to software or hardware components such as FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and '~unit' performs certain roles. do. However, '~part' is not limited to software or hardware. The '~ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, according to some embodiments, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and processes. Includes scissors, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card. Additionally, according to some embodiments, '~unit' may include one or more processors.
본 명세서에서 사용하는 용어 '단말' 또는 '기기'는 이동국(MS), 사용자 장비(UE; User Equipment), 사용자 터미널(UT; User Terminal), 무선 터미널, 액세스 터미널(AT), 터미널, 가입자 유닛(Subscriber Unit), 가입자 스테이션(SS; Subscriber Station), 무선 기기(wireless device), 무선 통신 디바이스, 무선 송수신 유닛(WTRU; Wireless Transmit/Receive Unit), 이동 노드, 모바일 또는 다른 용어들로서 지칭될 수 있다. 단말의 다양한 실시 예들은 셀룰러 전화기, 무선 통신 기능을 가지는 스마트 폰, 무선 통신 기능을 가지는 개인 휴대용 단말기(PDA), 무선 모뎀, 무선 통신 기능을 가지는 휴대용 컴퓨터, 무선 통신 기능을 가지는 디지털 카메라와 같은 촬영장치, 무선 통신 기능을 가지는 게이밍 장치, 무선 통신 기능을 가지는 음악저장 및 재생 가전제품, 무선 인터넷 접속 및 브라우징이 가능한 인터넷 가전제품뿐만 아니라 그러한 기능들의 조합들을 통합하고 있는 휴대형 유닛 또는 단말기들을 포함할 수 있다. 또한, 단말은 M2M(Machine to Machine) 단말, MTC(Machine Type Communication) 단말/디바이스를 포함할 수 있으나, 이에 한정되는 것은 아니다. 본 명세서에서 상기 단말은 전자 장치 또는 단순히 장치라 지칭할 수도 있다.The term 'terminal' or 'device' used in this specification refers to a mobile station (MS), user equipment (UE), user terminal (UT), wireless terminal, access terminal (AT), terminal, and subscriber unit. It may be referred to as a Subscriber Unit, a Subscriber Station (SS), a wireless device, a wireless communication device, a Wireless Transmit/Receive Unit (WTRU), a mobile node, a mobile, or other terms. . Various embodiments of the terminal include a cellular phone, a smart phone with a wireless communication function, a personal digital assistant (PDA) with a wireless communication function, a wireless modem, a portable computer with a wireless communication function, and a digital camera with a wireless communication function. It may include devices, gaming devices with wireless communication functions, music storage and playback home appliances with wireless communication functions, Internet home appliances capable of wireless Internet access and browsing, as well as portable units or terminals that integrate combinations of such functions. there is. Additionally, the terminal may include, but is not limited to, an M2M (Machine to Machine) terminal and an MTC (Machine Type Communication) terminal/device. In this specification, the terminal may be referred to as an electronic device or simply a device.
이하 첨부된 도면을 참조하여 본 개시의 동작 원리를 상세히 설명한다. 하기에서 본 개시를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, the operating principle of the present disclosure will be described in detail with reference to the attached drawings. In the following description of the present disclosure, if a detailed description of a related known function or configuration is determined to unnecessarily obscure the gist of the present disclosure, the detailed description will be omitted. In addition, the terms described below are terms defined in consideration of the functions in the present disclosure, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.
이하 본 개시의 실시 예를 첨부한 도면과 함께 상세히 설명한다. 이하에서는 UWB를 이용하는 통신 시스템을 일례로서 본 개시의 실시예를 설명하지만, 유사한 기술적 배경 또는 특성을 갖는 여타의 통신 시스템에도 본 개시의 실시예가 적용될 수 있다. 예를 들어, 블루투스 또는 지그비를 이용하는 통신 시스템 등이 이에 포함될 수 있을 것이다. 따라서, 본 개시의 실시예는 숙련된 기술적 지식을 가진 자의 판단으로써 본 개시의 범위를 크게 벗어나지 아니하는 범위에서 일부 변형을 통해 다른 통신시스템에도 적용될 수 있다.Hereinafter, embodiments of the present disclosure will be described in detail with the accompanying drawings. Hereinafter, embodiments of the present disclosure will be described using a communication system using UWB as an example, but embodiments of the present disclosure may also be applied to other communication systems with similar technical background or characteristics. For example, a communication system using Bluetooth or ZigBee may be included. Accordingly, the embodiments of the present disclosure may be applied to other communication systems through some modifications without significantly departing from the scope of the present disclosure at the discretion of a person with skilled technical knowledge.
또한, 본 개시를 설명함에 있어서 관련된 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 개시에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Additionally, when describing the present disclosure, if it is determined that a detailed description of a related function or configuration may unnecessarily obscure the gist of the present disclosure, the detailed description will be omitted. In addition, the terms described below are terms defined in consideration of the functions in the present disclosure, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.
일반적으로 무선 센서 네트워크 기술은 인식 거리에 따라 크게 무선랜(Wireless Local Area Network; WLAN) 기술과 무선 사설망(Wireless Personal Area Network; WPAN) 기술로 구분된다. 이때, 무선랜은 IEEE 802.11에 기반한 기술로서, 반경 100m 내외에서 기간망(backbone network)에 접속할 수 있는 기술이다. 그리고, 무선 사설망은 IEEE 802.15에 기반한 기술로서, 블루투스(Bluetooth), 지그비(ZigBee), 초광대역 통신(ultra wide band; UWB) 등이 있다. 이러한 무선 네트워크 기술이 구현되는 무선 네트워크는 복수의 전자 장치들로 이루어질 수 있다.In general, wireless sensor network technology is largely divided into wireless LAN (Wireless Local Area Network; WLAN) technology and wireless personal area network (WPAN) technology depending on recognition distance. At this time, wireless LAN is a technology based on IEEE 802.11 and is a technology that can connect to the backbone network within a radius of about 100m. Additionally, wireless private networks are technologies based on IEEE 802.15 and include Bluetooth, ZigBee, and ultra wide band (UWB). A wireless network in which this wireless network technology is implemented may be comprised of a plurality of electronic devices.
FCC (Federal Communications Commission)의 정의에 따르면, UWB는 500MHz 이상의 대역폭을 사용하거나, 또는 중심 주파수에 대응하는 대역폭이 20% 이상인 무선통신 기술을 의미할 수 있다. UWB는 UWB 통신이 적용되는 대역 자체를 의미할 수도 있다. UWB는 장치들 간의 안전하고 정확한(secure and accurate) 레인징을 가능하게 한다. 이를 통해, UWB는 두 장치 간의 거리에 기반한 상대적 위치 추정 또는 (위치가 알려진) 고정 장치들로부터의 거리에 기반한 장치의 정확한 위치 추정을 가능하게 한다.According to the definition of the Federal Communications Commission (FCC), UWB can refer to a wireless communication technology that uses a bandwidth of 500 MHz or more, or has a bandwidth of 20% or more corresponding to the center frequency. UWB may also refer to the band itself to which UWB communication is applied. UWB enables safe and accurate ranging between devices. Through this, UWB enables relative position estimation based on the distance between two devices or accurate position estimation of a device based on its distance from fixed devices (where the position is known).
이하의 설명에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.Specific terms used in the following description are provided to aid understanding of the present disclosure, and the use of such specific terms may be changed to other forms without departing from the technical spirit of the present disclosure.
* "Application Dedicated File (ADF)"는 예를 들면, 어플리케이션이나 어플리케이션 특정 데이터(application specific data)를 호스팅(hosting)할 수 있는 Application Data Structure 내의 데이터 구조일 수 있다.* “Application Dedicated File (ADF)” may be, for example, a data structure within the Application Data Structure that can host an application or application specific data.
"Application Protocol Data Unit(APDU)"는 UWB 장치 내의 Application Data Structure와 통신하는 경우에 사용되는 명령(command) 및 응답(response)일 수 있다.“Application Protocol Data Unit (APDU)” may be a command and response used when communicating with the Application Data Structure within a UWB device.
"application specific data"는 예컨대, UWB 세션을 위해 요구되는 UWB 컨트롤리 정보 및 UWB 세션 데이터를 포함하는 루트 레벨과 어플리케이션 레벨을 갖는 파일 구조일 수 있다.“Application specific data” may be, for example, a file structure with a root level and an application level containing UWB control information and UWB session data required for a UWB session.
"Controller"는 Ranging Control Messages (RCM) (또는, 제어 메시지)를 정의 및 제어하는 Ranging Device일 수 있다. Controller는 제어 메시지를 전송함으로써 레인징 특징들(ranging features)을 정의 및 제어할 수 있다.“Controller” may be a Ranging Device that defines and controls Ranging Control Messages (RCM) (or control messages). The controller can define and control ranging features by transmitting a control message.
"Controlee"는 Controller로부터 수신된 RCM (또는, 제어 메시지)내의 레인징 파라미터를 이용하는 Ranging Device일 수 있다. Controlee는 Controller로부터 제어 메시지를 통해 설정된 것과 같은 레인징 특징들을 이용할 수 있다.“Controlee” may be a ranging device that uses ranging parameters in the RCM (or control message) received from the controller. Controlee can use the same ranging features as set through control messages from Controller.
"Dynamic STS(Scrambled Timestamp Sequence) mode"는 "Static STS"와 달리, STS가 레인징 세션 동안 반복되지 않는 동작 모드일 수 있다. 이 모드에서 STS는 Ranging device에서 관리되고, STS를 생성하는 Ranging Session Key는 Secure Component에 의해 관리될 수 있다.Unlike “Static STS,” “Dynamic STS (Scrambled Timestamp Sequence) mode” may be an operation mode in which STS is not repeated during a ranging session. In this mode, STS is managed by the ranging device, and the ranging session key that creates the STS can be managed by the Secure Component.
"Applet"는 예컨대, UWB 파라미터들과 서비스 데이터를 포함하는 Secure Component 상에서 실행되는 applet일 수 있다. Applet은 FiRa Applet일 수 있다.“Applet” may be, for example, an applet running on the Secure Component containing UWB parameters and service data. The Applet may be a FiRa Applet.
"Ranging Device"는 UWB 레인징을 수행할 수 있는 장치일 수 있다. 본 개시에서, Ranging Device는 IEEE 802.15.4z에 정의된 Enhanced Ranging Device (ERDEV) 또는 FiRa Device일 수 있다. Ranging Device는 UWB device로 지칭될 수 있다.“Ranging Device” may be a device capable of performing UWB ranging. In this disclosure, the Ranging Device may be an Enhanced Ranging Device (ERDEV) or a FiRa Device defined in IEEE 802.15.4z. Ranging Device may be referred to as a UWB device.
"UWB-enabled Application"는 UWB 서비스를 위한 어플리케이션일 수 있다. 예를 들면, UWB-enabled Application는 UWB 세션을 위한, OOB Connector, Secure Service 및/또는 UWB 서비스를 구성하기 위한 Framework API를 이용하는 어플리케이션일 수 있다. "UWB-enabled Application"는 어플리케이션 또는 UWB 어플리케이션으로 약칭될 수 있다. UWB-enabled Application은 FiRa-enabled Application일 수 있다.“UWB-enabled Application” may be an application for UWB service. For example, a UWB-enabled Application may be an application that uses the Framework API to configure an OOB Connector, Secure Service, and/or UWB service for a UWB session. “UWB-enabled Application” may be abbreviated as application or UWB application. A UWB-enabled Application may be a FiRa-enabled Application.
"Framework"는 Profile에 대한 access, 개별 UWB 설정 및/또는 통지를 제공하는 컴포넌트일 수 있다. Framework는 예컨대, Profile Manager, OOB Connector, Secure Service 및/또는 UWB 서비스를 포함하는 논리적 소프트웨어 컴포넌트(logical software components)의 집합(collection)일 수 있다. Framework는 FiRa Framework일 수 있다.“Framework” may be a component that provides access to the Profile, individual UWB settings, and/or notifications. The Framework may be a collection of logical software components, including, for example, Profile Manager, OOB Connector, Secure Service, and/or UWB Service. The Framework may be FiRa Framework.
"OOB Connector"는 Ranging Device 간의 OOB(out-of-band) 연결(예컨대, BLE 연결)을 설정하기 위한 소프트웨어 컴포넌트일 수 있다. OOB Connector는 FiRa OOB Connector일 수 있다.“OOB Connector” may be a software component for establishing an out-of-band (OOB) connection (e.g., BLE connection) between Ranging Devices. The OOB Connector may be FiRa OOB Connector.
"Profile"은 UWB 및 OOB 설정 파라미터(configuration parameter)의 미리 정의된 세트일 수 있다. Profile은 FiRa Profile일 수 있다.“Profile” may be a predefined set of UWB and OOB configuration parameters. The Profile may be a FiRa Profile.
"Profile Manager"는 Ranging Device에서 이용가능한 프로필을 구현하는 소프트웨어 컴포넌트일 수 있다. Profile Manager는 FiRa Profile Manager일 수 있다.“Profile Manager” may be a software component that implements profiles available on the Ranging Device. The Profile Manager may be FiRa Profile Manager.
"Service"는 end-user에 서비스를 제공하는 use case의 implementation일 수 있다.“Service” may be the implementation of a use case that provides a service to an end-user.
"Smart Ranging Device"는 옵셔널한 Framework API를 구현할 수 있는 Ranging Device 일 수 있다. Smart Ranging Device는 FiRa Smart Device일 수 있다.“Smart Ranging Device” may be a ranging device that can implement an optional Framework API. The Smart Ranging Device may be a FiRa Smart Device.
"Global Dedicated File(GDF)"는 USB 세션을 설정하기 위해 필요한 데이터를 포함하는 application specific data의 root level일 수 있다. “Global Dedicated File (GDF)” may be the root level of application specific data containing data required to establish a USB session.
"Framework API"는 Framework와 통신하기 위해 UWB-enabled Application에 의해 사용되는 API일 수 있다.“Framework API” may be an API used by a UWB-enabled Application to communicate with the Framework.
"Initiator"는 레인징 교환(ranging exchange)을 개시하는 Ranging Device일 수 있다. Initiator는 첫 번째 RFRAME (레인징 교환 메시지)를 전송함으로써 레인징 교환을 개시할 수 있다.“Initiator” may be a Ranging Device that initiates a ranging exchange. The initiator can initiate a ranging exchange by sending the first RFRAME (Ranging Exchange Message).
"Object Identifier(OID)"는 application data structure 내의 ADF의 식별자일 수 있다.“Object Identifier (OID)” may be an identifier of the ADF within the application data structure.
"Out-Of-Band(OOB)"는 하위(underlying) 무선 기술로서 UWB를 사용하지 않는 데이터 통신일 수 있다.“Out-Of-Band (OOB)” is an underlying wireless technology and may be data communication that does not use UWB.
"Ranging Data Set(RDS)"는 confidentiality, authenticity 및 integrity가 보호될 필요가 있는 UWB 세션을 설정하기 위해 요구되는 데이터(예컨대, UWB 세션 키, 세션 ID 등)일 수 있다.“Ranging Data Set (RDS)” may be data (e.g., UWB session key, session ID, etc.) required to establish a UWB session for which confidentiality, authenticity, and integrity need to be protected.
"Responder"는 레인징 교환에서 Initiator에 응답하는 Ranging Device일 수 있다. Responder는 Initiator로부터 수신된 레인징 교환 메시지에 응답할 수 있다.“Responder” may be a Ranging Device that responds to the Initiator in a ranging exchange. The Responder can respond to the ranging exchange message received from the Initiator.
"STS"는 레인징 측정 타임스탬프(ranging measurement timestamps)의 무결성 및 정확도(integrity and accuracy)를 증가시키기 위한 암호화된 시퀀스(ciphered sequence)일 수 있다. STS는 레인징 세션 키로부터 생성될 수 있다.“STS” may be an encrypted sequence to increase the integrity and accuracy of ranging measurement timestamps. STS can be generated from the ranging session key.
"Secure Channel"는 overhearing 및 tampering을 방지하는 데이터 채널일 수 있다.“Secure Channel” may be a data channel that prevents overhearing and tampering.
"Secure Component"은 예컨대, dynamic STS가 사용되는 경우에, UWBS에 RDS를 제공하기 위한 목적으로 UWBS와 인터페이싱하는 정의된 보안 레벨을 갖는 엔티티(예컨대, SE (Secure Element) 또는 TEE(Trusted Execution Environment))일 수 있다.“Secure Component” is an entity (e.g., Secure Element (SE) or Trusted Execution Environment (TEE)) with a defined level of security that interfaces with the UWBS for the purpose of providing RDS to the UWBS, e.g., when dynamic STS is used. ) can be.
"SE"는 Ranging Device 내 Secure Component로서 사용될 수 있는 tamper-resistant secure hardware component일 수 있다.“SE” may be a tamper-resistant secure hardware component that can be used as a Secure Component in a Ranging Device.
"Secure Ranging"은 강한 암호화 동작을 통해 생성된 STS에 기초한 레인징일 수 있다.“Secure Ranging” may be ranging based on an STS generated through strong encryption operations.
"Secure Service"는 Secure Element 또는 TEE와 같은 Secure Component와 인터페이싱하기 위한 소프트웨어 컴포넌트일 수 있다.“Secure Service” may be a software component for interfacing with a Secure Component such as a Secure Element or TEE.
"Service Applet"은 서비스 특정 트랜잭션을 다루는 Secure Component 상의 applet일 수 있다.“Service Applet” may be an applet on the Secure Component that handles service-specific transactions.
"Service Data"는 service를 구현하기 위해 두 ranging device 간에 전달될 필요가 있는 Service Provider에 의해 정의된 데이터일 수 있다.“Service Data” may be data defined by the Service Provider that needs to be transferred between two ranging devices to implement a service.
"Service Provider"는 end-user에게 특정 서비스를 제공하기 위해 요구되는 하드웨어 및 소프트웨어를 정의하고 제공하는 엔티티일 수 있다.“Service Provider” may be an entity that defines and provides hardware and software required to provide specific services to end-users.
"Static STS mode"는 STS가 세션 동안 반복되는 동작 모드로서, Secure Component에 의해 관리될 필요가 없다.“Static STS mode” is an operation mode in which STS repeats during a session and does not need to be managed by the Secure Component.
"Secure UWB Service(SUS) Applet"은 다른 Ranging device와 보안 UWB 세션을 가능하게 하기 위해 필요한 데이터를 검색하기 위해, applet과 통신하는 SE 상의 applet일 수 있다. 또한, SUS Applet은 해당 데이터(정보)를 UWBS로 전달할 수 있다.A “Secure UWB Service (SUS) Applet” may be an applet on the SE that communicates with the applet to retrieve data needed to enable a secure UWB session with another ranging device. Additionally, SUS Applet can transmit the data (information) to UWBS.
"UWB Service"는 UWBS에 대한 접속(access)을 제공하는 소프트웨어 component일 수 있다.“UWB Service” may be a software component that provides access to UWBS.
"UWB Session"은 Controller 및 Controlee가 UWB를 통해 통신을 시작할때부터 통신을 정지할 때까지의 기간일 수 있다. UWB Session은 레인징, 데이터 전달 또는 레인징/데이터 전달 둘 모두를 포함할 수 있다.“UWB Session” may be the period from when the Controller and Controlee start communication through UWB until they stop communication. A UWB Session may include ranging, data forwarding, or both ranging/data forwarding.
"UWB Session ID"는 컨트로러와 컨트롤리 사이에 공유되는, UWB Session을 식별하는 ID(예컨대, 32 비트의 정수)일 수 있다.“UWB Session ID” may be an ID (e.g., a 32-bit integer) that identifies the UWB Session, shared between the controller and the controller.
"UWB Session Key"는 UWB Session을 보호하기 위해 사용되는 키일 수 있다. UWB Session Key는 STS를 생성하기 위해 사용될 수 있다. UWB Session Key는 UWB Ranging Session Key(URSK)일 수 있고, 세션 키로 약칭될 수 있다.“UWB Session Key” may be a key used to protect the UWB Session. UWB Session Key can be used to create STS. The UWB Session Key may be UWB Ranging Session Key (URSK), and may be abbreviated as session key.
"UWB Subsystem(UWBS)"는 UWB PHY 및 MAC 레이어(스펙)를 구현하는 하드웨어 컴포넌트일 수 있다. UWBS는 Framework에 대한 인터페이스 및 RDS를 검색하기 위한 Secure Component에 대한 인터페이스를 가질 수 있다.“UWB Subsystem (UWBS)” may be a hardware component that implements the UWB PHY and MAC layer (specification). UWBS can have an interface to the Framework and an interface to the Secure Component to retrieve the RDS.
*“UWB 메시지”는 UWB 장치(예컨대, ERDEV)에 의해 전송되는 payload IE를 포함하는 메시지일 수 있다. UWB 메시지는 예컨대, RIM(ranging initiation message), RRM(ranging response message), RFM(ranging final message), CM(control message), MRM(measurement report message), RRRM(Ranging Result Report Message), CUM(control update message), OWR(one-way ranging) 메시지와 같은 메시지일 수 있다. 필요한 경우, 복수의 메시지가 하나의 메시지로 병합될 수 있다.*“UWB message” may be a message containing payload IE transmitted by a UWB device (eg, ERDEV). UWB messages include, for example, ranging initiation message (RIM), ranging response message (RRM), ranging final message (RFM), control message (CM), measurement report message (MRM), ranging result report message (RRRM), and control message (CUM). It may be a message such as an update message) or a one-way ranging (OWR) message. If necessary, multiple messages can be merged into one message.
* “OWR”는 레인징 장치와 하나 이상의 다른 레인징 장치 사이에 한 방향으로 전송되는 메시지들을 이용하는 레인징 방식일 수 있다. OWR은 TDoA(Time Difference of Arrival)를 측정하기 위해 사용될 수 있다. 추가적으로, OWR은 TDoA를 측정하는 것이 아닌, 수신 측에서 AoA를 측정하기 위해 사용될 수 있다. 이 경우, 하나의 Advertiser와 하나의 observer 쌍이 이용될 수 있다. * “OWR” may be a ranging method that uses messages transmitted in one direction between a ranging device and one or more other ranging devices. OWR can be used to measure Time Difference of Arrival (TDoA). Additionally, OWR can be used to measure AoA at the receiving end rather than measuring TDoA. In this case, one advertiser and one observer pair can be used.
“TWR”는 두 장치 간 레인징 메시지의 교환을 통해 ToF(time of flight)를 측정하여, 두 장치 간 상대적 거리를 추정할 수 있는 레인징 방식일 수 있다. TWR 방식은 double-sided two-way ranging(DS-TWR) 및 single-sided two-way ranging(SS-TWR) 중 하나일 수 있다. SS-TWR은 한번의 round-trip time measurement를 통해 레인징을 수행하는 절차일 수 있다. 예를 들면, SS-TWR은 initiator에서 responder로의 RIM의 전송 동작, 및 responder에서 initiator로의 RRM의 전송 동작을 포함할 수 있다. DS-TWR은 두 번의 round-trip time measurement를 통해 레인징을 수행하는 절차일 수 있다. 예를 들면, DS-TWR은 initiator에서 responder로의 RIM의 전송 동작, responder에서 initiator로의 RRM의 전송 동작 및 intiator에서 responder로의 RFM의 전송 동작을 포함할 수 있다. 이러한 레인징 교환(레인징 메시지 교환)을 통해, ToF(time of flight)가 계산될 수 있고, 두 장치간의 거리가 추정될 수 있다. 한편, TWR 과정에서, 측정된 AoA 정보(예컨대, AoA azimuth result, AoA elevation result)는 RRRM 또는 다른 메시지를 통해 다른 레인징 장치로 전달될 수 있다. 본 개시에서, TWR은 UWB TWR로 지칭될 수 있다.“TWR” may be a ranging method that can estimate the relative distance between two devices by measuring ToF (time of flight) through the exchange of ranging messages between two devices. The TWR method may be one of double-sided two-way ranging (DS-TWR) and single-sided two-way ranging (SS-TWR). SS-TWR may be a procedure that performs ranging through one round-trip time measurement. For example, SS-TWR may include a transfer operation of RIM from the initiator to the responder, and a transfer operation of RRM from the responder to the initiator. DS-TWR may be a procedure that performs ranging through two round-trip time measurements. For example, DS-TWR may include a transfer operation of RIM from the initiator to the responder, a transfer operation of RRM from the responder to the initiator, and a transfer operation of RFM from the intiator to the responder. Through this ranging exchange (ranging message exchange), time of flight (ToF) can be calculated and the distance between the two devices can be estimated. Meanwhile, in the TWR process, measured AoA information (eg, AoA azimuth result, AoA elevation result) may be transmitted to another ranging device through RRRM or other messages. In this disclosure, TWR may be referred to as UWB TWR.
“DL-TDoA”는 Downlink Time Difference of Arrival (DL-TDoA), reverse TDoA라 불릴 수 있으며, 복수 개의 앵커 장치가 메시지를 브로드캐스트 또는 서로 메시지를 주고받는 과정에서, 사용자 장치(Tag 장치)가 앵커 디바이스의 메시지를 overhear하는 것이 기본 동작일 수 있다. DL-TDoA는 Uplink TDoA와 같이 one way ranging의 일종으로 분류될 수도 있다. DL-TDoA 동작을 수행하는, 사용자 장치는 두 앵커 장치가 송신하는 메시지를 overhear하여, 각 앵커 장치와 사용자 장치의 거리의 차이에 비례하는 Time Difference of Arrival (TDoA)을 계산할 수 있다. 사용자 장치는 여러 쌍 (pair)의 앵커 장치와의 TDoA를 이용하여, 앵커 장치와의 상대적인 거리를 계산하여 측위에 사용할 수 있다. DL-TDoA를 위한 앵커 장치의 동작은 IEEE 802.15.4z에 정의된 DS-TWR (Double Side-Two Way Ranging)와 유사한 동작을 할 수 있으며, 사용자 장치가 TDoA를 계산할 수 있도록 다른 유용한 시간 정보를 더 포함할 수도 있다. 본 개시에서, DL-TDoA는 DL-TDoA localization으로 지칭될 수 있다.“DL-TDoA” may be called Downlink Time Difference of Arrival (DL-TDoA) or reverse TDoA. In the process of multiple anchor devices broadcasting messages or exchanging messages with each other, the user device (Tag device) becomes the anchor device. Overhearing messages from the device may be the default behavior. DL-TDoA may be classified as a type of one way ranging, like Uplink TDoA. A user device performing a DL-TDoA operation can overhear messages transmitted by two anchor devices and calculate Time Difference of Arrival (TDoA), which is proportional to the difference in distance between each anchor device and the user device. The user device can use the TDoA with multiple pairs of anchor devices to calculate the relative distance to the anchor device and use it for positioning. The operation of the anchor device for DL-TDoA may be similar to Double Side-Two Way Ranging (DS-TWR) defined in IEEE 802.15.4z, and other useful time information may be added to enable the user device to calculate TDoA. It may also be included. In this disclosure, DL-TDoA may be referred to as DL-TDoA localization.
"Anchor device"는 앵커, UWB 앵커, UWB 앵커 장치라 불릴 수 있으며, 측위 서비스를 제공하기 위해 특정 위치에 배치된 UWB 장치일 수 있다. 예를 들면, 앵커 장치는 실내 측위 서비스를 제공하기 위해서 서비스 제공자가 실내의 벽, 천장, 구조물 등에 설치한 UWB 장치일 수 있다. 앵커 장치는 메시지를 송신하는 순서와 역할에 따라서 Initiator 앵커, Responder 앵커로 구분될 수도 있다. “Anchor device” may be called an anchor, UWB anchor, or UWB anchor device, and may be a UWB device placed at a specific location to provide a positioning service. For example, an anchor device may be a UWB device installed by a service provider on an indoor wall, ceiling, or structure to provide an indoor positioning service. Anchor devices may be classified into Initiator anchors and Responder anchors depending on the order and role of transmitting messages.
"Initiator anchor"는 Initiator UWB 앵커, Initiator 앵커 장치 등으로 불릴 수 있으며, 특정 레인징 라운드 (ranging round)의 개시를 알릴 수 있다. Initiator 앵커는 동일한 레인징 라운드에서 동작하는 Responder 앵커들이 응답을 하는 레인징 슬롯을 스케줄링할 수도 있다. Initiator 앵커의 개시 메시지는 Initiator DTM (Downlink TDoA Message), Poll 메시지로 지칭될 수 있다. Initiator 앵커의 개시 메시지는 송신 타임스탬프 (transmission timestamp)를 포함할 수도 있다. Initiator 앵커는 Responder 앵커들의 응답을 수신 후 종료 메시지를 추가로 전달할 수도 있다. Initiator 앵커의 종료 메시지는 Final DTM, Final 메시지로 지칭될 수 있다. 종료 메시지에는 Responder 앵커들이 보낸 메시지에 대한 응답 시간(reply time)을 포함할 수도 있다. 종료 메시지는 송신 타임스탬프 (transmission timestamp)를 포함할 수도 있다.“Initiator anchor” may be called an Initiator UWB anchor, an Initiator anchor device, etc., and may announce the start of a specific ranging round. The Initiator anchor may schedule ranging slots in which Responder anchors operating in the same ranging round respond. The initiation message of the Initiator anchor may be referred to as an Initiator DTM (Downlink TDoA Message) or Poll message. The initiation message of the Initiator anchor may include a transmission timestamp. The Initiator anchor may additionally deliver a termination message after receiving responses from Responder anchors. The end message of the Initiator anchor may be referred to as Final DTM or Final message. The end message may also include the reply time for messages sent by Responder anchors. The termination message may include a transmission timestamp.
"Responder anchor"는 Responder UWB 앵커, Responder UWB 앵커 장치, Responder 앵커 장치 등으로 불릴 수 있다. Responder 앵커는 Initiator 앵커의 개시 메시지에 응답하는 UWB 앵커일 수 있다. Responder 앵커가 응답하는 메시지에는 개시 메시지에 대한 응답 시간을 포함할 수 있다. Responder 앵커가 응답하는 메시지는 Responder DTM, Response 메시지로 지칭될 수 있다. Responder 앵커의 응답 메시지에는 송신 타임스탬프 (transmission timestamp)를 포함할 수도 있다.“Responder anchor” may be called Responder UWB anchor, Responder UWB anchor device, Responder anchor device, etc. The Responder anchor may be a UWB anchor that responds to the Initiator anchor's initiation message. The message to which the Responder anchor responds may include the response time to the opening message. The message that the Responder anchor responds to may be referred to as a Responder DTM or Response message. The Responder anchor's response message may include a transmission timestamp.
"Cluster"는 특정 영역을 커버하는 UWB 앵커의 집합을 의미할 수 있다. 클러스터는 Initiator UWB anchor와 이에 응답하는 responder UWB anchor들로 구성될 수 있다. 2D 측위를 위해서는 통상적으로 하나의 Initiator UWB anchor와 최소 3개의 responder UWB anchor가 필요하며, 3D 측위를 위해서는 하나의 Initiator UWB anchor와 최소 4개의 responder UWB anchor가 필요하다. Initiator UWB anchor와 responder UWB anchor가 별도의 유/무선 연결로 시동기(time synchronization)를 정확하게 맞출 수 있다면, 2D 측위를 위해서는 1개의 Initiator UWB anchor와 2개의 responder UWB anchor가 필요하고, 3D 측위를 위해서는 1개의 initiator UWB anchor와 3개의 responder UWB anchor가 필요하다. 별도의 언급이 없는 경우, UWB anchor 간 별도의 유/무선 시동기를 위한 장치가 없다고 가정한다. 클러스터의 영역은 클러스터를 구성하는 UWB anchor들이 이루는 공간일 수 있다. 넓은 영역에 대한 측위 서비스를 지원하기 위해서 복수 개의 클러스터를 구성하여 사용자 장치에 측위 서비스를 제공할 수 있다. 클러스터는 셀(cell)로 지칭될 수도 있다. 클러스터의 동작은 클러스터에 속하는 앵커(들)의 동작으로 이해될 수 있다.“Cluster” may refer to a set of UWB anchors covering a specific area. A cluster can be composed of an initiator UWB anchor and responder UWB anchors that respond to it. For 2D positioning, one initiator UWB anchor and at least three responder UWB anchors are typically required, and for 3D positioning, one initiator UWB anchor and at least four responder UWB anchors are required. If the initiator UWB anchor and the responder UWB anchor can accurately synchronize the initiator (time synchronization) with separate wired/wireless connections, 1 initiator UWB anchor and 2 responder UWB anchors are needed for 2D positioning, and 1 for 3D positioning. Two initiator UWB anchors and three responder UWB anchors are required. Unless otherwise stated, it is assumed that there is no separate device for wired/wireless starter between UWB anchors. The area of the cluster may be a space formed by the UWB anchors that make up the cluster. To support positioning services for a wide area, multiple clusters can be configured to provide positioning services to user devices. A cluster may also be referred to as a cell. The operation of a cluster can be understood as the operation of anchor(s) belonging to the cluster.
도 1은 전자 장치를 개략적으로 도시한 블록도이다.1 is a block diagram schematically showing an electronic device.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1, in the
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비 휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비 휘발성 메모리(134)를 포함할 수 있다. The
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, 와이파이(Wi-Fi: wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
The
다양한 실시 예들에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술에 기반하여 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the electronic device 101 and the external
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, and should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited. One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.” When mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
본 문서의 다양한 실시 예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 두 개 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. can be used A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or two or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. . According to various embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.
도 2a는 본 개시의 일 실시예에 따른 UWB 장치의 예시적인 아키텍쳐를 나타낸다.2A shows an example architecture of a UWB device according to one embodiment of the present disclosure.
본 개시에서, UWB 장치(200)는 UWB 통신을 지원하는 전자 장치일 수 있다. 예컨대, UWB 장치(200)는 도 1의 전자 장치(101)의 일 예일 수 있다. In this disclosure, the
UWB 장치(200)는 예컨대, UWB 레인징을 지원하는 Ranging Device일 수 있다. 일 실시예에서, Ranging Device는 ERDEV (enhanced ranging device) 또는 FiRa Device일 수 있다.For example, the
도 2a의 실시예에서, UWB 장치(200)는 UWB 세션을 통해 다른 UWB 장치와 상호작용(interact)할 수 있다.In the embodiment of FIG. 2A,
또한, UWB 장치(200)는 UWB-enabled Application(210)과 UWB Framework(220) 간의 인터페이스인 제1 인터페이스(Interface #1)를 구현할 수 있고, 제1 인터페이스는 UWB 장치(200) 상의 UWB-enabled application(110)이 미리 정해진 방식으로 UWB 장치(200)의 UWB 성능들을 사용할 수 있게 해준다. 일 실시예에서, 제1 인터페이스는 Framework API 또는 proprietary interface일 수 있으나, 이에 한정되지 않는다.Additionally, the
또한, UWB 장치(200)는 UWB Framework(210)와 UWB 서브시스템(UWBS)(230) 간의 인터페이스인 제2 인터페이스(Interface #2)를 구현할 수 있다. 일 실시예에서, 제2 인터페이스는 UCI(UWB Command Interface) 또는 proprietary interface일 수 있으나, 이에 한정되지 않는다.Additionally, the
도 2a를 참조하면, UWB 장치(200)는 UWB-enabled Application(210), Framework(UWB Framework)(220), 및/또는 UWB MAC Layer와 UWB Physical Layer를 포함하는 UWBS(230)를 포함할 수 있다. 실시예에 따라서는, 일부 엔티티가 UWB 장치에 포함되지 않거나, 추가적인 엔티티(예컨대, 보안 레이어)가 더 포함될 수 있다.Referring to FIG. 2A, the
UWB-enabled Application(210)은 제1 인터페이스를 이용하여 UWBS(230)에 의한 UWB 세션의 설정을 트리거링할 수 있다. 또한, UWB-enabled Application(210)은 미리 정의된 프로필(profile) 중 하나를 사용할 수 있다. 예를 들면, UWB-enabled Application(210)은 FiRa에 정의된 프로필 중 하나 또는 custom profile을 사용할 수 있다. UWB-enabled Application(210)은 제1 인터페이스를 사용하여, 서비스 발견(Service discovery), 레인징 통지(Ranging notifications), 및/또는 에러 컨디션(Error conditions)과 같은 관련 이벤트를 다룰 수 있다.The UWB-enabled
Framework(220)는 Profile에 대한 access, 개별 UWB 설정 및/또는 통지를 제공할 수 있다. 또한, Framework(220)는 UWB 레인징 및 트랜잭션 수행을 위한 기능, 어플리케이션 및 UWBS(230)에 대한 인터페이스 제공 기능 또는 장치(200)의 위치 추정 기능과 같은 기능 중 적어도 하나를 지원할 수 있다. Framework(220)는 소프트웨어 컴포넌트의 집합일 수 있다. 상술한 것처럼, UWB-enabled Application(210)은 제1 인터페이스를 통해 프레임워크(220)와 인터페이싱할 수 있고, 프레임워크(220)는 제2 인터페이스를 통해 UWBS(230)와 인터페이싱할 수 있다.
한편, 본 개시에서, UWB-enabled Application(210) 및/또는 Framework(220)는 어플리케이션 프로세서(AP)(또는, 프로세서)에 의해 구현될 수 있다. 따라서, 본 개시에서, UWB-enabled Application(210) 및/또는 Framework(220)의 동작은 AP(또는, 프로세서)에 의해 수행되는 것으로 이해될 수 있다. 본 개시에서, 프레임워크는 AP, 프로세서로 지칭될 수 있다.Meanwhile, in the present disclosure, the UWB-enabled
UWBS(230)는 UWB MAC Layer와 UWB Physical Layer를 포함하는 하드웨어 컴포넌트일 수 있다. UWBS(230)는 UWB 세션 관리를 수행하고, 다른 UWB 장치의 UWBS와 통신할 수 있다. UWBS(230)는 제2 인터페이스를 통해 Framework(120)와 인터페이싱할 수 있고, Secure Component로부터 보안 데이터를 획득할 수 있다. 일 실시예에서, Framework(또는, 어플리케이션 프로세서)(220)는 UCI를 통해서 명령(command)을 UWBS(230)로 전송할 수 있고, UWBS(230)는 명령에 대한 응답(response)를 Framework(220)에 전달할 수 있다. UWBS(230)는 UCI를 통해 Framework(120)에 통지(notification)을 전달할 수도 있다.
도 2b는 본 개시의 일 실시예에 따른 UWB 장치의 프레임워크의 예시적인 구성을 나타낸다.FIG. 2B shows an example configuration of a framework of a UWB device according to an embodiment of the present disclosure.
도 2b의 UWB 장치는 도 2a의 UWB 장치의 일 예일 수 있다.The UWB device in FIG. 2B may be an example of the UWB device in FIG. 2A.
도 2b을 참조하면, Framework(220)는 예컨대, Profile Manager(221), OOB Connector(s)(222), Secure Service(223) 및/또는 UWB 서비스(224)와 같은 소프트웨어 컴포넌트를 포함할 수 있다.Referring to Figure 2b, the
Profile Manager(221)는 UWB 장치 상에서 이용 가능한 프로필을 관리하기 위한 역할을 수행할 수 있다. 여기서, 프로필은 UWB 장치 사이에 통신을 설정하기 위해 요구되는 파라미터의 집합일 수 있다. 예를 들면, 프로필은 어떤 OOB 보안 채널이 사용되는지를 나타내는 파라미터, UWB/OOB 설정 파라미터, 특정 보안 컴포넌트의 사용이 맨데토리(mandatory)인지를 나타내는 파라미터 및/또는 ADF의 파일 구조와 관련된 파라미터를 포함할 수 있다. UWB-enabled Application(210)은 제1 인터페이스(예컨대, Framework API)를 통해 Profile Manager(221)와 통신할 수 있다.
OOB Connector(222)는 다른 장치와 OOB 연결을 설정하기 위한 역할을 수행할 수 있다. OOB Connector(222)는 디스커버리 단계 및/또는 연결 단계를 포함하는 OOB 단계를 다룰 수 있다. OOB 컴포넌트(예컨대, BLE 컴포넌트)(250)는 OOB Connector(222)와 연결될 수 있다.The
Secure Service(223)는 SE 또는 TEE와 같은 Secure Component(240)와 인터페이싱하는 역할을 수행할 수 있다.
UWB Service(224)는 UWBS(230)를 관리하는 역할을 수행할 수 있다. UWB Service(224)는 제2 인터페이스를 구현함으로써, Profile Manager(321)에서 UWBS(230)로의 access를 제공할 수 있다.
* 본 개시는, UWB 신호를 이용하여 포즈 검출(pose detection)을 수행하기 위한 방법 및 장치를 제공한다. UWB 신호는 DL-TDoA 레인징(OWR)을 위해 사용되는 UWB 신호이거나, 또는 DS-TWR 레인징을 위해 사용되는 UWB 신호일 수 있다. 본 개시에서, 포즈는 예컨대, 사용자가 사용자 장치를 어디에 들고 있는지(예: handheld) 또는 어디에 넣어두고 있는지(예: back pocket/front pocket)와 관련된 포즈일 수 있다.* The present disclosure provides a method and device for performing pose detection using a UWB signal. The UWB signal may be a UWB signal used for DL-TDoA ranging (OWR), or a UWB signal used for DS-TWR ranging. In the present disclosure, a pose may be, for example, a pose related to where the user is holding the user device (eg, handheld) or where it is placed (eg, back pocket/front pocket).
본 개시는, UWB 신호를 수신하여 UWB 채널 임펄스 응답(channel impulse response: CIR) 데이터를 획득하고, UWB CIR 데이터에 기초하여 UWB 신호가 LOS(line of sight) 신호인지 또는 NLOS(non-LOS) 신호인지를 분류하는 방안을 제공한다. LOS 신호 또는 NLOS 신호의 분류(classification)를 위해, CNN(convolutional neural network) 알고리즘이 사용될 수 있다. 이처럼, 시계열 특성을 갖는 데이터를 CNN 모델을 이용하여 분류함으로써, 높은 분류 정확도를 가질 수 있다. LOS 신호 또는 NLOS 신호의 분류를 위해 사용되는 CNN 모델에 대한 입력 데이터로서, UWB CIR 데이터에서 노이즈가 제거된 유효(effective) CIR 데이터가 사용될 수 있다. 이를 통해, LOS/NLOS 신호의 분류 정확도 및 포즈의 분류 정확도가 높아질 수 있다.The present disclosure receives a UWB signal, obtains UWB channel impulse response (CIR) data, and determines whether the UWB signal is a line of sight (LOS) signal or a non-LOS (NLOS) signal based on the UWB CIR data. Provides a way to classify cognition. For classification of LOS signals or NLOS signals, a convolutional neural network (CNN) algorithm may be used. In this way, by classifying data with time series characteristics using a CNN model, high classification accuracy can be achieved. As input data for a CNN model used to classify LOS signals or NLOS signals, effective CIR data from which noise has been removed from UWB CIR data can be used. Through this, the classification accuracy of LOS/NLOS signals and the classification accuracy of poses can be increased.
본 개시는, LOS 신호 또는 NLOS 신호의 분류 결과(신호 분류 결과) 및 센싱 데이터를 이용하여, 포즈의 분류를 수행하는 방안을 제공한다. 센싱 데이터로는 IMU(inertial measurement unit) 센서의 데이터가 이용될 수 있다. 신호 분류 결과 및 센싱 데이터를 이용한 포즈의 분류를 수행하기 위해, LOS/NLOS 신호의 분류를 위해 사용되는 CNN 모델과 상이한, 2 개의 CNN 모델(예컨대, 2 개의 병렬 구조의 CNN 모델)이 사용될 수 있다. 2개의 CNN 모델 중 하나의 CNN 모델은 LOS 신호와 연관된 IMU 데이터(제1 학습 데이터)를 이용하여 학습되고, 다른 하나의 CNN 모델은 NLOS 신호와 연관된 IMU 데이터(제2 학습 데이터)를 이용하여 학습될 수 있다. 이처럼, 상이한 특성을 갖는 데이터들을, 별개의 CNN 모델을 이용해 분류함으로써, 분류 정확도가 높아질 수 있다. The present disclosure provides a method of performing pose classification using a classification result of a LOS signal or an NLOS signal (signal classification result) and sensing data. Data from an IMU (inertial measurement unit) sensor may be used as sensing data. To perform signal classification results and pose classification using sensing data, two CNN models (e.g., two parallel structured CNN models) may be used, which are different from the CNN model used for classification of LOS/NLOS signals. . Among the two CNN models, one CNN model is trained using IMU data (first learning data) associated with the LOS signal, and the other CNN model is trained using IMU data (second learning data) associated with the NLOS signal. It can be. In this way, classification accuracy can be increased by classifying data with different characteristics using a separate CNN model.
본 개시는, 최종 LOS/NLOS 신호 분류 및 최종 포즈 분류 이전에, 각 CNN 모델에서 출력된 예측 데이터들을 필터링하는 방안을 제공한다. 필터링을 위해, 이동 평균 필터(moving average filter)가 사용될 수 있다. 이를 통해, LOS/NLOS 신호의 분류 정확도 및 포즈의 분류 정확도가 높아질 수 있다.The present disclosure provides a method for filtering prediction data output from each CNN model before final LOS/NLOS signal classification and final pose classification. For filtering, a moving average filter can be used. Through this, the classification accuracy of LOS/NLOS signals and the classification accuracy of poses can be increased.
본 개시는, 분류된 LOS/NLOS 신호 및/또는 분류된 포즈를 사용자 장치의 다양한 어플리케이션이 이용할 수 있는 방안을 제공한다. 예를 들면, tagless gate를 위한 어플리케이션, digital car key 어플리케이션, 또는 POS(point of service) 어플레이션에서 본 개시의 분류 방법을 이용할 수 있다. 어플리케이션은 정확하게 분류된 LOS/NLOS 신호 및/또는 분류된 포즈를 이용하여, 특정 서비스 또는 특정 서비스와 연관된 기능/파라미터를 적절히 제공할 수 있다. The present disclosure provides a method by which various applications of a user device can use classified LOS/NLOS signals and/or classified poses. For example, the classification method of the present disclosure can be used in an application for a tagless gate, a digital car key application, or a point of service (POS) application. The application may appropriately provide a specific service or functions/parameters associated with a specific service using accurately classified LOS/NLOS signals and/or classified poses.
실시예로서, 어플리케이션은 정확히 분류된 LOS/NLOS 신호를 이용하여 전력 절감(power saving)을 위한 적응적 레인징 주기(adaptive ranging frequency) 조정을 수행할 수 있다. 예를 들면, 어플리케이션은 분류된 LOS/NLOS 신호를 이용하여 적응적 레인지 주기 조정을 통해, 최대 슬립 기간(maximizing sleep duration)을 설정할 수 있다. As an example, an application may perform adaptive ranging frequency adjustment for power saving using accurately classified LOS/NLOS signals. For example, an application can set a maximizing sleep duration through adaptive range period adjustment using classified LOS/NLOS signals.
실시예로서, 어플리케이션은 정확한 LOS/NLOS 신호의 분류를 통해, LOS 신호만을 선택적으로 이용함으로써, 위치 추정의 정확도(accuracy)를 높일 수 있다.As an example, the application can increase the accuracy of location estimation by selectively using only the LOS signal through accurate classification of LOS/NLOS signals.
실시예로서, 어플레이케이션은 정확한 LOS/NLOS 신호 및 포즈의 분류를 통해, 적응적 접속 바운더리(adaptive access boundary)를 설정할 수 있다. 예를 들면, NLOS 신호/Back pocket 포즈의 상황이 식별되는 경우, 어플리케이션은 서비스의 시작을 늦출 수 있다.As an example, an application may set an adaptive access boundary through accurate classification of LOS/NLOS signals and poses. For example, if a situation of NLOS signal/Back pocket pose is identified, the application can delay the start of the service.
도 3a는 본 개시의 일 실시예에 따른 UWB CIR 데이터의 일 예를 나타낸다.Figure 3A shows an example of UWB CIR data according to an embodiment of the present disclosure.
UWB 채널 임펄스 응답(CIR)은, UWB 신호의 수신을 통해 획득할 수 있다. 예를 들면, 전자 장치는 DL-TDoA를 위한 UWB 신호를 수신하거나 또는 DS-TWR를 위한 UWB 신호를 수신하는 경우, 수신된 신호에 기초하여 UWB CIR 데이터를 획득할 수 있다. 본 개시에서, UWB CIR은 CIR로 약칭될 수 있다.The UWB channel impulse response (CIR) can be obtained through reception of a UWB signal. For example, when receiving a UWB signal for DL-TDoA or a UWB signal for DS-TWR, the electronic device may obtain UWB CIR data based on the received signal. In this disclosure, UWB CIR may be abbreviated as CIR.
일 실시예에 따른, 전자 장치는 임펄스 함수와 수신된 UWB 신호 사이의 correlation 값을 이용하여, UWB CIR 데이터를 획득할 수 있다. According to one embodiment, an electronic device may obtain UWB CIR data using a correlation value between an impulse function and a received UWB signal.
UWB 신호에 기초하여 획득된 UWB CIR 데이터의 일 예는 도 3a와 같을 수 있다. 도 3a에 예시된 것처럼, 예컨대, 1016 개의 CIR 값이 출력될 수 있다. 각 CIR 값은 예컨대, DS-TWR 과정에서 responder가 수신하는 initiator로부터의 final 메시지(RIM)를 포함하는 각 UWB 신호에 기초하여 획득 또는 측정된 값일 수 있다. 또는, 각 CIR 값은 예컨대, DL-TDoA 과정에서 사용자 장치(tag 장치)가 수신하는 initiator 앵커로부터의 final 메시지를 포함하는 각 UWB 신호에 기초하여 획득 또는 측정된 값일 수 있다. An example of UWB CIR data obtained based on a UWB signal may be as shown in FIG. 3A. As illustrated in FIG. 3A, for example, 1016 CIR values may be output. For example, each CIR value may be a value obtained or measured based on each UWB signal including a final message (RIM) from the initiator received by the responder in the DS-TWR process. Alternatively, each CIR value may be a value obtained or measured based on each UWB signal including the final message from the initiator anchor received by the user device (tag device) in the DL-TDoA process, for example.
도 3a를 참조하면, 특정 CIR 인덱스(예컨대, CIR 인덱스 750) 이후에, amplitude 의 피크(peak)가 발생할 수 있다.Referring to FIG. 3A, a peak in amplitude may occur after a specific CIR index (eg, CIR index 750).
도 3b는 본 개시의 일 실시예에 따른 유효 UWB CIR 데이터의 일 예를 나타낸다.Figure 3b shows an example of effective UWB CIR data according to an embodiment of the present disclosure.
본 개시에서, 유효(effective) UWB CIR은 CIR들 중 유의미한 값을 갖는 CIR을 의미할 수 있다. 즉, 유효 UWB CIR은 노이즈가 아닌 실제 신호에 의해 획득 또는 측정된 CIR일 수 있다. 본 개시에서, 유효 UWB CIR은 유효 CIR(eCIR)로 지칭될 수 있다.In the present disclosure, effective UWB CIR may mean a CIR with a significant value among CIRs. That is, the effective UWB CIR may be a CIR obtained or measured by an actual signal rather than noise. In this disclosure, effective UWB CIR may be referred to as effective CIR (eCIR).
일 실시예에 따른, 전자 장치는 피크가 발생되기 이전의 CIR 값들은 노이즈로 처리하고, 피크로부터 n 개의 CIR 값들을 eCIR로 처리할 수 있다.According to one embodiment, the electronic device may process CIR values before the peak occurs as noise and process n CIR values from the peak as eCIR.
일 실시예에 따른, 전자 장치는 피크가 발생되는 CIR 인덱스에서 margin 값을 뺀 CIR 인덱스부터 n 개의 CIR들을 eCIR로 결정할 수 있다. 예를 들면, CIR 인덱스 750에서 피크가 발생하고, marging 값이 5(margin = 5)이고, n 값이 200 (n =200)으로 설정된 경우, 전자 장치는 CIR 인덱스 745부터 CIR 인덱스 945까지의 CIR 들을 eCRI로 식별할 수 있다. 이처럼, CIR 들이 신호와 노이즈로 분류될 수 있고, 이러한 분류의 일 예는 도 3b와 같을 수 있다.According to one embodiment, the electronic device may determine n CIRs as eCIR, starting from the CIR index where the margin value is subtracted from the CIR index where the peak occurs. For example, if the peak occurs at
획득된 CIR들에서 eCIR을 분류하여, eCIR만을 LOS/NLOS 신호의 분류를 위한 CNN 모델에 대한 입력 데이터로 사용하는 경우, 부정확한 노이즈를 제거하여 분류의 정확도를 높일 수 있게 된다.When eCIR is classified from the obtained CIRs and only eCIR is used as input data for a CNN model for classification of LOS/NLOS signals, inaccurate noise can be removed to increase classification accuracy.
또한, 획득된 CIR들에서 eCIR을 분류하여 사용하는 경우, CIR 데이터의 교환을 위한 latency 를 최적화시킬 수 있다.Additionally, when eCIR is classified and used from the obtained CIRs, latency for exchange of CIR data can be optimized.
또한, 획득된 CIR들에서 eCIR을 분류하여 사용하는 경우, 입력 매트릭스(input matrix)를 최적화하여 단말의 처리(processing) 효율을 향상시킬 수 있다.Additionally, when eCIR is classified and used from the obtained CIRs, the processing efficiency of the terminal can be improved by optimizing the input matrix.
도 3c는 본 개시의 일 실시예에 따른 UWB CIR 데이터를 이용하여 분류된 LOS 신호 및 NLOS 신호의 일 예를 나타낸다.Figure 3c shows an example of a LOS signal and a NLOS signal classified using UWB CIR data according to an embodiment of the present disclosure.
상술한 것처럼, LOS 신호/NLOS 신호의 분류를 위해 사용되는 CIR 값들은 eCIR 값들일 수 있다. 예를 들면, 도 3c에 도시된 것처럼, n 개(예: 200 개)의 eCIR 값들이 LOS/NLOS 신호의 분류를 위해 사용될 수 있다.As described above, CIR values used for classification of LOS signals/NLOS signals may be eCIR values. For example, as shown in FIG. 3C, n (e.g., 200) eCIR values can be used for classification of LOS/NLOS signals.
한편, LOS 신호와 NLOS 신호의 CIR 값들(eCIR 값들)은 서로 상이한 특성을 가질 수 있다.Meanwhile, CIR values (eCIR values) of the LOS signal and the NLOS signal may have different characteristics.
예를 들면, LOS 신호의 경우, 다음 특성들 중 적어도 하나를 가질 수 있다.For example, a LOS signal may have at least one of the following characteristics.
- CIR의 피크 값이 NLOS 신호의 피크 값에 비해 높음- The peak value of CIR is higher compared to the peak value of NLOS signal
- 피크 값 이후 CIR 값이 노이즈 레벨로 빠르게 떨어짐- After the peak value, the CIR value quickly falls to the noise level.
- 피크가 하나 또는 두 개 정도로 적게 나타남- Only one or two peaks appear.
예를 들면, NLOS 신호의 경우, 다음 특성들 중 적어도 하나를 가질 수 있다.For example, in the case of an NLOS signal, it may have at least one of the following characteristics.
- CIR의 피크 값이 LOS 신호의 피크 값에 비해 낮음- The peak value of CIR is low compared to the peak value of LOS signal
- 피크 값 이후 CIR 값이 노이즈 레벨로 떨어지는데 오랜 시간이 걸림- It takes a long time for the CIR value to fall to the noise level after the peak value.
- 멀티패스(multipath) 신호로 인해 피크 값이 여러 개 나타남- Multiple peak values appear due to multipath signals
이러한, LOS 신호와 NLOS 신호의 CIR 값의 특성의 차이로 인하여, 측정된 CIR 데이터를 이용하여 해당 신호가 LOS 신호인지 NLOS 신호인지가 분류될 수 있다.Due to the difference in characteristics of the CIR values of the LOS signal and the NLOS signal, the signal can be classified as a LOS signal or an NLOS signal using the measured CIR data.
일 실시예에 따른, 전자 장치는 해당 신호에 대한 CIR 데이터(eCIR 데이터)를 이용하여 해당 신호가 LOS 신호인지 NLOS 신호인지 분류하기 위해, 딥 러닝 알고리즘을 이용할 수 있다. 예를 들면, 전자 장치는 CNN 모델(CNN 알고리즘)을 이용하여 LOS/NLOS 신호의 분류를 수행할 수 있다. CNN 모델을 이용한 LOS/NLOS 신호의 분류 방법은, 도 4 내지 도 11을 참조하여 이하에서 설명한다.According to one embodiment, the electronic device may use a deep learning algorithm to classify whether the corresponding signal is a LOS signal or an NLOS signal using CIR data (eCIR data) for the corresponding signal. For example, the electronic device can classify LOS/NLOS signals using a CNN model (CNN algorithm). A method for classifying LOS/NLOS signals using a CNN model will be described below with reference to FIGS. 4 to 11.
* 이하에서는, 설명의 편의를 위해, LOS/NLOS 신호의 분류 및/또는 포즈의 분류를 위해 사용되는 데이터의 생성을 위한 4 가지 케이스가 아래와 같이 분류된 것으로 가정한다.* Hereinafter, for convenience of explanation, it is assumed that the four cases for generating data used for classification of LOS/NLOS signals and/or classification of poses are classified as follows.
(1) Hand LOS 케이스 (Handheld (LOS) 포즈): 사용자가 전자 장치를 손에 들고 있고(handheld), 전자 장치의 UWB 안테나를 가리지 않는 케이스(1) Handheld (LOS) pose: A case in which the user holds the electronic device in his/her hand and does not block the UWB antenna of the electronic device.
(2) Hand NLOS 케이스 (Handheld (NLOS) 포즈): 사용자가 전자 장치를 손에 들고 있고, 전자 장치의 UWB 안테나를 가리는 케이스(2) Hand NLOS case (Handheld (NLOS) pose): A case where the user holds the electronic device in his hand and blocks the UWB antenna of the electronic device.
(3) Front pockek (LOS) 케이스 (Front pockek (LOS) 포즈): 전자 장치가 사용자의 앞주머니에 있어 LOS 신호가 보장되는 케이스(3) Front pocket (LOS) case (Front pocket (LOS) pose): A case where the electronic device is in the user's front pocket and a LOS signal is guaranteed.
(4) Back pocket (NLOS) 케이스 (Back pocket (NLOS) 포즈): 전자 장치가 사용자의 뒷주머니에 있어 body effect 에 의해 신호가 차단(block)되는 케이스(4) Back pocket (NLOS) case (Back pocket (NLOS) pose): A case where the electronic device is in the user's back pocket and the signal is blocked due to body effect.
특정 환경(예컨대, 사용자의 전자 장치가 UWB 레인징에 대한 initiator(예: DS-TWR에 대한 initiator 또는 DL-TDoA(OWR)에 대한 initiator 앵커)에 다가가는(가까위지는) 환경)에서, 위 4 가지 케이스에 대한 데이터(예컨대, UWB CIR 데이터 및/또는 IMU 센서 데이터)가 수집될 수 있다. 이렇게 수집된 데이터는 각 CNN 모델에 대한 학습(trainging) 및 테스트(test)를 위해 사용될 수 있다. 다만, 실시예가 이에 한정되지 않고, 실시예에 따라, 다른 환경 및/또는 다른 케이스의 데이터가 CNN 모델의 학습/테스트를 위해 수집되어 사용될 수도 있다.In certain circumstances (e.g., an environment in which the user's electronic device approaches (approaches) an initiator for UWB ranging (e.g., an initiator for DS-TWR or an initiator anchor for DL-TDoA(OWR)), the above Data for four cases (eg, UWB CIR data and/or IMU sensor data) may be collected. The data collected in this way can be used for training and testing for each CNN model. However, the embodiment is not limited to this, and depending on the embodiment, data from other environments and/or other cases may be collected and used for training/testing of the CNN model.
먼저, 도 4 내지 5를 참조하여, LOS/NLOS 분류가 적용가능한 환경의 예시들, 예컨대, 도 4의 DS-TWR, 및 도 5의 DL-TDoA를 설명한다.First, with reference to FIGS. 4 and 5, examples of environments where LOS/NLOS classification is applicable, such as DS-TWR in FIG. 4 and DL-TDoA in FIG. 5, will be described.
도 4는 본 개시의 일 실시예에 따른 DS-TWR을 나타낸다.Figure 4 shows DS-TWR according to an embodiment of the present disclosure.
도 4를 참조하면, 제1 전자 장치(410)와 제2 전자 장치(420) 사이에 DS-TWR이 수행될 수 있다.Referring to FIG. 4, DS-TWR may be performed between the first
도 4의 실시예에서는, 설명의 편의를 위해, 제1 전자 장치(410)가 DS-TWR을 위한 initiator의 역할을 수행하고, 사용자의 전자 장치인 제2 전자 장치(420)가 DS-TWR을 위한 responder의 역할을 수행하는 것으로 가정한다. 이 경우, 제2 전자 장치(420)가 initiator인 제1 전자 장치(410)에 다가가는 것으로 가정한다. 다만, 실시예가 이에 한정되지 않고, 예컨대, 반대의 경우도 가능하다.In the embodiment of FIG. 4, for convenience of explanation, the first
실시예로서, 제1 전자 장치(410)는 예컨대, UWB 기반 게이트(UWB 스마트 게이트)일 수 있고, 제2 전자 장치(420)는 사용자의 전자 장치(예: 사용자의 스마트 폰)일 수 있다.As an example, the first
도 4를 참조하면, 한 레인징 사이클(한 레인징 측정 사이클)에서, initiator인 제1 전자 장치(410)는 레인징 개시 메시지(RIM)을 전송함으로써 DS-TWR 레인징 절차를 개시할 수 있고, responder 인 제2 전자 장치(420)는 RIM에 대한 응답 메시지인 레인징 응답 메시지(RRM)을 제1 전자 장치(410)로 전송할 수 있고, 제1 전자 장치(410)는 RRM에 대한 응답 메시지인 레인징 파이널 메시지(RFM)을 제2 전자 장치(420)로 전송할 수 있다. 이러한 DS-TWR을 위한 한 레인징 측정 사이클이 반복적으로(예컨대, 주기적으로) 수행될 수 있다. Referring to FIG. 4, in one ranging cycle (one ranging measurement cycle), the first
실시예로서, 제2 전자 장치(420)는 수신되는 RFM을 포함하는 UWB 신호의 각각에 대한 CIR 값을 획득할 수 있다. 이렇게 획득된 CIR 데이터는 LOS/NLOS 신호의 분류를 위해 사용될 수 있다.As an example, the second
실시예로서, 제2 전자 장치(420)는 IMU 센서의 센싱 데이터를 CIR 데이터와 함께 획득할 수 있다. 실시예로서, IMU 센서 데이터의 획득 주기는 CIR 데이터의 획득 주기와 상이(예컨대, 작을)할 수 있다. 이 경우, CIR 데이터에 대응하는 IMU 센서 데이터를 CNN 모델의 입력으로 입력하기 위해, 시퀀싱 동작의 수행이 필요할 수 있다.As an example, the second
도 5는 본 개시의 일 실시예에 따른 DL-TDoA를 나타낸다.Figure 5 shows DL-TDoA according to an embodiment of the present disclosure.
도 5의 실시예에서는, 설명의 편의를 위해, DL-TDoA를 위해 하나의 initiator 앵커(initiator UWB 앵커)(510)와 3개의 responder 앵커(responder UWB 앵커)(520-1,520-2,520-3)이 사용되는 것으로 가정한다. 이 경우, 사용자의 전자 장치(530)가 initiator인 initiator 앵커(510)에 다가가는 것으로 가정한다. 다만, 실시예가 이에 한정되지 않고, 예컨대, 상이한 수의 앵커 장치도 가능하다.In the embodiment of FIG. 5, for convenience of explanation, one initiator anchor (initiator UWB anchor) 510 and three responder anchors (520-1,520-2,520-3) are used for DL-TDoA. It is assumed that it is used. In this case, it is assumed that the user's
도 5를 참조하면, 한 레인징 사이클(한 레인징 측정 사이클)에서, initiator인 initiator 앵커(510)는 개시 메시지를 전송함으로써 DL-TDoA 레인징 절차를 개시할 수 있고, responder인 responder 앵커들(520-1,520-2,520-3)은 각각 개시 메시지에 대한 응답 메시지를 initiator 앵커(510)로 전송할 수 있고, initiator 앵커(510)는 응답 메시지에 대한 응답 메시지인 파이널 메시지를 각 responder 앵커들(520-1,520-2,520-3)로 전송할 수 있다. 사용자 장치(530)는 이 개시 메시지, 응답 메시지들, 및 파이널 메시지들을 수신하여, 미리 정의된 방식에 따라 자신의 위치를 추정할 수 있다.Referring to FIG. 5, in one ranging cycle (one ranging measurement cycle), the
실시예로서, 사용자 장치(530)는 수신되는 파이널 메시지를 포함하는 UWB 신호의 각각에 대한 CIR 값을 획득할 수 있다. 이렇게 획득된 CIR 데이터는 LOS/NLOS 신호의 분류를 위해 사용될 수 있다.As an example,
실시예로서, 사용자 장치(530)는 IMU 센서의 센싱 데이터를 CIR 데이터와 함께 획득할 수 있다. 실시예로서, IMU 센서 데이터의 획득 주기는 CIR 데이터의 획득 주기와 상이(예컨대, 작을)할 수 있다. 이 경우, CIR 데이터에 대응하는 IMU 센서 데이터를 CNN 모델의 입력으로 입력하기 위해, 시퀀싱 동작의 수행이 필요할 수 있다.As an example, the
도 6은 본 개시의 일 실시예에 따른 UWB 채널 임펄스 응답 데이터를 이용한 LOS/NLOS 신호 분류를 위한 학습 절차 및 배포 절차를 나타낸다.Figure 6 shows a learning procedure and distribution procedure for LOS/NLOS signal classification using UWB channel impulse response data according to an embodiment of the present disclosure.
도 6의 실시예에서는, 설명의 편의를 위해, 학습(trainging) 절차(610)가 원격 서버 상에 수행되고, 배포(deployment) 절차(620)가 사용자 장치에서 수행되는 것으로 가정한다. 다만, 실시예가 이에 한정되지 않는다. 예를 들면, 사용자 장치가 컴퓨팅 파워가 높은 장치라면, 학습 절차 역시 사용자 장치에서 수행될 수도 있다.In the embodiment of Figure 6, for convenience of explanation, it is assumed that the training procedure 610 is performed on a remote server and the deployment procedure 620 is performed on the user device. However, the embodiment is not limited to this. For example, if the user device is a device with high computing power, the learning procedure may also be performed on the user device.
먼저, 도 6을 참조하여, 학습 절차(610)에 대하여 설명한다.First, with reference to FIG. 6, the learning procedure 610 will be described.
학습 절차(610)에서, 서버는 입력 데이터를 수집할 수 있다(611). 예를 들면, 서버는 CIR 데이터(예컨대, n개의 eCIR 값을 포함하는 eCIR 데이터)을 학습을 위한 입력 데이터로서 수집할 수 있다. In the learning procedure 610, the server may collect input data (611). For example, the server may collect CIR data (e.g., eCIR data including n eCIR values) as input data for learning.
서버는 수집된 입력 데이터에 대한 CIR 정규화(normalization) 처리를 수행할 수 있다(612). 예를 들면, 서버는 수집된 입력 데이터를 0과 1 사이로 정규화할 수 있다. 다만, 동작 612의 CIR normalization은 옵셔널한 동작으로서 생략될 수도 있다.The server may perform CIR normalization processing on the collected input data (612). For example, the server may normalize the collected input data to between 0 and 1. However, CIR normalization in
서버는 CIR 정규화 처리된 데이터 또는 CIR 정규화 처리되지 않은 데이터를 CNN 모델의 입력 데이터로 입력할 수 있고, CNN 모델을 이용하여 LOS/NLOS 분류를 위한 처리를 수행할 수 있다(613).The server can input CIR normalized data or non-CIR normalized data as input data to the CNN model, and perform processing for LOS/NLOS classification using the CNN model (613).
아래 표 1 및 2는, LOS/NLOS 분류를 위해 사용되는 CNN 모델의 특성 및 하이퍼 파라미터의 일 예를 나타낸다.Tables 1 and 2 below show examples of CNN model characteristics and hyperparameters used for LOS/NLOS classification.
서버는 CNN 모델에서 출력된 예측 값을 획득할 수 있다(614). 실시예로서, 예측 값은 LOS 신호에 대응하는 label(예: label 1)에 대한 예측 확률 값 및 NLOS 신호에 대응하는 label(예: label 2)에 대한 예측 확률 값을 포함할 수 있다. The server can obtain the predicted value output from the CNN model (614). As an example, the prediction value may include a predicted probability value for a label (eg, label 1) corresponding to a LOS signal and a predicted probability value for a label (eg, label 2) corresponding to an NLOS signal.
서버는 해당 신호에 대한 실제 값(ground truth value)을 획득할 수 있다(615). 실시예로서, 실제 값은 LOS 신호에 대응하는 label(예: label 1)에 대한 실제 확률 값 및/또는 NLOS 신호에 대응하는 label(예: label 2)에 대한 실제 확률 값을 포함할 수 있다.The server can obtain the ground truth value for the signal (615). As an example, the actual value may include an actual probability value for a label corresponding to a LOS signal (e.g., label 1) and/or an actual probability value for a label corresponding to an NLOS signal (e.g., label 2).
서버는 손실 함수(loss function)을 이용하여, 동작 614의 예측 값과 동작 615의 실제 값 사이의 오차(loss) 및 그래디언트(gradient) 값을 계산할 수 있다(616). 예를 들면, LOS 신호에 대한 예측 값과 실제 값 사이의 오차 및 NLOS 신호에 대한 예측 값과 실제 값 사이의 오차에 기초하여 전체 오차를 계산할 수 있다.The server may use a loss function to calculate the loss and gradient values between the predicted value of
서버는 동작 616을 통해 획득한 값을 이용하여 CNN 모델의 파라미터들을 업데이트할 수 있다. 예를 들면, 서버는 역-전파(back-propagation) 방식을 이용하여, 오차를 줄이는 방향으로 CNN 모델의 파라미터들을 업데이트 할 수 있다. 이렇게 업데이트 된 파라미터들은 다음 입력 데이터(예컨대, 다음 n개의 eCIR 값들)에 대한 처리를 위해 CNN 모델에서 사용될 수 있다.The server may update the parameters of the CNN model using the values obtained through
서버는 상술한 학습 절차(610)를 수집된 모든 입력 데이터 세트(예컨대, 각 입력 데이터 세트는 n개의 eCIR 값들을 각각 포함함)에 대하여 각각 수행하여, CNN 모델의 파라미터(CNN 파마리터)들을 오차를 줄이는 방향으로 계속하여 업데이트할 수 있다. 사용자 장치는 이렇게 학습된 CNN 파라미터를 획득 또는 다운로드할 수 있다. 또한, 사용자 장치는 정규화를 사용하였는지 여부에 대한 정보를 다운로드할 수 있다. 또한, 사용자 장치는 CNN 모델과 관련된 표준 편차들을 다운로드할 수 있다.The server performs the above-described learning procedure 610 on all collected input data sets (e.g., each input data set includes n eCIR values), respectively, and sets the parameters (CNN parameters) of the CNN model to an error rate. It can be continuously updated in the direction of reducing. The user device can acquire or download the CNN parameters learned in this way. Additionally, the user device may download information about whether normalization was used. Additionally, the user device may download standard deviations associated with the CNN model.
이하에서는, 도 6을 참조하여, 배포 절차(620)에 대하여 설명한다.Below, the distribution procedure 620 will be described with reference to FIG. 6.
배포 절차(620)에서, 사용자 장치는 실시간(real time) 입력 데이터를 수집할 수 있다(621). 예를 들면, 사용자 장치는 복수 개의 CIR 값(예: eCIR 값)을 입력 데이터로 수집할 수 있고, 미리 설정된 수의 길이(사이즈)(예컨대, n 개의 길이)로 나누어 처리할 수 있다. 실시예로서, 이 길이(n)은 학습을 위해 사용된 길이(n)과 동일할 수 있다.In the deployment procedure 620, the user device may collect real time input data (621). For example, the user device may collect a plurality of CIR values (e.g., eCIR values) as input data and process them by dividing them into a preset number of lengths (sizes) (e.g., n lengths). As an example, this length (n) may be the same as the length (n) used for learning.
사용자 장치는 수집된 입력 데이터에 대한 CIR 정규화(normalization)를 수행할 수 있다(622). 예를 들면, 사용자 장치는 수집된 입력 데이터를 0과 1 사이로 정규화할 수 있다. 다만, 동작 622의 CIR 정규화는 옵셔널한 동작으로서 생략될 수도 있다.The user device may perform CIR normalization on the collected input data (622). For example, the user device may normalize the collected input data to between 0 and 1. However, the CIR normalization of
사용자 장치는 CIR 정규화 처리된 데이터 또는 CIR 정규화 처리되지 않은 데이터를 CNN 모델의 입력 데이터로 입력할 수 있고, CNN 모델을 이용하여 LOS/NLOS 분류를 위한 처리를 수행할 수 있다(623). 사용자 장치의 CNN 모델은 입력 데이터의 처리를 위해, 학습 절차(610)를 통해 획득된 CNN 파라미터들을 이용할 수 있다.The user device can input CIR normalized data or non-CIR normalized data as input data to the CNN model, and perform processing for LOS/NLOS classification using the CNN model (623). The CNN model of the user device may use CNN parameters obtained through the learning procedure 610 to process input data.
사용자 장치는 CNN 모델에서 출력된 예측 데이터(실시간 예측 데이터)을 획득할 수 있다(624). 실시예로서, CNN 모델에서 출력된 예측 데이터는, 제1 eCIR 데이터(실시간 입력 데이터 중 첫 번째 n 개의 eCIR 데이터)에 대한 예측 값(제1 예측 값), 제2 eCIR 데이터(실시간 입력 데이터 중 두번째 n 개의 eCIR 데이터)에 대한 예측 값(제2 예측 값), ... , 제n eCIR 데이터(실시간 입력 데이터 중 n 번째 n 개의 eCIR 데이터)에 대한 예측 값(제n 예측 값)을 포함할 수 있다. 실시예로서, 각 예측 값은 해당 eCIR 데이터에 대한, LOS 신호에 대응하는 label(예: label 1)에 대한 예측 확률 값 및/또는 NLOS 신호에 대응하는 label(예: label 2)에 대한 예측 확률 값을 포함할 수 있다.The user device may obtain prediction data (real-time prediction data) output from the CNN model (624). As an example, the prediction data output from the CNN model includes the prediction value (first prediction value) for the first eCIR data (the first n eCIR data among the real-time input data), the second eCIR data (the second n eCIR data among the real-time input data), and the prediction data output from the CNN model. It may include a predicted value (second predicted value) for n eCIR data), ... , a predicted value (n th predicted value) for n-th eCIR data (n-th n eCIR data among real-time input data). there is. As an embodiment, each prediction value is a predicted probability value for a label corresponding to a LOS signal (e.g., label 1) and/or a predicted probability for a label corresponding to an NLOS signal (e.g., label 2) for the corresponding eCIR data. Can contain values.
사용자 장치는 필터(예컨대, LPF(low pass filter) 또는 이동 평균 필터(moving average filter))를 이용하여 예측 값(예측 데이터)을 필터링할 수 있다(625). 실시예로서, 이동 평균 필터는 데이터의 평균을 계산하기 위해 사용되는 윈도우의 길이를 지시하는 window lengeth 파라미터를 하이퍼파라미터(hyperparmeter)를 가질 수 있고, 사용자 장치는 window lengeth 파라미터를 갖는 이동 평균 필터를 이용하여 예측 데이터를 필터링할 수 있다. 예를 들면, 사용자 장치는 이동 평균 필터를 이용하여 각 예측 값을 window lengeth 파라미터에 기초하여 획득된 해당 예측 값과 연관된 평균 값으로 각각 대체할 수 있다.The user device may filter the predicted value (predicted data) using a filter (eg, low pass filter (LPF) or moving average filter) (625). As an embodiment, the moving average filter may have a hyperparameter with a window length parameter indicating the length of the window used to calculate the average of the data, and the user device uses the moving average filter with the window length parameter. You can filter the predicted data. For example, the user device may use a moving average filter to replace each predicted value with an average value associated with the corresponding predicted value obtained based on the window length parameter.
사용자 장치는 필터링 된 데이터를 이용하여, 실시간 입력 데이터에 대한 출력 label(output label)을 획득할 수 있다(626). 사용자 장치는 필터링 된 데이터를 이용하여, 실시간 입력 데이터에 대응하는 신호에 대한 출력 label이 LOS 신호에 대응하는 label(예: label 1)인지 또는 NLOS 신호에 대응하는 label(예: label 2)인지를 최종적으로 결정할 수 있다. 이를 통해, 사용자 장치는 해당 신호가 LOS 신호인지 또는 NLOS 신호인지를 최종적으로 분류할 수 있다. 이처럼, 최종 LOS/NLOS 신호 분류 이전에, CNN 모델에서 출력된 예측 데이터에 대한 이동 평균 필터를 이용한 필터링을 제공함으로써, LOS/NLOS 신호의 분류 정확도가 높아질 수 있다. The user device can use the filtered data to obtain an output label for real-time input data (626). The user device uses the filtered data to determine whether the output label for the signal corresponding to the real-time input data is the label corresponding to the LOS signal (e.g. label 1) or the label corresponding to the NLOS signal (e.g. label 2). You can finally decide. Through this, the user device can finally classify whether the signal is a LOS signal or an NLOS signal. In this way, the classification accuracy of LOS/NLOS signals can be increased by providing filtering using a moving average filter for the prediction data output from the CNN model before final LOS/NLOS signal classification.
아래 표 3은 LPF 필터(예컨대, 이동 평균 필터)를 사용한 경우와 사용하지 않은 경우의 LOS/NLOS 분류의 정확도 비교를 예시한다.Table 3 below illustrates a comparison of the accuracy of LOS/NLOS classification with and without using an LPF filter (e.g., moving average filter).
도 7은 본 개시의 일 실시예에 따른 LOS/NLOS 분류를 위한 사용자 장치의 구성을 나타낸다.Figure 7 shows the configuration of a user device for LOS/NLOS classification according to an embodiment of the present disclosure.
도 7을 참조하면, 사용자 장치(700)는, UWB 안테나(710), CIR 수집부(720), 기계 학습부(730), 분류 처리부(740), 중앙 제어부(750) 및/또는 저장부(750)를 포함할 수 있다. 분류 처리부(740)는 유효 CIR 생성부(741), 정규화부(742) 및/또는 이동 평균 필터(743)를 포함할 수 있다.Referring to FIG. 7, the
실시예에 따라, 상술한 구성요소들 중 일부가 생략되거나 또는 추가 구성요소가 더 포함될 수 있다. 실시예에 따라, 상술한 구성요소들 중 둘 이상의 구성요소가 하나의 구성요소로 병합될 수 있다. 실시예에 따라, 상술한 구성요소들 전부 또는 일부가 적어도 하나의 프로세서(또는, 제어부)에 의해 구현될 수도 있다. 예를 들면, UWB 안테나(710) 및 저장부(750)을 제외한, 구성요소들이 적어도 하나의 프로세서(또는, 제어부)에 의해 구현될 수도 있다.Depending on the embodiment, some of the above-described components may be omitted or additional components may be further included. Depending on the embodiment, two or more of the above-described components may be merged into one component. Depending on the embodiment, all or part of the above-described components may be implemented by at least one processor (or control unit). For example, components other than the
UWB 안테나(710)는 다른 전자 장치로부터 적어도 하나의 UWB 신호를 수신할 수 있다. 예를 들면, UWB 안테나(710)는 DS-TWR을 위한 적어도 하나의 UWB 신호 또는 DL-TDoA를 위한 적어도 하나의 UWB 신호를 수신할 수 있다.The
CIR 수집부(720)는 UWB 안테나(710)를 통해 수신된 적어도 하나의 UWB 신호로부터 CIR 데이터를 수집할 수 있다. CIR 수집부(720)는 수집된 CIR 데이터를 유효 CIR 생성부(741)로 전달할 수 있다. 수집된 CIR 데이터는 복수의 CIR 값들을 포함할 수 있다.The
유효 CIR 생성부(741)는 수집된 CIR 데이터로부터 유효 CIR 데이터를 생성할 수 있다. 유효 CIR 생성부(741)는 생성된 유효 CIR 데이터를 정규화부(742)로 전달하거나, 또는 기계 학습부(730)로 바로 전달할 수 있다. 유효 CIR 데이터는 복수의 유효 CIR 값들을 포함할 수 있고, 미리 설정된 수의 단위(예컨대, n개의 단위)로 기계 학습부(730)에 의해 처리될 수 있다.The
정규화부(742)는 유효 CIR(eCIR) 데이터의 값들을 정규화할 수 있다. 예를 들면, 정규화부(742)는 유효 CIR 데이터의 값들을 0에서 1 사이의 값들로 정규화할 수 있다. 정규화부(742)는 옵셔널한 구성일 수 있다. 예컨대, 정규화부(742)는 사용자 장치(700)에 포함되지 않거나, 또는 사용자 장치(700)에 포함되더라도 정규화부(742)의 처리가 생략될 수 있다.The
기계 학습부(730)는 입력된 유효 CIR 데이터를 이용하여 예측 데이터를 생성할 수 있다. 실시예로서, 기계 학습부(730)는 CNN 모델을 이용하여 예측 데이터를 생성할 수 있다. 실시예로서, CNN 모델의 CNN 파라미터들은 미리 학습 절차가 수행된 서버로부터 다운로드될 수 있다. 따라서, 기계 학습부(730)는 최적화된(optimized) CNN 모델을 사용할 수 있다.The
실시예로서, 기계 학습부(730)는 미리 설정된 수의 eCIR(예컨대, n개의 eCIR)(eCIR 세트) 단위로 처리를 수행하여, 해당 eCIR 세트에 대한 예측 값을 각각 출력할 수 있다. 예를 들면, 예측 데이터는, 첫 번째 n 개의 eCIR(제1 eCIR 세트)에 대한 예측 값(제1 예측 값), 그 다음의 n개의 eCIR(제2 eCIR 세트)에 대한 예측 값(제2 예측 값), ... , n 번째 n개의 eCIR(제n eCIR 세트)에 대한 예측 값(제n 예측 값)을 포함할 수 있다. 각 예측 값은 해당 eCIR 세트에 대한, LOS에 대응하는 예측 확률 값 및 NLOS에 대응하는 예측 확률 값을 포함할 수 있다. As an embodiment, the
기계 학습부(730)는 예측 데이터를 중앙 제어부(750) 및/또는 이동 평균 필터(743)로 전달할 수 있다.The
중앙 제어부(750)는 수신된 예측 데이터를 저장부(730)로 전달할 수 있다. 저장부(730)는 수신된 예측 데이터를 저장할 수 있고, 이동 평균 필터(743)로 저장된 예측 데이터를 전달할 수 있다.The
이동 평균 필터(743)는 기계 학습부(730)로부터 수신된 예측 데이터(예: 현재 예측 데이터)와 저장부(760)로부터 수신된 예측 데이터(예: 이전 예측 데이터)를 이용하여, 미리 설정된 window length 파라미터에 기초하여 평균 값을 계산하고, 평균 값을 이용하여 예측 데이터를 필터링 할 수 있다. 이렇게 필터링된 예측 데이터는 LOS 신호 또는 NLOS 신호로의 최종 분류를 위해 사용될 수 있다. 필터링된 예측 데이터는 다양한 어플리케이션에 의해 사용될 수 있다.The moving
도 8은 본 개시의 일 실시예에 따른 UWB 채널 임펄스 응답 데이터를 이용한 LOS/NLOS 신호 분류에 기초한 포즈 분류를 위한 학습 절차를 나타낸다.Figure 8 shows a learning procedure for pose classification based on LOS/NLOS signal classification using UWB channel impulse response data according to an embodiment of the present disclosure.
도 8의 실시예에서는, 설명의 편의를 위해, 학습 절차(810)가 원격 서버 상에 수행되는 것으로 가정한다. In the embodiment of Figure 8, for convenience of explanation, it is assumed that the
먼저, 도 8을 참조하여, 학습 절차(800)에 대하여 설명한다.First, with reference to FIG. 8, the
학습 절차(800)에서, 서버는 입력 데이터를 수집할 수 있다(801). 예를 들면, 서버는 CIR 데이터(예컨대, n개의 eCIR 값을 포함하는 eCIR 데이터)을 학습을 위한 입력 데이터로서 수집할 수 있다.In the
서버는 수집된 입력 데이터에 대한 CIR 정규화(normalization)를 수행할 수 있다(802). 예를 들면, 서버는 수집된 입력 데이터를 0과 1 사이로 정규화할 수 있다. 다만, 동작 802의 CIR normalization은 옵셔널한 동작으로서 생략될 수도 있다.The server may perform CIR normalization on the collected input data (802). For example, the server may normalize the collected input data to between 0 and 1. However, CIR normalization in
서버는 CIR 정규화 처리된 데이터 또는 CIR 정규화 처리되지 않은 데이터를 제1 CNN 모델의 입력 데이터로 입력할 수 있고, 제1 CNN 모델을 이용하여 LOS/NLOS 분류를 위한 처리를 수행할 수 있다(803). 본 개시에서, 제1 CNN 모델은 LOS/NLOS 분류를 위해 사용되는 CNN 모델을 지칭한다.The server may input CIR normalized data or non-CIR normalized data as input data of the first CNN model, and may perform processing for LOS/NLOS classification using the first CNN model (803). . In this disclosure, the first CNN model refers to the CNN model used for LOS/NLOS classification.
서버는 제1 CNN 모델에서 출력된 예측 값(제1 예측 값 또는 제1 예측 정보)을 획득할 수 있다(804). 실시예로서, 제1 예측 값은 LOS 신호에 대응하는 label(예: label a)에 대한 예측 확률 값 및 NLOS 신호에 대응하는 label(예: label b)에 대한 예측 확률 값을 포함할 수 있다. The server may obtain the prediction value (first prediction value or first prediction information) output from the first CNN model (804). As an example, the first prediction value may include a predicted probability value for a label (eg, label a) corresponding to a LOS signal and a predicted probability value for a label (eg, label b) corresponding to an NLOS signal.
서버는 해당 신호에 대한 실제 값(ground truth value)(제1 실제 값 또는 제1 실제 정보)을 획득할 수 있다(805). 실시예로서, 제1 실제 값은 LOS 신호에 대응하는 label(예: label 1)에 대한 실제 확률 값 및/또는 NLOS 신호에 대응하는 label(예: label 2)에 대한 실제 확률 값을 포함할 수 있다.The server may obtain a ground truth value (first truth value or first truth information) for the corresponding signal (805). As an embodiment, the first actual value may include a true probability value for a label corresponding to a LOS signal (e.g., label 1) and/or a true probability value for a label corresponding to an NLOS signal (e.g., label 2). there is.
서버는 loss function을 이용하여, 동작 804의 예측 값과 동작 805의 실제 값 사이의 오차(loss) 및 그래디언트(gradient) 값을 계산할 수 있다(806). 예를 들면, LOS 신호에 대한 예측 값과 실제 값 사이의 오차 및 NLOS 신호에 대한 예측 값과 실제 값 사이의 오차에 기초하여 전체 오차를 계산할 수 있다.The server may use the loss function to calculate the loss and gradient values between the predicted value of
서버는 동작 806을 통해 획득한 값을 이용하여 제1 CNN 모델의 파라미터들을 업데이트할 수 있다. 예를 들면, 서버는 역-전파(back-propagation) 방식을 이용하여, 오차를 줄이는 방향으로 제1 CNN 모델의 파라미터들을 업데이트 할 수 있다. 이렇게 업데이트 된 파라미터들은 다음 입력 데이터(예컨대, 다음 n개의 eCIR 값들)에 대한 처리를 위해 제1 CNN 모델에서 사용될 수 있다.The server may update the parameters of the first CNN model using the values obtained through
서버는 상술한 학습 절차(800)를 수집된 모든 eCIR 세트(예컨대, 각 eCIR 세트는 n개의 eCIR 값들을 각각 포함함)에 대하여 각각 수행하여, 제1 CNN 모델의 파라미터(CNN 파마리터)들을 오차를 줄이는 방향으로 계속하여 업데이트할 수 있다. 사용자 장치는 이렇게 학습된 제1 CNN 모델에 대한 CNN 파라미터를 획득 또는 다운로드할 수 있다. 또한, 사용자 장치는 정규화를 사용하였는지 여부에 대한 정보를 다운로드할 수 있다. 또한, 사용자 장치는 제1 CNN 모델과 관련된 표준 편차들을 다운로드할 수 있다.The server performs the above-described
서버는 해당 eCIR 세트에 대한 예측 값에 기초하여, 해당 eCIR 세트에 대응하는 신호가 LOS 신호로 분류되는지 또는 NLOS 신호로 분류되는지를 결정할 수 있다. 예를 들면, 해당 eCIR 세트에 대한 예측 값에서, LOS 신호에 대응하는 예측 확률 값이 NLOS 신호에 대응하는 예측 확률 값 보다 큰 경우, 서버는 해당 eCIR 세트에 대응하는 신호가 LOS 신호로 분류됨을 결정할 수 있다. 다른 예를 들면, 해당 eCIR 세트에 대한 예측 값에서, NLOS 신호에 대응하는 예측 확률 값이 LOS 신호에 대응하는 예측 확률 값 보다 큰 경우, 서버는 해당 eCIR 세트에 대응하는 신호가 NLOS 신호로 분류됨을 결정할 수 있다.The server may determine whether the signal corresponding to the eCIR set is classified as a LOS signal or an NLOS signal, based on the prediction value for the eCIR set. For example, in the prediction value for that eCIR set, if the predicted probability value corresponding to the LOS signal is greater than the predicted probability value corresponding to the NLOS signal, the server determines that the signal corresponding to that eCIR set is classified as a LOS signal. You can. For another example, in the prediction value for the corresponding eCIR set, if the predicted probability value corresponding to the NLOS signal is greater than the predicted probability value corresponding to the LOS signal, the server determines that the signal corresponding to the corresponding eCIR set is classified as an NLOS signal. You can decide.
해당 eCIR 세트에 대응하는 신호가 LOS 신호로 분류된 경우, 제2 CNN 모델에 기초한 포즈 검출에 대한 분류 절차를 수행할 수 있다. 또는, 해당 eCIR 세트에 대응하는 신호가 NLOS 신호로 분류된 경우, 제3 CNN 모델에 기초한 포즈 검출에 대한 분류 절차를 수행할 수 있다. 본 개시에서, 제2 CNN 모델은 LOS 신호와 연관된 IMU 센서 데이터를 이용하여 학습되는 포즈 분류를 위해 사용되는 CNN 모델을 지칭한다. 본 개시에서, 제3 CNN 모델은 NLOS 신호와 연관된 IMU 센서 데이터를 이용하여 학습되는 포즈 분류를 위해 사용되는 CNN 모델을 지칭한다.If the signal corresponding to the corresponding eCIR set is classified as a LOS signal, a classification procedure for pose detection based on the second CNN model can be performed. Alternatively, if the signal corresponding to the corresponding eCIR set is classified as an NLOS signal, a classification procedure for pose detection based on the third CNN model can be performed. In this disclosure, the second CNN model refers to a CNN model used for pose classification that is learned using IMU sensor data associated with LOS signals. In this disclosure, the third CNN model refers to a CNN model used for pose classification that is learned using IMU sensor data associated with NLOS signals.
아래 표 4 및 5는, 포즈 분류를 위해 사용되는 CNN 모델(제2 CNN 모델/제3 CNN 모델)의 특성 및 하이퍼 파라미터의 일 예를 나타낸다.Tables 4 and 5 below show examples of characteristics and hyperparameters of CNN models (second CNN model/third CNN model) used for pose classification.
서버는 센서 입력 데이터를 수집할 수 있다(807). 센서 입력 데이터는 LOS 신호와 연관된 센서 입력 데이터(제1 센서 입력 데이터) 또는 NLOS 신호와 연관된 센서 입력 데이터(제2 센서 입력 데이터)일 수 있다. 예를 들면, UWB 안테나를 가리지 않거나, 앞주머니에 넣은 채로 상술한 환경에서 수집된 센서 데이터는 LOS 신호와 연관된 센서 입력 데이터(제1 센서 입력 데이터)일 수 있고, UWB 안테나를 가리거나, 뒷주머니에 넣은 채로 상술한 환경에서 수집된 센서 데이터는 NLOS 신호와 연관된 센서 입력 데이터(제2 센서 입력 데이터)일 수 있다.The server may collect sensor input data (807). The sensor input data may be sensor input data associated with a LOS signal (first sensor input data) or sensor input data associated with an NLOS signal (second sensor input data). For example, the sensor data collected in the above-described environment may be sensor input data (first sensor input data) associated with the LOS signal, while the UWB antenna is not obscured or is placed in a back pocket. The sensor data collected in the above-described environment may be sensor input data (second sensor input data) associated with the NLOS signal.
실시예로서, 센서 입력 데이터는 m 개의 timestpes에 대한 IMU 값(m 개의 시계열(time series) IMU 값)을 포함할 수 있다.As an example, the sensor input data may include IMU values for m timestpes (m time series IMU values).
서버는 제1 CNN 모델에 대한 입력 데이터에 대응하는 센서 입력 데이터를 제2 CNN 모델 또는 제3 CNN 모델에 입력해주기 위해 시퀀싱 처리를 수행할 수 있다(808). 예를 들면, 서버는 n개의 eCIR 값들을 포함하는 입력 데이터를 수집한 기간과 동일한 기간 동안 수집된 센서 입력 데이터를 제2 CNN 모델 또는 제3 CNN 모델에 입력해주기 위해 시퀀싱 처리를 수행할 수 있다.The server may perform sequencing processing to input sensor input data corresponding to input data for the first CNN model into the second CNN model or the third CNN model (808). For example, the server may perform sequencing processing to input sensor input data collected during the same period as the period during which input data including n eCIR values were collected into a second CNN model or a third CNN model.
신호가 LOS 신호로 분류된 경우, 서버는 시퀀싱 처리된 제1 센서 입력 데이터를 제2 CNN 모델의 학습을 위한 입력 데이터로 입력할 수 있고, 제2 CNN 모델을 이용하여 포즈 분류를 위한 처리를 수행할 수 있다(809). 예를 들면, 제2 CNN 모델은 입력 데이터를 이용하여, 해당 센서 입력 데이터에 대한 포즈가 제1 포즈(예: handheld)인지 또는 제2 포즈(예: front pocket)인지를 예측하기 위한 동작을 수행할 수 있다. 서버는 제2 CNN 모델에서 출력된 예측 값(제2 예측 값 또는 제2 예측 정보)을 획득할 수 있다(810). 실시예로서, 예측 값은 LOS와 연관된 제1 센서 입력 데이터에 대하여, 제1 포즈(예: handheld (LOS))에 대응하는 label(예: label 1)에 대한 예측 확률 값 및 제2 포즈(예: front pocket (LOS))에 대응하는 label(예: label 2)에 대한 예측 확률 값을 포함할 수 있다.If the signal is classified as a LOS signal, the server can input the sequenced first sensor input data as input data for learning the second CNN model, and perform processing for pose classification using the second CNN model. You can do it (809). For example, the second CNN model uses input data to perform an operation to predict whether the pose for the corresponding sensor input data is a first pose (e.g. handheld) or a second pose (e.g. front pocket). can do. The server may obtain the prediction value (second prediction value or second prediction information) output from the second CNN model (810). As an embodiment, the prediction value is, for first sensor input data associated with LOS, a predicted probability value for a label (e.g., label 1) corresponding to the first pose (e.g., handheld (LOS)) and a second pose (e.g., : front pocket (LOS)) may contain the predicted probability value for the corresponding label (e.g. label 2).
신호가 NLOS 신호로 분류된 경우, 서버는 시퀀싱 처리된 제2 센서 입력 데이터를 제3 CNN 모델의 학습을 위한 입력 데이터로 입력할 수 있고, 제3 CNN 모델을 이용하여 포즈 분류를 위한 처리를 수행할 수 있다(811). 예를 들면, 제3 CNN 모델은 입력 데이터를 이용하여, 해당 센서 입력 데이터에 대한 포즈가 제3 포즈(예: handheld (NLOS))인지 또는 제4 포즈(예: back pocket (NLOS))인지를 예측하기 위한 동작을 수행할 수 있다. 서버는 제3 CNN 모델에서 출력된 예측 값(제2 예측 값 또는 제2 예측 정보)을 획득할 수 있다(812). 실시예로서, 예측 값은 LOS와 연관된 제2 센서 입력 데이터에 대하여, 제3 포즈(예: handheld (NLOS))에 대응하는 label(예: label 3)에 대한 예측 확률 값 및 제4 포즈(예: back pocket (NLOS))에 대응하는 label(예: label 4)에 대한 예측 확률 값을 포함할 수 있다.If the signal is classified as an NLOS signal, the server can input the sequenced second sensor input data as input data for learning of the third CNN model, and perform processing for pose classification using the third CNN model. You can do it (811). For example, the third CNN model uses input data to determine whether the pose for the corresponding sensor input data is a third pose (e.g. handheld (NLOS)) or a fourth pose (e.g. back pocket (NLOS)). Predictive actions can be performed. The server may obtain the prediction value (second prediction value or second prediction information) output from the third CNN model (812). As an embodiment, the prediction value is, for second sensor input data associated with LOS, a predicted probability value for a label (e.g., label 3) corresponding to a third pose (e.g., handheld (NLOS)) and a fourth pose (e.g. : back pocket (NLOS)) may contain the predicted probability value for the corresponding label (e.g. label 4).
서버는 해당 포즈에 대한 실제 값(ground truth value)(제2 실제 값 또는 제2 실제 정보)을 획득할 수 있다(813). 실시예로서, 제2 실제 값은 제1 포즈에 대응하는 label(예: label 1)에 대한 실제 확률 값, 제2 포즈에 대응하는 label(예: label 2)에 대한 실제 확률 값, 제3 포즈에 대응하는 label(예: label 3)에 대한 실제 확률 값 및/또는 제4 포즈에 대응하는 label(예: label 4)에 대한 실제 확률 값을 포함할 수 있다.The server may obtain a ground truth value (second truth value or second truth information) for the pose (813). As an embodiment, the second actual value is a true probability value for a label (e.g., label 1) corresponding to the first pose, an actual probability value for a label (e.g., label 2) corresponding to the second pose, and a third pose. It may include an actual probability value for a label (e.g., label 3) corresponding to and/or an actual probability value for a label (e.g., label 4) corresponding to the fourth pose.
서버는 loss function을 이용하여, 동작 810의 제2 예측 값과 동작 813의 제2 실제 값 사이의 오차(loss) 및 그래디언트(gradient) 값을 계산하거나, 및/또는 동작 812의 제3 예측 값과 동작 813의 제2 실제 값 사이의 오차(loss) 및 그래디언트(gradient) 값을 계산할 수 있다(814).The server uses the loss function to calculate loss and gradient values between the second predicted value in
서버는 동작 814을 통해 획득한 값을 이용하여 해당 CNN 모델(제2 CNN 모델 또는 제3 CNN 모델)의 파라미터들을 업데이트할 수 있다. 예를 들면, 서버는 동작 810의 제2 예측 값과 동작 813의 제2 실제 값에 기초하여 획득된 오차(loss) 및/또는 그래디언트(gradient)을 이용하여 제2 CNN 모델의 파라미터들을 업데이트할 수 있다. 또는, 서버는 동작 812의 제3 예측 값과 동작 813의 제2 실제 값에 기초하여 획득된 오차(loss) 및/또는 그래디언트(gradient)을 이용하여 제3 CNN 모델의 파라미터들을 업데이트할 수 있다. 실시예로서, 서버는 역-전파(back-propagation) 방식을 이용하여, 오차를 줄이는 방향으로 해당 CNN 모델의 파라미터들을 업데이트 할 수 있다.The server may update the parameters of the corresponding CNN model (second CNN model or third CNN model) using the values obtained through
이렇게 업데이트 된 파라미터들은 다음 입력 데이터(예컨대, 다음 m개의 IMU 센싱 값)에 대한 처리를 위해 해당 CNN 모델에서 사용될 수 있다.These updated parameters can be used in the corresponding CNN model to process the next input data (e.g., the next m IMU sensing values).
서버는 상술한 학습 절차(800)를 수집된 모든 IMU 센서 데이터 세트(예컨대, 각 IMU 센서 데이터 세트는 m개의 IMU 센싱 값을 포함함)에 대하여 각각 수행하여, 제2 CNN 모델 및 제3 CNN 모델의 파라미터(CNN 파마리터)들을 오차를 줄이는 방향으로 계속하여 업데이트할 수 있다. 사용자 장치는 이렇게 학습된 제2 CNN 모델 및 제3 CNN 모델에 대한 CNN 파라미터를 획득 또는 다운로드할 수 있다.The server performs the above-described
도 9는 본 개시의 일 실시예에 따른 UWB 채널 임펄스 응답 데이터를 이용한 LOS/NLOS 신호 분류에 기초한 포즈 분류를 위한 배포 절차를 나타낸다.Figure 9 shows a distribution procedure for pose classification based on LOS/NLOS signal classification using UWB channel impulse response data according to an embodiment of the present disclosure.
도 9의 실시예에서는, 설명의 편의를 위해, 배포 절차(900)가 사용자 장치 상에 수행되는 것으로 가정한다. In the embodiment of Figure 9, for convenience of explanation, it is assumed that the
먼저, 도 9를 참조하여, 배포 절차(900)에 대하여 설명한다.First, with reference to FIG. 9, the
배포 절차(900)에서, 사용자 장치는 입력 데이터를 수집할 수 있다(901). 예를 들면, 사용자 장치는 복수 개의 CIR 값(예: eCIR 값)을 입력 데이터로 수집할 수 있고, 미리 설정된 수의 길이(사이즈)(예컨대, n 개의 길이)로 나누어 처리할 수 있다. 실시예로서, 이 길이(n)은 학습을 위해 사용된 길이(n)과 동일할 수 있다.In the
사용자 장치는 수집된 입력 데이터에 대한 CIR 정규화(normalization)를 수행할 수 있다(902). 예를 들면, 사용자 장치는 수집된 입력 데이터를 0과 1 사이로 정규화할 수 있다. 다만, 동작 902의 CIR 정규화는 옵셔널한 동작으로서 생략될 수도 있다.The user device may perform CIR normalization on the collected input data (902). For example, the user device may normalize the collected input data to between 0 and 1. However, CIR normalization in
사용자 장치는 CIR 정규화 처리된 데이터 또는 CIR 정규화 처리되지 않은 데이터를 제1 CNN 모델의 입력 데이터로 입력할 수 있고, 제1 CNN 모델을 이용하여 LOS/NLOS 분류를 위한 처리를 수행할 수 있다(903). 본 개시에서, 제1 CNN 모델은 LOS/NLOS 분류를 위해 사용되는 CNN 모델을 지칭한다.The user device may input CIR normalized data or non-CIR normalized data as input data of the first CNN model, and may perform processing for LOS/NLOS classification using the first CNN model (903 ). In this disclosure, the first CNN model refers to the CNN model used for LOS/NLOS classification.
사용자 장치는 제1 CNN 모델에서 출력된 예측 값(제1 예측 값 또는 제1 예측 정보)을 획득할 수 있다(904). 실시예로서, 제1 예측 값은 LOS 신호에 대응하는 label(예: label a)에 대한 예측 확률 값 및 NLOS 신호에 대응하는 label(예: label b)에 대한 예측 확률 값을 포함할 수 있다. The user device may obtain a prediction value (first prediction value or first prediction information) output from the first CNN model (904). As an example, the first prediction value may include a predicted probability value for a label (eg, label a) corresponding to a LOS signal and a predicted probability value for a label (eg, label b) corresponding to an NLOS signal.
사용자 장치는 상술한 LOS/NLOS 분류 절차를 수집된 모든 eCIR 세트(예컨대, 각 eCIR 세트는 n개의 eCIR 값들을 포함함)에 대하여 각각 수행할 수 있다. 사용자 장치는 이동 평균 필터를 이용하여 제1 CNN 모델로부터 획득된 각 예측 값을 포함하는 예측 데이터(제1 예측 데이터)에 대한 필터링을 수행할 수 있다(905).The user device may perform the above-described LOS/NLOS classification procedure for all collected eCIR sets (eg, each eCIR set includes n eCIR values). The user device may perform filtering on prediction data (first prediction data) including each prediction value obtained from the first CNN model using a moving average filter (905).
사용자 장치는 해당 eCIR 세트에 대한 예측 값에 기초하여, 해당 eCIR 세트에 대응하는 신호가 LOS 신호로 분류되는지 또는 NLOS 신호로 분류되는지를 결정할 수 있다. 예를 들면, 해당 eCIR 세트에 대한 예측 값에서, LOS 신호에 대응하는 예측 확률 값이 NLOS 신호에 대응하는 예측 확률 값 보다 큰 경우, 사용자 장치는 해당 eCIR 세트에 대응하는 신호가 LOS 신호로 분류됨을 결정할 수 있다. 다른 예를 들면, 해당 eCIR 세트에 대한 예측 값에서, NLOS 신호에 대응하는 예측 확률 값이 LOS 신호에 대응하는 예측 확률 값 보다 큰 경우, 사용자 장치는 해당 eCIR 세트에 대응하는 신호가 NLOS 신호로 분류됨을 결정할 수 있다.The user device may determine whether the signal corresponding to the eCIR set is classified as a LOS signal or an NLOS signal, based on the prediction value for the eCIR set. For example, in the prediction value for the corresponding eCIR set, if the predicted probability value corresponding to the LOS signal is greater than the predicted probability value corresponding to the NLOS signal, the user device determines that the signal corresponding to the corresponding eCIR set is classified as a LOS signal. You can decide. For another example, in the prediction value for the corresponding eCIR set, if the predicted probability value corresponding to the NLOS signal is greater than the predicted probability value corresponding to the LOS signal, the user device classifies the signal corresponding to the corresponding eCIR set as an NLOS signal. You can decide to do it.
해당 eCIR 세트에 대응하는 신호가 LOS 신호로 분류된 경우, 제2 CNN 모델에 기초한 포즈 검출에 대한 분류 절차를 수행할 수 있다. 또는, 해당 eCIR 세트에 대응하는 신호가 NLOS 신호로 분류된 경우, 제3 CNN 모델에 기초한 포즈 검출에 대한 분류 절차를 수행할 수 있다. 본 개시에서, 제2 CNN 모델은 LOS 신호와 연관된 IMU 센서 데이터를 이용하여 학습된 포즈 분류를 위해 사용되는 CNN 모델을 지칭한다. 본 개시에서, 제3 CNN 모델은 NLOS 신호와 연관된 IMU 센서 데이터를 이용하여 학습된 포즈 분류를 위해 사용되는 CNN 모델을 지칭한다.If the signal corresponding to the corresponding eCIR set is classified as a LOS signal, a classification procedure for pose detection based on the second CNN model can be performed. Alternatively, if the signal corresponding to the corresponding eCIR set is classified as an NLOS signal, a classification procedure for pose detection based on the third CNN model can be performed. In this disclosure, the second CNN model refers to a CNN model used for pose classification learned using IMU sensor data associated with LOS signals. In this disclosure, the third CNN model refers to a CNN model used for pose classification learned using IMU sensor data associated with NLOS signals.
사용자 장치는 센서 입력 데이터를 수집할 수 있다(906). 센서 입력 데이터는 LOS 신호와 연관된 센서 입력 데이터(제1 센서 입력 데이터) 또는 NLOS 신호와 연관된 센서 입력 데이터(제2 센서 입력 데이터)일 수 있다. 실시예로서, 센서 입력 데이터는 m 개의 timestpes에 대한 IMU 값을 포함할 수 있다.The user device may collect sensor input data (906). The sensor input data may be sensor input data associated with a LOS signal (first sensor input data) or sensor input data associated with an NLOS signal (second sensor input data). As an example, sensor input data may include IMU values for m timestpes.
사용자 장치는 제1 CNN 모델에 대한 입력 데이터에 대응하는 센서 입력 데이터를 제2 CNN 모델 또는 제3 CNN 모델에 입력해주기 위해 시퀀싱 처리를 수행할 수 있다(907). 예를 들면, 사용자 장치는 n개의 eCIR 값들을 포함하는 입력 데이터를 수집한 기간과 동일한 기간 동안 수집된 센서 입력 데이터를 제2 CNN 모델 또는 제3 CNN 모델에 입력해주기 위해 시퀀싱 처리를 수행할 수 있다.The user device may perform sequencing processing to input sensor input data corresponding to input data for the first CNN model into the second CNN model or the third CNN model (907). For example, the user device may perform sequencing processing to input sensor input data collected during the same period as the period for collecting input data including n eCIR values into a second CNN model or a third CNN model. .
신호가 LOS 신호로 분류된 경우, 사용자 장치는 센서 입력 데이터(제1 센서 입력 데이터)를 제2 CNN 모델의 입력 데이터로 입력할 수 있고, 제2 CNN 모델을 이용하여 포즈 분류를 위한 처리를 수행할 수 있다(908). 예를 들면, 제2 CNN 모델은 입력 데이터를 이용하여, 해당 센서 입력 데이터에 대한 포즈가 제1 포즈(예: handheld (LOS))인지 또는 제2 포즈(예: front pocket (LOS))인지를 예측하기 위한 동작을 수행할 수 있다. 사용자 장치는 제2 CNN 모델에서 출력된 예측 값(제2 예측 값 또는 제2 예측 정보)을 획득할 수 있다(909). 실시예로서, 예측 값은 LOS와 연관된 제1 센서 입력 데이터에 대하여, 제1 포즈(예: handheld (LOS))에 대응하는 label(예: label 1)에 대한 예측 확률 값 및 제2 포즈(예: front pocket (LOS))에 대응하는 label(예: label 2)에 대한 예측 확률 값을 포함할 수 있다.If the signal is classified as a LOS signal, the user device may input sensor input data (first sensor input data) as input data of a second CNN model, and perform processing for pose classification using the second CNN model. You can do it (908). For example, the second CNN model uses input data to determine whether the pose for the corresponding sensor input data is a first pose (e.g. handheld (LOS)) or a second pose (e.g. front pocket (LOS)). Predictive actions can be performed. The user device may obtain a prediction value (second prediction value or second prediction information) output from the second CNN model (909). As an embodiment, the prediction value is, for first sensor input data associated with LOS, a predicted probability value for a label (e.g., label 1) corresponding to the first pose (e.g., handheld (LOS)) and a second pose (e.g., : front pocket (LOS)) may contain the predicted probability value for the corresponding label (e.g. label 2).
신호가 NLOS 신호로 분류된 경우, 서버는 시퀀싱 처리된 센서 입력 데이터(제2 센서 입력 데이터)를 제3 CNN 모델의 학습을 위한 입력 데이터로 입력할 수 있고, 제3 CNN 모델을 이용하여 포즈 분류를 위한 처리를 수행할 수 있다(910). 예를 들면, 제3 CNN 모델은 입력 데이터를 이용하여, 해당 센서 입력 데이터에 대한 포즈가 제3 포즈(예: handheld (NLOS))인지 또는 제4 포즈(예: back pocket (NLOS))인지를 예측하기 위한 동작을 수행할 수 있다. 사용자 장치는 제3 CNN 모델에서 출력된 예측 값(제2 예측 값 또는 제2 예측 정보)을 획득할 수 있다(911). 실시예로서, 예측 값은 NLOS와 연관된 제2 센서 입력 데이터에 대하여, 제3 포즈(예: handheld (NLOS))에 대응하는 label(예: label 1)에 대한 예측 확률 값 및 제4 포즈(예: front pocket (NLOS))에 대응하는 label(예: label 4)에 대한 예측 확률 값을 포함할 수 있다.If the signal is classified as an NLOS signal, the server can input the sequenced sensor input data (second sensor input data) as input data for learning of the third CNN model, and classify the pose using the third CNN model. Processing for can be performed (910). For example, the third CNN model uses input data to determine whether the pose for the corresponding sensor input data is a third pose (e.g. handheld (NLOS)) or a fourth pose (e.g. back pocket (NLOS)). Predictive actions can be performed. The user device may obtain the prediction value (second prediction value or second prediction information) output from the third CNN model (911). As an embodiment, the prediction value is, for second sensor input data associated with NLOS, a predicted probability value for a label (e.g., label 1) corresponding to a third pose (e.g., handheld (NLOS)) and a fourth pose (e.g. : front pocket (NLOS)) may contain the predicted probability value for the corresponding label (e.g. label 4).
사용자 장치는 상술한 포즈 분류 절차를 수집된 모든 IMU 센서 데이터 세트(예컨대, 각 IMU 센서 데이터 세트는 m개의 IMU 센싱 값들을 포함함)에 대하여 각각 수행할 수 있다. 사용자 장치는 이동 평균 필터를 이용하여 제2 CNN 모델로부터 획득된 각 예측 값을 포함하는 예측 데이터(제2 예측 데이터)에 대한 필터링 또는 제3 CNN 모델로부터 획득된 각 예측 값을 포함하는 예측 데이터(제3 예측 데이터)에 대한 필터링을 수행할 수 있다(912). 이처럼, 최종 LOS/NLOS 신호 분류 및 최종 포즈 분류 이전에, 각 CNN 모델에서 출력된 예측 데이터에 대한 이동 평균 필터를 이용한 필터링을 제공함으로써, LOS/NLOS 신호 및 포즈의 분류 정확도가 높아질 수 있다.The user device may perform the above-described pose classification procedure on all collected IMU sensor data sets (eg, each IMU sensor data set includes m IMU sensing values). The user device filters the prediction data (second prediction data) including each prediction value obtained from the second CNN model using a moving average filter or predicts data including each prediction value obtained from the third CNN model ( Filtering may be performed on the third prediction data (912). In this way, the classification accuracy of LOS/NLOS signals and poses can be increased by providing filtering using a moving average filter for the prediction data output from each CNN model before final LOS/NLOS signal classification and final pose classification.
사용자 장치는 필터링된 제1 예측 데이터 및 필터링된 제2 예측 데이터를 이용하여, 포즈를 결정할 수 있다. 예를 들면, 필터링된 제1 예측 데이터 및 필터링된 제2 예측 데이터를 이용하여, 해당 포즈가 제1 포즈(예: Hand (LOS) 포즈)인지, 또는 제2 포즈(예: Front (LOS))인지를 결정할 수 있다.The user device may determine the pose using the filtered first prediction data and the filtered second prediction data. For example, using the filtered first prediction data and the filtered second prediction data, whether the pose is a first pose (e.g., Hand (LOS) pose) or a second pose (e.g., Front (LOS)) You can decide whether you are aware of it or not.
또는, 사용자 장치는 필터링된 제1 예측 데이터 및 필터링된 제3 예측 데이터를 이용하여, 포즈를 결정할 수 있다. 예를 들면, 필터링된 제1 예측 데이터 및 필터링된 제3 예측 데이터를 이용하여, 해당 포즈가 제3 포즈(예: Hand (NLOS) 포즈)인지, 또는 제4 포즈(예: Back (NLOS))인지를 결정할 수 있다.Alternatively, the user device may determine the pose using the filtered first prediction data and the filtered third prediction data. For example, using the filtered first prediction data and the filtered third prediction data, whether the pose is a third pose (e.g., Hand (NLOS) pose) or a fourth pose (e.g., Back (NLOS)) You can decide whether you are aware of it or not.
도 10은 본 개시의 일 실시예에 따른 LOS/NLOS 분류를 이용한 포즈 분류를 위한 사용자 장치의 구성을 나타낸다.Figure 10 shows the configuration of a user device for pose classification using LOS/NLOS classification according to an embodiment of the present disclosure.
도 10을 참조하면, 사용자 장치(1000)는, IMU 센서(1010), 센서 데이터 수집부(1020), UWB 안테나(1030), CIR 수집부(1040), 기계 학습부(1050), 분류 처리부(1060), 중앙 제어부(1070) 및/또는 저장부(1080)를 포함할 수 있다. 분류 처리부(1060)는 유효 CIR 생성부(1061), 정규화부(1062), 이동 평균 필터(1063) 및/또는 시퀀스 생성부(1064)를 포함할 수 있다.Referring to FIG. 10, the
실시예에 따라, 상술한 구성요소들 중 일부가 생략되거나 또는 추가 구성요소가 더 포함될 수 있다. 실시예에 따라, 상술한 구성요소들 중 둘 이상의 구성요소가 하나의 구성요소로 병합될 수 있다. 실시예에 따라, 상술한 구성요소들 전부 또는 일부가 적어도 하나의 프로세서에 의해 구현될 수도 있다. 예를 들면, IMU 센서(1010), UWB 안테나(1030) 및 저장부(1080)을 제외한, 구성요소들이 적어도 하나의 프로세서(또는, 제어부)에 의해 구현될 수도 있다.Depending on the embodiment, some of the above-described components may be omitted or additional components may be further included. Depending on the embodiment, two or more of the above-described components may be merged into one component. Depending on the embodiment, all or some of the above-described components may be implemented by at least one processor. For example, components other than the
IMU 센서(1010)는 주변 환경을 센싱할 수 있다. 실시예로서, IMU 센서(1010)는 가속도계(accelerometer), 자이로스코프(gyroscope), 및/또는 자력계(magnetometer)의 조합을 이용하여, 바디(body)의 특정 힘(force), 각 속도(angular rate) 및/또는 바디의 방향(orientation)을 측정할 수 있는 센서일 수 있다. IMU 센서(1010)는 센싱된 데이터를 센서 데이터 수집부(1020)로 전달할 수 있다.The
센서 데이터 수집부(1020)는 수집된 센서 데이터를 시퀀스 생성부(1064)로 전달할 수 있다.The sensor
시퀀스 생성부(1064)는 제1 CNN 모델에 대한 입력 데이터에 대응하는 센서 입력 데이터를 제2 CNN 모델 또는 제3 CNN 모델에 입력해주기 위해 시퀀싱 처리를 수행할 수 있다. 예를 들면, 시퀀스 생성부(1064)는 n개의 eCIR 값들을 포함하는 입력 데이터를 수집한 기간과 동일한 기간 동안 수집된 센서 입력 데이터를 제2 CNN 모델 또는 제3 CNN 모델에 입력해주기 위해 시퀀싱 처리를 수행할 수 있다.The
UWB 안테나(1030)는 다른 전자 장치로부터 적어도 하나의 UWB 신호를 수신할 수 있다. 예를 들면, UWB 안테나(1030)는 DS-TWR을 위한 적어도 하나의 UWB 신호 또는 DL-TDoA를 위한 적어도 하나의 UWB 신호를 수신할 수 있다.The
CIR 수집부(1040)는 UWB 안테나(1030)를 통해 수신된 적어도 하나의 UWB 신호로부터 CIR 데이터를 수집할 수 있다. CIR 수집부(1040)는 수집된 CIR 데이터를 유효 CIR 생성부(1061)로 전달할 수 있다. 수집된 CIR 데이터는 복수의 CIR 값들을 포함할 수 있다.The
유효 CIR 생성부(1061)는 수집된 CIR 데이터로부터 유효 CIR 데이터를 생성할 수 있다. 유효 CIR 생성부(1061)는 생성된 유효 CIR 데이터를 정규화부(1062)로 전달하거나, 또는 기계 학습부(1050)로 바로 전달할 수 있다. 유효 CIR 데이터는 복수의 유효 CIR 값들을 포함할 수 있고, 미리 설정된 수의 단위(예컨대, n개의 단위)로 기계 학습부(1050)에 의해 처리될 수 있다.The
정규화부(1062)는 유효 CIR(eCIR) 데이터의 값들을 정규화할 수 있다. 예를 들면, 정규화부(1062)는 유효 CIR 데이터의 값들을 0에서 1 사이의 값들로 정규화할 수 있다. 정규화부(1062)는 옵셔널한 구성일 수 있다. 예컨대, 정규화부(1062)는 사용자 장치(1000)에 포함되지 않거나, 또는 사용자 장치(1000)에 포함되더라도 정규화부(1062)의 처리가 생략될 수 있다.The
기계 학습부(1050)는 입력 데이터를 이용하여 예측 데이터를 생성할 수 있다. 실시예로서, 기계 학습부(730)는 적어도 하나의 CNN 모델을 이용하여 적어도 하나의 예측 데이터를 생성할 수 있고, 각 CNN 모델의 CNN 파라미터들은 미리 학습 절차가 수행된 서버로부터 다운로드될 수 있다.The
일 실시예에 따른, 기계 학습부(1050)는 제1 CNN 모델을 이용하여, 입력된 유효 CIR 데이터로부터, LOS/NLOS 분류를 위한 제1 예측 데이터를 생성할 수 있다. 실시예로서, 제1 CNN 모델은 미리 설정된 수의 eCIR(예컨대, n개의 eCIR)(eCIR 세트) 단위로 처리를 수행하여, 해당 eCIR 세트에 대한 예측 값을 각각 출력할 수 있다. 예를 들면, 제1 예측 데이터는, 첫 번째 n 개의 eCIR(제1 eCIR 세트)에 대한 예측 값(제1 예측 값), 그 다음의 n개의 eCIR(제2 eCIR 세트)에 대한 예측 값(제2 예측 값), ... , n 번째 n개의 eCIR(제n eCIR 세트)에 대한 예측 값(제n 예측 값)을 포함할 수 있다. 각 예측 값은 해당 eCIR 세트에 대한, LOS에 대응하는 예측 확률 값 및 NLOS에 대응하는 예측 확률 값을 포함할 수 있다.According to one embodiment, the
일 실시예에 따른, 기계 학습부(1050)는 제2 CNN 모델을 이용하여, 입력된 센서 데이터로부터, LOS와 연관된 포즈의 분류를 위한 제2 예측 데이터를 생성할 수 있다. 실시예로서, 제2 CNN 모델은 미리 설정된 수의 센싱 값(예컨대, m개의 센싱 값)(센서 데이터 세트) 단위로 처리를 수행하여, 해당 센싱 데이터 세트에 대한 예측 값을 각각 출력할 수 있다. 예를 들면, 제2 예측 데이터는, 첫 번째 m 개의 센싱 값(제1 센싱 데이터 세트)에 대한 예측 값(제1 예측 값), 그 다음의 m개의 센싱 값(제2 센싱 데이터 세트)에 대한 예측 값(제2 예측 값), ... , n 번째 m개의 센싱 값(제n 센싱 데이터 세트)에 대한 예측 값(제n 예측 값)을 포함할 수 있다. 각 예측 값은 해당 센싱 데이터 세트에 대한, LOS와 연관된, 제1 포즈에 대응하는 예측 확률 값 및 제2 포즈에 대응하는 예측 확률 값을 포함할 수 있다.According to one embodiment, the
일 실시예에 따른, 기계 학습부(1050)는 제3 CNN 모델을 이용하여, 입력된 센서 데이터로부터, NLOS와 연관된 포즈의 분류를 위한 제3 예측 데이터를 생성할 수 있다. 실시예로서, 제3 CNN 모델은 미리 설정된 수의 센싱 값(예컨대, m개의 센싱 값)(센서 데이터 세트) 단위로 처리를 수행하여, 해당 센싱 데이터 세트에 대한 예측 값을 각각 출력할 수 있다. 예를 들면, 제3 예측 데이터는, 첫 번째 m 개의 센싱 값(제1 센싱 데이터 세트)에 대한 예측 값(제1 예측 값), 그 다음의 m개의 센싱 값(제2 센싱 데이터 세트)에 대한 예측 값(제2 예측 값), ... , n 번째 m개의 센싱 값(제n 센싱 데이터 세트)에 대한 예측 값(제n 예측 값)을 포함할 수 있다. 각 예측 값은 해당 센싱 데이터 세트에 대한, NLOS와 연관된, 제1 포즈에 대응하는 예측 확률 값 및 제2 포즈에 대응하는 예측 확률 값을 포함할 수 있다.According to one embodiment, the
기계 학습부(1050)는 예측 데이터(예컨대, 제1 예측 데이터, 제2 예측 데이터 및/또는 제3 예측 데이터)를 중앙 제어부(1070) 및/또는 이동 평균 필터(1064)로 전달할 수 있다.The
중앙 제어부(1070)는 수신된 예측 데이터를 저장부(1080)로 전달할 수 있다. 저장부(1080)는 수신된 예측 데이터를 저장할 수 있고, 이동 평균 필터(1064)로 저장된 예측 데이터를 전달할 수 있다.The central control unit 1070 may transfer the received prediction data to the storage unit 1080. The storage unit 1080 may store the received prediction data and transmit the stored prediction data to the moving
이동 평균 필터(1064)는 각 예측 데이터를 필터링할 수 있다. 이렇게 필터링된 예측 데이터는 포즈의 최종 분류를 위해 사용될 수 있다. 필터링된 예측 데이터는 다양한 어플리케이션에 의해 사용될 수 있다. 실시예로서, 어플리케이션은 필터링된 예측 데이터에 기초하여 분류된 포즈에 따라, 상이한 서비스 또는 서비스 관련 파라미터(예컨대, 스레시홀드)를 제공할 수 있다.The moving
도 11은 본 개시의 일 실시예에 따른 전자 장치의 포즈 분류 방법을 나타낸다.Figure 11 shows a method for classifying a pose of an electronic device according to an embodiment of the present disclosure.
도 11의 실시예에서, 전자 장치는 사용자의 전자 장치(사용자 장치)일 수 있다. 도 11의 각 단계에 대한 설명은, 서로 모순되지 않는 한, 도 4 내지 10에서 상술 동작/단계에 대한 설명을 참조할 수 있다.In the embodiment of FIG. 11, the electronic device may be a user's electronic device (user device). The description of each step in FIG. 11 may refer to the description of the above-described operations/steps in FIGS. 4 to 10, unless they contradict each other.
도 11을 참조하면, 전자 장치는 학습된 제1 CNN 모델을 이용하여, UWB CIR 데이터에 기초하여 UWB CIR에 대응하는 신호가 LOS 신호 또는 NLOS 신호인지를 분류하기 위한 제1 예측 데이터를 획득할 수 있다(1110).Referring to FIG. 11, the electronic device can use the learned first CNN model to obtain first prediction data for classifying whether the signal corresponding to the UWB CIR is a LOS signal or an NLOS signal based on the UWB CIR data. There is (1110).
전자 장치는 신호가 LOS 신호로 분류되는지를 식별할 수 있다(1120).The electronic device may identify whether the signal is classified as a LOS signal (1120).
전자 장치는 신호가 LOS 신호로 분류되는 경우, 학습된 제2 CNN 모델을 이용하여, UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제2 예측 데이터를 획득할 수 있다(1130).If the signal is classified as a LOS signal, the electronic device may use the learned second CNN model to obtain second prediction data for classifying the pose based on sensor data corresponding to UWB CIR data (1130) .
전자 장치는 신호가 NLOS 신호로 분류되는 경우, 학습된 제3 CNN 모델을 이용하여, UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제3 예측 데이터를 획득할 수 있다(1140).If the signal is classified as an NLOS signal, the electronic device may use the learned third CNN model to obtain third prediction data for classifying the pose based on sensor data corresponding to UWB CIR data (1140) .
전자 장치는 제1 필터링 방식을 이용하여, 제1 예측 데이터, 제2 예측 데이터 및 제3 예측 데이터 중 적어도 두 개에 대한 필터링을 수행할 수 있다(1150).The electronic device may perform filtering on at least two of the first prediction data, the second prediction data, and the third prediction data using the first filtering method (1150).
전자 장치는 필터링된 데이터에 기초하여, 포즈를 분류할 수 있다(1160).The electronic device may classify the pose based on the filtered data (1160).
실시예로서, 제2 CNN 모델은 LOS 신호와 연관된 센서 데이터를 이용하여 학습되고, 제3 CNN 모델은 NLOS 신호와 연관된 센서 데이터를 이용하여 학습될 수 있다.As an example, a second CNN model may be trained using sensor data associated with LOS signals, and a third CNN model may be trained using sensor data associated with NLOS signals.
실시예로서, 전자 장치는 신호가 LOS 신호로 분류되는 경우, 필터링된 제1 예측 데이터 및 필터링된 제2 예측 데이터에 기초하여, LOS 신호와 연관된 적어도 하나의 포즈 중 하나를 포즈로 분류할 수 있다.As an embodiment, when the signal is classified as a LOS signal, the electronic device may classify one of at least one pose associated with the LOS signal as a pose based on the filtered first prediction data and the filtered second prediction data. .
실시예로서, 전자 장치는 신호가 NLOS 신호로 분류되는 경우, 필터링된 제1 예측 데이터 및 필터링된 제3 예측 데이터에 기초하여, NLOS 신호와 연관된 적어도 하나의 포즈 중 하나를 포즈로 분류할 수 있다.As an embodiment, when the signal is classified as an NLOS signal, the electronic device may classify one of at least one pose associated with the NLOS signal as a pose based on the filtered first prediction data and the filtered third prediction data. .
실시예로서, 제1 필터링 방식은, 이동 평균 필터 방식일 수 있다.As an example, the first filtering method may be a moving average filter method.
실시예로서, 센서 데이터는 IMU 센서로부터 획득된 센서 데이터일 수 있다.As an example, the sensor data may be sensor data obtained from an IMU sensor.
실시예로서, UWB CIR 데이터는, DL-TDoA 레인징을 위한 UWB 신호들에 기초하여 획득된 CIR 데이터에서 노이즈가 제거된 유효 CIR 데이터를 포함하거나, 또는 DS-TWR 레인징을 위한 UWB 신호들에 기초하여 획득된 CIR 데이터에서 노이즈가 제거된 유효 CIR 데이터를 포함할 수 있다.As an embodiment, the UWB CIR data includes effective CIR data with noise removed from CIR data obtained based on UWB signals for DL-TDoA ranging, or UWB signals for DS-TWR ranging. It may include effective CIR data in which noise has been removed from CIR data obtained based on the CIR data.
도 12는 본 개시의 일 실시예에 따른 전자 장치의 구조를 도시한 도면이다.FIG. 12 is a diagram illustrating the structure of an electronic device according to an embodiment of the present disclosure.
도 12의 실시예에서, 전자 장치는 사용자의 전자 장치(사용자 장치) 또는 서버일 수 있다.In the embodiment of FIG. 12, the electronic device may be a user's electronic device (user device) or a server.
도 12를 참고하면, 전자 장치는 송수신부(1210), 제어부(1220), 저장부(1230)을 포함할 수 있다. 본 개시에서 제어부는, 회로 또는 어플리케이션 특정 통합 회로 또는 적어도 하나의 프로세서라고 정의될 수 있다.Referring to FIG. 12, the electronic device may include a
송수신부(1210)는 다른 네트워크 엔티티와 신호를 송수신할 수 있다. 송수신부(1210)는 예컨대, 커미셔닝을 위한 데이터를 송수신할 수 있다.The
제어부(1220)은 본 개시에서 제안하는 실시예에 따른 전자 장치의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(1220)는 상기에서 기술한 순서도에 따른 동작을 수행하도록 각 블록 간 신호 흐름을 제어할 수 있다. 구체적으로, 제어부(1220)는, 예컨대, 도 1 내지 11을 참조하여 설명한 전자 장치의 동작을 제어할 수 있다.The
저장부(1230)는 상기 송수신부(1210)를 통해 송수신되는 정보 및 제어부 (1220)을 통해 생성되는 정보 중 적어도 하나를 저장할 수 있다. 예를 들어, 저장부(1230)는 예컨대, 도 1 내지 11을 참조하여 설명한 포즈 분류를 위해 필요한 정보 및 데이터를 저장할 수 있다.The
상술한 본 개시의 구체적인 실시 예들에서, 본 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.In the specific embodiments of the present disclosure described above, components included in the present disclosure are expressed in singular or plural numbers depending on the specific embodiment presented. However, singular or plural expressions are selected to suit the presented situation for convenience of explanation, and the present disclosure is not limited to singular or plural components, and even components expressed in plural may be composed of singular or singular. Even expressed components may be composed of plural elements.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present disclosure, specific embodiments have been described, but of course, various modifications are possible without departing from the scope of the present disclosure. Therefore, the scope of the present disclosure should not be limited to the described embodiments, but should be determined not only by the scope of the patent claims described later, but also by the scope of this patent claim and equivalents.
Claims (12)
학습된 제1 CNN(convolutional neural network) 모델을 이용하여, UWB CIR(channel impulse response) 데이터에 기초하여 상기 UWB CIR에 대응하는 신호가 LOS(line of signt) 신호 또는 NLOS(non-LOS) 신호인지를 분류하기 위한 제1 예측 데이터를 획득하는 단계;
상기 신호가 상기 LOS 신호로 분류되는 경우, 학습된 제2 CNN 모델을 이용하여, 상기 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제2 예측 데이터를 획득하는 단계;
상기 신호가 상기 NLOS 신호로 분류되는 경우, 학습된 제3 CNN 모델을 이용하여, 상기 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제3 예측 데이터를 획득하는 단계;
제1 필터링 방식을 이용하여, 상기 제1 예측 데이터, 상기 제2 예측 데이터 및 상기 제3 예측 데이터 중 적어도 두 개에 대한 필터링을 수행하는 단계; 및
상기 필터링된 데이터에 기초하여, 상기 포즈를 분류하는 단계를 포함하며,
상기 제2 CNN 모델은 상기 LOS 신호와 연관된 센서 데이터를 이용하여 학습되고, 상기 제3 CNN 모델은 상기 NLOS 신호와 연관된 센서 데이터를 이용하여 학습되는, 방법.In the method of the electronic device,
Using the learned first convolutional neural network (CNN) model, determine whether the signal corresponding to the UWB CIR is a line of signt (LOS) signal or a non-LOS (NLOS) signal based on UWB channel impulse response (CIR) data. Obtaining first prediction data for classifying;
If the signal is classified as the LOS signal, using a learned second CNN model, obtaining second prediction data for classifying a pose based on sensor data corresponding to the UWB CIR data;
If the signal is classified as the NLOS signal, using a learned third CNN model, obtaining third prediction data for classifying a pose based on sensor data corresponding to the UWB CIR data;
performing filtering on at least two of the first prediction data, the second prediction data, and the third prediction data using a first filtering method; and
Based on the filtered data, classifying the pose,
The second CNN model is learned using sensor data associated with the LOS signal, and the third CNN model is learned using sensor data associated with the NLOS signal.
상기 신호가 상기 LOS 신호로 분류되는 경우, 상기 필터링된 제1 예측 데이터 및 상기 필터링된 제2 예측 데이터에 기초하여, 상기 LOS 신호와 연관된 적어도 하나의 포즈 중 하나를 상기 포즈로 분류하는 단계를 포함하는, 방법.The method of claim 1, wherein classifying the pose comprises:
When the signal is classified as the LOS signal, classifying one of at least one pose associated with the LOS signal as the pose based on the filtered first prediction data and the filtered second prediction data. How to.
상기 신호가 상기 NLOS 신호로 분류되는 경우, 상기 필터링된 제1 예측 데이터 및 상기 필터링된 제3 예측 데이터에 기초하여, 상기 NLOS 신호와 연관된 적어도 하나의 포즈 중 하나를 상기 포즈로 분류하는 단계를 포함하는, 방법.The method of claim 2, wherein classifying the pose includes:
When the signal is classified as the NLOS signal, classifying one of at least one pose associated with the NLOS signal as the pose based on the filtered first prediction data and the filtered third prediction data. How to.
상기 제1 필터링 방식은, 이동 평균 필터(moving average filter) 방식인, 방법.According to paragraph 3,
The first filtering method is a moving average filter method.
상기 센서 데이터는 IMU(inertial measurement unit) 센서로부터 획득된 센서 데이터인, 방법.According to paragraph 1,
The method wherein the sensor data is sensor data obtained from an inertial measurement unit (IMU) sensor.
상기 UWB CIR 데이터는, DL-TDoA(downlink-time difference of arrival) 레인징을 위한 UWB 신호들에 기초하여 획득된 CIR 데이터에서 노이즈가 제거된 유효(effective) CIR 데이터를 포함하거나, 또는 DS-TWR(double sided-two way ranging) 레인징을 위한 UWB 신호들에 기초하여 획득된 CIR 데이터에서 노이즈가 제거된 유효 CIR 데이터를 포함하는, 방법.According to paragraph 1,
The UWB CIR data includes effective CIR data with noise removed from CIR data obtained based on UWB signals for downlink-time difference of arrival (DL-TDoA) ranging, or DS-TWR (double sided-two way ranging) A method comprising effective CIR data in which noise is removed from CIR data obtained based on UWB signals for ranging.
트랜시버; 및
상기 트랜시버에 연결된 컨트롤러를 포함하며, 상기 컨트롤러는:
학습된 제1 CNN(convolutional neural network) 모델을 이용하여, UWB CIR(channel impulse response) 데이터에 기초하여 상기 UWB CIR에 대응하는 신호가 LOS(line of signt) 신호 또는 NLOS(non-LOS) 신호인지를 분류하기 위한 제1 예측 데이터를 획득하고,
상기 신호가 상기 LOS 신호로 분류되는 경우, 학습된 제2 CNN 모델을 이용하여, 상기 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제2 예측 데이터를 획득하고,
상기 신호가 상기 NLOS 신호로 분류되는 경우, 학습된 제3 CNN 모델을 이용하여, 상기 UWB CIR 데이터에 대응하는 센서 데이터에 기초하여 포즈를 분류하기 위한 제3 예측 데이터를 획득하고,
제1 필터링 방식을 이용하여, 상기 제1 예측 데이터, 상기 제2 예측 데이터 및 상기 제3 예측 데이터 중 적어도 두 개에 대한 필터링을 수행하고,
상기 필터링된 데이터에 기초하여, 상기 포즈를 분류하도록 구성되며,
상기 제2 CNN 모델은 상기 LOS 신호와 연관된 센서 데이터를 이용하여 학습되고, 상기 제3 CNN 모델은 상기 NLOS 신호와 연관된 센서 데이터를 이용하여 학습되는, 전자 장치.In electronic devices,
transceiver; and
A controller coupled to the transceiver, wherein the controller:
Using the learned first convolutional neural network (CNN) model, determine whether the signal corresponding to the UWB CIR is a line of signt (LOS) signal or a non-LOS (NLOS) signal based on UWB channel impulse response (CIR) data. Obtain first prediction data to classify,
If the signal is classified as the LOS signal, obtain second prediction data for classifying the pose based on sensor data corresponding to the UWB CIR data using the learned second CNN model,
If the signal is classified as the NLOS signal, obtain third prediction data for classifying a pose based on sensor data corresponding to the UWB CIR data using a learned third CNN model,
Using a first filtering method, filtering at least two of the first prediction data, the second prediction data, and the third prediction data,
Configured to classify the pose based on the filtered data,
The second CNN model is learned using sensor data associated with the LOS signal, and the third CNN model is learned using sensor data associated with the NLOS signal.
상기 신호가 상기 LOS 신호로 분류되는 경우, 상기 필터링된 제1 예측 데이터 및 상기 필터링된 제2 예측 데이터에 기초하여, 상기 LOS 신호와 연관된 적어도 하나의 포즈 중 하나를 상기 포즈로 분류하도록 더 구성되는, 전자 장치.8. The method of claim 7, wherein the controller:
When the signal is classified as the LOS signal, further configured to classify one of at least one pose associated with the LOS signal as the pose based on the filtered first prediction data and the filtered second prediction data. , electronic devices.
상기 신호가 상기 NLOS 신호로 분류되는 경우, 상기 필터링된 제1 예측 데이터 및 상기 필터링된 제3 예측 데이터에 기초하여, 상기 NLOS 신호와 연관된 적어도 하나의 포즈 중 하나를 상기 포즈로 분류하도록 더 구성되는, 전자 장치.The method of claim 8, wherein the controller:
When the signal is classified as the NLOS signal, further configured to classify one of at least one pose associated with the NLOS signal as the pose based on the filtered first prediction data and the filtered third prediction data. , electronic devices.
상기 제1 필터링 방식은, 이동 평균 필터(moving average filter) 방식인, 전자 장치.According to clause 9,
The first filtering method is a moving average filter method.
상기 센서 데이터는 IMU(inertial measurement unit) 센서로부터 획득된 센서 데이터인, 전자 장치.In clause 7,
The sensor data is sensor data obtained from an inertial measurement unit (IMU) sensor.
상기 UWB CIR 데이터는, DL-TDoA(downlink-time difference of arrival) 레인징을 위한 UWB 신호들에 기초하여 획득된 CIR 데이터에서 노이즈가 제거된 유효(effective) CIR 데이터를 포함하거나, 또는 DS-TWR(double sided-two way ranging) 레인징을 위한 UWB 신호들에 기초하여 획득된 CIR 데이터에서 노이즈가 제거된 유효 CIR 데이터를 포함하는, 전자 장치.In clause 7,
The UWB CIR data includes effective CIR data in which noise has been removed from CIR data obtained based on UWB signals for downlink-time difference of arrival (DL-TDoA) ranging, or DS-TWR (double sided-two way ranging) An electronic device including effective CIR data in which noise is removed from CIR data obtained based on UWB signals for ranging.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220120853A KR20240041617A (en) | 2022-09-23 | 2022-09-23 | Method and apparatus for classifying pose using uwb(ultra-wideband) signal |
PCT/KR2023/014568 WO2024063619A1 (en) | 2022-09-23 | 2023-09-22 | Method and device for classifying pose by using ultra wideband communication signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220120853A KR20240041617A (en) | 2022-09-23 | 2022-09-23 | Method and apparatus for classifying pose using uwb(ultra-wideband) signal |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240041617A true KR20240041617A (en) | 2024-04-01 |
Family
ID=90667161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220120853A Pending KR20240041617A (en) | 2022-09-23 | 2022-09-23 | Method and apparatus for classifying pose using uwb(ultra-wideband) signal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240041617A (en) |
-
2022
- 2022-09-23 KR KR1020220120853A patent/KR20240041617A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4318039A1 (en) | Electronic device and method for performing ranging operation | |
KR20160118923A (en) | Apparatus and method for positioning using electronic device | |
KR102629291B1 (en) | An electronic device that uses a virtual field to reserve a transmission/reception time of a radar signal and control method thereof | |
US12019139B2 (en) | Electronic device and method using UWB signal | |
US20230164622A1 (en) | Electronic device and method for performing communication using same | |
KR20240041617A (en) | Method and apparatus for classifying pose using uwb(ultra-wideband) signal | |
KR20230110941A (en) | Electronic device and mehtod for determining location using uwb signal in electronic device | |
KR20240051672A (en) | Method and apparatus for adjusting ranging area using uwb(ultra-wideband) signal | |
KR20240048410A (en) | Method and apparatus for estimating location using uwb signal | |
KR20240048414A (en) | Method and apparatus for estimating location using uwb(ultra-wideband) signal | |
KR20230047870A (en) | Method for measuring location using wireless communication and electronic device supportion the same | |
US20240414678A1 (en) | Method and apparatus for controlling non-ultra wide band apparatus by using ultra wide band communication | |
KR20220144658A (en) | Method of ultra-wideband communication based on account information and electronic device therefor | |
KR20220140203A (en) | Method of ultra-wideband communication based on sharing of bluetooth communication quality and electronic device therefor | |
CN119817120A (en) | Method and apparatus for controlling non-UWB devices by using UWB in a wireless communication system | |
EP4287745A1 (en) | Multi-connection method and device based on target wake time | |
US20230164736A1 (en) | Electronic device for localization and method of operating the same | |
US20240056773A1 (en) | Locating method using advertisement and electronic device therefor | |
US20230132299A1 (en) | Electronic device for providing location-based service and operating method thereof | |
KR20250040401A (en) | Electroninc device for positioning and operation method thereof | |
US20240230884A1 (en) | Positioning method using wireless communication, and electronic device for supporting same | |
EP4318018A1 (en) | Method and device for controlling non-uwb device by using uwb | |
US20250012914A1 (en) | Electronic device and method for providing ultra wide band communication | |
US20240028751A1 (en) | Electronic device for performing block consensus on basis of blockchain, and operation method therefor | |
EP4351183A1 (en) | Uwb signal operating method and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application | ||
PG1501 | Laying open of application |