KR100955483B1 - 3D grid map making method and control method of automatic driving device using same - Google Patents
3D grid map making method and control method of automatic driving device using same Download PDFInfo
- Publication number
- KR100955483B1 KR100955483B1 KR1020080078692A KR20080078692A KR100955483B1 KR 100955483 B1 KR100955483 B1 KR 100955483B1 KR 1020080078692 A KR1020080078692 A KR 1020080078692A KR 20080078692 A KR20080078692 A KR 20080078692A KR 100955483 B1 KR100955483 B1 KR 100955483B1
- Authority
- KR
- South Korea
- Prior art keywords
- dimensional
- omnidirectional
- omnidirectional image
- image
- stereo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B25/00—Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
- G09B25/06—Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes for surveying; for geography, e.g. relief models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Educational Technology (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법을 개시한다. 무인 차량이나 이동 로봇의 현재 위치 및 주변 지형을 파악하기 위한 3차원 지도 작성에 있어서, 2차원 위치 확인 및 3차원 복원을 적절히 이용함으로서 보다 빠른 시간 내에 정확한 3차원 격자 지도 작성이 가능하도록 한다.Disclosed are a three-dimensional grid map preparation method and a control method of an automatic traveling device using the same. In creating a three-dimensional map for grasping the current position of the unmanned vehicle or the mobile robot and the surrounding topography, the two-dimensional positioning and the three-dimensional restoration are appropriately used to enable the accurate three-dimensional lattice map to be created in a shorter time.
3차원, 좌표, 항법, SLAM, Localization, Mapping 3D, Coordinates, Navigation, SLAM, Localization, Mapping
Description
본 발명은 3차원 격자 지도 작성 방법에 관한 것으로, 특히 스테레오 전방위 카메라(Stereo Omni-directional Camera)를 이용하여 주변의 지형을 파악하여 3차원 지도를 작성하는 3차원 격자 지도 작성 방법에 관한 것이다.The present invention relates to a 3D grid mapping method, and more particularly, to a 3D grid mapping method for creating a 3D map by grasping the surrounding terrain using a stereo omni-directional camera.
전방위 카메라는 회전체 반사경과 집광 렌즈 및 촬상 소자를 이용하여 전방위를 한번에 촬영하는 카메라 시스템으로서, 보안 시설과 감시 카메라, 로봇 비전 등에 응용된다. 회전체 반사경의 형상으로는 쌍곡면이나 구면, 원추, 복합형 등 다양하며, 촬상 소자로는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)가 사용된다. 이 촬상 소자의 촬상면에 투영되는 화상(즉 전방위 영상)은 회전체 반사경에 반사된 것이어서 인간이 그대로 관찰하기에는 적합하지 않은 일그러진 화상이다. 따라서 화상의 정확한 관찰을 위해 촬상 소자의 출력을 외부의 마이크로프로세서 등을 통해 그 좌표를 변환하여 새로운 파노라마 영상을 만들어낸다.The omnidirectional camera is a camera system that photographs all directions at one time by using a rotating reflector, a condenser lens, and an imaging device, and is applied to security facilities, surveillance cameras, and robot vision. The shape of the reflector of the rotating body may vary from a hyperbolic surface, a spherical surface, a cone, a complex type, and the like, and a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is used. The image projected onto the image pickup surface of the image pickup device (i.e., the omnidirectional image) is a distorted image that is reflected by the rotating reflector and is not suitable for human observation. Therefore, in order to accurately observe the image, the output of the image pickup device is converted into coordinates through an external microprocessor or the like to create a new panoramic image.
이 전방위 카메라를 통해 얻은 전방위 영상은 전방위 카메라 주변에 대한 2차원적인 정보를 제공한다. 만약 복수의 전방위 카메라를 통해 서로 다른 방향에서 촬영한 복수의 전방위 영상을 이용하면 전방위 카메라 주변에 대한 3차원적인 정보를 얻을 수 있다. 복수의 전방위 카메라로 구성되는 영상 장치를 스테레오 전방위 카메라라고 한다. 이와 같은 스테레오 전방위 카메라를 무인 차량이나 이동 로봇에 장착하여, 스테레오 전방위 카메라에서 촬영된 전방위 영상을 무인 차량 또는 이동 로봇의 위치 인식 및 지도 작성에 이용하기도 한다.The omnidirectional image obtained by this omnidirectional camera provides two-dimensional information about the surroundings of the omnidirectional camera. If a plurality of omnidirectional images taken from different directions through a plurality of omnidirectional cameras are used, three-dimensional information about the omnidirectional cameras may be obtained. An imaging device composed of a plurality of omnidirectional cameras is called a stereo omnidirectional camera. Such a stereo omnidirectional camera may be mounted on an unmanned vehicle or a mobile robot, and the omnidirectional image captured by the stereo omnidirectional camera may be used for location recognition and mapping of an unmanned vehicle or a mobile robot.
본 발명은, 무인 차량이나 이동 로봇의 현재 위치 및 주변 지형을 파악하기 위한 3차원 위치 인식 및 지도 작성에 있어서, 빠른 시간 내에 정확한 3차원 위치 인식 및 지도 작성이 가능하도록 하는데 그 목적이 있다.SUMMARY OF THE INVENTION An object of the present invention is to enable accurate 3D location recognition and map creation in a short time in 3D location recognition and map making to grasp the current location and surrounding terrain of an unmanned vehicle or mobile robot.
본 발명의 일 측면에 따른 3차원 격자 지도 작성 방법은, 스테레오 전방위 카메라를 이용하여 주변의 전방위 영상을 획득하고; 전방위 영상을 이용하여 현재의 2차원 위치를 확인하며; 전방위 영상의 3차원 복원을 수행하고; 2차원 위치 확인 결과와 3차원 복원 결과를 결합하여 스테레오 전방위 카메라 주변의 3차원 격자 지도를 작성한다.Three-dimensional grid mapping method according to an aspect of the present invention, by using a stereo omnidirectional camera to obtain the surrounding omnidirectional image; Confirm the current two-dimensional position by using the omnidirectional image; Perform 3D reconstruction of the omnidirectional image; The 3D grid map around the stereo omnidirectional camera is created by combining the 2D positioning result and the 3D reconstruction result.
또한, 상술한 2차원 위치 확인은 전방위 영상을 이용한 2차원 위치 확인 및 지도 작성의 수행을 통해 이루어진다.In addition, the above-described two-dimensional position confirmation is performed by performing two-dimensional position confirmation and map preparation using an omnidirectional image.
또한, 상술한 전방위 영상을 이용한 2차원 위치 확인은, 전방위 영상의 에피폴라 라인 상의 특징점들을 이용하여 2차원 위치 확인을 수행하는 것이다.In addition, the two-dimensional positioning using the above-mentioned omnidirectional image is to perform two-dimensional positioning using the feature points on the epipolar line of the omnidirectional image.
또한, 상술한 전방위 영상의 에피롤라 라인 상의 특징점들은, 전방위 영상의 컬러 에지(color edge) 추출을 통해 획득한다.In addition, the feature points on the epi-rolla line of the above-mentioned omnidirectional image are obtained through color edge extraction of the omnidirectional image.
또한, 상술한 3차원 복원 결과를 이용하여 격자의 점유 정도를 구하는 것을 더 포함한다.The method may further include obtaining a degree of occupancy of the grating using the above-described three-dimensional reconstruction result.
또한, 상술한 격자의 점유 정도를 구하는 것은, 3차원 격자의 복셀(Voxel)의 점유 카운트가 일정 수를 초과하면 해당 복셀이 점유된 것으로 판단하는 것이다.The degree of occupancy of the above-described grating is determined by determining that the corresponding voxel is occupied when the occupancy count of the voxel of the three-dimensional grating exceeds a predetermined number.
본 발명의 또 다른 측면에 따른 자동 주행 장치의 제어 방법은, 스테레오 전 방위 카메라를 이용하여 주변의 전방위 영상을 획득하고; 전방위 영상을 이용하여 현재의 2차원 위치를 확인하며; 전방위 영상의 3차원 복원을 수행하고; 2차원 위치 확인 결과와 3차원 복원 결과를 결합하여 스테레오 전방위 카메라 주변의 3차원 격자 지도를 작성하며; 3차원 격자 지도에 근거하여 현재 위치에서 목표 지점까지의 주행 경로를 결정하고; 주행 경로를 따라 목표 지점까지 주행하도록 제어한다.According to another aspect of the present invention, there is provided a control method of an automatic traveling device, the method including: obtaining an omnidirectional image of a surrounding using a stereo omnidirectional camera; Confirm the current two-dimensional position by using the omnidirectional image; Perform 3D reconstruction of the omnidirectional image; Combine a two-dimensional positioning result with a three-dimensional reconstruction result to create a three-dimensional grid map around the stereo omnidirectional camera; Determine a driving route from the current position to the target point based on the three-dimensional grid map; Control the vehicle to travel to the target point along the driving route.
또한, 상술한 2차원 위치 확인은 전방위 영상을 이용한 2차원 위치 확인 및 지도 작성의 수행을 통해 이루어진다.In addition, the above-described two-dimensional position confirmation is performed by performing two-dimensional position confirmation and map preparation using an omnidirectional image.
또한, 상술한 전방위 영상을 이용한 2차원 위치 확인은, 전방위 영상의 에피폴라 라인 상의 특징점들을 이용하여 2차원 위치 확인을 수행하는 것이다.In addition, the two-dimensional positioning using the above-mentioned omnidirectional image is to perform two-dimensional positioning using the feature points on the epipolar line of the omnidirectional image.
또한, 상술한 전방위 영상의 에피롤라 라인 상의 특징점들은, 전방위 영상의 컬러 에지(color edge) 추출을 통해 특징점들을 획득한다. In addition, the feature points on the epirolla line of the omnidirectional image are obtained by extracting color edges of the omnidirectional image.
또한, 상술한 3차원 복원 결과를 이용하여 격자의 점유 정도를 구하는 것을 더 포함한다.The method may further include obtaining a degree of occupancy of the grating using the above-described three-dimensional reconstruction result.
또한, 상술한 격자의 점유 정도를 구하는 것은, 3차원 격자의 복셀(Voxel)의 점유 카운트가 일정 수를 초과하면 해당 복셀이 점유된 것으로 판단하는 것이다.The degree of occupancy of the above-described grating is determined by determining that the corresponding voxel is occupied when the occupancy count of the voxel of the three-dimensional grating exceeds a predetermined number.
상술한 바에 따르면, 무인 차량이나 이동 로봇의 현재 위치 및 주변 지형을 파악하기 위한 3차원 위치 인식 및 지도 작성에 있어서, 빠른 시간 내에 정확한 3차원 위치 인식 및 지도 작성이 가능하도록 한다.According to the above, in the 3D location recognition and map creation for grasping the current location and the topography of the unmanned vehicle or mobile robot, it is possible to accurately recognize the 3D location and maps within a short time.
이와 같은 목적의 본 발명에 따른 3차원 격자 지도 작성 방법 및 3차원 격자 지도를 이용한 자동 주행 장치의 제어 방법의 바람직한 실시 예를 도 1 내지 도 6을 참조하여 설명하면 다음과 같다. 본 발명의 일 실시 예에 따른 3차원 격자 지도 작성 방법은 무인 차량이나 이동 로봇과 등에서 현재 위치 및 주변 지형의 파악을 통한 이동 경로의 결정 등에 적용 가능하다. 또한, 보안 장치나 감시 장치와 같은 분야에도 적용 가능하다.Referring to FIGS. 1 to 6, a preferred embodiment of a method for preparing a 3D grid map and a method for controlling an autonomous driving apparatus using a 3D grid map according to the present invention for this purpose is as follows. 3D grid mapping method according to an embodiment of the present invention can be applied to the determination of the moving path by grasping the current location and the surrounding terrain in an unmanned vehicle or mobile robot. It is also applicable to fields such as security devices and monitoring devices.
먼저 도 1은 본 발명의 일 실시 예에 따른 스테레오 전방위 카메라의 구성을 나타낸 도면이다. 도 1에 나타낸 바와 같이, 제 1 전방위 카메라(102)와 제 2 전방위 카메라(104)가 동일한 방향을 바라보도록 일렬로 배열되어 하나의 스테레오 전방위 카메라(100)를 구성한다. 도 1에는 도시하지 않았으나, 제 1 전방위 카메라(102)와 제 2 전방위 카메라(104)는 별도의 고정 장치에 의해 고정되도록 하는 것이 바람직하다.1 is a view showing the configuration of a stereo omnidirectional camera according to an embodiment of the present invention. As shown in FIG. 1, the first
제 1 전방위 카메라(102)에는 카메라 모듈(102a)과 회전체 반사경(102b)이 서로 대향하도록 설치된다. 회전체 반사경(102b)은 제 1 전방위 카메라(102) 주변의 360° 각도에서 입사되는 빛을 반사하여 카메라 모듈(102a)에 전달되도록 한다. 카메라 모듈(102a)에는 CCD(102c)가 촬상면을 이루어 회전체 반사경(102b)에 반사되어 입사되는 빛을 전기 신호로 변환하여 영상 신호를 만들어낸다.The first
제 2 전방위 카메라(104) 역시 카메라 모듈(104a)과 회전체 반사경(104b)으로 구성된다. 제 2 전방위 카메라(104)의 카메라 모듈(104a)의 경우에도 CCD(104c)가 촬상면을 이루어 회전체 반사경(104b)에 반사되어 입사되는 빛을 전기 에너지로 변환하여 영상 신호를 만들어낸다.The second
제 1 전방위 카메라(102)와 제 2 전방위 카메라(104) 각각은 주변의 360° 화각의 영상(즉 전방위 영상)을 촬영하여 영상을 만든다. 다만 하나의 전방위 영상으로는 피사체의 2차원 정보만을 알 수 있기 때문에 서로 다른 위치에서 촬영한 두 개의 전방위 영상을 이용하여 피사체의 3차원 정보를 얻는다.Each of the first
도 2는 도 1에 나타낸 스테레오 전방위 카메라의 제어 계통을 나타낸 도면이다. 도 2에 나타낸 바와 같이, 제어부(202)의 입력 측에는 스테레오 전방위 카메라(100)의 제 1 전방위 카메라(102)와 제 2 전방위 카메라(104)가 통신 가능하도록 전기적으로 연결된다. 제어부(202)는 스테레오 전방위 카메라(100)의 제 1 전방위 카메라(102)와 제 2 전방위 카메라(104) 각각에서 만들어진 전기 신호를 영상 신호로 변환하고, 이 영상 신호를 통해 구현되는 영상으로부터 스테레오 전방위 카메라(100) 주변의 3차원 지도를 생성한다. 생성된 3차원 지도는 메모리(204)에 저장되며, 스테레오 전방위 카메라(100)의 위치가 변경될 때마다 3차원 지도는 갱신된다. 만약 이 스테레오 전방위 카메라(100)가 무인 차량이나 이동 로봇 등에 장착될 경우, 이 3차원 지도로부터 무인 차량 또는 이동 로봇의 현재 위치 및 주변의 지형을 파악하여 위치 제어 또는 모션 제어를 수행한다.FIG. 2 is a diagram illustrating a control system of the stereo omnidirectional camera shown in FIG. 1. As shown in FIG. 2, the first
도 3은 도 1에 나타낸 스테레오 전방위 카메라로 촬영한 영상을 나타낸 도면이다. 도 3에 나타낸 바와 같이, 스테레오 전방위 카메라(100)로 주변을 촬영하면 제 1 전방위 카메라(102)를 통해 제 1 전방위 영상(302)이 얻어지고 제 2 전방위 카메라(104)를 통해 제 2 전방위 영상(304)이 얻어진다. 본 발명의 일 실시 예에서는, 제 1 전방위 카메라(102)를 통해 얻어지는 제 1 전방위 영상(302)의 에피폴라 라인(Epipolar Line)(306)을 구하고, 이 에피폴라 라인(306) 상의 특징점들(308)을 추출하여 이 특징점들(308)의 2차원 좌표를 구한다. 이 특징점들(308)의 2차원 좌표는 3차원 격자 지도를 생성하는데 이용된다. 본 발명의 일 실시 예에서는 이 특징점들(308)을 추출하기 위해 컬러 에지(Color Edge) 추출 방식이 이용된다.3 is a view showing an image captured by the stereo omnidirectional camera shown in FIG. As shown in FIG. 3, when the surrounding is photographed by the stereo
도 4는 도 3에 나타낸 두 개의 전방위 영상을 파노라마 영상 및 스테레오 정합 영상(Disparity Map)을 나타낸 도면이다. 도 4에서, 402는 제 1 전방위 영상(302)의 파노라마 영상 즉 제 1 파노라마 영상이고, 404는 제 2 전방위 영상(304)의 파노라마 영상 즉 제 2 파노라마 영상이며, 406은 제 1 파노라마 영상(402)과 제 2 파노라마 영상(404)의 스테레오 정합 영상(Disparity Map)이다. 도 4에 나타낸 스테레오 정합 영상(406)에서는, 스테레오 전방위 카메라(100)로부터 가까운 곳에 위치한 피사체는 상대적으로 더 밝게 나타나고, 스테레오 전방위 카메라(100)로부터 먼 곳에 위치한 피사체는 상대적으로 더 어둡게 나타난다. 이 밝기 정보(즉 영상의 depth)를 이용하면 스테레오 전방위 카메라(100)와 피사체들 사이의 거리를 가늠할 수 있다.FIG. 4 is a diagram illustrating a panoramic image and a stereo matching image of two omnidirectional images shown in FIG. 3. In FIG. 4, 402 is a panoramic image of the first
도 5는 본 발명의 일 실시 예에 따른 스테레오 전방위 카메라의 3차원 좌표 추출 개념을 나타낸 도면이다. 도 5에서, <b>는 제 1 전방위 카메라(102)와 제 2 전방위 카메라(104) 사이의 거리인 베이스 라인(Base Line)이고, <r>은 회전체 반사경(102c)(104c)의 반지름이며, <p>와 <p'>은 각 전방위 영상에서의 특징점들이고, <d'>과 <d>는 제 1 전방위 카메라(102)와 제 2 전방위 카메라(104) 각각으로부터 피사체(P)까지의 거리이다. <102c>와 <104c>는, 앞서 도 1에서 설명한 바와 같 이, 제 1 전방위 카메라(102) 및 제 2 전방위 카메라(104) 각각의 촬상면이다.5 is a diagram illustrating a 3D coordinate extraction concept of a stereo omnidirectional camera according to an embodiment of the present invention. In FIG. 5, <b> is a base line which is the distance between the first
제 2 전방위 카메라(104)와 피사체(P) 사이의 거리(d)는 다음의 식 (1)을 통해 구한다. 이와 유사한 개념으로 제 1 전방위 카메라(102)와 피사체 사이의 거리(d')도 구할 수 있다.The distance d between the second
식 (1) Formula (1)
이와 같은 방법으로 스테레오 전방위 카메라(100)와 피사체(P) 사이의 거리(d)를 구하고, 도 4의 파노라마 영상으로부터 스테레오 전방위 카메라(100)를 중심으로 하는 피사체(P)의 방위각(azimuth)을 구하면 아래의 식 (2)로 표현되는 피사체(P)의 3차원 좌표 P(X, Y, Z)를 얻는다.In this way, the distance d between the stereo
식 (2) Formula (2)
도 6은 본 발명의 일 실시 예에 따른 위치 확인(Localization) 및 지도 작성(Mapping) 방법을 나타낸 도면이다. 위치 확인(Localization) 및 지도 작성(Mapping)을 동시에 실시하는 것을 Simultaneous Localization and Mapping(이하 SLAM이라 칭함)이라고 하는데, 본 발명의 일 실시 예에 따른 SLAM은 2차원 SLAM(600a)과 3차원 SLAM(600b)을 함께 실시한다. 3차원 SLAM은 연산량이 매우 많기 때문에 2차원 SLAM과 3차원 SLAM을 혼용함으로써 총 연산량을 줄이고 이를 통해 위치 확인 및 지도 작성 속도를 높인다. 즉, 2차원 SLAM 만으로도 필요한 데이터를 얻을 수 있는 경우에는 2차원 SLAM만을 수행하고 3차원 SLAM이 필요한 곳에서는 3차원 SLAM을 수행하면, 모든 데이터를 3차원 SLAM을 통해 얻는 경우보다 연산량이 크게 감소한다. 위치 확인을 위한 연산량이 크게 감소한다는 것은 더 짧은 시간에 필요한 위치 확인이 가능하다는 것을 의미하며, 이는 곧 스테레오 전방위 카메라(100)를 장착한 자동 주행 장치(무인 차량 또는 이동 로봇 등의 장치)가 더 빠른 속도로 이동할 수 있음을 의미한다.6 is a diagram illustrating a localization and mapping method according to an embodiment of the present invention. Simultaneous Localization and Mapping (hereinafter referred to as SLAM) is performed simultaneously with localization and mapping. SLAM according to an embodiment of the present invention is a two-
먼저, 2차원 SLAM(600a)에서, 스테레오 전방위 카메라(100)의 제 1 전방위 카메라(102)와 제 2 전방위 카메라(104) 각각을 이용하여 제 1 전방위 영상(302)과 제 2 전방위 영상(304)을 획득한다(602). 이 가운데 아래쪽에 위치한 제 1 전방위 카메라(102)를 이용하여 획득한 제 1 전방위 영상(302)의 에피폴라 라인(306)을 획득하고, 이 에피폴라 라인(306)에서의 특징점들(308)을 추출한다(604). 2차원 SLAM에서는 이 특징점들(308)의 2차원 좌표를 획득하는데, 이를 위해 3차원 SLAM(600b)의 3차원 위치 인식 결과를 이용한다.First, in the two-
3차원 SLAM(600b)에서, 제 1 파노라마 영상(402)과 제 2 파노라마 영상(404)의 스테레오 정합을 통해 스테레오 정합 영상(Disparity Map)(406)을 생성한다(606). 이 스테레오 정합 영상(406)을 통해 도 5의 설명에서 언급한 것과 같은 방법을 이용하여 스테레오 전방위 카메라(100) 주변 영상의 3차원 복원이 가능하 다(608).In the
다시 2차원 SLAM(600a)으로 돌아와서, 스테레오 전방위 영상에 아래의 식 (3), (4), (5)를 적용하여 추출된 특징점들(308)의 2차원 좌표를 획득한다(610).Returning to the two-
식 (3) Formula (3)
식 (4) 식 (5) Formula (4) Equation (5)
위의 식 (3)은 2차원 SLAM을 위한 것으로서, 는 상태 벡터이고, 는 입력 벡터이며, 는 입력 오차이고, 는 측정 값이며, 는 측정 오차이다. 식 (3)의 상태 벡터 는 식 (4)에 나타낸 것과 같은 스테레오 전방위 카메라(100)의 위치와 특징점들(308)의 2차원 좌표들로 구성되며, 식 (5)의 측정 값은 스테레오 전방위 카메라(100)에서 측정한 특징점의 각도(방위)이다. 이와 같은 식 (3), (4), (5)를 이용하면 에피폴라 라인(306)의 특징점들(308)의 위치 와 스테레오 전방위 카메라(100)의 위치 추정이 가능하다.Equation (3) above is for a two-dimensional SLAM, Is the state vector, Is the input vector, Is the input error, Is the measured value, Is the measurement error. State vector of equation (3) Is composed of the position of the stereo
만약 본 발명의 일 실시 예에 따른 스테레오 전방위 카메라(100)가 무인 차량이나 이동 로봇 등에 장착되어 운용될 경우, 스테레오 전방위 카메라(100)의 이동이 발생하게 된다. 따라서 스테레오 전방위 카메라(100)의 움직임을 예측하여 이전의 측정된 2차원 좌표 값들을 새롭게 보정하여 갱신한다(612).If the stereo
2차원 SLAM(600a)에서의 2차원 좌표 획득 결과와 3차원 SLAM(600b)에서의 3차원 위치 인식 결과를 종합하면 스테레오 전방위 카메라(100) 주변의 3차원 격자 지도를 생성할 수 있다(614). 만약 각 복셀(Voxel)의 점유 카운트가 일정 수준 이상이면 그 복셀은 점유되어 있다고 하여 3차원 격자 맵의 구축이 가능하다. 스테레오 전방위 카메라(100)의 시야(Field of View) 안에 복셀이 존재하는 경우(점유 또는 미점유의 확인이 가능한 경우) 일정 회수 동안 일정 점유 카운트를 초과하면 그 복셀은 점유된 것으로 판단한다.When the result of obtaining the 2D coordinates in the
도 1은 본 발명의 일 실시 예에 따른 스테레오 전방위 카메라의 구성을 나타낸 도면.1 is a view showing the configuration of a stereo omnidirectional camera according to an embodiment of the present invention.
도 2는 도 1에 나타낸 스테레오 전방위 카메라의 제어 계통을 나타낸 도면.2 is a view showing a control system of the stereo omnidirectional camera shown in FIG.
도 3은 도 1에 나타낸 스테레오 전방위 카메라로 촬영한 영상을 나타낸 도면.3 is a view showing an image taken by the stereo omnidirectional camera shown in FIG.
도 4는 도 3에 나타낸 두 개의 전방위 영상을 파노라마 영상 및 스테레오 정합 영상(Disparity Map)을 나타낸 도면.FIG. 4 is a view illustrating a panoramic image and a stereo matching map of two omnidirectional images shown in FIG. 3; FIG.
도 5는 본 발명의 일 실시 예에 따른 스테레오 전방위 카메라의 3차원 좌표 추출 개념을 나타낸 도면.5 is a view showing a three-dimensional coordinate extraction concept of a stereo omnidirectional camera according to an embodiment of the present invention.
도 6은 본 발명의 일 실시 예에 따른 위치 확인(Localization) 및 지도 작성(Mapping) 방법을 나타낸 도면.6 is a diagram illustrating a localization and mapping method according to an embodiment of the present invention.
*도면의 주요 부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *
100 : 스테레오 전방위 카메라100: stereo omnidirectional camera
102, 104 : 전방위 카메라102, 104: omnidirectional camera
102a, 104a : 카메라 모듈102a, 104a: Camera Module
102b, 104b : 회전체 반사경102b, 104b: Rotor reflector
102c, 104c : 촬상면102c, 104c: imaging surface
302, 304 : 전방위 영상302, 304: omnidirectional image
306 : 에피폴라 라인(Epipolar Line)306: Epipolar Line
308 : 특징점들308 features
402, 404 : 파노라마 영상402, 404: panoramic image
406 : 스테레오 정합 영상406: stereo matching image
Claims (12)
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020080078692A KR100955483B1 (en) | 2008-08-12 | 2008-08-12 | 3D grid map making method and control method of automatic driving device using same |
| CN2009101268717A CN101650891B (en) | 2008-08-12 | 2009-03-24 | Method to build 3-dimensional grid map and method to control automatic traveling apparatus using the same |
| US12/411,446 US8571302B2 (en) | 2008-08-12 | 2009-03-26 | Method and apparatus to build 3-dimensional grid map and method and apparatus to control automatic traveling apparatus using the same |
| JP2009088934A JP5474396B2 (en) | 2008-08-12 | 2009-04-01 | Three-dimensional lattice map creation method and control method for automatic traveling apparatus using the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020080078692A KR100955483B1 (en) | 2008-08-12 | 2008-08-12 | 3D grid map making method and control method of automatic driving device using same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20100020054A KR20100020054A (en) | 2010-02-22 |
| KR100955483B1 true KR100955483B1 (en) | 2010-04-30 |
Family
ID=41673118
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020080078692A Expired - Fee Related KR100955483B1 (en) | 2008-08-12 | 2008-08-12 | 3D grid map making method and control method of automatic driving device using same |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US8571302B2 (en) |
| JP (1) | JP5474396B2 (en) |
| KR (1) | KR100955483B1 (en) |
| CN (1) | CN101650891B (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20130002834A (en) * | 2011-06-29 | 2013-01-08 | 엘지전자 주식회사 | Method for autonomous movement and apparatus thereof |
| KR20210119626A (en) | 2020-03-24 | 2021-10-06 | 현대모비스 주식회사 | System for parking assistance of vehicle using sensor calibration and method thereof |
Families Citing this family (61)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| AU2011305154B2 (en) * | 2010-09-24 | 2015-02-05 | Irobot Corporation | Systems and methods for VSLAM optimization |
| DE102010041490A1 (en) * | 2010-09-27 | 2012-03-29 | Carl Zeiss Microimaging Gmbh | Optical instrument and method for optical monitoring |
| KR101739996B1 (en) * | 2010-11-03 | 2017-05-25 | 삼성전자주식회사 | Moving robot and simultaneous localization and map-buliding method thereof |
| KR101242253B1 (en) | 2011-02-23 | 2013-03-11 | 고려대학교 산학협력단 | Method for building an elevation map with elevation information baded on terrain classification and matching strategy |
| US8798840B2 (en) * | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
| US9453737B2 (en) * | 2011-10-28 | 2016-09-27 | GM Global Technology Operations LLC | Vehicle localization |
| WO2013126877A1 (en) * | 2012-02-25 | 2013-08-29 | Massachusetts Institute Of Technology | Personal skin scanner system |
| DE102012207269A1 (en) * | 2012-05-02 | 2013-11-07 | Kuka Laboratories Gmbh | Method for operating driverless transport vehicle, involves automatically moving driverless transport vehicle along real track based on virtual track and determining current position of vehicle with respect to virtual map |
| US8954853B2 (en) * | 2012-09-06 | 2015-02-10 | Robotic Research, Llc | Method and system for visualization enhancement for situational awareness |
| US9953618B2 (en) * | 2012-11-02 | 2018-04-24 | Qualcomm Incorporated | Using a plurality of sensors for mapping and localization |
| US9091628B2 (en) | 2012-12-21 | 2015-07-28 | L-3 Communications Security And Detection Systems, Inc. | 3D mapping with two orthogonal imaging views |
| CN103901884B (en) * | 2012-12-25 | 2017-09-29 | 联想(北京)有限公司 | Information processing method and message processing device |
| ES2478700B1 (en) * | 2013-01-21 | 2015-06-30 | Idneo Technologies, S.L. | System and method for obstacle detection |
| KR102087595B1 (en) * | 2013-02-28 | 2020-03-12 | 삼성전자주식회사 | Endoscope system and control method thereof |
| DE102013211126A1 (en) * | 2013-06-14 | 2014-12-18 | Robert Bosch Gmbh | Method for modeling an environment of a vehicle |
| CN104284172A (en) * | 2013-07-04 | 2015-01-14 | 联咏科技股份有限公司 | Image matching method and stereo matching system |
| EP2895819B1 (en) | 2013-12-10 | 2020-05-20 | SZ DJI Technology Co., Ltd. | Sensor fusion |
| CN103926927A (en) * | 2014-05-05 | 2014-07-16 | 重庆大学 | Binocular vision positioning and three-dimensional mapping method for indoor mobile robot |
| US20150334299A1 (en) * | 2014-05-14 | 2015-11-19 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring system |
| CN104156973A (en) * | 2014-08-26 | 2014-11-19 | 清华大学深圳研究生院 | Real-time three-dimensional video monitoring method based on stereo matching |
| CN105517666B (en) | 2014-09-05 | 2019-08-27 | 深圳市大疆创新科技有限公司 | Scenario-based flight mode selection |
| DK3428766T3 (en) | 2014-09-05 | 2021-06-07 | Sz Dji Technology Co Ltd | MULTI-SENSOR FOR IMAGING THE ENVIRONMENT |
| CN105980950B (en) | 2014-09-05 | 2019-05-28 | 深圳市大疆创新科技有限公司 | Speed control of unmanned aerial vehicles |
| US10162350B2 (en) * | 2014-09-10 | 2018-12-25 | Universal City Studios Llc | Systems and methods for controlling the transportation of vehicles |
| JP5980873B2 (en) | 2014-10-17 | 2016-08-31 | ファナック株式会社 | Robot interference area setting device |
| US10142609B2 (en) * | 2015-04-29 | 2018-11-27 | Northrop Grumman Systems Corporation | Dynamically adjustable situational awareness interface for control of unmanned vehicles |
| KR101741433B1 (en) | 2015-06-09 | 2017-05-30 | 엘지전자 주식회사 | Driver assistance apparatus and control method for the same |
| JP6762148B2 (en) * | 2015-07-09 | 2020-09-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Map generation method, mobile robot and map generation system |
| US10291845B2 (en) * | 2015-08-17 | 2019-05-14 | Nokia Technologies Oy | Method, apparatus, and computer program product for personalized depth of field omnidirectional video |
| US9557741B1 (en) * | 2015-08-24 | 2017-01-31 | Ford Global Technologies, Llc | System and method for autonomous valet parking using plenoptic cameras |
| GB2541884A (en) | 2015-08-28 | 2017-03-08 | Imp College Of Science Tech And Medicine | Mapping a space using a multi-directional camera |
| KR101714250B1 (en) | 2015-10-28 | 2017-03-08 | 현대자동차주식회사 | Method for predicting driving path around the vehicle |
| CN114510080A (en) * | 2015-12-09 | 2022-05-17 | 深圳市大疆创新科技有限公司 | Method and system for controlling the flight of an unmanned aerial vehicle |
| CN105928531B (en) * | 2016-04-13 | 2019-04-26 | 浙江合众新能源汽车有限公司 | An accurate generation method of travel route suitable for unmanned vehicles |
| CN107478213B (en) * | 2016-06-07 | 2021-08-06 | 北京众力积木科技有限公司 | Mobile device and data acquisition active control method and device for mobile device |
| GB2552648B (en) * | 2016-07-22 | 2020-09-16 | Imperial College Sci Tech & Medicine | Estimating dimensions for an enclosed space using a multi-directional camera |
| EP4160150A1 (en) * | 2016-08-26 | 2023-04-05 | Panasonic Intellectual Property Corporation of America | Three-dimensional information processing method and three-dimensional information processing apparatus |
| WO2018083999A1 (en) * | 2016-11-01 | 2018-05-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Display method and display device |
| US10296812B2 (en) * | 2017-01-04 | 2019-05-21 | Qualcomm Incorporated | Systems and methods for mapping based on multi-journey data |
| KR102265376B1 (en) | 2017-03-07 | 2021-06-16 | 현대자동차주식회사 | Vehicle and controlling method thereof and autonomous driving system |
| KR102309833B1 (en) * | 2017-05-29 | 2021-10-07 | 현대모비스 주식회사 | Apparatus for providing advertisement during autonomous driving at autonomous vehicle and method thereof |
| EP3649615A1 (en) * | 2017-07-07 | 2020-05-13 | Time2market SA | A method and system for node vectorisation |
| CN107752910A (en) * | 2017-09-08 | 2018-03-06 | 珠海格力电器股份有限公司 | Area sweeping method and device, storage medium, processor and sweeping robot |
| US10762658B2 (en) * | 2017-10-24 | 2020-09-01 | Altek Corporation | Method and image pick-up apparatus for calculating coordinates of object being captured using fisheye images |
| TWI725279B (en) | 2018-01-10 | 2021-04-21 | 華晶科技股份有限公司 | Method and image pick-up apparatus for calculating coordinates of object being captured using dual fisheye images |
| CN107766859B (en) * | 2017-10-31 | 2020-12-11 | 广东美的智能机器人有限公司 | Mobile robot positioning method and device and mobile robot |
| US10789717B2 (en) | 2017-11-24 | 2020-09-29 | Electronics And Telecommunications Research Institute | Apparatus and method of learning pose of moving object |
| US11009359B2 (en) | 2018-01-05 | 2021-05-18 | Lacuna Technologies Inc. | Transportation systems and related methods |
| CN110021044B (en) * | 2018-01-10 | 2022-12-20 | 华晶科技股份有限公司 | Method for calculating coordinates of shot object by using double-fisheye image and image acquisition device |
| CN108256574B (en) * | 2018-01-16 | 2020-08-11 | 广东省智能制造研究所 | Robot positioning method and device |
| CN108469826B (en) * | 2018-04-23 | 2021-06-08 | 宁波Gqy视讯股份有限公司 | Robot-based map generation method and system |
| US11181619B2 (en) * | 2018-06-14 | 2021-11-23 | Waymo Llc | Camera ring structure for autonomous vehicles |
| CN110044358B (en) * | 2019-04-29 | 2020-10-02 | 清华大学 | Mobile robot positioning method based on field line characteristics |
| CN110495819B (en) * | 2019-07-24 | 2021-05-18 | 华为技术有限公司 | Robot control method, robot, terminal, server and control system |
| CN110909585B (en) * | 2019-08-15 | 2022-09-06 | 纳恩博(常州)科技有限公司 | Route determining method, travelable device and storage medium |
| CN110610520B (en) * | 2019-08-29 | 2022-03-29 | 中德(珠海)人工智能研究院有限公司 | Visual positioning method and system based on double-dome camera |
| CN111028350B (en) * | 2019-11-21 | 2022-05-20 | 大连理工大学 | Method for constructing grid map by using binocular stereo camera |
| KR102342945B1 (en) * | 2021-03-31 | 2021-12-24 | (주)뉴빌리티 | Estimating location method and apparatus for autonomous driving with surround image |
| JP7501481B2 (en) | 2021-09-27 | 2024-06-18 | トヨタ自動車株式会社 | Distance estimation device, distance estimation method, and computer program for distance estimation |
| CN114037807B (en) * | 2021-11-24 | 2023-03-28 | 深圳市云鼠科技开发有限公司 | Method and device for constructing chain type grid map with low memory occupation and computer equipment |
| JP2023104171A (en) * | 2022-01-17 | 2023-07-28 | 凸版印刷株式会社 | Information providing device, information providing system, and information providing method |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100757937B1 (en) * | 2006-06-30 | 2007-09-12 | 삼성전자주식회사 | How to track and map the robot |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001290820A (en) * | 2000-01-31 | 2001-10-19 | Mitsubishi Electric Corp | Video collection device, video search device, and video collection and search system |
| US6412961B1 (en) * | 2000-05-30 | 2002-07-02 | Robert Andrew Hicks | Rectifying mirror |
| JP2004531113A (en) * | 2001-02-09 | 2004-10-07 | リー,クジン | Omnidirectional three-dimensional image data acquisition apparatus by annotation, method and method for enlarging photosensitive area |
| US6744569B2 (en) * | 2001-06-19 | 2004-06-01 | Genex Technologies, Inc | Method and apparatus for omnidirectional three dimensional imaging |
| JP2005037378A (en) | 2003-06-30 | 2005-02-10 | Sanyo Electric Co Ltd | Depth measurement method and depth measurement device |
| JP4479372B2 (en) * | 2004-06-25 | 2010-06-09 | ソニー株式会社 | Environmental map creation method, environmental map creation device, and mobile robot device |
| JP2007041656A (en) | 2005-07-29 | 2007-02-15 | Sony Corp | MOBILE BODY CONTROL METHOD AND MOBILE BODY |
| JP4783620B2 (en) * | 2005-11-24 | 2011-09-28 | 株式会社トプコン | 3D data creation method and 3D data creation apparatus |
-
2008
- 2008-08-12 KR KR1020080078692A patent/KR100955483B1/en not_active Expired - Fee Related
-
2009
- 2009-03-24 CN CN2009101268717A patent/CN101650891B/en not_active Expired - Fee Related
- 2009-03-26 US US12/411,446 patent/US8571302B2/en not_active Expired - Fee Related
- 2009-04-01 JP JP2009088934A patent/JP5474396B2/en not_active Expired - Fee Related
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100757937B1 (en) * | 2006-06-30 | 2007-09-12 | 삼성전자주식회사 | How to track and map the robot |
Non-Patent Citations (1)
| Title |
|---|
| 제1회 한국지능로봇 하계종합 학술대회 논문집, 단일 카메라 전방향 스테레오 시스템을 이용한 로봇의 위치 추정 및 환경지도작성 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20130002834A (en) * | 2011-06-29 | 2013-01-08 | 엘지전자 주식회사 | Method for autonomous movement and apparatus thereof |
| KR101700764B1 (en) * | 2011-06-29 | 2017-01-31 | 엘지전자 주식회사 | Method for Autonomous Movement and Apparatus Thereof |
| KR20210119626A (en) | 2020-03-24 | 2021-10-06 | 현대모비스 주식회사 | System for parking assistance of vehicle using sensor calibration and method thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| CN101650891B (en) | 2013-09-18 |
| JP5474396B2 (en) | 2014-04-16 |
| US8571302B2 (en) | 2013-10-29 |
| US20100040279A1 (en) | 2010-02-18 |
| CN101650891A (en) | 2010-02-17 |
| KR20100020054A (en) | 2010-02-22 |
| JP2010044740A (en) | 2010-02-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR100955483B1 (en) | 3D grid map making method and control method of automatic driving device using same | |
| TWI798305B (en) | Systems and methods for updating highly automated driving maps | |
| CN109470158B (en) | Image processing device and distance measuring device | |
| Lins et al. | Vision-based measurement for localization of objects in 3-D for robotic applications | |
| JP7131554B2 (en) | Image processing device, image processing method, and program | |
| WO2005088971A1 (en) | Image generation device, image generation method, and image generation program | |
| WO2018211926A1 (en) | Image generation device, image generation system, image generation method, and image generation program | |
| WO2020117285A9 (en) | A multicamera system for autonamous driving vehicles | |
| KR101700764B1 (en) | Method for Autonomous Movement and Apparatus Thereof | |
| JP2011013803A (en) | Peripheral shape detection device, autonomous mobile device, operation auxiliary device for mobile body, peripheral shape detection method, control method for the autonomous mobile device and operation auxiliary method for the mobile body | |
| KR20170014916A (en) | Method for calculating an object's coordinates in an image using single camera and gps | |
| KR102260975B1 (en) | Apparatus and method for controlling automatic driving using 3d grid map | |
| CN108205315A (en) | A kind of robot automatic navigation method based on binocular vision | |
| WO2017043331A1 (en) | Image processing device and image processing method | |
| JP4825971B2 (en) | Distance calculation device, distance calculation method, structure analysis device, and structure analysis method. | |
| CN112639864B (en) | Method and apparatus for ranging | |
| KR20230082497A (en) | Method for real-time inspection of structures using 3d point cloud | |
| Krombach et al. | Evaluation of stereo algorithms for obstacle detection with fisheye lenses | |
| US20250078208A1 (en) | Image processing system, movable apparatus, image processing method, and storage medium | |
| CN106382918A (en) | Three-dimensional visual sensor | |
| KR102089500B1 (en) | Runway Mapping Method Using Drone with Linear Camera and Linear Information | |
| US20090003654A1 (en) | Single-aperature passive rangefinder and method of determining a range | |
| US20130076868A1 (en) | Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same | |
| Schönbein et al. | Panoramic 3d reconstruction with three catadioptric cameras | |
| Ben-Tzvi et al. | Extraction of 3D images using pitch-actuated 2D laser range finder for robotic vision |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-5-5-R10-R17-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| FPAY | Annual fee payment |
Payment date: 20130318 Year of fee payment: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| FPAY | Annual fee payment |
Payment date: 20140325 Year of fee payment: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| FPAY | Annual fee payment |
Payment date: 20150313 Year of fee payment: 6 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| FPAY | Annual fee payment |
Payment date: 20160318 Year of fee payment: 7 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |
|
| FPAY | Annual fee payment |
Payment date: 20170321 Year of fee payment: 8 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 8 |
|
| FPAY | Annual fee payment |
Payment date: 20180320 Year of fee payment: 9 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 9 |
|
| FPAY | Annual fee payment |
Payment date: 20190320 Year of fee payment: 10 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 10 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 11 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20210423 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20210423 |




